Наверх
Open Nav
/
/
Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами
В тренде

Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами

14.11.2019 Время прочтения: 1 минута

Дата обновления: 15.02.2023

Специалист компании Google Джон Мюллер, отвечая на вопрос веб-мастера в Твиттере, сообщил, что не стоит использовать robots.txt, чтобы заблокировать индексацию URL с параметрами. Мюллер отмечает, что такой способ не позволит Google каноникализировать адрес, и в результате ссылки на эти страницы потеряют свою ценность.

В качестве альтернативного решения Мюллер предложил использовать rel=canonical либо размещать внутренние ссылки:

Мюллер robots

Комментарий SEO-эксперта:

«Действительно, тег rel=canonical — это хорошее решение в том случае, когда вы хотите закрыть от индексирования страницы пагинации и фильтры товарных категорий, но сохранить и передать вес на основные страницы. Такие технические страницы, как корзина, страница регистрации/логина и другие, лучше закрывать в файле robots.txt».

Технолог SEO-эксперт компании SEO.RU
Владимир Суматохин

Пусть другие тоже знают!

Еще на эту тему

Google обновил справку по hreflang
Google обновил справку по hreflang
Для атрибута hreflang появилась обновленная информация по ег...
10.07.2018 2585
Search Console просит удалить тег noindex из файла robots.txt
Search Console просит удалить тег noindex из файла robots.txt
Западные SEO-специалисты стали получать письма от Google Sea...
02.08.2019 3501

Другие интересные статьи

Оставить заявку Оставить заявку