Наверх
Open Nav
/
/
Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами
В тренде

Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами

14.11.2019 Время прочтения: 1 минута

Дата обновления: 15.02.2023

Специалист компании Google Джон Мюллер, отвечая на вопрос веб-мастера в Твиттере, сообщил, что не стоит использовать robots.txt, чтобы заблокировать индексацию URL с параметрами. Мюллер отмечает, что такой способ не позволит Google каноникализировать адрес, и в результате ссылки на эти страницы потеряют свою ценность.

В качестве альтернативного решения Мюллер предложил использовать rel=canonical либо размещать внутренние ссылки:

Мюллер robots

Комментарий SEO-эксперта:

«Действительно, тег rel=canonical — это хорошее решение в том случае, когда вы хотите закрыть от индексирования страницы пагинации и фильтры товарных категорий, но сохранить и передать вес на основные страницы. Такие технические страницы, как корзина, страница регистрации/логина и другие, лучше закрывать в файле robots.txt».

Технолог SEO-эксперт компании SEO.RU
Владимир Суматохин

Пусть другие тоже знают!

Еще на эту тему

Google считает точность контента фактором ранжирования, но не умеет ее определять
Google считает точность контента фактором ранжирования, но не умеет ее опре ...
Западный профильный seo-ресурс Search Engine Roundtable расс...
16.10.2019 1322
«ВКонтакте» запустил новый формат – «Реклама сайтов»
«ВКонтакте» запустил новый формат – «Реклама сайтов»
Представители соцсети «ВКонтакте» рассказали о новом формате...
01.11.2018 2805

Другие интересные статьи

Оставить заявку Оставить заявку