Наверх
Open Nav
/
/
Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами
В тренде

Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами

14.11.2019 Время прочтения: 1 минута

Дата обновления: 15.02.2023

Специалист компании Google Джон Мюллер, отвечая на вопрос веб-мастера в Твиттере, сообщил, что не стоит использовать robots.txt, чтобы заблокировать индексацию URL с параметрами. Мюллер отмечает, что такой способ не позволит Google каноникализировать адрес, и в результате ссылки на эти страницы потеряют свою ценность.

В качестве альтернативного решения Мюллер предложил использовать rel=canonical либо размещать внутренние ссылки:

Мюллер robots

Комментарий SEO-эксперта:

«Действительно, тег rel=canonical — это хорошее решение в том случае, когда вы хотите закрыть от индексирования страницы пагинации и фильтры товарных категорий, но сохранить и передать вес на основные страницы. Такие технические страницы, как корзина, страница регистрации/логина и другие, лучше закрывать в файле robots.txt».

Технолог SEO-эксперт компании SEO.RU
Владимир Суматохин

Пусть другие тоже знают!

Еще на эту тему

Google обновил справку по hreflang
Google обновил справку по hreflang
Для атрибута hreflang появилась обновленная информация по ег...
10.07.2018 2683
Новые поисковики, о которых важно знать вебмастерам
Новые поисковики, о которых важно знать вебмастерам
Для максимизации бесплатного трафика следует пользоваться лю...
15.02.2016 2836
Google запускает Question Hub — сервис поиска интересных пользователям тем
Google запускает Question Hub — сервис поиска интересных пользователям тем
На площадке Google India Blog разработчики сообщили о запуск...
16.08.2019 1740

Другие интересные статьи

Оставить заявку Оставить заявку