Наверх
/
/
Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами
В тренде

Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами

14.11.2019 Время прочтения: 1 минута

Дата обновления: 15.02.2023

Специалист компании Google Джон Мюллер, отвечая на вопрос веб-мастера в Твиттере, сообщил, что не стоит использовать robots.txt, чтобы заблокировать индексацию URL с параметрами. Мюллер отмечает, что такой способ не позволит Google каноникализировать адрес, и в результате ссылки на эти страницы потеряют свою ценность.

В качестве альтернативного решения Мюллер предложил использовать rel=canonical либо размещать внутренние ссылки:

Мюллер robots

Комментарий SEO-эксперта:

«Действительно, тег rel=canonical — это хорошее решение в том случае, когда вы хотите закрыть от индексирования страницы пагинации и фильтры товарных категорий, но сохранить и передать вес на основные страницы. Такие технические страницы, как корзина, страница регистрации/логина и другие, лучше закрывать в файле robots.txt».

Технолог SEO-эксперт компании SEO.RU
Владимир Суматохин

Пусть другие тоже знают!

Еще на эту тему

Яндекс: концентрируйтесь на качестве
Яндекс: концентрируйтесь на качестве
В Блоге Яндекса для вебмастеров разработчики компании напомн...
06.06.2018 2362
Яндекс прокомментировал ситуацию с накруткой ПФ
Яндекс прокомментировал ситуацию с накруткой ПФ
Сотрудники Яндекс.Поиска ответили на вопросы вебмастеров по ...
03.04.2015 2692
Очередные советы по продвижению в Google от Мэтта Каттса
Очередные советы по продвижению в Google от Мэтта Каттса
Мэтт Каттс (Matt Cutts), руководитель команды Google по борь...
17.02.2014 2663

Другие интересные статьи

Оставить заявку Оставить заявку