Наверх
Open Nav
/
/
Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами
В тренде

Google советует не использовать robots.txt, чтобы блокировать индексацию URL с параметрами

14.11.2019 Время прочтения: 1 минута

Дата обновления: 15.02.2023

Специалист компании Google Джон Мюллер, отвечая на вопрос веб-мастера в Твиттере, сообщил, что не стоит использовать robots.txt, чтобы заблокировать индексацию URL с параметрами. Мюллер отмечает, что такой способ не позволит Google каноникализировать адрес, и в результате ссылки на эти страницы потеряют свою ценность.

В качестве альтернативного решения Мюллер предложил использовать rel=canonical либо размещать внутренние ссылки:

Мюллер robots

Комментарий SEO-эксперта:

«Действительно, тег rel=canonical — это хорошее решение в том случае, когда вы хотите закрыть от индексирования страницы пагинации и фильтры товарных категорий, но сохранить и передать вес на основные страницы. Такие технические страницы, как корзина, страница регистрации/логина и другие, лучше закрывать в файле robots.txt».

Технолог SEO-эксперт компании SEO.RU
Владимир Суматохин

Пусть другие тоже знают!

Еще на эту тему

Яндекс пересчитал тИЦ
Яндекс пересчитал тИЦ
Недавно Яндекс организовал глобальный пересчет тИЦ, особенно...
17.06.2016 2692
Первые результаты запуска Минусинска
Первые результаты запуска Минусинска
9000 ресурсов уведомили о существовании seo-ссылок...
21.05.2015 3067
Что такое «Стачка Онлайн» и с чем её есть?
Что такое «Стачка Онлайн» и с чем её есть?
Это IT-конференция, которая пройдёт с 22 мая по 25 мая 2020 ...
03.04.2020 1802

Другие интересные статьи

Оставить заявку Оставить заявку