Наверх
/
/
Яндекс теперь игнорирует директиву Crawl-delay
В тренде

Яндекс теперь игнорирует директиву Crawl-delay

16.02.2018 Время прочтения: 2 минуты

Директива Crawl-delay задает ограничение на скорость обхода страниц сайта и используется, когда нужно задать поисковому роботу минимальный период времени (в секундах) между окончанием загрузки одной страницы и началом загрузки следующей. Такое ограничение скорости обхода снижало нагрузку на сервер и снимало риски сбоев в работе сайта при его обходе поисковыми ботами.

Но большинство серверов теперь динамичные и в разные периоды времени могут отдавать разную скорость ответа, что делает директиву Craw-delay бесполезной.

Google уже давно перестал учитывать директиву Crawl-delay, и обход роботы заканчивают автоматически, если фиксируют ошибку или замедление реакции сервера.

Теперь и Яндекс перестал учитывать Crawl-delay:

Проанализировав письма за последние два года в нашу поддержку по вопросам индексирования, мы выяснили, что одной из основных причин медленного скачивания документов является неправильно настроенная директива Crawl-delay в robots.txt […] Для того чтобы владельцам сайтов не пришлось больше об этом беспокоиться и чтобы все действительно нужные страницы сайтов появлялись и обновлялись в поиске быстро, мы решили отказаться от учёта директивы Crawl-delay.

А чтобы сохранить возможность задавать ограничение скорости обхода страниц, разработчики добавили в Яндекс.Вебмастер новый инструмент «Скорость обхода» в раздел «Индексирование».
По умолчанию в инструменте «Скорость обхода» установлено значение «Доверять Яндексу», при котором скорость рассчитывается автоматически, исходя из опыта обхода сайта: поисковый бот учитывает при обходе допустимые нагрузки для вашего сервера.

Яндекс теперь игнорирует директиву Crawl-delay

Если же вы заметите, что запросы робота замедляют ваш сервер, вы можете задать максимальную скорость обхода с точностью до десятых долей запросов в секунду.

Яндекс теперь игнорирует директиву Crawl-delay

Комментарий SEO-эксперта:

«Раньше директива Crawl-delay играла роль для SEO, но уже сейчас ее можно смело удалять из robots.txt у своих сайтов. По словам Яндекса, эта строчка уже не учитывается роботом, что делает ее присутствие в файле бесполезной. Сам инструмент можно проверить в вебмастере, однако внесенные изменения в сканировании будут применены только после 22 февраля, поэтому до этого времени, скорее всего, все сайты будут сканироваться по настройке «Доверять Яндексу». К слову, Google уже давно не учитывает эту директиву при обходе сайта и автоматически настраивает скорость сканирования в зависимости от скорости ответа сервера, на котором размещён сайт».

Технолог SEO-эксперт компании SEO.RU
Константин 
Абдуллин 

Пусть другие тоже знают!

Еще на эту тему

Первые результаты запуска Минусинска
Первые результаты запуска Минусинска
9000 ресурсов уведомили о существовании seo-ссылок...
21.05.2015 1613
Яндекс.Каталог закрывается
Яндекс.Каталог закрывается
20 декабря Яндекс прекратил принимать заявки на добавление и...
28.12.2017 2077
В Яндекс.Справочнике появился сервис онлайн-бронирования
В Яндекс.Справочнике появился сервис онлайн-бронирования
В рамках девятой Вебмастерской разработчики Яндекс.Справочни...
27.11.2019 334
Показать еще материалы

Другие интересные статьи

SEO-фрагменты (SEO Snippets) Google: почему Google показывает разное число проиндексированных страниц?
SEO-фрагменты (SEO Snippets) Google: почему Google показывает разное число ...
Вопрос для этого видео к нам пришёл из Бразилии. Макао спраш...
07.05.2018 2382
Новый офис SEO.RU в Сан-Диего
Новый офис SEO.RU в Сан-Диего
Первые шаги компании на рынке западного SEO. Открытие нового...
21.06.2018 2357
Яндекс.Диалоги: как настроить и в чем польза для бизнеса?
Яндекс.Диалоги: как настроить и в чем польза для бизнеса?
Яндекс.Диалоги – это новая технология поисковика, благодаря ...
05.02.2019 4331
Внешняя оптимизация сайта
Внешняя оптимизация сайта
Продвижение интернет-сайта делится на два направления: внут...
06.09.2017 11620
Проседание сайта в поисковой выдаче, часть первая. Бесполезный контент, фильтры, ссылки и хостинг
Проседание сайта в поисковой выдаче, часть первая. Бесполезный контент, фил ...
Как вернуть утраченные позиции сайта в поисковых системах? Р...
25.07.2018 6530
Показать еще материалы
Оставить заявку