Джон Мюллер, специалист Поиска Google, рассказал о том, может ли техническая проблема, возникшая прямо перед запуском обновления основного алгоритма, стать причиной резкого проседания позиций сайта.
Читайте по теме: Проседание сайта в поисковой выдаче, часть первая. Бесполезный контент, фильтры, ссылки и хостинг
В рамках новой видеовстречи с веб-мастерами Джон Мюллер получил следующий вопрос:
«До проведения редизайна сайт занимал неплохие позиции в поиске. Запуск нового дизайна оказался не вовремя — сразу же после этого Google обновил основной поисковый алгоритм, а на сайте были, к тому же, проблемы с внутренней перелинковкой. Мы подозреваем, что краулеры просканировали сайт именно в это время (хотя мы могли решить проблемы): позиции и трафик резко рухнули, мы потеряли все расширенные сниппеты, сайт находится в подвешенном состоянии последние 5-6 месяцев. Нужно ждать следующего обновления алгоритма, чтобы Гугл оценил качество обновленного сайта, или это произойдет при следующем переобходе краулера?»
Отвечая на вопрос, Мюллер акцентировал внимание на том, что веб-мастерам стоит изучить тему, прочитав материал «Что нужно знать об обновлениях основного алгоритма Google». Это поможет точнее определять причину проседания и ее связь с обновлением.
Далее Мюллер высказал две занятные мысли. Во-первых:
«Информация, которая используется в обновлении алгоритма и помогает оценивать сайты, собирается за долгий период времени, а не за один предыдущий день. Это работает не так: вот вы внесли какие-то изменения, это спровоцировало технические проблемы прямо накануне обновления алгоритма, и сайт резко просел. Для такой ситуации нужно что-то, что собиралось и существовало на сайте достаточно долго».
И во-вторых:
«Более того, что касается технических проблем, обычно они не влияют на ранжирование сайта после запуска обновления алгоритма. Потому что, как правило, проблемы с техническим здоровьем — это не то же самое, что проблемы с качеством сайта. Очевидно, бывают такие поломки, которые делают для пользователя просмотр веб-страницы в принципе невозможным. Но если это что-то незначительное — 404 ошибки или несколько битых ссылок — это не станет причиной для снижения оценки за качество сайта в целом и резкого изменения ранжирования.
Читайте по теме: Проседание сайта в поисковой выдаче, часть вторая. Контекст, кражи, региональная привязка сайта и аффилиаты
При этом есть много других вещей, которые на самом деле определяют качество сайта, в том числе улучшения дизайна, упомянутые в вопросе. Какие-то из них неизбежно улучшат показатели, так как краулеры повторно просканируют сайта. А каким-то из них нужно дождаться следующего обновления алгоритма, чтобы повлиять на ранжирование, — на это может потребоваться некоторое время».
Комментарий эксперта:
«Обновления поискового алгоритма в Google всегда сопровождаются сильным стрессом для всех SEO-специалистов, так как никогда не знаешь, насколько сильно тебя заденет. Главное в такой ситуации — не паниковать, а провести детальный анализ изменений поисковой выдачи в тематике и понять, какие факторы стали оказывать на ранжировании большее влияние и что нужно улучшить на сайте. Действительно, устранение технических проблем зачастую не помогает улучшить ситуацию, и нужно копать глубже. Поможет в этом нелегком деле изучение информации от коллег на тематических форумах: после апдейтов все «пострадавшие» активно начинают обсуждать ситуацию и делятся советами».
Главный технолог SEO-эксперт компании SEO.RU
Полина Маенкова