Наверх
/
/
Google: технические ошибки обычно не вызывают проблем с ранжированием после обновления алгоритма
В тренде

Google: технические ошибки обычно не вызывают проблем с ранжированием после обновления алгоритма

04.05.2022 Время прочтения: 2 минуты

Дата обновления: 04.05.2022

Джон Мюллер, специалист Поиска Google, рассказал о том, может ли техническая проблема, возникшая прямо перед запуском обновления основного алгоритма, стать причиной резкого проседания позиций сайта.

Читайте по теме: Проседание сайта в поисковой выдаче, часть первая. Бесполезный контент, фильтры, ссылки и хостинг

В рамках новой видеовстречи с веб-мастерами Джон Мюллер получил следующий вопрос:

«До проведения редизайна сайт занимал неплохие позиции в поиске. Запуск нового дизайна оказался не вовремя — сразу же после этого Google обновил основной поисковый алгоритм, а на сайте были, к тому же, проблемы с внутренней перелинковкой. Мы подозреваем, что краулеры просканировали сайт именно в это время (хотя мы могли решить проблемы): позиции и трафик резко рухнули, мы потеряли все расширенные сниппеты, сайт находится в подвешенном состоянии последние 5-6 месяцев. Нужно ждать следующего обновления алгоритма, чтобы Гугл оценил качество обновленного сайта, или это произойдет при следующем переобходе краулера?»

Отвечая на вопрос, Мюллер акцентировал внимание на том, что веб-мастерам стоит изучить тему, прочитав материал «Что нужно знать об обновлениях основного алгоритма Google». Это поможет точнее определять причину проседания и ее связь с обновлением.

Далее Мюллер высказал две занятные мысли. Во-первых:

«Информация, которая используется в обновлении алгоритма и помогает оценивать сайты, собирается за долгий период времени, а не за один предыдущий день. Это работает не так: вот вы внесли какие-то изменения, это спровоцировало технические проблемы прямо накануне обновления алгоритма, и сайт резко просел. Для такой ситуации нужно что-то, что собиралось и существовало на сайте достаточно долго».

И во-вторых:

«Более того, что касается технических проблем, обычно они не влияют на ранжирование сайта после запуска обновления алгоритма. Потому что, как правило, проблемы с техническим здоровьем — это не то же самое, что проблемы с качеством сайта. Очевидно, бывают такие поломки, которые делают для пользователя просмотр веб-страницы в принципе невозможным. Но если это что-то незначительное — 404 ошибки или несколько битых ссылок — это не станет причиной для снижения оценки за качество сайта в целом и резкого изменения ранжирования.

Читайте по теме: Проседание сайта в поисковой выдаче, часть вторая. Контекст, кражи, региональная привязка сайта и аффилиаты

При этом есть много других вещей, которые на самом деле определяют качество сайта, в том числе улучшения дизайна, упомянутые в вопросе. Какие-то из них неизбежно улучшат показатели, так как краулеры повторно просканируют сайта. А каким-то из них нужно дождаться следующего обновления алгоритма, чтобы повлиять на ранжирование, — на это может потребоваться некоторое время».

Комментарий эксперта:

«Обновления поискового алгоритма в Google всегда сопровождаются сильным стрессом для всех SEO-специалистов, так как никогда не знаешь, насколько сильно тебя заденет. Главное в такой ситуации — не паниковать, а провести детальный анализ изменений поисковой выдачи в тематике и понять, какие факторы стали оказывать на ранжировании большее влияние и что нужно улучшить на сайте. Действительно, устранение технических проблем зачастую не помогает улучшить ситуацию, и нужно копать глубже. Поможет в этом нелегком деле изучение информации от коллег на тематических форумах: после апдейтов все «пострадавшие» активно начинают обсуждать ситуацию и делятся советами».

Главный технолог SEO-эксперт компании SEO.RU
Полина Маенкова


Пусть другие тоже знают!

Еще на эту тему

Другие интересные статьи

Оставить заявку Оставить заявку