Эволюция алгоритмов ранжирования Google
В этой статье мы расскажем о том:
- каким поисковик Google был раньше;
- какие методы фильтрации результатов выдачи он использовал;
- когда и какие обновления внедрял;
- как сегодня он ранжирует сайты.
С чего все начиналось?
Первое что упростил Интернет ― это общение между людьми и компаниями благодаря электронной почте. Потом появилась необходимость сделать информацию общедоступной.
Упрощение процесса поиска и его общедоступность стали основной концепцией работы Google, Yahoo и др. Когда Интернет дошел до России, в конкуренцию включились Rambler, Яндекс, LiveInternet.
Периоды развития Google
- Недостаточное количество контента
Когда контента в Интернете было мало, владельцы сайтов думали только об одном –
чтобы их сайт нашли.
В тот период ни один поисковик не мог обеспечить наиболее точное соответствие запросу на первой странице выдачи, и пользователи просматривали все результаты выдачи. А все потому, что:
- Информации было слишком мало.
- Контент вообще не был оптимизированным.
- Алгоритмы ранжирования были слишком примитивными.
Например, чтобы сайт показывался в поисковой выдаче достаточно было прописать мета-теги на странице:
- заголовок (Title) ― чтобы сайт выдавался по определенному запросу, достаточно было прописать его в заголовке страницы и в мета-теге Keywords;
- краткое описание (Description) ― если поисковик не находил запрос в ключевых словах и заголовках, он искал в описании;
- ключевые слова (Keywords) ― прописывали много ключевиков, чтобы поисковик нашел страницу сайта.
Поисковые системы работали по следующему алгоритму:
Тогда главной целью Google было найти что-нибудь максимально похожее на запрос пользователя.
В то время все поисковики конкурировали между собой, и тот, который умел находить более релевантные результаты – занимал место монополиста. Например, первые поисковые системы появились в 1993-1995 годах (Aliweb, Lycos, WebCrawler и др.), Google был создан в 1998 году, Яндекс ― в 1997, Rambler ― 1996, Yahoo ― 2004, Bing ― 2004-2005 гг.
- Рост количества контента
Когда стало появляться больше контента в сети, в поисковой выдаче стало мало места и все хотели попасть на первую страницу выдачи. В тот период в лидеры выбились 2 поисковика: Google и Яндекс. Все начали осваивать простейшие алгоритмы ранжирования. Именно тогда и возникла специальность SEO-оптимизатор.
Все сайты стали оптимизировать по нескольким принципам:
- Максимальный переспам ключевиками в контенте и мета-тегах.
- Наращивание массы спамных ссылок, «надувание» SEO-показателей сайта (траста, трафика, PageRank, ТИЦ и др.).
Тогда и зародилось «черное» SEO ― создавалось много спамных страниц под определенные ключевые запросы, которые редиректили на другие страницы. Поисковая выдача сильно испортилась. Сейчас использование такой схемы чревато попаданию под санкции и исчезновению из поисковой выдачи.
- Появление апдейтов (обновлений)
В этот период возрос риск «подцепить» вирус из поиска или попасть на спамный сайт, дорвей или фишинг-сайт. Он начался в 2005 году и длится по сегодня. В этом периоде можно выделить 2 этапа:
- Становление алгоритмов ранжирования (2005-2011 гг.). На этом этапе создавались первые алгоритмы фильтрации поисковой выдачи и именно тогда зародились черные методы SEO.
- Значимые апдейты поисковых систем направленные на борьбу с нечестными методами оптимизации сайтов (2012-2017 гг.).
Второй этап развития поисковых систем является природным процессом эволюции: атака («черных» оптимизаторов) и защита (поисковых систем).
Именно в этот период самые выдающиеся поисковые системы, такие как Яндекс и Google, начали усердно бороться за каждого пользователя и внедрять первые алгоритмы ранжирования. Черным SEO-шникам пришлось уходить из профессии или прибегать к иным способам раскрутки сайтов.
Самые важные апдейты Google
- Boston (февраль 2003 год) ― первый официальный апдейт Google. Использовались разные способы изменения алгоритмов, четкой направленности не было.
- Cassandra (апрель 2003) ― поисковик отсеивал сайты со скрытыми ссылками и текстами, ссылками с сайтов-дорвеев, которые принадлежали одному владельцу.
- Dominic (май 2003) ― Google стал по-другому учитывать обратные ссылки, появились боты Deepcrawler и Freshbot.
- Esmeralda (июнь 2003) ― последний этап апдейта Boston.
- Fritz (июль 2003) ― после него обновления стали происходить каждый день, а не месяц.
- Florida (ноябрь 2003) ― удаляет из выдачи сайты перенасыщенные ключевыми словами, неуникальным контентом, покупными ссылками.
- Brandy (февраль 2004) ― Google начинает понимать LSI-запросы, анкоры ссылок.
- Nofollow (январь 2005) ― Google внедряет параметр nofollow для борьбы со спамными ссылками.
- Bourbon (май 2005) ― выделил сайты с www и без www как дублированный контент.
- Персонализированный поиск (июнь 2005) ― Google начал использовать файлы cookies для формирования поисковой выдачи согласно персональным предпочтениям.
- XML-карта сайта (июнь 2005) ― Google ввел понятие карты сайта sitemap.xml и стал использовать ее для улучшения индексации.
- Jagger (октябрь 2005) ― фильтровал сайты созданные для покупки и обмена ссылками.
- Big Daddy (декабрь 2005) ― ввелись новые понятия: канонизация, редиректы и др.
- Универсальный поиск (май 2007) ― в выдаче появились картинки, новости, видео, локальные сайты.
- Suggest (2008) ― появились поисковые подсказки.
- Rel-canonical (февраль 2009) ― Google и другие поисковики разрешили веб-мастерам настраивать канонические страницы.
- Caffeine (август 2009) ― начались вводиться новинки: выдача в реальном времени, скорость сканирования и индексации, расширенный индекс. Большое значение стало придаваться контенту, частоте обновления сайта, внутренней оптимизации, скорости загрузки страниц. Внедряются санкции за спамность и технические проблемы на сайте.
- Поиск в реальном времени (декабрь 2009) ― возрастает скорость индексации страниц.
- May Day (май 2010) ― стали учитываться низкочастотные запросы с длинным «хвостом».
- Мгновенный поиск (сентябрь 2010) ― результаты выдачи стали предоставляться в момент набора запроса пользователем.
- Негативные отзывы (декабрь 2010) ― поисковик начал учитывать при ранжировании сайтов отзывы пользователей.
Потом обновления участились.
Самые известные апдейты Google
- Panda (февраль 2011) ― апдейт понизил позиции сайтов со слабым контентом и «фермы» контента переспамленные низкочастотными запросами. Алгоритм совершенствовался до 2015 года.
- PayDay Loan (2013-2014) ― отсеивал спамные финансовые и порно-сайты.
- Penguin (апрель 2012) ― анализировал количество и качество внешних ссылок на сайт и фильтровал спам, а также мониторил внешние и внутренние факторы. Тогда и был внедрен инструмент Disavow Links для отклонения сомнительных внешних ссылок.
- Pigeon (июль 2014) ― корректирование локального поиска, для некоторых запросов принималось во внимание расстояние от пользователя до адреса компании.
- Pirate (август 2012) ― введены правила DMCA для борьбы с пиратским контентом, который исключался из поисковой выдачи.
- EMD (сентябрь 2012) ― название домена перестало учитываться при ранжировании.
- Top heavy (январь 2012) ― из выдачи исключены сайты переспамленные рекламой (баннерами и видео).
- Hummingbird (август 2013) ― введена кластеризация ключевых слов по темам, что дало возможность Google выдавать более релевантные результаты.
- Mobile Friendly (2015) ― в поисковой выдачи отдавалось предпочтение сайтам с мобильной адаптацией.
Таким образом, мы видим, что Google эволюционировал в сторону упрощения процесса поиска и максимального удовлетворения потребностей пользователей.
Как Google ранжирует сайты?
Поисковые системы работают по схеме: обработать введенный пользователем поисковый запрос и представить правильные ответы.
Все поисковые системы основываются на 3 правилах:
- Актуальность
Информация на сайте всегда должна быть актуальной. Например: цены товаров, их описание, фотографии, наличие на складе, актуальная информация в блоге.
- Полнота
Подробная информация о товарах/услугах. Разделение контента по страницам, его структурирование.
- Известность
Продвигайте контент, ссылайтесь на него с других источников: соц сетей, новостных порталов, СМИ и т. д.
Процесс попадания страниц сайтов в поисковую выдачу Google
Факторы ранжирования в Google 2019
Google имеет множество факторов ранжирования. Наиболее приоритетные из них:
- Количество прямых переходов на сайт.
- Время, которое пользователи проводят на сайте, количество просмотренных страниц, процент отказов.
- Количество ссылающихся доменов.
- Длина контента.
- Наличие протокола безопасности HTTPS.
- Количество анкоров, ключевые слова в анкорах.
- Наличие ключевых запросов на странице.
- Плотность ключевых запросов.
- Наличие ключевиков в заголовках (H1, H2...).
- Наличие ключевиков в мета-тегах (Title, Description).
- Наличие видео на странице.
- Возраст домена.
- Техническая составляющая сайта (минимум редиректов, правильная настройка страницы 404, высокая скорость загрузки сайта, наличие мобильной адаптации, микроразметки и т. д.).
Теперь Вы знаете приоритеты поисковой системы Google.
Заключение
Итак, мы видим, что на сегодняшнее время Google достиг внушающего уровня развития и научился точно понимать запросы пользователей, а при ранжировании выдает максимально релевантные результаты.
За качественной раскруткой сайта обращайтесь к нам ― мы разработаем стратегию развития Вашего сайта согласно рекомендациям Google!