Ми в соціальних мережах
Я тут, тому що хочу:

Еволюція алгоритмів ранжування Google

7 хв. 06-12-2019

У цій статті ми розповімо про те:

  • яким пошуковик Google був раніше;
  • які методи фільтрації результатів видачі він використовував;
  • коли та які оновлення впроваджував;
  • як сьогодні він ранжує сайти.

З чого все починалося?

Перше що спростив Інтернет ― це спілкування між людьми і компаніями завдяки електронній пошті. Потім з'явилася необхідність зробити інформацію загальнодоступною.

Спрощення процесу пошуку і його загальнодоступність стали основною концепцією роботи Google, Yahoo та ін. Коли Інтернет дійшов до Росії, в конкуренцію включилися Rambler, Яндекс, LiveInternet.

Періоди розвитку Google

  1. Недостатня кількість контенту

    Коли контенту в Інтернеті було мало, власники сайтів думали тільки про одне ― щоб їхній сайт знайшли.

    У той період жоден пошуковик не міг забезпечити точну відповідність запиту на першій сторінці видачі, і користувачі мусили переглядати всі результати видачі. А все тому, що:

    1. Інформації було дуже мало.
    2. Контент взагалі не був оптимізованим.
    3. Алгоритми ранжування були занадто примітивними.

    Наприклад, щоб сайт показувався в пошуковій видачі досить було прописати мета-теги на сторінці:

    • заголовок (Title) ― щоб сайт видавався за певним запитом, досить було прописати його в заголовку сторінки і в мета-тегу Keywords;
    • короткий опис (Description) ― якщо пошукова система не знаходила запит в ключових словах і заголовках, вона шукала в описі;
    • ключові слова (Keywords) ― прописували багато ключових слів, щоб пошуковик знайшов сторінку сайту.

    Пошукові системи працювали за таким алгоритмом:

    Старі алгоритми ранжування

    Головною метою Google було знайти що-небудь максимально схоже на запит користувача.

    У той час всі пошуковики конкурували між собою, і той, який умів знаходити найбільш релевантні результати ― займав місце монополіста. Наприклад, перші пошукові системи з'явилися в 1993-1995 роках (Aliweb, Lycos, WebCrawler і ін.), Google був створений в 1998 році, Яндекс ― в 1997, Rambler ― 1996 року, Yahoo ― 2004, Bing ― 2004-2005 рр.

  2. Зростання кількості контенту

    Коли почало з'являтися більше контенту в мережі, в пошуковій видачі стало мало місця і всі хотіли потрапити на першу сторінку видачі. У той період в лідери вибилися 2 пошуковики: Google та Яндекс. Всі почали освоювати найпростіші алгоритми ранжування. Саме тоді і виникла спеціальність SEO-оптимізатор.

    Всі сайти стали оптимізовувати за декількома принципами:

    1. Максимальний переспам ключовими словами в контенті та в мета-тегах.
    2. Нарощування маси спамних посилань, «надування» SEO-показників сайту (трасту, трафіку, PageRank, ТІЦ та ін.).

    Тоді і зародилося «чорне» SEO ― створювалося багато спамних сторінок під певні ключові запити, які переправляли на інші сайти. Пошукова видача сильно зіпсувалася. Зараз використання такої схеми загрожує потраплянню під санкції та зникненню з пошукової видачі.

  3. Поява апдейтів (оновлень)

    У цей період зріс ризик «підчепити» вірус з пошуку або потрапити на спамний сайт, дорвей або фішинг-сайт. Він почався у 2005 році та триває по сьогодні. У цьому періоді можна виділити 2 етапи:

    1. Становлення алгоритмів ранжування (2005-2011 рр.). На цьому етапі створювалися перші алгоритми фільтрації пошукової видачі і саме тоді зародилися чорні методи SEO.
    2. Вагомі апдейти пошукових систем спрямовані на боротьбу з нечесними методами оптимізації сайтів (2012-2017 рр.).

    Другий етап розвитку пошукових систем є природним процесом еволюції: атака («чорних» оптимізаторів) і захист (пошукових систем).

    Саме в цей період найбільші пошукові системи, такі як Яндекс і Google, почали ретельно боротися за кожного користувача і впроваджувати перші алгоритми ранжування. Чорним SEO-шникам довелося йти з професії або вдаватися до інших способів розкрутки сайтів.

Найважливіші апдейти Google

  1. Boston (лютий 2003 рік) ― перший офіційний апдейт Google. Використовувалися різні способи зміни алгоритмів, чіткої спрямованості не було.
  2. Cassandra (квітень 2003) ― пошукова система відсівала сайти з прихованими посиланнями і текстами, посиланнями з сайтів-дорвеїв, які належали одному власнику.
  3. Dominic (травень 2003) ― Google став по-іншому враховувати зворотні посилання, з'явилися боти Deepcrawler і Freshbot.
  4. Esmeralda (червень 2003) ― останній етап апдейта Boston.
  5. Fritz (липень 2003) ― після нього оновлення стали відбуватися щодня, а не щомісяця.
  6. Florida (листопад 2003) ― видаляє з видачі сайти перенасичені ключовими словами, неунікальним контентом, купленими посиланнями.
  7. Brandy (лютий 2004) ― Google починає розуміти LSI-запити, анкори посилань.
  8. Nofollow (січень 2005) ― Google впроваджує параметр nofollow для боротьби зі спамними посиланнями.
  9. Bourbon (травень 2005) ― виділив сайти з www та без www як дубльований контент.
  10. Персоналізований пошук (червень 2005) ― Google почав використовувати файли cookies для формування пошукової видачі згідно з персональними вподобаннями.
  11. XML-карта сайту (червень 2005) ― Google ввів поняття карти сайту sitemap.xml і став використовувати її для поліпшення індексації.
  12. Jagger (жовтень 2005) ― відсіювання сайтів створених для покупки та обміну посиланнями.
  13. Big Daddy (грудень 2005) – ввелись нові поняття: канонізація, редіректи та ін.
  14. Універсальний пошук (травень 2007) ― у видачі з'явилися картинки, новини, відео, локальні сайти.
  15. Suggest (2008) ― з'явилися пошукові підказки.
  16. Rel-canonical (лютий 2009) ― Google та інші пошукові системи дозволили веб-майстрам налаштовувати канонічні сторінки.
  17. Caffeine (серпень 2009) ― почалися вводитися новинки: видача в реальному часі, швидкість сканування та індексації, розширений індекс. Великого значення набув контент, частота оновлення сайту, внутрішня оптимізація, швидкість завантаження сторінок. Впроваджуються санкції за спамність та технічні проблеми на сайті.
  18. Пошук в реальному часі (грудень 2009) ― зростає швидкість індексації сторінок.
  19. May Day (травень 2010) ― стали враховуватися низькочастотні запити з довгим «хвостом».
  20. Миттєвий пошук (вересень 2010) ― результати видачі стали надаватися в момент набору запиту користувачем.
  21. Негативні відгуки (грудень 2010) ― пошукова система почала враховувати при ранжуванні сайтів відгуки користувачів.

Потім оновлення почастішали.

Історія апдейтів Google

Найвідоміші апдейти Google

  1. Panda (лютий 2011) ― апдейт знизив позиції сайтів зі слабким контентом і «ферми» контенту переспамлені низькочастотними запитами. Алгоритм удосконалювався до 2015 року.
  2. PayDay Loan (2013-2014) ― відсіював спамні фінансові та порно-сайти.
  3. Penguin (квітень 2012) ― аналізував кількість та якість зовнішніх посилань на сайт і фільтрував спам, а також моніторив зовнішні та внутрішні показники. Тоді і був впроваджений інструмент Disavow Links для відхилення сумнівних зовнішніх посилань.
  4. Pigeon (липень 2014 року) ― коригування локального пошуку, для деяких запитів враховувалась відстань від користувача до адреси компанії.
  5. Pirate (серпень 2012) ― введені правила DMCA для боротьби з піратським контентом, який видалявся з пошукової видачі.
  6. EMD (вересень 2012) ― назва домену перестала враховуватися при ранжуванні.
  7. Top heavy (січень 2012) ― з видачі виключені сайти переспамлені рекламою (банерами і відео).
  8. Hummingbird (серпень 2013) ― введена кластеризація ключових слів за темами, що дало можливість Google видавати більш релевантні результати.
  9. Mobile Friendly (2015) ― в пошуковій видачі віддавалася перевага сайтам з мобільного адаптацією.

Таким чином, ми бачимо, що Google еволюціонував в бік спрощення процесу пошуку та максимального задоволення потреб користувачів.

Як Google ранжує сайти?

Пошукові системи працюють за схемою: обробити введений пошуковий запит та представити правильні відповіді.

Всі пошукові системи ґрунтуються на 3 правилах:

  1. Актуальність

    Інформація на сайті завжди повинна бути актуальною. Наприклад: ціни товарів, їх опис, фотографії, наявність на складі, актуальна інформація в блозі.

  2. Повнота

    Детальна інформація про товари/послуги. Поділ контенту по сторінках, його структурування.

  3. Популярність

    Просувайте контент, посилайтеся на нього з інших джерел: соціальних мереж, новинних порталів, ЗМІ і т. д.

Процес потрапляння сторінок сайту в пошукову видачу Google

Процес потрапляння сторінок сайту в пошукову видачу Google

Фактори ранжування в Google 2019

Google має безліч факторів ранжування. Найбільш пріоритетні з них:

  1. Кількість прямих переходів на сайт.
  2. Час, який користувачі проводять на сайті, кількість переглянутих сторінок, відсоток відмов.
  3. Кількість доменів, які посилаються.
  4. Довжина контенту.
  5. Наявність протоколу безпеки HTTPS.
  6. Кількість анкорів, ключових слів в анкорах.
  7. Наявність ключових запитів на сторінці.
  8. Щільність ключових запитів.
  9. Наявність ключових слів в заголовках (H1, H2 ...).
  10. Наявність ключових слів в мета-тегах (Title, Description).
  11. Наявність відео на сторінці.
  12. Вік домену.
  13. Технічна складова сайту (мінімум редіректів, правильне налаштування сторінки 404, висока швидкість завантаження сайту, наявність мобільної адаптації, мікророзмітки і т. д.).

Тепер Ви знаєте пріоритети пошукової системи Google.

Висновок

Отже, ми бачимо, що на сьогоднішній час Google досяг дивовижного рівня розвитку і навчився точно розуміти запити користувачів, та при ранжуванні видає максимально релевантні результати.

За якісною розкруткою сайту звертайтеся до нас ― ми розробимо стратегію розвитку Вашого сайту відповідно до рекомендацій Google!

Коментарі
Розробка та підтримка
Сергій:
Розкрутка та реклама
Олег:

Розробка, розкрутка та підтримка сайту

Ми не просто розробляємо сайти, ми створюємо ефективні інструменти для Вашого бізнесу.

facebook telegram viber smartphone
Бажаєте встановити наш додаток?