Ми в соціальних мережах
Я тут, тому що хочу:

Технічна оптимізація сайту [Найголовніше]

10 хв. 12-08-2018

Всі роботи по оптимізації сайту будуть марні якщо є технічні помилки, які перешкодять:

  • проіндексувати всі сторінки сайту;
  • пошуковим роботам зрозуміти структуру сайту;
  • відвідувачам знайти необхідну інформацію;
  • пошуковому алгоритму коректно ранжувати сайти в пошуковій видачі.

У цій статті Ви дізнаєтесь які ж технічні помилки існують, і як їх виправляти.

Загальні технічні вимоги до всіх сайтів

  1. Редірект на головне дзеркало сайту (з www на без www або навпаки).
    Перевірити чи налаштований редірект на головне дзеркало сайту допоможе сервіс a.pr-cy.ru або програма WebSiteAuditor.
    Перевірка налаштування головного дзеркала сайту
    Перенаправлення на без www
  2. Коректна настройка файлу robots.txt

    Необхідно окремо прописати правила для Google, Яндексу та інших пошукових систем.

    Наприклад, директиву Host Гугл не підтримує, тільки Яндекс.

    Проаналізувати коректність файлу robots.txt Ви можете в Google Search Console за допомогою Інструменту перевірки файлу robots.txt: https://www.google.com/webmasters/tools/robots-testing-tool
    Інструмент перевірки файлу robots

  3. Всі сторінки сайту повинні мати свій унікальний Title і Description, які точно описують їх зміст. Це стосується і сторінок пагінації (2 ст, 3 ст і т. д.).

    Перевірити унікальність цих тегів можна за допомогою спеціалізованих сервісів або програм: Serpstat, Netpeak Spider, WebSite Auditor та ін.
    Мета-теги в Serpstat

  4. ЛЗУ (людизрозумілі урли) для всіх просуваних сторінок, а ще краще для всіх сторінок сайту.

    Наприклад, https://site.ua/product/choboti-lemigo-vermont-877-eva-7/ а не https://site.ua/product/0789ofd

  5. Наявність і коректність роботи сторінки з помилкою 404. Сторінка повинна віддавати відповідь з кодом «404 Not Found».

    Сторінка з помилкою 404 повинна виводитись при введенні помилкових URL-адрес. Дизайн цієї сторінки повинен бути в стилі сайту і містити посилання на основні сторінки сайту, а також форму пошуку.


    Сторінка 404 сайт Мотодім
  6. Всі сторінки, доступні за посиланнями, повинні мати код відповіді «200 ОК».

    Потрібно просканувати сайт спеціальними сервісами або програмами: Netpeak Spider, ScreamingFrog, WebSiteAuditor та ін.

    Якщо є сторінки з 301 перенаправленням ― потрібно скорегувати URL внутрішніх сторінок на сайті. Вони повинні відразу вести на кінцеву мету.

  7. Час завантаження сторінок сайту і їх розмір в КБ.

    Рекомендовані показники:

    • час завантаженняи вихідного коду документа ― до 0,7 с (700 мс);
    • час відповіді сервера ― до 0,2 с (200 мс);
    • розмір вихідного коду ― до 120 Кб.

    Можете скористатися наступними сервісами:

  8. На всіх сторінках обов'язково повинен бути заголовок в тезі Н1 і він повинен бути тільки один.

    Заголовок в тезі Н1 повинен точно описувати вміст сторінки і відрізняться від Title.

  9. Перевірте, щоб теги Н1..Н6 використовувалися за призначенням, а не як елементи оформлення сайту.

    Неправильно:

    <Н1>Наш номер телефону: 066-123-45-67

    Правильно:

    <Н1>Розробка сайтів
  10. Аптайм сервера повинен мати показник 99,85% і вище.

    Для перевірки можете скористатися онлайн-сервісом https://www.host-tracker.com.

  11. Привабливий і оригінальний favicon.ico, який повинен знаходитися в корені сайту.
    Favicon
  12. За допомогою AJAX приховати посилання на сторінках, закритих від індексації в robots.txt, щоб статична вага всередині сайту розподілялася правильно. У вихідному коді сторінок сайту не повинно бути конструкції типу «a href =" ... "» з посиланнями на такі сторінки.

    Скрипт також потрібно буде закрити від індексації.

  13. Великі фрагменти JS і CSS (8-10 рядків і більше) винести в окремі файли певного типу, які підключаються окремо. Всі тимчасові коментарі (більше 3-5 рядків) видалити. Це прискорить завантаження та інтерпретацію коду пошуковими системами і браузерами.
  14. Перевірте валідність коду на наявність незакритих парних тегів.

    Це можна зробити за допомогою онлайн-валідатора W3C Markup Validator Service https://validator.w3.org.

  15. Перевірте коректність відображення сайту в найпопулярніших браузерах (кросбраузерність): Google Chrome, Opera, Mozilla Firefox, Android Browser, Safari Mobile.
  16. Всі URL сторінок сайту повинні мати однакову конструкцію (або зі слешем вкінці «/» або без нього, чи з суфіксом .php, .html).

    Наприклад, site.ua/development/

    site.ua/development

    site.ua/development.php

  17. Правильно налаштуйте 301-редірект з версії сайту http на версію https для уникнення дублювання контенту.
  18. Закрийте від індексації у файлі robots.txt сторінки пошуку, фільтрації, сортування (якщо вони не оптимізовані для просування по НЧ-запитах), сторінку з помилкою 404, сторінки входу в адмін-панель, сторінки авторизації, зміни пароля, оформлення замовлення, версії для друку, сторінки вчинення дії, розділи з дубльованим контентом (наприклад, RSS-фіди) за допомогою директиви Disallow:
    Закриття від індексації сторінок в файлі robots
    Також приховайте від індексації файли з розширенням *.doc, *.pdf, якщо вони не несуть корисної інформації.
  19. Як альтернативу файлу robots.txt можна використовувати тег name = "robots" зі значенням «content ="noindex, follow"».
    Meta name Robots
  20. Сформуйте карту сайту sitemap.xml, де перерахуйте всі сторінки сайту.
    XML карта сайту
    Потім перевірте карту сайту на валідність за допомогою опції Перевірка файлу Sitemap в Google Search Console https://www.google.com/webmasters/tools/sitemap-list.
    Якщо число сторінок сайту перевищує 50 тис., потрібно створити кілька карт.
  21. Якщо на сайті є посилання на сторонні сайти, прописуємо їм відкриття в новій вкладці за допомогою target = "_ blank" і приховуємо їх від пошукових систем за допомогою AJAX.
  22. Налаштуйте rel = "canonical" щоб виключити дублі сторінок.

    Правильно налаштований атрибут rel = "canonical" для тегу link:

    • спростить настройку індексації сайту;
    • допоможе правильно враховувати і склеювати статистику на дубльованих сторінках.
  23. Навіть якщо Ви правильно і детально налаштували індексацію, необхідно постійно переглядати попадання дублів контенту в індекс ПС. Це робиться за допомогою операторів цитатного пошуку та оператора «site:».

Висновок

Такі помилки, як дублі сторінок в пошуку або випадання важливих сторінок з пошуку, можуть стати перешкодою на шляху до ТОПу пошукової видачі.

У цій статті ми описали найкорисніші роботи з технічної оптимізації сайту. Ви можете їх використовувати як чек-лист у своїй роботі.

Пам'ятайте, коректна технічна оптимізація сайту ― фундамент розкрутки!

Ви можете звернутися до нас і всі ці роботи ми проведемо на Вашому сайті самі. Звертайтеся!

Коментарі
Вячеслав
01-12-2018
Скільки коштує та скільки часу займає технічна оптимізація сайту у вашій веб студії?
відповісти
WebMaestro
02-12-2018
Ми пропонуємо послуги по комплексній розкрутці сайту, в яку входить і технічна оптимізація, і складання контент-стратегії просування, і написання Seo-текстів та ін. Вартість та терміни виконання робіт ми повідомляємо після повного Seo-аудиту сайту.
відповісти
Сергій
17-11-2019
Годна статейка
відповісти
WebMaestro
22-11-2019
Дякую) Ми намагались максимально розкрити тему.
відповісти
Вадя
03-01-2020
Згоден з написаним! Хороша стаття!
відповісти

Розробка, розкрутка та підтримка сайту

Ми не просто розробляємо сайти, ми створюємо ефективні інструменти для Вашого бізнесу.

Розробка та підтримка
Сергій:
Розкрутка та реклама
Олег:
facebook telegram viber smartphone
Бажаєте встановити наш додаток?