Неочевидні проблеми на сайті, які заважають SEO
- Низька швидкість завантаження
- дублі сторінок
- неунікальні тексти
- Недостатнє опрацювання посадочних
- Неправильне використання ключових слів
- неадаптівний дизайн
- Віруси або злом
- Биті, вихідні та приховані посилання
- висновки
Ефективне просування сайту вимагає опрацювання безлічі дрібних деталей. Продумана структура, якісний контент і його регулярне оновлення, зворотні посилання - все це впливає на видимість ресурсу в пошуку.
Проте, будь-який сайт може містити безліч неочевидних помилок, які на перший погляд зовсім не видно. Найчастіше це стосується технічної частини, але іноді неправильним є сам підхід до вирішення певної задачі. І все це працює проти вас, поступово зводячи нанівець всі зусилля, спрямовані на просування проекту.
Візуально все може виглядати просто чудово. Проблеми криються всередині. Визначити їх нескладно і зробити це можна за допомогою ряду інструментів, спочатку створених для такої діагностики.
І ось список найбільш поширених проблем, на предмет яких ми рекомендуємо вам перевірити і свій сайт.
Низька швидкість завантаження
Навіть гарний зовні сайт буде марним, якщо він працює повільно. Іноді використовуються дизайнерами «красивості» і є основною причиною повільного завантаження сторінок. Або занадто багато підключених модулів. Або просто помилки в коді, які впливають на продуктивність.
Причин може бути багато. Якщо у вас швидкий інтернет, це може бути не помітно. Але це не означає, що проблеми не існує. Тому завжди краще переконатися, що все «ОК», і у людей, які використовують мобільний інтернет або просто повільне з'єднання, теж все добре.
Як перевірити:
Скористайтеся сервісами GTmetrix або Pingdom Website Speed Test . Вони дозволяють не тільки протестувати швидкість завантаження, але і видають рекомендації яким чином це значення можна поліпшити.
дублі сторінок
Сторінки з повністю ідентичним або частково запозиченими контентом, найчастіше є результатом особливостей роботи движка. Причому, це характерно як для open-source, так і для безкоштовних CMS. Сторінки пагінацію і фільтрів - найбільш частий їх приклад.
Чим погані дублі? Справа в тому, що наявність на сайті декількох URL з ідентичним або дуже схожими метатегами і іншим дубльованим вмістом, ускладнює пошуковим роботам оцінку їх релевантності та ранжування. У підсумку, якщо дублів багато, це позначається на видимості сайту в цілому. Вирішується проблема шляхом унікалізації таких сторінок і застосування атрибутів rel = "canonical» або meta name = "robots".
Як перевірити:
Найпростіше просканувати сайт спеціальним краулер типу Screaming Frog SEO Spider або NetPeak Spider, а потім звірити результати за списком Title і Description. Їх збіг найчастіше і є ознакою дублів.
Також можна подивитися звіт в Google Search Console -> Вид в пошуку -> Оптимізація HTML. Тут нам цікаві пункти «Періодичну метаописів» і «Що повторюються заголовки (теги title)», які містять аналогічну інформацію про дублях.
неунікальні тексти
До 100% технічної унікальності прагне сенсу особливого немає, тим більше що в деяких тематиках це і неможливо. Але за текст, скопійований з чужих сайтів трохи менше ніж повністю, пошуковики теж по голові не погладять. А просувати такі сторінки і зовсім немає сенсу. Добре якщо через таку практики весь сайт під фільтр не полетить.
Це одна сторона проблеми. Друга - статті з вашого сайту теж можуть розтягнути на десятки інших ресурсів. Або копірайтер, який займається його наповненням, вирішить спростити собі життя і замість унікальної статті опублікує скомпільований з декількох джерел мікс. У будь-якому випадку, діє правило «довіряй, але перевіряй».
Як перевірити:
Окремі тексти можна вручну, за допомогою програм eTXT Антиплагіат або Advego Plagiatus:
Перевірка списку URL-сторінок в пакетному режимі можлива через сервіс Content-watch.ru :
Недостатнє опрацювання посадочних
Сторінки послуг для комерційного сайту, картки товарів для інтернет-магазинів і інші важливі посадочні, потребують особливо ретельного опрацювання. Адже від того, наскільки добре вони виглядають і відповідають потенційним запитам ЦА, залежить коефіцієнт конверсії відвідувачів в клієнтів для бізнесу.
Поширена проблема - потрібні сторінки ніби і є, ось тільки конверсія по ним залишає бажати кращого. Аналіз конкурентів, точкова аналітика і мозковий штурм дозволяють зрозуміти, що саме поліпшити, щоб підвищити віддачу від них. А поліпшити можна такі моменти:
- розширити семантику, під яку оптимізується сторінка;
- додати більше тексту, зробити його більш інформативним;
- додати фото і відеоконтент;
- додати блоки уваги і заклики до дії;
- структурувати контент, зробивши його більш читабельним.
Начебто і не такий вже і великий перелік завдань виходить, але ефект від їх впровадження може бути дуже хорошим. Простий, але наочний приклад:
Як перевірити:
Якщо у вас налаштоване відстеження цілей в веб-аналітиці, перевірте показник конверсії і відмов по кожній важливій сторінці. Якщо на частини з них ці показники істотно гірше, ніж на інших, значить вони вимагають доопрацювання в першу чергу.
Пройдіться по аналогічним сторінок конкурентів з Топа, подивіться як вони виглядають. Виходите з позиції покупця, якби вам був потрібен конкретний товар або послуга, де б ви зробили покупку - на вашому сайті або якому-небудь іншому, який викликає більше довіри?
Неправильне використання ключових слів
У цієї медалі дві сторони - недостатня інтеграція ключів в тіло сторінки або ж надмірне насичення ними (переоптімізацію). І в першому і в другому випадку у вас будуть проблеми. Причому, не завжди ви зможете зрозуміти швидко, що щось не так.
Якісне семантичне ядро - основа будь-якої роботи по оптимізації сайту. Але працювати з цими ключами теж потрібно вміти, використовуючи запити акуратно. Тут немає готових рецептів, просто прагнете до балансу, щоб текст і метатеги сторінки містили потрібні запити, залишаючись при цьому читабельними і природними для сприйняття.
Як перевірити:
Щільність і входження ключових слів на сторінці можна перевірити за допомогою будь-якого текстового аналізатора. Наприклад, добре підходить безкоштовний сервіс Istio.com , Який вміє аналізувати як текст, так і URL-адресу. Приклад результату:
неадаптівний дизайн
Адаптивність верстки - це властивість дизайну сайту підлаштовуватися під параметри екрану пристрою, з якого здійснюється перегляд. Головне завдання, яке вирішується таким чином, полягає в забезпеченні комфортного використання сайту як на PC так і на мобільних. А мобільні користувачі в деяких нішах вже перевищили показник 50% від загального трафіку!
Якщо сайтом незручно користуватися на мобільних, це впливає на продажу, поведінкові фактори, і в підсумку позначається на його видимості в пошуку в цілому. Ви втрачаєте і прибуток, і рейтинг в пошуку.
Покажемо на прикладі. Добре якщо ваш сайт виглядає на мобільному ось так (адаптивний дизайн):
І погано якщо ось так (неадаптивная верстка):
Як перевірити:
Найпростіший спосіб - зайдіть на свій сайт з мобільника і спробуйте їм покористуватися. Показати статті, щоб розпочати пошук, спробуйте зробити замовлення.
Ще один варіант - скористайтеся спеціальним сервісом, який дозволяє протестувати відображення сайту на пристроях з різною діагоналлю екрану. До приклад, Screenfly :
Віруси або злом
Нечасто, але таке буває. Природно, що це ставить під питання все просування. Зовні з сайтом все може бути зовсім нормально, навіть спад трафіку і замовлень піде не відразу. Виявляють проблеми з безпекою найчастіше після того як приходить повідомлення від хостера або від самої пошукової системи в панелі вебмастера:
Проблему необхідно вирішувати негайно, адже невідомо як зловмисник почне діяти в майбутньому. Уразливості усунути і, по можливості, підключити який-небудь модуль для захисту. Ну і як мінімум, своєчасно оновлювати версію движка, так як над питаннями безпеки регулярно працюють самі розробники.
Як перевірити:
Стежити за повідомленнями в панелях вебмайстрів, розділ «Проблеми безпеки» (Google Search Console) і «Діагностика» (Яндекс.Вебмайстер).
Биті, вихідні та приховані посилання
Не тільки зовнішні, але і внутрішні посилання впливають на ранжування сайту. Якщо на ньому є посилання, які ведуть на неіснуючі сторінки, видаючи помилки «404», посилання на ресурси сумнівної якості і «невидимі посилання» (того ж кольору, що і фон), пошукові системи цілком можуть порахувати це підозрілим.
Та й користувачі будуть не в особливому захваті від того, що замість того матеріалу, який їм «обіцяв» перехід по певному посиланню, вони бачать повідомлення про помилку. На поведінкових факторах це теж позначиться.
Мета проста: знайти проблему і усунути її. Биті посилання замінити на актуальні, а небажані беклінков прибрати або закрити в «nofollow».
Як перевірити:
Викачуємо безкоштовну програму Xenu Link Sleuth і запускаємо сканування свого сайту. Після закінчення процесу проблемні / биті посилання в звіті будуть виділені червоним кольором. Сортуємо по колонці «Status»:
Потім, натискаємо правою кнопкою миші по будь-якій з них, і вибираємо в меню пункт «URL properties»:
Внизу вікна відображається список сторінок на яких проставлена дане посилання, тепер ви можете прибрати її або виправити.
висновки
Перераховані проблеми зустрічаються на багатьох сайтах і часто є основною причиною, чому докладені зусилля по SEO не дають достатнього результату. Не всі з них впливають на ситуацію досить сильно, але, в сукупності, здатні принести чимало проблем.
Складнощі з пошуковим просуванням не завжди є наслідком застосування неправильних методів або порушення правил пошукових систем. Іноді потрібно просто краще піклуватися про стан самого сайту. І в будь-якому випадку орієнтуватися на його зручність для користувачів.
Попереджений значить озброєний. Так що не зайвим буде перевірити і свій сайт з цього списку, щоб велика кількість дрібних помилок не перетворилося одного разу в сніжний ком, зупинити який буде вже куди складніше.
А у вас є чим доповнити наш список? Поділіться своєю думкою в коментарях!
Чим погані дублі?Виходите з позиції покупця, якби вам був потрібен конкретний товар або послуга, де б ви зробили покупку - на вашому сайті або якому-небудь іншому, який викликає більше довіри?
А у вас є чим доповнити наш список?