Як провести повний SEO-аудит сайту: поетапне керівництво і 25+ корисних інструментів
- Етап 1. Підготовка до SEO-аудиту
- Етап 2. Внутрішній SEO-аудит
- Вказівки для пошукових роботів в тегах
- Оцінка якості індексування сайту
- Коди стану HTTP
- URL сторінок сайту
- Швидкість завантаження сайту
- Етап 3. Аудит структури сайту
- внутрішні посилання
- Етап 4. Аудит контенту
- Описи сторінок в тегах
- Ключові слова втегах
- контент
- дубльований контент
- внутрішньотекстові заголовки
- зображення
- Етап 5. Аналітика
- Етап 6. Зовнішній SEO-аудит
- зворотні ПОСИЛАННЯ
- SEO-аналіз сайтів-конкурентів
- Захист від негативного SEO
- Висновок
Першорядні завдання, що стоять перед фахівцем по SEO - це всебічне вивчення контенту, структури, технічних особливостей сайту і впливають на нього зовнішніх чинників, виявлення слабких місць, планування і реалізація необхідних доробок, з урахуванням всіх принципів роботи пошукових систем. А найголовніше, що проводити такий аналіз і оптимізацію потрібно регулярно, адже пошукові алгоритми постійно удосконалюються, і багато тактики SEO застарівають і перестають працювати.
Незважаючи на те, що максимально високих результатів SEO-аудиту ви зможете домогтися, тільки вдавшись до співпраці спрофессіоналамі, ви і самі можете багато чому навчитися, використовуючи нижче описане керівництво, посилання на зовнішні матеріали і інструменти SEO, які ви знайдете в другій половині статті. Для вашої зручності, всі інструменти в статті клікабельні. Протягом всієї статті будуть згадуватися інструменти Яндекса і Google, як найголовніші і зручні інструменти для пошукового просування.
Етап 1. Підготовка до SEO-аудиту
Найкраще почати з сканування сайту, використовуючи краулер (пошуковий робот), наприклад, Screaming Frog SEO Spider . Цей інструмент аналізує код, контент, внутрішні та вихідні посилання, зображення та інші елементи сайту з точки зору SEO та становить загальне уявлення оположеніі справ.
Не можна забувати про можливості стандартних сервісів пошукових систем - Яндекс.Вебмайстер і Google Webmaster Tools - вони так само надають велику кількість цінної інформації.
Етап 2. Внутрішній SEO-аудит
технічний аудит
Robots.txt
Файл robots.txt за бажанням розміщується в кореневій директорії сайту і містить інструкції по його індексування для роботів пошукових систем.
З використанням різних директив robots.txt можна:
- заборонити або дозволити роботам індексувати деякі розділи і сторінки сайту або весь сайт цілком;
- вказати шлях до карти сайту sitemaps.xml, що сприяє правильному індексування;
- дати зрозуміти роботу, яке дзеркало сайту, при наявності декількох його копій, є головним, і які дзеркала індексувати не потрібно;
- знизити навантаження на сайт від пошукових роботів, якщо необхідно економити ресурси.
При цьому різні правила можна створювати для окремих пошукових систем і навіть для різних роботів однієї і тієї ж системи.
Використовуйте всі можливості robots.txt. Переконайтеся, що заборонено індексування «секретних» областей сайту, сторінок з контентом низької якості істраніц-дублікатів. Перевірте, чи дозволений доступ до всіх областей сайту, які повинні бути проіндексовані пошуковими системами.
При аналізі файлу robots.txt вам допоможуть Яндекс.Вебмайстер, Google Webmaster Tools і інші сервіси.
Вказівки для пошукових роботів в тегах
Але для ще більш гнучкого управління індексуванням сайту і його окремих сторінок помістіть директиви для пошукових роботів в тегах.Так ви дозволите або забороніть роботам індексування конкретних сторінок і перехід по розміщених на них посиланнях.
XML Sitemap
файл Sitemap (Карта сайту) додається в кореневу директорію сайту і дає пошуковим системам інформацію про те, які сторінки сайту повинні бути проіндексовані, які з них у першу чергу, як часто вони оновлюються.
Якщо на сайті вже є файл Sitemap (бажано вформате XML), то перевірте коректність його коду за допомогою валідатора (такий інструмент є, зокрема, в сервісах для веб-майстрів від Яндекса і Google). Подбайте також про те, щоб файл Sitemap містив не більше 50 тис. URL і важив не більше 10 Мб. Якщо ці ліміти перевищені, то доведеться створити кілька файлів Sitemap і один індексний файл Sitemap Index зі списком всіх карт.
Якщо карти сайту поки немає, створіть її вручну або за допомогою одного з безлічі інструментів (наприклад, XML Sitemap і його аналогів, плагінів для WordPress та інших поширених движків; з більшим списком інструментів можна ознайомитися на ресурсах Google).
Після створення проаналізуйте карту в валідаторі і повідомте пошуковим системам про її існування через їх сервіси для веб-майстрів, а також за допомогою додавання шляху до Sitemap в файл robots.txt.
Markup Validator - валідатор html-коду для усунення неточностей та помилок коду, що знижують позиції сайту у видачі. Створено співтовариством, яке займається розробкою і затвердженням міжнародних стандартів веб-розробки.
Оцінка якості індексування сайту
Команда site: зазвичай вводиться в рядку пошукових машин, щоб обмежити зону пошуку певним доменом. Але ця команда дозволяє також дізнатися приблизну кількість всіх сторінок сайту, які були проіндексовані. Для цього просто введіть site: c доменним ім'ям без слів пошукового запиту.
Порівняйте кількість проіндексованих сторінок з загальною кількістю сторінок сайту, яке ви дізналися на стадії створення sitemap.xml і сканування сайту з допомогою Screaming Frog, Xenu's Link Sleuth або інших інструментів.
Якщо обидва числа майже однакові, значить, сайт проіндексовані добре. Якщо проіндексовані не всі сторінки, то з'ясуйте причину - можливо, ваш сайт не оптимізований для пошукових систем, має багато закритих від індексування розділів і сторінок або потрапив під санкції. Якщо ж кількість проіндексованих сторінок перевищує реальне їх кількість, то, ймовірно, на вашому сайті є багато дубльованого контенту, про який мова піде далі в цій статті.
Розглянемо докладніше, як працює і що показує Google Webmaster Tool.
При його відкритті відображається подібний графік:
Він показує, скільки сторінок проіндексовано зараз. На графіку відображені дані за останній рік.
І якщо на ньому видно, що кількість проіндексованих сторінок постійно збільшується, то це чудово. Це означає, що новий контент на сайті знаходиться, ранжируется і додається в індекс Google.
Але іноді необхідно отримати більш детальну інформацію. Для цього є кнопочка «Розширені дані». Після натискання на неї, відкривається новий графік:
На ньому відображається не тільки кількість проіндексованих сторінок на даний момент часу, але і загальна кількість - ті які були просканувати за весь показаний період. Також показується число сторінок, заблокованих у файлі robots.txt і сторінки, які не були в індекс.
Коди стану HTTP
Код стану HTTP - це частина першого рядка відповіді сервера при запитах по протоколу HTTP. Він являє собою ціле число з трьох арабських цифр, що знаходиться вперше рядку відповіді сервера при запиті до веб-сторінці, і показує еетекущее стан. Необхідно встановити, при зверненні Ккак URL сайту з'являється повідомлення про ошібке- зазвичай з кодом виду 4xx або 5xx. Наприклад, відомо: код 404 означає, що сторінка не знайдена, а код 503- що виявлена внутрішня помилка сервера. Код 200 говорить про те, що все працює добре.
Якщо на сайті використовуються перенаправлення (редиректи) з одних URL на інші, то переконаєтеся, що це саме 301 редіректи, а не 302 і не перенаправлення, прописані в тегах або за допомогою JavaScript. Використовуючи 302 redirect (Temporary redirect) - «тимчасово переміщений» - замість 301, вихідний URL буде залишатися в індексі Google, і утримувати свої позиції, як якщо б сторінка все ще була доступна. Однак користувачі, які будуть кликати на засланні, потраплять на ваш новий URL - саме туди, куди ви маєте намір їх направити.
Для перевірки кодів стану HTTP можна користуватися різними сервісамі- наприклад, спеціальним інструментом від Monitor Backlinks або вбудованими засобами Яндекс.Вебмайстер і Google Webmaster Tools.
URL сторінок сайту
Грамотний URL сторінки має довжину неболее100-120 символів, складається в основному з легкочитаємий слів (наприклад, ось такий: https://myacademy.ru/kursi/seo-poiskovaya-optimizatsiya/seo-dlya-nachinayuschih.html - містить ключові слова, які описують сторінку.
Все це сприяє не тільки кращому пошуковому індексування, а й підвищенню зручності для відвідувачів сайту.
Намагайтеся уникати складних адрес з параметрами і віддавати перевагу статичним посиланнях, використовувати для розділів в структурі сайту директорії, а не субдомени, розділяти окремі слова в URL дефісами або знаками підкреслення, таке написання краще сприймається відвідувачами сайту.
Швидкість завантаження сайту
Користувачі інтернету нетерплячі і відразу покидають повільні сайти. Так само і у пошукових систем є певний ліміт часу на обробку кожного сайту, тому швидкі сайти індексуються ретельніше і за більш короткий період часу.
Як проаналізувати швидкість завантаження сайту?
Застосовуйте вбудовані засоби систем веб-аналітики (наприклад, звіти про час завантаження сторінок є в Google Analytics і Яндекс.Метрика. А для найбільш повного аналізу швидкості можна використовувати спеціалізовані сервіси, наприклад, Google PageSpeed Insights :
або YSlow :
Якщо сайт має потребу в прискоренні, оптимізуйте зображення в графічному редакторі за допомогою функції підготовки графіки для публікації в інтернеті, скоротіть обсяг коду HTML і CSS, приберіть зайвий код JavaScript, розумно використовуйте стиснення, кеш браузера і сервера і здійсните інші необхідні дії.
Етап 3. Аудит структури сайту
архітектура сайту
Сайт повинен мати ясну і логічну структуру сторінок, впорядкованих покатегоріям і тісно пов'язаних між собою внутрішніми посиланнями.
Уникайте великої кількості рівнів вкладеності: нехай всі важливі сторінки будуть розташовані водному кліці отглавной, а інші сторінки - не далі, ніж в 3-4 кліки.
Така проста для користувача архітектура сайту дозволить пошуковим машинам швидше проіндексувати всі сторінки сайту, а відвідувачам допоможе не заблукати і швидко знайти потрібну інформацію, що, в кінцевому рахунку, теж позитивно вплине на SEO.
Намагайтеся невикористаних НАСА навігаційні меню, створені за допомогою Flash іJavaScript. Це небажано, навіть незважаючи на те, що пошукові системи сьогодні набагато розумніші, ніж в минулому.
Якщо все ж JavaScript-навігація присутня на сайті, проведіть два етапи індексування сайту за допомогою Screaming Frog, Xenu's Link Sleuth або іншого спеціалізованого сервісу (ми писали про це на початку цього керівництва): з включеним і відключеним JavaScript. Це дозволить виявити, виявилися якісь розділи і сторінки сайту недоступними для індексування через наявність JavaScript-меню.
внутрішні посилання
Внутрішня перелінковка сприяє кращому індексуванню сайту іразумному розподілу ваги сторінок.
У цій нелегкій справі допоможе Page Rank Decoder - інструмент для прогнозування розподілу ваги сторінок при використанні різних схем перелинковки.
Встановіть між сторінками сайту безліч зв'язків, дотримуючись при цьому прості вимоги:
- в якості анкоров використовуйте не тільки ключові слова, а й різний нейтральний текст-наприклад, такі заклики до дії, як «ознайомтеся», «скачайте» і т.п. (Це робить загальну масу посилань більш природною для пошукових систем, тоді як достаток ключових слів виглядає підозріло);
- сторінки іключевие слова в складі анкоров повинні бути релевантні контенту цільових сторінок;
- направляйте більше посилань на ті сторінки, які повинні зайняти більш високі позиції;
- посилайтеся на такі сторінки з «Головною»;
- Не ставте на одній занадто велика кількість внутрішніх посилань.
Етап 4. Аудит контенту
заголовки сторінок
Заголовки сторінок-це перше, що бачить ваша аудиторія впоісковой видачу івсоціальних мережах, після чого вони приймають рішення відвідати ваш сайт. Тому важливо приділити оптимізації заголовків особливу увагу.
Формулюйте заголовки коротко: намагайтеся невихід зарамкі70-90 символів, інакше заголовок може бути обрізаний у результаті пошуку, у соціально мережах, апользователі Twitter несмогут додати донього свої коментарі.
Заголовки службових і різних інформаційних сторінок сайту (заісключеніем статей та інших подібних тематичних продуктів) повинні точно описувати їх зміст.
Не забудьте додавати в заголовки сторінок ключові слова - бажано ближче до початку. Але не переходите межі розумного: як і у випадку з усім контентом сторінки, придумуйте заголовки для людей, а не для машин.
Переконайтеся, що всі сторінки НАСА мають унікальні заголовки. У цьому вам допоможе, наприклад, сервіс Google Webmaster Tools, в якому є інструмент пошуку сторінок з однаковими заголовками.
Описи сторінок в тегах
Опис сторінки з тегом може включатися в сниппет в пошуковій видачі, тому варто відповідально підійти до управління мета-описами важливих сторінок
Сніппет - це блок інформації про знайденому документі, який відображається в результатах пошуку. Сніппет складається з заголовка і опису або анотації документа, а також може включати додаткову інформацію про сайт.
Складайте опису здекількох слів, загальною довжиною до150-160 символів. Це повинен бути зв'язний текст, що розповідає про конкретну сторінці, а не про все сайті, і не переобтяжений ключовими словами. Підтримуйте опису в актуальному вигляді: якщо інформація на сторінці оновилася, і опис застаріло, внесіть в нього необхідні зміни.
Нехай кожна сторінка має унікальне опис. Виявити всі сторінки з однаковою інформацією в тегах
можна з допомогою Google Webmaster Tools.
Ключові слова втегах
Вже досить давно більшість пошукових систем ігнорують ключові слова втегах, так що є сенс взагалі не додавати цю інформацію вкод сайту, щоб не надавати конкурентам зайві дані про вашу SEO-стратегії.
контент
Ця істина вже банальна, але: ви повинні створювати контент для людей, а не для пошукових машин. Не варто занадто захоплюватися пошукової оптімізаціей- це зробить текст майже непридатним для комфортного читання і, в кінцевому рахунку, негативно позначиться на результатах SEO.
Переконайтеся, що сторінки вашого сайту містять цінний для аудиторії, унікальний контент, а не сверхоптімізірованний текст і копії з інших сайтів, і що обсяг контенту на кожній сторінці превишает300-400слов (є дані, що за інших рівних умов сторінки С2000 слів і більш розташовуються зазвичай вище у результаті пошуку). В сучасних алгоритмах оптимальний обсяг контенту автоматично формується для різних тематик. У деяких тематиках буде досить і 200-400 слів на сторінці, а де-не-де знадобляться великі тексти. Якщо до питання підходити дуже серйозно, то обсяг контенту для кожної сторінки визначається аналізом видачі по конкретних запитів в конкретному регіоні.
Тут вам на допомогу прийдуть такі сервіси:
ContentMonster
Біржа контенту. Перевіряє унікальність тексту, стежить за якістю роботи авторів, повертає 120% вартості тексту, якщо ви вважаєте його неякісним.
Webartex
Об'єднує біржу статей і сервіс статейного просування. Копірайтери напишуть статті під ваш проект, вебмастера розмістять статті з вічними посиланнями на надійних майданчиках.
Content-Watch
Інструмент для перевірки унікальності текстового контенту. Дозволяє перевірити унікальність тексту, введеного користувачем, і унікальність контенту вашого сайту.
Advego Plagiatus
Безкоштовний софт для перевірки унікальності текстів. Показує відсоток збігу, джерела тексту. Перевіряє тексти і веб-сторінки.
Зверніть увагу на наявність ключових слів втексте сторінок-перш за все, впервих кількох абзацах. Відредагуйте текст так, щоб використання ключових слів не приводимо кповтореніям ібессмисленним фразам, написаним содной лише метою в черговий раз згадати ключове слово. Гарний, стрункий, корисний текст, снезаметнимі для читача ключовими словами-ось кчему видолжни прагнути.
Само собою зрозуміло, що потрібно подбати, щоб текст на сайті був позбавлений граматичних помилок: безграмотність говорить про непрофесіоналізм автора, тому такий контент буде займати низькі позиції в результатах пошуку.
У цьому вам допоможуть такі сервіси, як:
Орфорграф - один з найперших сервісів перевірки орфографії, який запропонував рунету Артемій Лебедєв.
Перевірка орфографії від Яндекс.Вебмайстер - обробляє веб-сторінку цілком. Перевіряти правопис на Яндексі важливо з точки зору написання неологізмів. Як писати: «Твіттер» або «Твітер»? Яндекс розповість, в якому вигляді його робот швидше розпізнає спірні слова.
дубльований контент
Якщо на вашому сайті або за його межами присутній контент, дублюючий інші матеріали сайту, пошукові системи повинні визначати, яку саме версію проіндексувати іпоказать врезультаті пошуку. І ця проблема лише поглиблюється Помере того, як інші сайти посилаються нарізних копії сторінки або одну і ту ж сторінку, що відкривається по-різному URL.
Ось деякі причини виникнення дубльованого контенту:
- CMS сайту может делать одні и ті ж Сторінки доступними за різнімі ПОСИЛАННЯ;
- друга частина URL на багатьох сайтах формується дінамічно, містіть додаткові параметрами, что змінюються в авісімій від різніх факторів;
- контент сайту часто крадуть, розміщують наіншіх ресурсах без зворотнього ПОСИЛАННЯ, іпоісковая система не здатно зв'язати его з першоджерелом;
- при відвідуванні сайту может створюватіся сесія з унікальнім ідентіфікатором, Який вікорістовується в дінамічніх URL (це нужно, например, для Тимчасова зберігання информации про додаються в корзину товарах- аж до оформлення замовлення);
- версії сторінок сайту, оптимізовані для друку, можуть розцінюватися як дублікати.
Дубльований контент всередині сайту можна виявляти, наприклад, за допомогою Google Webmaster Tools (сервіс вміє знаходити сторінки з однаковими заголовками і мета-описами) і пошукових операторів, які можуть зазначатися разом із запитами в рядку пошукових машин.
Вирішити проблему дубльованого контенту можна шляхом простого видалення дублікатів, створення 301 редиректів, заборони на індексування дублікатів в файлі robots.txt або в мета-тегах окремих сторінок, використання директиви rel = "canonical" і іншими способами.
внутрішньотекстові заголовки
Чітко структуруйте текстові публікації. Використовуйте заголовки (тег- для самих значущих з них), підзаголовки декількох рівнів, виділяйте окремі фрагменти тексту жирним шрифтом, курсивом.
В ідеалі на сторінці повинен бути присутнім лише один заголовок першого рівня, який містить в собі два-три заголовка другого рівня, в яких, в свою чергу, "вкладені" заголовки рангом поменше і так далі. Структура документа повинна мати приблизно такий вигляд:
При цьому важливо знати міру: занадто багато заголовків і ключових слів, виділених жирним шрифтом, відштовхнуть читачів не менше, ніж монотонний неструктурований текст. Продумане форматування тексту значно полегшує читачеві сприйняття тексту, а заголовки з важливими словами ще і позитивно позначаються на SEO. А найкращий спосіб структурування текстів на сайті - думати, перш за все, про людей і зробити кілька легких «реверансів» у бік пошукових машин.
зображення
Часто відвідувачі шукають інформацію по картинках, і таких користувачів дуже багато. Google і Яндекс надають всім бажаючим пошук за картинками, де за допомогою ключових слів кожен може знайти потрібні зображення.
А якщо є пошук, значить, є і трафік, який можна використовувати в своїх цілях. Правильна оптимізація зображень під пошукові системи дозволить привести на сайт трафік і посилити позиції документів по просуваються запитам.
Найголовніші атрибути картинок це ALT і Title. Завантажуючи картинку до посту, потрібно лише прописати ці атрибути і ваші картинки приведуть Вам відвідувачів.
Для цього проаналізуйте всі важливі зображення навашем сайті, тематично пов'язані з навколишнім їх текстовим контентом. Для повноцінного індексування імен графічних файлів, а також значення атрибута alt тега повинні містити слова, що описують зображення, і бажано ключові слова сторінки. При цьому зробіть різними ім'я файлу ізначеніе атрибута alt.
Слова в назві файлу варто розділяти дефісами, а не знаками підкреслення. Для опису слід використовувати саме атрибут alt, анеtitle, ионо має бути краткім- НЕ Ліннее 150сімволов, з усіма важливими словами на початку тексту.
Звичайно, дуже добре б було, якби картинки були унікальними, а не просто зображеннями, які першими потрапили під руку, або ж знайденими в інтернеті.
Подбайте про швидкої завантаженні всіх зображень, розміщених на сайті: видаляйте всі зайві області, встановлюйте розмір картинок не вище мінімально необхідного, оптимізуйте їх в графічному редакторі з використанням вбудованих інструментів підготовки картинок для інтернету.
Етап 5. Аналітика
Покращуйте метрики, щоб легко знаходитися в пошуку за допомогою рекомендованих інструментів:
Seolib.ru - автоматично моніторить зміни позицій сайту у видачі всіх пошукових систем. Контролює видимість сайту, аналізує якість посилань, знаходить і виправляє помилки оптимізації, працює з ядром ключових запитів.
Seopult.ru - сервіс автоматизованого просування сайту. Надає рекомендації по просуванню і зручну систему преднастроек. Закуповує посилання, аналізує ефективність роботи.
MegaIndex - ще один сервіс для автоматизації просування сайту. Експрес-аудит, лічильник відвідуваності, складання семантичного ядра і робота з ключовими запитами, аналіз конкурентів, соціальних і поведінкових факторів.
BotScanner - аналізує дані про відвідувачів сайту і робить висновки про їх якість. Дозволяє відокремити ботів і випадкових відвідувачів від «корисних» користувачів. Оцінює ефективність різних каналів трафіку. Наочно представляє інформацію.
Етап 6. Зовнішній SEO-аудит
Вихідні посилання
Часто власники сайтів уважно ставляться тільки кполученію трастових зворотних посилань, але піклуватися потрібно і про вихідні посилання з вашого сайту на інші ресурси.
Уникайте посилань на неякісні сайти і сайти з поганою репутацією: це буде негативно впливати наваші позиції у результаті пошуку. Якщо розміщення такого посилання все ж неминуче, використовуйте в тезі атрибут rel зі значенням nofollow ля заборони переходу поссилке для пошукових машин.
Посилайтеся на зовнішній контент, тематично пов'язаний свашей сторінкою, а в текст посилань намагайтеся включати слова, що описують цільову сторінку.
Регулярно проводите перевірку на наявність битих посилань, тобто тих, перехід за якими призводить до помилок з кодом виду 4xx або 5xx. Для цього можна використовувати Link Checker від W3C і інші сервіси.
зворотні ПОСИЛАННЯ
Ранжирування посилань все ще працює, і нам варто брати до уваги кількість і якість вхідних посилань, хоча тенденції і говорять про зниження в майбутньому їх значення для просування сайту.
Скористайтеся такими сервісами, як Majestic SEO , Open Site Explorer , Ahrefs або інструментами для веб-майстрів від Яндекса і Google, щоб дізнатися, яка кількість сайтів посилаються на ваш сайт, чи пов'язані вони тематично свашім сайтом і чи є вони трастовими.
Якщо на вас посилається безліч якісних сайтів з тієї ж галузі, ви купуєте високий авторитет. Якщо ж ці сайти мають погану репутацію і містять контент низької якості, пошукові системи починають вважати таким і ваш сайт.
Намагайтеся купувати зворотні посилання, втексте яких присутні потрібні вам ключові слова. У цій справі треба знати міру: велика кількість вхідних посилань з іншої сайтів з однаковим або схожим анкорний текстом може призводити до зниження позицій вашого сайту в пошуку за що містяться в тексті посилань ключовими словами. Загальна маса зворотних посилань на ваш сайт має виглядати природною для пошукових машин: нехай одні посилання мають в анкорах ключові слова, інші заклики до дії, на кшталт «клацніть тут», «ознайомтеся», або інший нейтральний текст.
RotaPost - покупка посилань і оглядів, реклама в блогах. Майданчик пов'язує рекламодавців з власниками блогів, мікроблогів і новинних сайтів, готових надати свої ресурси для розміщення посилань.
B2Blogger - сервіс по розсилці прес-релізів в Рунеті. Допомагає поширювати прес-релізи за тематичними ресурсів, транслює публікації в новинні агрегатори Яндекс і Google. Добре індексується пошуковими системами і сервісами моніторингу.
Pr.Sape - біржа покупки вічних посилань. Сервіс пропонує різні ступені налаштування, від ручної до повної автоматизації. Дозволяє налаштовувати бюджети, фільтрувати майданчики, контролювати індексацію посилань, купувати посилання в соціальних мережах.
Міралінкс - інструмент статейного маркетингу. Вручну розміщує статті на вручну ж перевірених майданчиках. Є банк готових статей, написаних копирайтерами компанії.
GoGetLinks - ще одна біржа покупки вічних посилань. Пропонує розміщувати посилання в нотатках, контекстні посилання і посилання в картинках. Автоматизує процеси, створює замітки.
SEO-аналіз сайтів-конкурентів
Важливою частиною аудиту є вивчення стратегій і помилок ваших конкурентів в області SEO.
Захист від негативного SEO
Негативна пошукова оптимізація об'єднує сукупність чорних і неетичних методів і технологій, якими користуються конкуренти, щоб знизити позиції вашого сайту в пошуковій видачі або взагалі забанити його в пошукових системах. Ось деякі способи досягти цих цілей:
- хакерська атака і злом сайту;
- поширення тисяч спамерських посилань на вашому сайті через коментарі;
- створення клонів вашого сайту ікопірованіе контенту без вашого дозволу;
- створення підроблених профілів всоцсетях, через які поширюється негатив проти вашої компанії і сайту;
- видалення трастових посилань з інших сайтів на ваш сайт.
Висновок
Грамотно проведений SEO-аудит не тільки зробить ваш сайт більш дружнім по відношенню до пошукових систем, але і одночасно підвищить його юзабіліті і цінність для відвідувачів.
За умови правильного і регулярного виконання (не рідше двох разів нарік) аудит значно збільшує трафік- як пошуковий, так і інші його види, адже користувачі люблять зручні сайти і повертаються на них знову ізнову.
Як проаналізувати швидкість завантаження сайту?Як писати: «Твіттер» або «Твітер»?