Сышышь ты, выходи сюда,
поговорим !

Почему жизненно важно использовать LSI в оптимизации сайта?

Опубликовано: 02.09.2018

Здравствуйте, друзья. Как всегда, когда мне удается узнать что-то интересное, то я делюсь этим с вами. Вот и сегодня хочу поднять очень важную тему для любого владельца сайта или блога. Думаю, эта статья многих удивит, а некоторых и ошарашит. Речь пойдет об оптимизации страниц, и о том, правильно ли мы её делаем. Да и вообще – надо ли ее делать. Тема интересная и важная, так что советую дочитать и не полениться оставить своё мнение в комментариях.

Начну с самого начала, так будет понятнее.

Как делается типичная SEO-оптимизация?

Как оптимизировать страницы, знают многие, да и я про это тоже писал . Обычно все поступают так:

Придумывается тема статьи Под эту тему в Яндексе или Google подбираются несколько подходящих запросов – ключевых фраз. Пишется статья с соблюдением правил оптимизации – с употреблением ключей в заголовках, подзаголовках, равномерным их распределении, с учетом плотности ключей на странице и т.п. При публикации статьи ей прописываются правильные метатеги с ключевыми фразами – заголовок, описание, ключи.

Суть проста – найти подходящий запрос и навтыкать его в текст. Все это делается оптимизаторами (и блогерами тоже) из года в год уже очень долго. Статья с напичканными в нужных местах ключевыми фразами считается очень “крутой” и ей пророчатся лучшие позиции в поисковиках. А сайту, соответственно, предсказывается толпа посетителей.

За долгие годы эти правила стали незыблемыми, многочисленные гуру SEO-оптимизации всех научили так делать. Но если мы все такие грамотные и все делаем правильно, почему тогда наши сайты и блоги с таким трудом попадают в ТОП поисковиков, да и то по каким-то странным запросам, а не тем, под которые мы оптимизировали? Да потому что мы забыли одно – поисковики постоянно совершенствуют и усложняют свои алгоритмы!

Теперь, чтобы вы поняли, о чем речь, и связали проблему и следствие, приглашаю посмотреть на работу нашего главного врага и друга в одном лице – поисковик. И на его эволюцию. А потом я расскажу, что такое это загадочное LSI и почему оно так важно.

Как менялись алгоритмы ранжирования в последнее время?

Как всегда, Google впереди планеты всей, и там же все и зародилось. А остальные поисковики, в том числе и Яндекс, рано или поздно только перенимают их приемы работы. Так что смотреть будем на Google, там нужные нам вещи уже работают.

Итак, началось все с того, что в 2011 году программисты Google ввели свой знаменитый фильтр Panda. Панду эту многие блогеры испытали на себе, когда попали в бан. А суть этого новшества была в том, чтобы оценивать, насколько посетители сайта вовлекаются в его изучение. То есть, если сайт неинтересный, некачественный или вообще – откровенное – г-но, то его позиции резко понижались, а то и вообще его блокировали в выдаче. Так поиск Google намного подчистил результаты своей выдачи и на первые места стали выходить сайты с реально качественным и полезным контентом.

Сами разработчики сказали, что алгоритм Панды был самым выдающимся новшеством с 2001 года, и он намного улучшил качество поиска. Но усложнил жизнь владельцам сайтов и блогов – попасть в ТОП стало труднее. С другой стороны, это дало работу толпам оптимизаторов и копирайтеров. Тогда и заговорили о важности поведенческих факторов. Но это еще не все, сказка на этом не заканчивается.

Наступил 2013 год и программисты Google не угомонились, а ввели еще один фильтр, под названием Hummingbird – то бишь Колибри. И вот здесь мы вплотную подошли к понятию LSI.

Что делает Колибри? О, это целый прорыв в область искусственного интеллекта! Этот алгоритм умеет анализировать и ранжировать сайты не по ключам, а по смыслу и содержанию. Ему глубоко наплевать, какие ключи натолкал в текст оптимизатор – он смотрит на суть этого текста! Он же срабатывает, когда мы в поиске пишем длинные путанные запросы, а поисковик по ним находит именно то, что нужно. Приведу простой пример, который вы можете легко повторить.

Если я напишу в Google запрос “Как испечь блины” или “Как сделать блины”, он выдает горы кулинарных сайтов. где как раз и можно найти всякие рецепты блинов. Но если я пишу “Где взять блины”, то мне выдаются сайты разных спортивных магазинов и спортклубов, потому что здесь Google слово “блин” расценивает как блин от штанги или гантелей!

Откуда он знает, что какие-то блины пекутся, а какие-то надеваются на штангу и какие можно где-то взять, а другие можно только испечь??? И хоть вы тресните, оптимизируя свою статью под слово “блин”, ваша страница никогда не выйдет в ТОП по обоим этим запросам, хотя слово это есть в обоих! Потому что вы можете написать либо про те блины, которые стряпают, либо про те, которые надевают на штангу, либо про какие-то другие. Фильтр Колибри покажет вашу страницу только некоторым искателям “блинов”. Он “знает”, про что именно вы написали, а ключи ваши ему побоку. И даже если вы напишете в запросе другие слова, поисковик может заменить их на близкие по смыслу и все равно выдаст то, что нужно. Вот так вот.

Кстати, Яндекс тоже вот-вот введет подобный алгоритм, работа над этим идет, и об этом давно шумят. А теперь переходим к самому главному

Что такое LSI и почему оно так важно?

Вообще, понятие LSI обозначает Latent Semantic Indexing, то есть латентно-семантическое индексирование. Если говорить простым языком, то Google теперь, когда просматривает и индексирует ваши страницы, не смотрит на ваши хитро расставленные для него ключи. Он оценивает страницу широко, так же, как ее читает человек – анализирует ее смысл и содержание, притом одинаково учитываются и слова с похожим смыслом, и синонимы, и прочие неочевидные вещи. Помните пример с блинами? Что это означает конкретно для нас, владельцев сайтов?

А то, что оптимизировать статьи по прежним правилам сейчас бесполезно, и даже вредно – бан за переспам никто не отменял. А те, кто кричат за прежние правила SEO-оптимизации, просто отстали от жизни, в отличие от поисковиков. Или старые правила – это их хлеб. Сейчас же наступают, да что там говорить, уже наступили, времена LSI – копирайтинга, то есть написания статей по новым правилам, с учетом правил LSI и работы Колибри. Вот только Яндекс еще введет свои наработки, и тогда многие сомневающиеся будут выброшены из поиска. Так что будьте более разумны и действуйте гибче, уже сейчас. В конце-концов, даже один Google дает половину трафика, а это немалая доля. Если учитывать правила LSI, то трафик можно поднять намного.

Так что, совсем забросить работу с ключами и писать вслепую? Нет, конечно, но придется усложнить себе работу при написании статей. Краткую схему я могу назвать такую:

Подбор ключевых запросов, максимально подходящих к теме статьи, низкочастотных. Использование ключей в статье в неизменном виде всего 1-2 раза, в других местах заменять ключевые слова на похожие по смыслу или синонимы. Например, выражения “купить стиральную” и “приобрести стиралку” для Google равнозначны, алгоритм Колибри его поймет и даже повысит рейтинг за разнообразие. О разнообразии – обязательно надо следить за тошнотой теста. Чем меньше тошнота – тем больше разных слов используется, и это приветствуется. Заменяя слова синонимами, даже ключевые слова, вы понижаете тошноту и увеличиваете авторитет страницы в глазах поисковика. Вся статья должна быть по одной теме, все должно “играть” вокруг основного ключа. Ключ “купить шины Ижевск” в статье про мобильники уже не прокатит, даже если его вставить 20 раз.

Вот, примерно так. К чему это приведет?

Вы получите хорошую, очень релевантную статью по одной конкретной теме. Ее будут читать только заинтересованные посетители, а значит – улучшатся поведенческие факторы. Страница может выйти в ТОП не по одному запросу, а по десяткам, притом самых разных, но близких по смыслу. Например, вашу статью про стиральную машину могут увидеть и по запросу “купить стиралку”, и по “купить автомат”. Страница, а вместе с ней и весь сайт получит большую благосклонность и доверие поисковика и резко пойдет вверх.

Вот, вкратце, и все, что я хотел сказать про LSI. Почему это именно так и не иначе, и верю ли я сам в то, что написал? Да, верю. Это доказывается хотя бы тем, что некоторые страницы этого самого блога попали в ТОП по самым разным запросам, и даже совсем не по тем ключам, которые я сам в них прописывал. Просто поисковик решил, что другим запросам содержание этих страниц больше соответствует. Я долго ломал голову над тем, почему это так, пока не узнал про LSI и алгоритм Колибри. Да и другие моменты заставляют задуматься над тем, что старые правила уже не действуют. Поисковые алгоритмы стали умнее и неудивительно – тот же Google в последнее время не на шутку увлекается разработками в сфере искусственного интеллекта. И эти разработки мы начинаем ощущать на себе через ранжирование наших сайтов.

А копирайтерам совет – очень скоро SEO-копирайтинг в привычном виде умрет, пора осваивать LSI-копирайтинг, будущее за ним. И не такое уж оно далекое, это будущее, возможно, местами оно уже наступило. Задумайтесь об этом. А вот как писать статьи, которые бы удовлетворяли правилам LSI – про это я еще напишу, так что подписывайтесь на новости блога, узнаете сразу же, как только статья будет готова. Там тоже много хитростей, так что не все так просто, как хотелось бы.

rss