Optymalna gęstość słów kluczowych: Odkryj, które używają [STUDIUM PRZYPADKU]
- Wyszukiwanie najlepszego odsetka gęstości słów kluczowych
- Procedura testowania SEO: sprawdzanie, obliczanie i narzędzie
- Wyniki testów online w Google
- Co możemy wywnioskować z tego małego eksperymentu dotyczącego gęstości słów kluczowych SEO?
- Szczególny przypadek
W tym studium przypadku SEO dowiesz się, czy przyswajając artykuł słowami kluczowymi w nienaturalny sposób, jesteś nagradzany przez Google, czy nie .
Jeden z najbardziej znanych mity na temat SEO (w rzeczy samej, chyba najbardziej znany ze wszystkich) jest gęstość słów kluczowych .
W rzeczywistości są tacy, którzy utrzymują, że powtarzając pewną liczbę słów kluczowych na stronie internetowej więcej razy, lepsze wyniki uzyskuje się na poziomie Pozycjonowanie SEO w Google witryny ,
Każdy, kto wie trochę o SEO, wie, że to mit, ale osobiście nie zrobiłem jeszcze testu na ten temat.
Oto mały eksperyment SEO.
Wyszukiwanie najlepszego odsetka gęstości słów kluczowych
Do dzisiejszego studium przypadku SEO napisałem 40 artykułów dotyczących różnych tematów (zdrowie, moda, małżeństwo).
Każdy z tych artykułów został zoptymalizowany pod kątem konkretnego zapytania, zgodnie z klasycznymi zasadami SEO dotyczącymi optymalizacji strony: tytuł, H1, metatitle, metadeopis, alt-tag obrazów ... Krótko mówiąc, klasyczne dobrze znane elementy.
Każdy z tych artykułów został „zoptymalizowany” : w tekście każdego artykułu słowo kluczowe celu było wielokrotnie powtarzane, nienaturalnie.
Dzięki temu artykuły osiągnęły dość wysoką gęstość słów kluczowych .
Opublikowałem każdy z tych artykułów na 40 stronach internetowych i czasopismach internetowych o różnym autorytecie.
Analizowałem pozycje uzyskane z tych artykułów.
Następnie poprosiłem czasopisma internetowe i strony internetowe o „wyczyszczenie” artykułów , co spowodowało, że gęstość słów kluczowych spadła do mniejszej i bardziej naturalnej wartości procentowej, eliminując nadmierne powtórzenia.
Po 3 tygodniach ponownie sprawdziłem wyniki pozycjonowania artykułów.
Uwaga : w tym eksperymencie nie chciałem symulować rzeczywistego wypychania słów kluczowych, osiągając przesadną gęstość.
Wolałem symulować pracę copywriter, który przesadza z powtórzeniami, pisząc w przesadnie zoptymalizowany sposób.
Procedura testowania SEO: sprawdzanie, obliczanie i narzędzie
Zacznijmy od danych.
Średnia długość artykułów wynosi 600 słów , a każdy artykuł ma około 19 razy więcej słów kluczowych (biorąc pod uwagę również tag-top obrazu). Gęstość słów kluczowych wynosi zatem średnio 3,2% , co sprawia, że artykuły są czytelne, ale dość ciężkie i nienaturalne , zwłaszcza biorąc pod uwagę, że słowa kluczowe składają się średnio z 3 lub 4 terminów.
Istnieje 40 publikacji.
Jako benchmarki wziąłem DA Moz i ZA z SeoZoom, aby ocenić odpowiednio autorytet (głównie z powodu linków przychodzących) oraz ruch i organiczne pozycjonowanie stron.
Oczywiste jest, że te parametry są jedynie szacunkowe i że jakość witryn (zwłaszcza linków przychodzących) musi być sprawdzana „ręcznie”. Zgłaszam te parametry, aby zobrazować te strony.
Oto ekran z niektórymi wartościami ZA niektórych witryn użytych do testu:
Średnia wartość ZA z 40 stron wykorzystanych w tym studium przypadku wynosi 30,36.
Średnia DA z 40 miejsc jest równa 26,59.
Po tygodniu publikacji wszystkie artykuły były indeksowane przez wyszukiwarkę.
Średnio witryny zajmowały 54.58 w Google.it.
Z tej liczby usunąłem 7 stron , nie wpisanych do pierwszej 100.
Jeśli wydaje się słaby wynik, musimy wziąć pod uwagę, że:
- Użyłem witryn o dość zróżnicowanej wartości, z możliwością uzyskania ruchu i pozycjonowanie organiczne od doskonałego do biednego;
- o ile słowa kluczowe składają się z 3 lub 4 terminów, użyte słowa kluczowe mają dość wysoki poziom konkurencji, co sprawia, że ich pozycjonowanie jest bardziej złożone.
Po zarejestrowaniu tych danych poprosiłem o zmodyfikowanie zawartości artykułów.
Ze średnio 19 powtórzeń słowa kluczowego w każdym artykule przenieśliśmy się do średnio 8 powtórzeń , z nową gęstością słów kluczowych 1,3%.
Po 3 tygodniach sprawdziłem położenie witryn pod kątem omawianych słów kluczowych.
Z ogólnej oceny musiałem odrzucić kolejne 6 stron , ponieważ stanowiły one zapaść lub zbyt oczywisty wzrost ruchu i ogólnego położenia w ujęciu organicznym.
W tym 3-tygodniowym przedziale czasowym niektóre witryny znacznie zwiększyły swój ogólny ruch organiczny lub drastycznie spadły. Zliczenie tych stron w tym studium przypadku byłoby mylące, biorąc pod uwagę, że różnice w pozycjonowaniu artykułów w tych przypadkach są prawdopodobnie bardziej związane z czynnikami niezwiązanymi z gęstością słów kluczowych pojedynczego artykułu, ale z innymi elementami.
Mówiąc prościej, SeoZoom (instrument użyty w tej analizie) stwierdził, że szacunek ruchu był zbyt różny od poprzednich 21 dni.
Również wyeliminowanie tych 6 miejsc 27 pozostaje do rozważenia na potrzeby testu.
Wyniki testów online w Google
A oto werdykt na obrazku poniżej: w pierwszej kolumnie można zobaczyć pozycjonowanie z największą gęstością słów kluczowych; w drugiej kolumnie pozycjonowanie z niższą gęstością słów kluczowych w odstępie 3 tygodni, aw trzeciej kolumnie znajduje się zmienność pozycjonowania.
Spośród 27 pozostałych miejsc, 20 poprawiło swoje pozycjonowanie przy niższej gęstości kwantowej.
Jednak w 6 przypadkach nastąpiło pogorszenie . W jednym przypadku pozycjonowanie pozostało takie samo.
W żadnym przypadku nie przeprowadzono żadnej operacji budowania linków w stosunku do omawianych stron.
Co możemy wywnioskować z tego małego eksperymentu dotyczącego gęstości słów kluczowych SEO?
Ten eksperyment z pewnością ma ograniczenie w liczbie dość niskich publikacji (tylko 40, a następnie netto usuniętych stron, które stały się 27).
Innym ograniczeniem jest to, że Google stale się rozwija , więc nie jest łatwo „wyczyścić” zmiany ze względu na zmiany w treści spowodowane aktualizacją algorytmu. Między innymi dane zostały zebrane w środku okresu „Fred update”.
Nie można zatem z pewnością wykazać, że zmniejszenie gęstości słów kluczowych prowadzi do poprawy pozycjonowania , ani też nie jest celem tego studium przypadku SEO.
Średnia poprawa to w rzeczywistości tylko 4,26 pozycji, za mało, biorąc pod uwagę, że są to pozycje daleko od pierwszej strony, a zatem bardziej „zmienne”.
Jednak równie jasne jest, że średnie „pozycjonowanie” nie ulega pogorszeniu po „czyszczeniu”.
Moim zdaniem zaświadcza się, że większa gęstość słów kluczowych nie prowadzi do lepszego pozycjonowania.
Nie ma więc „optymalnej gęstości kw” , która jest czasami wymagana w grupach i forach SEO na Facebooku.
Wstawianie słowa kluczowego w odpowiednie pola jest nadal bardzo ważne (zwłaszcza w tytule i metatycie), jednak nienaturalne powtórzenie nie prowadzi do poprawy rankingu.
Szczególny przypadek
Był też dość szczególny przypadek: czy pamiętasz, że 7 stron zostało odrzuconych, ponieważ nie weszły do pierwszej 100?
Cóż ... Jeden z nich, po oczyszczeniu zawartości, wskoczył na pozycję 28 w Google.it.
Jest to strona z tematem zdrowia i dobrego samopoczucia, z DA 18 i ZA 30.
Początkowo w tym artykule słowo „srebro koloidalne w farmacji” zostało powtórzone 18 razy. Następnie słowo kluczowe zostało powtórzone dokładnie dwa razy, a inne razy nie dokładnie.
Czy ten wzrost wynika z niższej gęstości słów kluczowych? Nie możemy wiedzieć , ale jest to interesujący przypadek, na który chciałem zwrócić uwagę.
Stworzyłem 4 darmowe filmy, w których wyjaśniam moją dokładną metodę poprawy pozycjonowania stron internetowych w Google , aby umożliwić Ci uzyskanie tych samych wyników.
Pobierz je za darmo , klikając przycisk poniżej filmu i rozpocznij tę podróż ze mną. W przeciwnym razie kontynuuj czytanie artykułu poniżej.
4 VIDEO + PDF: Odkryj moją prostą metodę pozycjonowania Google , krok po kroku i praktyczne , dla WSZYSTKICH stron internetowych
Co możemy wywnioskować z tego małego eksperymentu dotyczącego gęstości słów kluczowych SEO?Czy ten wzrost wynika z niższej gęstości słów kluczowych?