Сышышь ты, выходи сюда,
поговорим !

Powielone strony w Joomla - przyczyny, błędy i rozwiązania

  1. Jak więc wyszukiwarki wyszukują duplikaty stron?
  2. Dlaczego muszę pozbyć się duplikatów stron?
  3. 5 sposobów na pozbycie się duplikatów stron
  4. 1. Robots.txt dla Joomla
  5. 2. Przekierowanie 301
  6. 3. Metatag Roboty
  7. 4. Usuń adres URL z panelu Webmasterzy.
  8. 5. X-Robots-Tag
  9. Wniosek

Tak więc duplikaty są identycznymi dokumentami w witrynie, które są dostępne za pośrednictwem różnych adresów URL

Tak więc duplikaty są identycznymi dokumentami w witrynie, które są dostępne za pośrednictwem różnych adresów URL. W rzeczywistości zduplikowane strony są słabym punktem każdego systemu CMS, a nie tylko Joomla. Wszystkie te strony są nieszkodliwe, dopóki nie zostaną zaindeksowane przez wyszukiwarkę. Najważniejszą rzeczą jest podążanie za indeksowaniem i natychmiast podejmowanie działań w celu usunięcia takich stron z wyników wyszukiwania, ale jeszcze lepiej jest przemyśleć strukturę strony z wyprzedzeniem, a tym samym uniknąć takich sytuacji.

Najważniejszym powodem pojawienia się duplikatów jest niewłaściwa struktura strony. Przede wszystkim musisz przemyśleć hierarchię kategorii i elementów menu. Jeśli wcześniej utworzysz kilka kategorii, pomoże to uniknąć duplikowania stron w przyszłości.

Przyjrzyjmy się najczęstszym błędom. Załóżmy, że masz kategorię „Wiadomości” i ma ona kilka podkategorii - „Polityka”, „Ekonomia” itd., A także wszystkie materiały, które łączysz z kategoriami dzieci. Jeśli tworzysz pozycje menu tylko dla podkategorii, na przykład „Polityka”, wtedy linki (dla materiałów) mogą być:

https://website.com/politics/23-material https://website.com/1-news/politics/23-material https://website.com/1-news/2-politics/23-material https : //website.com/index.php? option = com_content & task = view & id = 23 & Itemid = 1

I tak dalej itd. - będziesz mieć różne możliwości generowania adresu URL, a wszystkie będą tylko kopiami tej samej strony. To jest przykład tego, jak nie powinno być. Ponadto wyszukiwarki mogą indeksować techniczne kopie, które są dostępne za pośrednictwem linków „Drukuj”, „PDF”, „Wyślij do znajomego”.

Powinieneś przemyśleć strukturę i zdefiniować główne kategorie i podkategorie już na początku tworzenia swojej witryny. Wraz ze wzrostem zasobów nie ma potrzeby zmiany istniejącej struktury, wystarczy dodać dodatkowe sekcje. Restrukturyzacja witryny w szczytowym momencie rozwoju będzie po prostu porażką. Ponadto niektóre strony (i wszystkie złe) zmienią swoje adresy, co doprowadzi do poważnej utraty pozycji w wynikach wyszukiwania i odwiedzinach.

Jak więc wyszukiwarki wyszukują duplikaty stron?

Najczęstszym powodem jest to, że rozszerzenia są instalowane na stronach internetowych Joomla. Przykładem jest moduł wiadomości na stronie głównej, który może podawać różne adresy. Czasami takie duplikaty stron są widoczne nawet na mapie witryny, na przykład, jeśli masz zainstalowany komponent Xmap.

Jeśli Twoja witryna jest już zaindeksowana, nie jest trudno znaleźć duplikaty treści, wystarczy skopiować kilka unikalnych tekstów ze strony i wstawić ten materiał (w cudzysłowie) do wyszukiwarki Google. Jeśli witryna nie jest indeksowana, możesz spróbować XENU (w przypadku, gdy witryna nie jest zbyt duża).

Dlaczego muszę pozbyć się duplikatów stron?

Wyszukiwarkom się to nie podoba i nie próbują indeksować stron internetowych z dużą liczbą identycznych stron, ponieważ ich potrzeba wyszukiwania staje się wątpliwa. Podczas optymalizacji stron dla określonych słów kluczowych wybierane są najbardziej odpowiednie strony, a treść jest zoptymalizowana dla nich. Jeśli takie strony mają duplikaty, podczas aktualizacji wyszukiwarki mogą zastąpić odpowiednie strony ich dubletami (temu towarzyszy gwałtowny spadek pozycji i spadek ruchu).

5 sposobów na pozbycie się duplikatów stron

Każdy temat (strona internetowa) jest wyjątkowy, spójrzmy na najpopularniejsze metody, które działają w 99% przypadków. Wybierz jedną z tych metod lub użyj ich w kombinacji. Ogólnie rzecz biorąc, rozwiązania te można zastosować do dowolnego innego systemu CMS.

Wszystkie te przykłady są ważne, jeśli uwzględniono standardowe ustawienia SEF i przekierowania stron w ustawieniach ogólnych.

1. Robots.txt dla Joomla

Ten plik znajduje się w standardowym pakiecie Joomla, znajdującym się w katalogu głównym i jest dostępny na stronie internetowej.com/robots.txt. Pokazuje wyszukiwarkom, jak indeksować witrynę. Dzięki niemu możesz zamknąć niektóre części witryny. Dodatkowo możesz użyć następującej instrukcji dla danych domyślnych:

Disallow: / *? # żaden link zawierający ten znak nie będzie indeksowany *

Tylko jedna linia uratowała cię przed zapisaniem takich śmieci jak:

  • strony do drukowania;
  • linki do kanałów RSS;
  • Strona wyników wyszukiwania w witrynie
  • zamyka również nawigację po stronach;
  • jak również wiele innych opcji, w zależności od zastosowanych rozszerzeń.

To od ciebie zależy, czy użyjesz tej linii, czy nie, ale zawsze pamiętaj, że zbyt duży plik robota jest uważany za całkowicie rozwiązany. Zauważ, że ta linia nie powinna nakładać się na coś ważnego, takiego jak mapa witryny, więc możesz po prostu dodać linię Zezwalaj: / mapa witryny.

2. Przekierowanie 301

Przekierowanie 301 jest odpowiednie dla przypadków, w których zmieniono adresy, a dokumenty nadal istnieją. W tym przypadku, aby poprawnie powiązać, musisz użyć przekierowania 301 w pliku .htaccess. Wyszukiwarki zrozumieją zatem, że dokument został przeniesiony na nowy adres. Ta metoda pozwala zapisać zarówno frekwencję, jak i PR.

Przekierowanie 301 można również wykorzystać do przyklejenia duplikatów stron. Na przykład szeroko używane duplikaty strony głównej w witrynach Joomla: /index.php i alias menu głównego, na przykład / home lub / strona główna. Mogą być po prostu sklejone razem - otwórz plik .htaccess i wprowadź:

Przekieruj 301 /index.php http://site.com/

... lub możesz również przekierować 301 w pliku index.php swojego szablonu:

<? php if ($ _SERVER ['REQUEST_URI'] == '/index.php') {header ("Lokalizacja: /", TRUE, 301); exit (); }?>

Oto klasyczny przykład adresu URL z www i bez:

RewriteEngine On RewriteCond% {HTTP_HOST} ^ www.example.com $ [NC] RewriteRule ^ (. *) $ Http://example.com/$1 [R = 301, L]

Tutaj Możesz znaleźć różne opcje korzystania z przekierowania 301.

3. Metatag Roboty

Inną opcją zapobiegającą indeksowaniu duplikatów stron jest użycie metatagu robots:

<meta name = "robots" content = "noindex" />

W tej chwili ta opcja jest znacznie lepsza dla Google niż użycie instrukcji w pliku robots.txt. Na przykład, aby zamknąć strony wyników wyszukiwania, należy dodać następujący kod do <head> </ head>:

<? php $ option = JFactory :: getApplication () -> input-> getCmd ('option', ''); if ($ option == 'com_search'):?&gt; <meta name = "robots" content = "noindex" /> <? php endif; ?>

4. Usuń adres URL z panelu Webmasterzy.

Innym sposobem pozbycia się duplikatów jest ich ręczne usunięcie z panelu dla webmasterów Google:

https://www.google.com/webmasters/tools/home?hl=en

5. X-Robots-Tag

Google zaleca używanie X-Robots-Tag jako alternatywy dla czwartej metody.

HTTP / 1.1 200 OK Data: Wt, 25 maja 2010 21:42:43 GMT ... X-Robots-Tag: noindex ...

Wniosek

Jak widać, istnieje wiele sposobów wyeliminowania duplikatów. Sprawdź je i wybierz dla siebie najbardziej odpowiedni. Odwiedź także sekcję Pozycjonowanie, promocja strony na Joomla (SEO) na joomlaforum.ru - tam znajdziesz wiele przydatnych informacji na ten temat.

Jak więc wyszukiwarki wyszukują duplikaty stron?
Dlaczego muszę pozbyć się duplikatów stron?
Php?
Jak więc wyszukiwarki wyszukują duplikaty stron?
Dlaczego muszę pozbyć się duplikatów stron?
Php if ($ _SERVER ['REQUEST_URI'] == '/index.php') {header ("Lokalizacja: /", TRUE, 301); exit (); }?
Php $ option = JFactory :: getApplication () -> input-> getCmd ('option', ''); if ($ option == 'com_search'):?
Gt; <meta name = "robots" content = "noindex" /> <?
Php endif; ?
Com/webmasters/tools/home?