Wewnętrzna duplikacja treści – 9 metod na eliminację internal duplicate content

| czas czytania: 5 min | SEO
duplikacja tresci

Duplikacja treści to zjawisko negatywnie wpływające na proces pozycjonowania. Kopie mogą powstać na skutek umyślnego działania właściciela witryny (powielanie i kradzież tekstów z innych serwisów) oraz w wyniku błędu lub niedopatrzenia pewnych kwestii technicznych. Najłatwiej zapanować nad wewnętrzną duplikacją treści, czyli występowaniem takiego samego contentu na różnych podstronach lub w sekcjach strony internetowej. Gdzie poszukiwać internal duplicate content i jak sobie z nią poradzić? Poznaj 9 sposobów na eliminację kopii treści występujących w serwisie!

Duplikacja treści wynikająca z różnych adresów URL strony głównej

Jedną z przyczyn wewnętrznej duplikacji treści jest istnienie strony głównej pod różnymi adresami URL, np.:

  • domena.pl
  • domena.pl/index.html.

Wyszukiwarka każdy z tych adresów traktuje jako osobną stronę internetową; jedna z wersji zostanie uznana za oryginalną, a pozostałe staną się w oczach Google kopiami. Aby nie dopuścić do takiej sytuacji, możemy:

  • Poprawić strukturę i skrypt serwisu, unikając powstawania różnych URL-i dla tej samej strony,
  • Wdrożyć przekierowania 301 na docelową wersję strony głównej,
  • Zaimplementować przekierowanie kanoniczne wskazujące wyszukiwarce adres www, który powinien zostać przez nią zaindeksowany.

Najczęściej najprostszym rozwiązaniem są przekierowania 301. Niekiedy za generowanie różnych adresów URL dla tej samej podstrony odpowiedzialny jest system CMS lub konkretna templatka (motyw/szablon strony).

Kopie treści spowodowane błędnym wdrożeniem SSL i HTTPS

Wdrażając certyfikat SSL, należy pamiętać o przekierowaniu strony z http na https. Jeśli nie zastosujemy 301, dla wyszukiwarki będą istniały dwie witryny o takiej samej treści, co spowoduje duplikację, narażając serwis z HTTPS na spadki pozycji w wynikach wyszukiwania.

Ważne! Podczas implementacji certyfikatu SSL zadbaj również o to, aby w narzędziu Search Console założyć nową usługę dla domeny z HTTPS, co pozwoli na monitorowanie stanu właściwej witryny.

Powielona treść na wersji deweloperskiej serwisu

Podczas odświeżania lub zmiany wyglądu strony internetowej bardzo często webdeveloperzy tworzą tzw. deweloperską (lub produkcyjną) wersję serwisu, która dostępna jest tylko dla wybranej grupy użytkowników. Dzięki temu obecna wersja witryny funkcjonuje w sieci, a nową można spokojnie udoskonalać. Najczęściej strona deweloperska zostaje zablokowana przed indeksacją, co pozwala uniknąć kopii treści.

Jak zablokować stronę przed jej indeksowaniem? Należy skorzystać z tagu meta name=”robots”, wdrażając w deweloperskiej wersji serwisu w sekcji <HEAD> następującą linijkę kodu:

<meta name=”robots” content=”noindex, nofollow”>.

Można także posłużyć się plikiem robots.txt, blokując dostęp do serwisu dla wszystkich robotów indeksujących:

User-agent: *
Disallow: /

Z kolei przed opublikowaniem nowej wersji serwisu sprawdź, czy komendy zabraniające indeksowania zostały usunięte. Jeśli nie, witryna wypadnie z indeksu wyszukiwarki, tym samym tracąc zajmowane dotychczas pozycje w wynikach wyszukiwania.

Duplikacja treści w meta tagach i znacznikach Title

Kopie treści dotyczą wszystkich elementów witryny, również znaczników Title i meta tagów Description. Każdy tytuł oraz opis strony musi być unikalny, aby była ona dobrze postrzegana przez roboty wyszukiwarki. Jeśli serwis posiada rozbudowaną strukturę i składa się z kilkudziesięciu, a nawet kilkuset podstron warto posłużyć się regułami, które automatycznie stworzą unikalne znaczniki, np. dla e-sklepu schemat Title może wyglądać następująco:

{nazwa produktu} – {nazwa kategorii} – {element brandowy}

Z kolei Description, który ma mniejsze znaczenie dla pozycji strony w wyszukiwarce, może stanowić fragment tekstu zaciągany z treści opublikowanej w serwisie. Dla kluczowych produktów warto znaczniki i meta tagi ustawiać ręcznie, aby przemycić ważne słowa kluczowe, wspomagając tym samym proces pozycjonowania.

Duplikaty w meta tagach odkryjemy dzięki Google Search Console. W sekcji Wygląd w wyszukiwarce – Udoskonalenia HTML sprawdzimy, czy występują zduplikowane opisy lub tytuły strony albo inne błędy związane z wdrożonymi w <HEAD> znacznikami.

Skopiowane opisy produktów, kategorii, nieunikalne treści na listingach

Oczywistą formą wewnętrznej duplikacji treści jest umieszczenie takich samych tekstów na różnych podstronach serwisu, np.

  • Opisów podobnych kategorii produktów (np. buty damskie do biegania, buty damskie do biegania na zimę),
  • Zajawek na listingach (zbiorczych stronach, np. pl/blog) zaciągających treść z artykułu,
  • Kartach różnych wersji tych samych produktów.

Najczęściej z duplikacją treści na kartach produktów zmagają się sklepy internetowe. Bardzo często tworzone są osobne podstrony dla poszczególnych wersji asortymentu, by trafić do osób poszukujących określonych artykułów (np. nike airmax thea rozmiar 27 lub nike airmax thea rozmiar 38,5). W takim przypadku można skorzystać z dwóch najpopularniejszych rozwiązań:

  • Napisać unikalną treść dla każdej wersji produktu (bardzo czaso- i kosztochłonne zadanie, jednak daje możliwość przemycenia indywidualnych słów kluczowych wyszukiwanych przez internautów),
  • Przygotowania jednej treści i wdrożenia przekierowań rel=”canonical” na jeden, główny wariant produktu (dzięki temu Google nie zarejestruje kopii treści, a użytkownik będzie mógł przeklikiwać się swobodnie pomiędzy poszczególnymi wersjami danego artykułu).

Wszystkie parametry techniczne, jeśli są wspólne dla grupy asortymentu, warto prezentować w postaci tabeli przygotowanej jako plik graficzny. W ten sposób unikniemy także wewnętrznej duplikacji treści. Z kolei dla informacji typu rozmiarówka, cennik dostawy, formy płatności należy przygotować osobne podstrony i odsyłać do nich użytkowników z poziomu karty produktów.

Nieunikalna treść z powodu paginacji

Stronicowanie to dzielenie treści na części i umieszczanie jej na kolejnych podstronach. Rozwiązanie jest stosowane, by ułatwić użytkownikom przeglądanie stron oraz wspomóc ich indeksowanie. Niestety paginacja niesie ryzyko zjawiska duplicate content, które występuje, gdy taki sam tekst, same produkty, znaczniki description oraz title będą znajdowały się na różnych podstronach.

Aby stronicowanie nie powodowało wewnętrznych kopii treści, można zastosować jedno z 3 rozwiązań:

  • Kanoniczne adresy URL – rel=”canonical”
  • Atrybuty rel=”prev” i rel=”next”,
  • Kanoniczne adresy URL i atrybuty rel=”prev” i rel=”next”.

Wybór danego rozwiązania zależy od rodzaju podstrony, na której zastosowano paginację.

Sortowanie, parametryzacja, linki afiliacyjne

Sortowanie stosowane w sklepach internetowych, parametry pojawiające się w adresach URL lub linki afiliacyjne tworzone np. przez aplikacje służące do mailingu są najczęściej indeksowane przez wyszukiwarki. W takim przypadku konieczne jest wdrożenie przekierowania kanonicznego na główną wersję podstrony, by zapobiec duplikacji treści w serwisie.

Tagi na blogu

Tagowanie jest wprowadzane jako jedno z rozwiązań linkowania wewnętrznego. Ułatwiają robotom wyszukiwarki indeksowanie witryny. Jednak ich zastosowanie powoduje także duplikację treści, ponieważ każdy tag to nowa, zbiorcza podstrona zawierająca np. zajawki do konkretnej grupy artykułów z bloga. Co można w tym przypadku zrobić?

Dla każdego tagu warto dodać indywidualny opis, który zróżnicuje nieco treść na podstronie. Należy także pamiętać, aby dany artykuł oznaczać jedynie 2-3 tagami, by w ten sposób ograniczyć duplicate content. Tagi teoretycznie można by było zablokować przed indeksacją, ale w ten sposób tracimy zasadność ich wdrożenia w celu poprawy linkowania wewnętrznego.

Wyszukiwarka – kolejny element odpowiedzialny za duplikację treści

Wyszukiwarka to bardzo przydatna funkcjonalność strony internetowej. Jeśli działa poprawnie, dzięki niej internauta może bardzo szybko dotrzeć do interesujących go treści lub artykułów. Jednak ona także jest odpowiedzialna za duplicate content. By temu zaradzić, wystarczy zablokować dostęp dla robotów Google do linków tworzonych przez wewnętrzną wyszukiwarkę za pomocą pliku robots.txt.

Wystrzegaj się wewnętrznej duplikacji treści

Duplicate content jest jedynym z czynników, który negatywnie wpływa na pozycje strony w wynikach wyszukiwania. Choć wewnętrzne kopie treści są mniej groźne niż zewnętrzna duplikacja, zawsze warto starać się je wyeliminowywać. Wyszukiwarka doceni unikalne teksty, dzięki czemu widoczność serwisu wzrośnie w organicznych wynikach wyszukiwania.