Baza wiedzy Pozycjonowanie

Rodzaje kar nakładanych na pozycjonowane strony

Wyszukiwarka Google nakłada kary na strony, które podczas pozycjonowania złamały jeden z punktów regulaminowych. Kary mogą być następujące:

  • ban – najpopularniejszy rodzaj kary przyznawany przez wyszukiwarkę Google. Jest to zarazem największa kara, jaka może spotkać stronę www i wiąże się z usunięciem z wyników wyszukiwania. Pocieszające jest to, że aby zasłużyć sobie na tego typu karę, trzeba totalnie naruszyć regulamin wyszukiwarki. Przyczynami zbanowania pozycjonowanej witryny mogą być:
    • ukryty tekst – kara nakładana jest w wypadku wykrycia przez wyszukiwarkę Google istnienia kodu w źródle strony, który wyświetla treść poprzez sztuczki, np. poprzez arkusz styli css. Ukrywana treść to jedna z pierwszych metod nielegalnego pozycjonowania. Służyła stuningowaniu istniejącej treści poprzez zwiększenie gęstości słów kluczowych na witrynie w sposób niewidoczny dla użytkowników i bez szkody dla wyglądu witryny. Szybko zaprzestano tej metody, gdy tylko roboty wyszukiwarki Google nauczyły się rozpoznawać takie działanie,
    • ukryte linki – kara nakładana w przypadku odnalezienia przez Google linków, które są niewidoczne z perspektywy okna przeglądarki, a figurują w źródle pozycjonowanej strony. Jest to jedna z bardziej popularnych metod pozycjonowania nastawiona na polepszenie linkowania wewnętrznego na stronie oraz na budowanie odwołań z zewnętrznych stron, bez strat wizualnych,
    • nadmierna liczba subdomen w domenie – kara nakładana za wykrycie sytuacji, kiedy właściciel domeny w sztuczny sposób generuje ilość swoich podstron. Działania takie mają na celu podniesienie pozycji strony za pomocą automatów, które generują ogromną ilość subdomen w danej domenie,
    • doorway page – to przygotowana strona specjalnie pod kątem wyszukiwarek. Zadaniem takiej strony jest zbieranie ruchu z wyszukiwarek na rzecz innej pozycjonowanej strony. Praktyka ta jest zabroniona przez mechanizmy wyszukujące – robot zwykle odrzuca z indeksowania stronę tego typu. Zdarza się, że strona, która ma być pozycjonowana z pewnych przyczyn (budowa strony, brak dostępu, brak zgody na zmiany w kodzie) uniemożliwia jej osiąganie wysokich pozycji. Jest to metoda trudno wykrywalna przez roboty, a jej umiejętne wykorzystanie może przyczynić się do znacznego przyrostu odwiedzin pozycjonowanej strony. Jest rzadziej stosowaną metodą od innych. Ma na to wpływ fakt, że koszt pozycjonowania rozlicza się głównie na osiągnięte pozycje, a sposób rozliczania przez liczbę odwiedzin jest mniej popularny,
    • przekierowania – jest to metoda spokrewniona z metodą doorway page. Różnica polega na tym, że oprócz przekierowywania ruchu z jednej domeny na pozycjonowaną, przekierowywane są także linki prowadzące do pierwotnej domeny. Zdarza się, że duża ilość nieumiejętnych przekierowań może zaszkodzić pozycjonowanej stronie. Poprawne przekierowanie przenoszące moc jednej domeny na drugą to przekierowanie 301, które wstawia się w źródle kodu strony lub w pliku .htaccess. Takie przekierowanie potrafi wstawić jedną witrynę za drugą w rankingu wyszukiwarek dokładnie w to miejsce, gdzie znajdowała się stara domena,
    • cloaking – metoda, która polega na podrzucaniu robotom wyszukiwarek odwiedzającym pozycjonowane witryny innej treści niż użytkownikom odwiedzającym stronę. Kluczową rolę odgrywa tutaj napisanie skryptu, którego zadaniem jest rozpoznawanie, czy witrynę obecnie odwiedza robot wyszukiwarki, czy użytkownik oraz prezentowanie odpowiedniej treści. Skrypt przeważnie rozpoznaje użytkownika poprzez numer IP lub sprawdza nagłówek programu klienckiego. Metoda ta stosowana jest słusznie właściwie tylko w przypadku witryn, z czytaniem których mają problem wyszukiwarki, np. strony napisane w technologii Flash. W takich przypadkach wyszukiwarka Google także sobie radzi z rozpoznaniem podstępu i podszywa się pod zwykłych użytkowników, wysyłając często fałszywe nagłówki. Porównuje następnie treść witryny sprawdzonej w ten sposób z treścią witryny sprawdzoną w sposób standardowy. Jeżeli oba wyniki będą się różniły w większym niż dopuszczalny stopniu, strona zostanie ukarana za tzw. cloaking.
Czytaj  Kupno multikodów do grup katalogów - czy to się opłaca?
  • sandbox – jest to kara, na którą bardzo łatwo się narazić, dlatego pozycjonerzy powinni o niej pamiętać. Jej wrażliwość związana jest z linkami prowadzącymi do strony – konkretnie z ich zróżnicowaniem dotyczącym anchor textu. Stosowany przez wyszukiwarkę filtr powoduje, że dana strona nie wyświetla się w wynikach wyszukiwania pod konkretnym anchor textem. W filtr ten wpadają strony, które są pozycjonowane zbyt mocno po konkretnej frazie kluczowej. Najszybciej filtr wychwytuje strony świeże, które dopiero od niedawna są pozycjonowane. Najlepszym sposobem, by ustrzec się przed taką karą jest równomiernie rozłożone w czasie i rozsądne linkowanie, nie ograniczające się tylko do jednego słowa kluczowego,
  • aging delay – ta kara jest kolejnym mechanizmem obronnym wyszukiwarek, które bronią się przed sterowaniem wynikami przez firmy pozycjonujące. Polega ona na zrzucaniu z wysokich miejsc w wynikach wyszukiwania nowych domen, do których w krótkim czasie zaczęła prowadzić duża ilość linków. Kara ta nie dopuszcza do zajęcia wysokich miejsc przez świeże domeny po konkurencyjnych frazach kluczowych,
  • duplicate content – to następna bardzo dotkliwa kara dla pozycjonerów, która stoi na straży dobrych jakościowo wyników wyszukiwarki. Dobra jakość w tym przypadku oznacza wyniki jak najbardziej unikalne i różniące się między sobą treścią na stronie. Google dba o to, by użytkownicy wyszukiwarki odwiedzając kolejne strony z indeksu, nie tracili czasu na przeglądanie ciągle tych samych informacji dotyczących danego tematu. Duplicate content jest dość uciążliwą karą dla pozycjonerów, ponieważ uniemożliwia albo przynajmniej bardzo utrudnia im tworzenie tzw. spamu pozycjonującego, czyli podobnych witryn pracujących na tej samej bazie danych, ale pod różnymi domenami w celu umieszczania na nich linków pozycjonujących inne serwisy. Wyszukiwarka Google “uodporniła się” na duplicate content i nie pokazuje w swoich zasobach stron o podobnej tematyce, a zduplikowane treści pozbawia jakiejkolwiek mocy pozycjonującej. O tym, czy dana zawartość zostanie uznana za duplicate, czy za oryginał, decyduje Google. Kluczową sprawą jest data pojawienia się strony w indeksie Google. Oryginał powinien pojawić się tam pierwszy, natomiast każda kolejna kopia tej strony powinna być potraktowana jako duplicate, choć nie zawsze się tak dzieje.
Czytaj  Google a metatagi
Polecane wpisy
Teksty pod SEO – lepiej zlecić, czy może poszukać gotowych?

Jeżeli zajmujemy się tworzeniem sporej ilości zaplecz pozycjonerskich, zwykle samo pisanie dużej ilości tekstów nie należy wtedy do naszych zadań. Czytaj dalej

Strategia pozyskiwania ruchu na stronie internetowej
Strategia pozyskiwania ruchu na stronie internetowej

Po pierwsze, pozyskiwanie ruchu na stronie internetowej jest kluczowe dla każdej witryny internetowej. Bez ruchu strona internetowa może być kompletnie Czytaj dalej