Baza wiedzy Informatyka Pozycjonowanie

Jak działają wyszukiwarki?

Wyszukiwarka składa się z czterech podstawowych elementów:
1. Pająk (Spider, Crawler),
Spider czyta tekst na stronie internetowej tak jak przeglądarka. W przeciwieństwie jednak do przeglądarek czyści kod ze znaczników html. Oczywiście jednak bierze pod uwagę najbardziej interesujące go miejsca w kodzie typu: tytuł, nagłówek czy znacznikh1. Czytając stronę, pająk zagłębia się w nią podążając za linkami umieszczonymi na stronie.
2. Bazy danych,
Baza Danych jest indeksowana (najprawdopodobniej po dodaniu nowego wpisu). Tworzy się Indeks. To czy strona pojawi się przy wyszukiwaniu zależy od tego, czy jej została uwzględniona w Indeksie, a nie w Bazie Danych.
3. Indeksu
Indeks to spis wszystkich unikalnych słów wraz z odnośnikami do miejsc występowania ich w bazie danych. Indeks wyszukiwarki można porównać do indeksu, który można znaleźć w książkach – idea jest taka sama.
4. Programu Wyszukującego.
Gdy użytkownik wpisze jakieś hasło w formularzu wyszukiwarki, Program Wyszukujący przeszukuje Indeks w poszukiwaniu tego słowa. Jeśli słowo zostanie znalezione, Program Wyszukujący czyta wszystkie strony z Bazy Danych oznaczone w indeksie jako zawierające dane zapytanie.

Metody oceny stron przez wyszukiwarki
1. Popularność strony – mierzona jest na podstawie liczby wizyt w ciągu określonego czasu oraz czasu spędzonego przez użytkownika
2. Link popularity – określa się za pomocą liczby linków prowadzących do danej strony z innych serwisów.
3. Budowa i zawartość strony – każda strona powinna posiada bogatą treść, oraz zawierać odpowiednią ilość występowania słów kluczowych.
Czynniki wpływające na ocenę strony przez wyszukiwarki
1. Czynniki związane ze stroną:
– Słowa kluczowe w znaczniku „title”
– Słowa kluczowe w Tagach znajdujących się w sekcji „head”
– Słowa kluczowe w tekście strony
– Słowa kluczowe w linkach wewnętrznych serwisu
– Słowa kluczowe w nazwie domeny i urlach
2. Siła domeny
– Historia i data rejestracji
– Wiek domeny
– Siła linków, które prowadzą do domeny
– Sąsiedztwo domeny, tematyka domen podobnych
– Historyczne użytkowanie linków na stronie, historyczna tematycznoś domeny
3. Wynik linków przychodzących
– Wiek linków
– Jakość domen, z których prowadzą linki
– Jakość podstron poszczególnych serwisów, z których prowadzą linki
– Teksty i tytuły linków
– Ilość linków w ujęciu ważonym
– Tematyka witryn podstron, z których wychodzą linki do strony
4. Wpływ użytkowników
– Historyczna klikalność strony internetowej w wynikach organicznych
– Czas spędzony przez użytkownika na stronie
– Wyszukiwania w wyszukiwarce Google adresu i url
– Historyczne działanie użytkowników i użytkowanie narzędzi, które Google można monitorowa

Czytaj  Usuń uporczywe pliki i foldery za pomocą darmowych narzędzi!

„Czynniki niekorzystne
Niedostępność serwera dla botów indeksujących
Jeśli serwer jest przez większą część czasu dostępny i pracuje poprawnie, wszystko jest w porządku. Niekiedy jednak serwery odrzucają połączenie z botem lub są mocno awaryjne, jak więc strony na nich postawione mają być wysoko w rankingu?

Podobna lub zduplikowana zawartość strony
Jeśli zawartość strony zostanie potraktowana jako duplikat . twoja pozycja w rankingu będzie niska. Staraj się nie kopiować zawartości od innych.

Linki zewnętrzne do słabych stron
Linkowanie do kiepskiego sąsiedztwa oznacza ciebie jako rezydenta takiej samej strony. Starajmy się tego unikać.

Duplikowanie meta-tagów na wielu podstronach
Filtry wyszukiwarek są coraz bardziej bezwzględne. Jeśli strona ma niewiele zawartości, a jedynie duplikuje inną stronę . szybko spadnie na sam dół wyników.

Sprzedawanie / kupowanie linków
Może być przyczyną spadku, pod warunkiem że zostanie wykryte. Zmniejsza także wartość linków wychodzących.

Spamowanie/ Stuffing (zbyt duża liczba słów kluczowych)
Kontrowersyjna kwestia. Czemu? Strony ze słowem .viagra. pełne spamu mają się nieźle Generalnie jeśli bardzo przesadzi się z liczbą słów kluczowych, może to wpłynąć negatywnie na pozycję w rankingu.
Bardzo słabe czasy odpowiedzi serwera
Opinie są podzielone. Prawdą jest, że ogranicza indeksowanie danej strony przez robota.

Mała liczba odwiedzających
Prawdopodobnie w przyszłości będzie na to kładziona większa uwaga. Na razie możemy tylko zgadywać.”

Polecane wpisy
Najnowsze Aktualizacje Algorytmu Google: Co Specjaliści SEO Muszą Wiedzieć
Najnowsze Aktualizacje Algorytmu Google: Co Specjaliści SEO Muszą Wiedzieć

Kiedy tylko Google wydaje nową aktualizację algorytmu, świat SEO drży w posadach. Te zmiany potrafią namieszać w rankingu stron, a Czytaj dalej