Audyt |
Audyt SEO |
Baza wiedzy | Jak działa Google i jak zbiera informacje ?
Jak działa Google i jak zbiera informacje ?
Algorytm wyszukiwarki Google jest tworzony od bardzo dawna (oficjalne otwarcie Google to 4 września 1998 roku), jednak algorytm był opracowywany jeszcze przed oficjalnym startem firmy. Aby poukładać setki milionów stron, w rankingu jedna pod drugą, założyciele wyszukiwarki Google stworzyli skomplikowany algorytm, który ocenia strony na podstawie kilkuset tak zwanych wag. Każda waga odnosi się do innego elementu strony internetowej. Na wynik końcowy składają się wyniki wszystkich wag. W efekcie, algorytm Google pozwala na ułożenie, jedna po drugiej, wielu stron i podstron na różne frazy w konkretnej kolejności. Jednak aby doszło do oceny strony, musi ona wcześniej zostać poddana indeksacji przez robota sieciowego tak zwany bot.
Co robi robot sieciowy czyli bot ?
Aby wyszukiwarka posiadała dane na których może dalej pracować czyli oceniać każdą podstronę aby umieścić ją w odpowiednim rankingu na konkretnej pozycji, musi zostać przeczytana przez robota sieciowego. Robot sieciowy jest przedstawiany w postaci pająka, który jak po nitkach pajęczyny przechodzi z podstron na podstronę kierując się linkami oraz zapisanymi danymi w mapie strony (sitemaps.xml). Jego zadaniem jest przeczytanie jak największej ilości podstron pod danym adresem WWW. Ale błędnie nie odczytajmy tego zdania. Owszem robot sieciowy dąży do odwiedzenia jak największej ilości podstron ale w ramach tak zwanego crawl budget.
Crawl budget, to zmienna ograniczająca ilość czasu jaką może poświęcić robot sieciowy na indeksowanie danej strony. A to oznacza że im więcej czasu robot sieciowy poświęci na walkę z błędami oraz niedziałającymi linkami tym mniej podstron podda indeksowaniu.
Co to znaczy przeczytanie strony przez bota ?
Robot sieciowy tak naprawdę nie czyta strony a jedynie odczytuje i przesyła do serwerów Google pozyskane informacje w celu ich dalszej obróbki (czytaj też badania). Robot sieciowy odwiedzając poszczególne adresy stron (URL), odczytuje tytuł strony, wszystkie meta znaczniki, treści, obrazki i linki oraz znaczniki title wraz z alt. Zbierane też są informacje na temat linków odnalezionych na innych stronach kierujące do tej którą odwiedza robot sieciowy (jest to czynność wykonywana w późniejszym procesie).
Warto przeczytać również :
Jak serwer wpływa na prędkość indeksowania ?
Dlaczego indeksowanie jest tak ważne ?
Co Google robi z tymi wszystkimi informacjami ?
Gdy dane na temat konkretnej strony zostały zebrane, to znaczy pobrane przez odwiedzającego stronę WWW robota sieciowego, do pracy zabiera się algorytm wyszukiwarki. W pierwszej chwili porównywane są treści strony. Tutaj poszukiwane są tak zwane duplikaty. W przypadku znalezienia powielonej treści, algorytm szuka daty odnalezienia poszczególnych podstron. Na podstawie daty odnalezienia podstrony, podejmowana jest decyzja o tym która z treści zachowuje swoją ocenę a pozostałe kopie zostają z obniżoną oceną za powieloną treść (double content). Następnie oceniane są tytuły stron oraz słowa kluczowe odnalezione na podstawie korelacji z tytułem najczęściej występujących słów i fraz w danym artykule. Do tego podliczane są wszelkie wyróżnienia treści, obrazki wraz z ich opisami tak samo jak i linki wewnętrzne wraz z zewnętrznymi i ich opisami. Tak podliczona podstrona trafia do rankingu stron jako zindeksowana.
W ostatnich latach dodano również prędkość renderowania
W ostatnich latach (na oko 2018 rok), wyszukiwarka Google wprowadziła do algorytmu oceniającego witrynę kolejną wagę. Ta waga skupia się na prędkości renderowania poszczególnych bloków treści oraz multimediów na podstronach. Zauważono bowiem że internauci w swoim permanentnym braku czasu na cokolwiek, porzucają strony na które muszą długo czekać. Dlatego powstało nowe kryterium oraz miejsce na popis przy optymalizacji strony internetowej.