Algorytmy Google – czym są i na jakiej zasadzie działają?

Pod tą matematyczną nazwą kryje się działanie programów, których zadaniem jest szczegółowa analiza treści zamieszczanych na stronach internetowych, wyciąganie z niej wniosków, a następnie szeregowanie wyników wyszukiwania w taki sposób, aby odpowiadały potrzebom użytkowników. Widocznym gołym okiem dowodem działania algorytmów jest możliwość szybkiego znalezienia precyzyjnej informacji przez wpisanie zapytania w dobrze znane okienko wyszukiwarki.

#Czym jest robot Google i jak działa?

Konkretne kryteria uwzględniane przez algorytmy nie są na ogół podawane przez Google do publicznej wiadomości, a większość kodu programów jest niedostępna. Listy kryteriów powstają na podstawie interpretacji ogólnych zaleceń, kierowanych przez koncern do webmasterów, a także w wyniku obserwacji, jakiego typu strony znajdują się aktualnie najwyżej w wyszukiwaniach organicznych.

Google dokonuje znaczących aktualizacji używanych przez siebie algorytmów co najmniej kilka razy w roku, a niewielkie modyfikacje w ich działaniu wprowadza praktycznie cały czas. Dla osób, które zawodowo zajmują się kwestiami związanymi z pozycjonowaniem i optymalizacją stron internetowych, oznacza to konieczność ciągłego śledzenia pojawiających się zmian, aby dostosować do nich strategię SEO.

 

#PageRank – nestor algorytmów Google

Najstarszy algorytm Google, łączący w swojej nazwie odniesienie do nazwiska jednego z założycieli koncernu, Larry’ego Page’a i skojarzenie z dopiero rozwijającymi się wówczas stronami WWW, oceniał wartość danej strony, dokonując obliczeń poszczególnych jej składowych. Wiadomo, że istotnym czynnikiem w jego działaniu była zarówno ilość, jak i pochodzenie linków, prowadzących do danej witryny.

PageRank przez długi czas wytyczał metody projektowania stron internetowych, jednak z czasem zaczął tracić na znaczeniu, na co wpłynęła ewolucja wewnętrznej strategii Google. Aktualizacje algorytmu przestały się pojawiać pomiędzy 2013 a 2014 rokiem, natomiast w 2016 PageRank został oficjalnie wyłączony. Jednak już kilka lat wcześniej znaczącą rolę zaczęły odgrywać inne algorytmy, których przeznaczeniem było definitywne przekształcenie sektora pozycjonowania w sieci.

 

#Panda i Penguin – początki nowej ery

Już z nastaniem drugiej dekady nowego millenium uważni obserwatorzy mieli okazję dostrzec, że w wynikach wyszukiwania w Google pojawia się coraz więcej stron zawierających dłuższe treści o wyższym współczynniku nasycenia informacjami powiązanymi z tematem strony. Ukoronowaniem tych zmian stała się premiera algorytmu Panda w lutym 2011 roku.

Algorytm ten wyznaczył bardzo wyraźnie ramy, w jakich powinni poruszać się twórcy witryn internetowych, jeśli chcą, aby ich strona dotarła do wielu odwiedzających za pośrednictwem wyszukiwarki (lub by w ogóle była indeksowana!). Konfrontacja z kryteriami, którymi kierowała się Panda, dla niejednego bezkompromisowego pozycjonera okazała się wylaniem na głowę metaforycznego kubła zimnej wody. Nagle to nie forma, a treść stała się najważniejsza – można śmiało powiedzieć, że dzięki Pandzie internet zmienił się na zawsze.

W 2012 roku do Pandy dołączył Penguin, którego głównym zadaniem stało się odsiewanie z zalewu sieciowej informacji stron o niskiej jakości treści, zbudowanych głównie w celu stworzenia zaplecza linkowego. Od tego czasu algorytm przechodzi regularne aktualizacje – ostatnia, siódma z kolei, miała miejsce w drugiej połowie 2016 roku.

 

#Hummingbird, Pidgeon i inne – informacja w centrum uwagi.

Za doprecyzowanie otrzymywanych wyników wyszukiwań zaczął w 2013 odpowiadać algorytm Hummingbird (Koliber). Z jego ptasim imiennikiem kojarzy się z pewnością precyzja i subtelność działania. Koliber nie tylko pozwala użytkownikom internetu na otrzymanie najtrafniejszych wyników bezpośrednio pod okienkiem wyszukiwarki, lecz przede wszystkim kładzie duży nacisk na treść w znaczeniu pól semantycznych. Na jego przykładzie najlepiej można zobrazować drogę, jaką przebyło Google, w której faktycznie „kontent rządzi”.

W synergii z Kolibrem od 2014 działa algorytm Pidgeon (Gołąb), mający na celu uwzględnienie potencjalnych lokalnych preferencji wyszukujących – w zależności od miejsca pobytu, algorytm ten wpłynie na uzyskanie różnych wyników na te same frazy.

Osiągnięcia Gołębia doprecyzowuje Possum (Opos), również zawiadujący metodami szeregowania wyników lokalnych, a algorytm Phantom dba, by kod oraz wszystkie pozostałe elementy witryny poza treścią, były skonstruowane przejrzyście. Google nie zapomniało również o użytkownikach urządzeń mobilnych – byłoby to trudne, zważywszy, ze za ich pomocą z siecią łączy się już praktycznie 3/4 internautów – i dokonało w 2015 aktualizacji algorytmów, która zaczęła priorytetyzować strony responsywne.

 

#RankBrain – inteligentny algorytm przyszłości

 

Optymalizacja stron pod wprowadzony w 2015 roku nowatorski RankBrain to wyzwanie jakościowo nieco inne od poprzednich, rządzące się zasadami, które zmieniają się nie tylko w wyniku decyzji zarządzającej programem firmy, ale i wewnętrznego rozwoju samego algorytmu. RankBrain został oparty o rozwiązania z zakresu uczenia maszynowego, co sprawia, że jego funkcja staje się bliższa zadaniom człowieka, który wykonuje pracę moderatora, niż działaniu typowych, zamkniętych programów.

RankBrain uczy się, aby interpretować zapytania internautów w oparciu o najbardziej prawdopodobne konteksty i z uwzględnieniem lokalnych zwyczajów lingwistycznych, działając w zespole z Kolibrem.

Aktualizacje w rodzaju RankBrain mówią niejedno o tym, jak będzie wyglądał internet za 10 lat – aby znaleźć się w awangardzie tych zmian, warto uważnie śledzić działania Google – firmy, która najprawdopodobniej jeszcze długo nie przestanie definiować kształtu sieci.

Paweł Berezecki

Paweł Berezecki

Web designer, digital marketing.

Założyciel agencji kreatywnej Studio Lapis. Główny projektant stron www i specjalista od marketingu internetowego. Autor Podcastu dla przedsiębiorców "Twoja firma w Internecie".  Nie podejmuje pracy bez wcześniejszego planowania i dokładnej analizy sytuacji. W wolnym czasie zajmuje się analityką internetową i poszukiwaniem idealnych rozwiązań.

2 komentarze

  1. Seoit

    Krótko, zwięźle i na temat, dobry przegląd podstawowych algorytmów Google. Natomiast pod fragmentem ostatniego akapitu “… warto uważnie śledzić działania Google – firmy, która najprawdopodobniej jeszcze długo nie przestanie definiować kształtu sieci.” mogę się podpisać każdą kończyną.

    Odpowiedz
    • Paweł Berezecki Studio Lapis

      Zobaczymy co nowego Google zafunduje nam w najbliższym czasie. Ale co by nie pisać, dzięki temu nie możemy się nudzić, bo trzeba być cały czas na bieżąco 🙂

      Odpowiedz

Wyślij komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Może Cię zainteresować

#BAZA WIEDZY

Blog

#USŁYSZ NAS

Podcast 

#NASZE PRACE

Portfolio

#SKONTKATUJ SIĘ

Kontakt

#DANE OSOBOWE

Polityka prywatności

#ZASIĘG - CAŁA POLSKA

Studio Lapis

NIP: 7393490245

ul. Piłsudskiego 69/46

10-469 Olsztyn

+48 692 800 115

kontakt@studiolapis.pl

#CHOOSE LANGUAGE

Go to english site

Go to bulgarian site

#INSPIRACJE

lapisdesign.pl