Ten tekst przeczytasz w 6 minut

Brak komentarzy

Jak działa wyszukiwarka Google?

Jak działa wyszukiwarka Google? - zdjęcie nr 1

Jak działa wyszukiwarka Google? - zdjęcie nr 2

Jak działa wyszukiwarka Google i jak ją wykorzystać najlepiej?

Parafrazując znane RPG-owe powiedzenie „przed przystąpieniem do pozycjonowania należy poznać wyszukiwarkę”. A zatem, jak działa wyszukiwarka Google i czy ta misja ma jakieś zakończenie? 🙂

(Dalszą część artykułu znajdziesz pod formularzem)

Wypełnij formularz i odbierz wycenę

Zapoznamy się z Twoim biznesem i przygotujemy indywidualną ofertę cenową na optymalny dla Ciebie mix marketingowy. Zupełnie za darmo.

Twoje dane są bezpieczne. Więcej o ochronie danych osobowych

Administratorem Twoich danych osobowych jest Verseo spółka z ograniczoną odpowiedzialnością z siedzibą w Poznaniu, przy ul. Węglowej 1/3.

O Verseo

Siedziba Spółki znajduje się w Poznaniu. Spółka jest wpisana do rejestru przedsiębiorców prowadzonego przez Sąd Rejonowy Poznań – Nowe Miasto i Wilda w Poznaniu, Wydział VIII Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS: 0000910174, NIP: 7773257986. Możesz skontaktować się z nami listownie na podany wyżej adres lub e-mailem na adres: ochronadanych@verseo.pl

Masz prawo do:

  1. dostępu do swoich danych,
  2. sprostowania swoich danych,
  3. żądania usunięcia danych,
  4. ograniczenia przetwarzania,
  5. wniesienia sprzeciwu co do przetwarzania danych osobowych,
  6. przenoszenia danych osobowych,
  7. cofnięcia zgody.

Jeśli uważasz, że przetwarzamy Twoje dane niezgodnie z wymogami prawnymi masz prawo wnieść skargę do organu nadzorczego – Prezesa Urzędu Ochrony Danych Osobowych.

Twoje dane przetwarzamy w celu:

  1. obsługi Twojego zapytania, na podstawie art. 6 ust. 1 lit. b ogólnego rozporządzenia o ochronie danych osobowych (RODO);
  2. marketingowym polegającym na promocji naszych towarów i usług oraz nas samych w związku z udzieloną przez Ciebie zgodą, na podstawie art. 6 ust. 1 lit. a RODO;
  3. zabezpieczenia lub dochodzenia ewentualnych roszczeń w związku z naszym uzasadnionym interesem, na podstawie art. 6 ust. 1 lit. f. RODO.

Podanie przez Ciebie danych jest dobrowolne. Przy czym, bez ich podania nie będziesz mógł wysłać wiadomości do nas, a my nie będziemy mogli Tobie udzielić odpowiedzieć.

Twoje dane możemy przekazywać zaufanym odbiorcom:

  1. dostawcom narzędzi do: analityki ruchu na stronie, wysyłki informacji marketingowych.
  2. podmiotom zajmującym się hostingiem (przechowywaniem) strony oraz danych osobowych.

Twoje dane będziemy przetwarzać przez czas:

  1. niezbędny do zrealizowania określonego celu, w którym zostały zebrane, a po jego upływie przez okres niezbędny do zabezpieczenia lub dochodzenia ewentualnych roszczeń
  2. w przypadku przetwarzanie danych na podstawie zgody do czasu jej odwołania. Odwołanie przez Ciebie zgody nie wpływa na zgodność z prawem przetwarzania przed wycofaniem zgody.

Nie przetwarzamy danych osobowych w sposób, który wiązałby się z podejmowaniem wyłącznie zautomatyzowanych decyzji co do Twojej osoby. Więcej informacji dotyczących przetwarzania danych osobowych zawarliśmy w Polityce prywatności.

Lider jest tylko jeden – wyszukiwarka Google – jak działa?

Przestrzenią pracy pozycjonera jest wyszukiwarka. W domyśle – jest to wyszukiwarka Google w wybranej wersji językowej np. google.pl, google.de, google.co.uk. Dla porządku należy jednak odnotować, że Google nie jest jedyną wyszukiwarką. Użytkownicy rosyjskojęzycznej części Internetu chętnie wybierają Yandex, Czesi mają Sezam, w Chinach wielką popularnością cieszy się wyszukiwarka Baidu. Microsoft proponuje alternatywę w świecie wyszukiwarek w postaci Binga. Historycznie w Polsce konkurencją dla Google były wyszukiwarki Onet i WP (Wirtualna Polska).

Zdecydowanym liderem wśród wyszukiwarek w Polsce jest Google. Google.pl w maju 2018 miało prawie 98% udziału w rynku. Następny w rankingu Bing – 1,26%. To się chyba nazywa nokaut!
W skali globalnej udział Google (bierzemy tu pod uwagę zbiorczo różne warianty językowe – narodowe) w maju 2018 oszacowano na prawie 81%. Drugie miejsce w światowym rankingu wyszukiwarek należy do chińskiego Baidu z wynikiem 10%. Powyższe wyniki odnoszą się do ruchu generowanego przez komputery. W przypadku urządzeń mobilnych Google jest globalnym hegemonem, który zgarnia prawie 92% rynku. Następne w kolejce Baidu ma ok. 5,5% udziału.

Do czego potrzebna jest pozycjonerowi wiedza o tym jaka wyszukiwarka dominuje na danym rynku? Każda wyszukiwarka ma swoją specyfikę i wymaga charakterystycznej dla siebie optymalizacji. Mając świadomość, że nasi potencjalni klienci korzystają z więcej niż jednej wyszukiwarki, rozsądnym zachowaniem jest zoptymalizowanie witryny pod te wyszukiwarki, które mają komercyjny potencjał. Dlatego np. w Polsce usługa optymalizacji czy pozycjonowania pod kątem Binga nie cieszy się nadmiernym zainteresowaniem. Jeśli jednak zamierzamy walczyć na rosyjskim rynku, to ze wszech miar słuszną decyzją jest podpisanie umowy na pozycjonowanie w Google i Yandexie. Ponad połowa rosyjskich użytkowników Internetu wybiera Yandex. Google ma tam „zaledwie” 43% udziału (są to dane za maj 2018).

Algorytm – serce wyszukiwarki

O tym, jak działa dana wyszukiwarka, decyduje jej algorytm. To właśnie algorytm odpowiada za kryteria, wedle których tworzona jest „lista rankingowa” stron internetowych. W przypadku wyszukiwarki Google algorytm tworzy ponad 200 parametrów, a ich pełna lista jest jedną z pilniej strzeżonych tajemnic. Algorytm Google nie jest niezmienny. Co jakiś czas przechodzi aktualizacje, które mają na celu dostarczanie wyników jak najwierniej odpowiadających zapytaniom użytkowników wyszukiwarki. W praktyce aktualizacje dla pozycjonerów oznaczają konieczność wprowadzenia zmian w optymalizacji czy w linkowaniu. Nie ma w tym nic nadzwyczajnego czy strasznego, jest to adaptacja do zmieniających się warunków. Duże zmiany algorytmów zyskały nazwy sympatycznych zwierząt takich jak pingwin, panda czy koliber.

Nowości w algorytmie mogą przekładać się np. na zmiany w ocenie dotychczasowego profilu linków dla danej witryny czy w kryteriach ważnych w przypadku pozycjonowania lokalnego. Zmiany w algorytmie bywają także szansą na „ułaskawienie” dla stron internetowych dotkniętych karą od Google tzw. filtrem algorytmicznym.

Wyszukiwarka Google karmi się tekstem

Wyszukiwarka Google jest wyszukiwarką tekstową. Roboty sieciowe poznają stronę dzięki opublikowanym na niej tekstom. To właśnie na bazie treści zamieszczonych w obrębie danej witryny roboty sieciowe oceniają czy odpowiada ona zapytaniu wpisanemu w wyszukiwarkę. Na co w praktyce przekłada się ta tekstolubność robotów sieciowych?

Po pierwsze, na stronie internetowej powinno znajdować się jak najwięcej treści. Oczywiście znane jest powiedzenie, że obraz wyraża czasem więcej niż tysiąc słów, ale roboty sieciowe Google nie są przekonane o jego prawdziwości. Witryna bazująca na obrazkach lub/i tekście wpisanym w grafikę i za ich pomocą się komunikująca z osobą, która ją odwiedza, jest gorzej oceniana niż ta, która jest nasycona tekstami. Podsumowując, Google preferuje strony, które m.in.:

– zawierają większe partie tekstu – w przypadku strony głównej warto zamieścić na niej tekst o długości minimum 1000 znaków liczonych ze spacjami, w odniesieniu do większości podstron byłoby to 750 znaków; oczywiście należy brać pod uwagę, że nie każda strona potrzebuje aż takich ilości treści – trudno byłoby na siłę wprowadzać je np. na zakładkę „kontakt”;
– najprościej rzecz ujmując, tekst zamieszczony na stronie internetowej powinien być unikalny i nie pojawiać się na żadnej innej witrynie, portalu, katalogu z ogłoszeniami itp. (jest to bardzo ogólne sformułowanie, temat duplikatu treści jest bardzo obszerny, podobnie jak kwestia radzenia sobie z tym problemem, nie ma co w tym przypadku się nad tym rozwodzić, by nie tracić płynności wątku);

– treści zamieszczone na stronie internetowej powinny być poprzedzielane śródtytułami; chodzi o uniknięcie efektu monolitu tekstu, wszelkie urozmaicenia w postaci nagłówków, pogrubień partii tekstu lub innych form wyróżnienia, wprowadzenia grafik, wykresów, linków itp. są mile widziane przez roboty sieciowe;

– tekst, który trafia na stronę internetową, powinien być poprawny pod względem językowym, ortograficznym i stylistycznym; warto też wykorzystywać określenia, za pomocą których nasi potencjalni klienci wyszukują oferowanych przez nas produktów lub usług – roboty sieciowe po wpisaniu jakiegoś zapytania nie wyświetlą strony internetowej, która nie zawiera tego zapytania w swojej treści; warto też zauważyć, że roboty Google radzą sobie z popularnymi błędami ortograficznymi i nie ma absolutnie potrzeby wprowadzania w tekst na stronie internetowej wariantu słowa o niewłaściwej pisowni (co zresztą na odwiedzających stronę internetową nie zrobiłoby specjalnie dobrego wrażenia…);

– jeśli to tylko możliwe, to warto modyfikować treści na stronie internetowej – dodanie nowej zakładki, opisu, dodatkowych informacji itp. jest dobrym pomysłem, który powoduje częstsze indeksowanie strony internetowej przez roboty sieciowe Google.

Indeksowanie stron internetowych w wyszukiwarce Google

By strona internetowa wyświetliła się po wpisaniu odpowiedniego hasła w wyszukiwarkę, to musi znajdować się w indeksie Google. Jest to bardzo ważne np. w przypadku nowych stron internetowych, które powinny mieć ustawioną zawartość pliku robots.txt i meta tagu robots przyjazną dla robotów sieciowych oraz zostać zgłoszone do indeksowania za pomocą narzędzia Google Search Console. Strona zaindeksowana przez roboty sieciowe znajduje się w zasobach wyszukiwarki Google. Może również z niego zniknąć – zdarza się to w specyficznych okolicznościach, o których więcej opowiemy za chwilę.
Strona powinna mieć tak ustawione meta robots i zawartość pliku robots.txt ustawioną taką, by pozwalała na indeksowanie strony przez roboty sieciowe. Skontrolowanie możliwości indeksowania strony przez roboty sieciowe to jedna z podstawowych czynności mających służyć diagnozowaniu dlaczego dana witryna znajduje się na bardzo niskich pozycjach (poza pierwszą setką wyników).

Najprostsza, zachęcająca dla robotów sieciowych zawartość pliku robots.txt to:
User-agent: *
Allow: /

Taka zawartość pliku zakłada, że roboty sieciowe mogą indeksować całą zawartość strony, bez żadnych wykluczeń (które oczywiście możemy wprowadzić wedle naszych potrzeb).

Przykładowe zawartości meta robots umożliwiające indeksowanie strony przez roboty sieciowe:
<meta name=”robots” content=”index, follow” />
<meta name=”robots” content=”ALL” />

Ustawienie meta robots i uzupełnienie robots.txt jest w pewnym sensie opcjonalne. Przyjmuje się, że ich brak nie uniemożliwia robotom sieciowym wejścia na stronę. Warto jednak ustawić takie “zaproszenie” na swojej stronie internetowej, zwłaszcza że nie zajmuje to wiele czasu. Zyskujemy wtedy pewność, że robot sieciowy nie ominie naszej witryny.

Wyszukiwarka Google – czy ma „indeks ksiąg zakazanych”?

Nie każda strona internetowa znajduje się w indeksie wyszukiwarki. W tym miejscu warto przedstawić najczęstsze przyczyny, dla których strona nie została umiejscowiona w indeksie wyszukiwarki.

Pierwszy powód to zawartość meta robots oraz pliku robots.txt, który może mieć zawartość niepozwalającą robotom sieciowym na indeksowanie strony. Rozwiązaniem jest zmiana ich zawartości na taką, która umożliwia indeksowanie strony, a następnie zgłoszenie tej zmiany za pomocą Google Search Console.

Druga przyczyna to kara od Google. W kontekście pozycjonowania mówi się o stronach internetowych ukaranych przez Google (tzw. filtr lub ban). Taka kara może utrudniać lub wprost uniemożliwiać pozycjonowanie strony. Najcięższe przewinienia mogą oznaczać bezpowrotne wyrzucenie strony z indeksu wyszukiwarki. W takiej sytuacji najsensowniejszym rozwiązaniem jest stworzenie nowej strony internetowej na nowej domenie.

Trzeci relatywnie częsty powód nieobecności strony internetowej w wyszukiwarce to kłopot z jej prawidłowym działaniem. Strona, która ma problemy z funkcjonowaniem (przyczyny mogą być różnorakie – od włamania hakerskiego aż do banalnego nieopłacenia hostingu), może zostać wykluczona z wyników wyszukiwarki aż do czasu ustąpienia problemu będącego źródłem tej banicji. Po naprawie lub przywróceniu strony warto poinformować o tym Google, dokonując stosownego zgłoszenia przy użyciu Google Search Console.

Sięgnięcie po narzędzie Google Seach Console nie jest obligatoryjne – nawet bez korzystania z niego roboty sieciowe dostrzegą pojawienie się nowej witryny lub wprowadzenie zmian na tej dobrze już im znanej. Z doświadczenia wiemy jednak, że zgłoszenie zmian do indeksowania za pośrednictwem Google Search Console potrafi znacząco przyspieszyć działania robotów sieciowych Google. Ma to niebagatelne znaczenie w przypadku pozycjonowania. Wdrożona i szybko zaindeksowana zmiana przekłada się nie tak rzadko na wzrosty pozycji dla słów kluczowych już następnego dnia. Oczywiście nie można traktować tego jako reguły, a raczej jako szczęśliwy zbieg okoliczności i gift od Google.

Bądź pierwszym który napisze komentarz.

Wymagany, ale nie będzie opublikowany