Bez robotów Google działanie popularnej wyszukiwarki od internetowego giganta nie byłoby możliwe. Z kolei bez niej niemożliwe stałoby się m.in. docieranie do klientów za pośrednictwem firmowych stron www. Dlatego jeśli witryna internetowa jest istotnym elementem funkcjonowania Twojego biznesu, warto żebyś… żył z robotami Google’a w zgodzie.
O co właściwe chodzi? Po kolei.
Jaka jest rola robotów Google w działaniu wyszukiwarki?
Roboty Google, Googleboty, roboty internetowe – nazwy są różne, ale za każdym razem chodzi o to samo oprogramowanie, wykorzystywane do indeksacji zasobów Sieci. Co dokładniej to oznacza?
Googleboty poruszają się w obrębie witryn internetowych i pomiędzy nimi (wykorzystując m.in. pliki robots.txt oraz odnośniki) i sczytują ich treść. W ten sposób powstaje indeks wyszukiwarki Google, który jest niczym innym jak olbrzymią bazą danych, zawierającą informacje na temat znajdujących się w Internecie stron www oraz ich zawartości. Z tej bazy, na podstawie bardzo złożonych algorytmów wyszukiwania, wybierane są wyniki wyświetlane w odpowiedzi na konkretne zapytania, wprowadzane do wyszukiwarki przez internautów.
Dlaczego właściwe zindeksowanie jest takie ważne?
Jeśli roboty Google’a nie dotrą na daną witrynę i nie zindeksują jej, nie ma w ogóle możliwości, aby pojawiła się gdziekolwiek w wynikach wyszukiwania. To jednak nie wszystko. Do osiągnięcia dobrej widoczności w wyszukiwarce, konieczne jest bowiem jeszcze właściwe odczytanie treści strony. Tylko dzięki temu, złożone algorytmy wyszukiwania będą mogły poprawnie dopasować ją do zapytań wpisywanych w pasek wyszukiwarki przez internautów. Zdecydują także, na jakiej pozycji w SERP ją ostatecznie wyświetlić. Jak sam więc widzisz, skuteczne pozycjonowanie w Google jest bardzo mocno uzależnione od tego, w jaki sposób roboty indeksujące „widzą” stronę www.
Jak ułatwić zadanie robotom indeksującym?
Pierwszym elementem, którego Googleboty poszukują na każdej nowo odwiedzanej witrynie jest plik robots.txt, stanowiący dla nich swojego rodzaju instrukcję dotyczącą sposobu indeksacji. Dlatego też koniecznie powinieneś zatroszczyć się o jego odpowiednią konfigurację, m.in. o wskazanie, które podstrony serwisu nie powinny być indeksowane. Należą do nich m.in.:
- Koszyk w e-sklepie,
- Podstrony będące wynikiem wyszukiwania, filtrowania lub sortowania treści w obrębie witryny,
- Formularze (zamówienia, zwrotu, kontaktowy, rejestracji, logowania, odzyskiwania hasła itd.),
- Podstrony z regulaminami czy polityką prywatności itp.
Roboty indeksujące poruszają się – jak na oprogramowanie przystało – na poziomie kodu strony www, dlatego jeśli chcesz ułatwić im zadanie, powinieneś zadbać o jego odpowiednią optymalizację. W zrozumieniu tego, co znajduje się na stronie, w szczególności pomagają botom:
- Tytuły i opisy poszczególnych podstron,
- Nagłówki, które strukturyzują treści,
- Opisy alternatywne grafik,
- Tag canonical – szczególnie istotny w przypadku podstron zawierających podobną treść, np. prezentujących ten sam produkt w różnych wersjach kolorystycznych,
- Tag href lang, który oznacza różne wersje językowe strony,
- Linki wewnętrzne, które pozwalają na przemieszczanie się pomiędzy podstronami serwisu,
- Linki zewnętrzne, które umożliwiają robotom przedostanie się na kolejne strony.
Podczas indeksacji roboty uwzględniają też oczywiście słowa kluczowe, na które natrafiają, skanując treść witryny. Dlatego bardzo ważne jest, by nie pozycjonować w Google różnych podstron jednego serwisu na te same frazy. Algorytm wyszukiwarki, nie będzie bowiem wiedział w takim wypadku, którą z nich powiązać z daną frazą i ostatecznie wyświetlić w wynikach, co doprowadzi do niepożądanych, gwałtownych wahań pozycji.
Leave a Reply