sobota, 9 czerwca 2012

Kurs pozycjonowania cz. II - wyszukiwarki internetowe

W tej części kursu zajmiemy się wyszukiwarkami. Przecież chodzi nam o to, aby nasza strona pojawiała się wysoko w wyszukiwarkach internetowych.

Rafał Lysik
Powiedzieliśmy w części I kursu pozycjonowania o tym, że około 97% wszystkich wejść z Polski z wyników wyszukiwań pochodzi z Google.pl (i stron, które korzystają z silnika Google). To jest dla nas pewną wskazówką, żeby skupić się na promowaniu naszej strony tylko na www.google.pl.

Zacznijmy od podstaw - wyszukiwarki.
Definicja wyszukiwarki internetowej mówi, że jest to takie narzędzie lub program, które umożliwia przeszukiwanie stron internetowych (zasobów internetu) pod kątem poszukiwanej frazy, zagadnienia lub problemu.

Zadaniem wyszukiwarki jest ułatwienie szukającemu znalezienie poszukiwanej informacji przez podanie stron spełniających kryteria wyszukiwania. Wyszukiwarka skraca więc znacznie czas od momentu zadania pytania, do znalezienia odpowiedzi. Warto również podkreślić, że wyszukiwarki internetowe to chyba jedyne strony, gdzie (twórcom wyszukiwarki) chodzi o jak najszybsze opuszczenie strony przez użytkowników i skierowanie ich na stronę docelową. W dobie zwiększania dostępności internetu rosną również ilości dokumentów elektronicznych, udostępnianych w Sieci. Dlatego bardzo ważnym elementem Internetu są wyszukiwarki. Kojarzą one szybko osoby poszukujące danego zasobu z miejscami, gdzie ten zasób się znajduje. Nawet laik może sobie wyobrazić co by się dziś działo, gdyby nie działała żadna wyszukiwarka internetowa. Totalny chaos.

Z czego składa się wyszukiwarka internetowa
  • crawler, zwany też robotem lub pająkiem,
  • moduł szukający,
  • moduł analizujący i oceniający.

Proces wyszukiwania działa tak, że jeśli szukamy jakiejś informacji, to wpisujemy zapytanie do wyszukiwarki. Program wyszukiwarki przeszukuje bazę danych pod kątem zapytania i zwraca wyniki wyszukiwania posortowane według trafności.

Aby istniały wyszukiwarki, muszą istnieć też pająki. To pająki chodzą po stronach internetowych i pobierają treści zawarte na nich. Treści te są następnie zapisywane do bazy danych. Pytanie zadawane przez początkujących jest takie, jak robot wyszukiwarki dowie się o istnieniu mojej strony. Możesz sam powiadomić robota wyszukiwarki o nowej stronie internetowej. W przypadku Google należy wypełnić formularz znajdujący się pod adresem www.google.pl/addurl. Nawet jeśli sam nie poinformujesz wyszukiwarki o istnieniu swojej strony, to są jeszcze inne możliwości. Zwykle jak już zbudujesz swoją stronę internetową to chcesz ją wypromować oraz sprawić, by jak najwięcej osób się o niej dowiedziało. Jeśli przykładowo umieścisz link do Twojej strony na forum lub w katalogu stron, to tym sposobem pajączek wyszukiwarki może trafić na Twoją stronę i ją przejrzeć. Tak więc kolejny ważny fakt: pajączek wyszukiwarki podąża za linkami znajdującymi się na stronach internetowych. Robot wyszukiwarki Google nazywa się Googlebot, choć często podszywa się on także pod innych klientów, np. Mozilla Firefox.

Musisz wiedzieć, że robot będzie wchodzić na Twoją stronę wiele razy. Dlaczego tak się dzieje? Zadaniem pajączka jest pobranie najbardziej aktualnej wersji Twojej strony. Jeśli Twoja strona jest często aktualizowana i zawiera dużo treści, to pajączek częściej będzie ją odwiedzał. Jeżeli Twoja strona nie była aktualizowana od roku, to odwiedziny pajączka będą zdecydowanie rzadsze. Napisałem, że wyszukiwarka składa się ponadto z modułu analizującego i oceniającego. Po tym jak robot pobierze treści z Twojej strony www, trafiają one właśnie do indeksu wyszukiwarki za pośrednictwem modułu analizującego i oceniającego. Zadaniem tego modułu jest analiza treści zawartych na stronie www oraz ocena ich jakości i unikalności oraz posegregowanie na wybrane słowa kluczowe i ocenienie treści pod kątem przydatności do zapytania na dane słowa kluczowe. Po zakończeniu tego procesu do indeksu wyszukiwarki trafia link do Twojej strony w bazie danych wyszukiwarki wraz z przyporządkowanymi jej słowami kluczowymi i pozycją w rankingu.

Tak więc użytkownik zadaje pytanie do wyszukiwarki. Na podstawie zawartości indeksu, wyszukiwarka wyświetla posegregowane wyniki wyszukiwania, tzw. serp. Jednak aby być precyzyjnym należy dodać, że to moduł szukający przekazuje zapytania do (rdzenia) wyszukiwarki oraz prezentuje wyniki wyszukiwania. Można powiedzieć, że moduł szukający jest elementem wejścia/wyjścia danych z systemu wyszukiwarki.

Dzisiejszy Internet to miliardy stron internetowych. Aby wyszukiwarka nadążała za ciągle zmieniającym się Internetem, proces indeksacji musi odbywać się non stop. Uzasadniając to zdanie można powiedzieć, że co minutę powstają w Internecie nowe strony internetowe, a na istniejących stronach www także zmieniają się treści. Pamiętam, że kilka lat temu zasłyszałem wiadomość, jakoby proces odświeżenia swojego indeksu zajmował Google cały miesiąc. Jednak dwa lata temu po wprowadzeniu przez Google silnika Caffeine widziałem video z Mattem Cuttsem gdzie mówił, że dzięki nowemu silnikowi odświeżenie indeksu będzie odbywać się dużo szybciej. Musicie wiedzieć, że ilości danych jakie zapisywane są na serwerach wyszukiwarki są ogromne. Aby wyszukiwarka Google działała szybko oraz była dostępna z każdego miejsca na świecie, konieczne jest posiadanie tysięcy serwerów, które razem połączone działają jak superkomputer. W przypadku globalnej wyszukiwarki elementem obowiązkowym jest decentralizacja elementów jej infrastruktury oraz centrów danych, tzw. Data Center. W przypadku awarii jednego z elementów infrastruktury, cała wyszukiwarka działa dalej bez szwanku, gdyż inny element przejął funkcję tego uszkodzonego. Jest to tzw. redundancja elementów infrastruktury. To po części jest także odpowiedź na pytanie, dlaczego osoby z różnych stron świata widzą inne wyniki wyszukiwania na daną frazę. M.in. dlatego, że wyniki są im serwowane z innego Data Center, ale wpływ mają jeszcze inne czynniki. Kolejny ważny fakt dotyczący wyszukiwarek to taki, że aby strona pojawiała się w wynikach wyszukiwania, to musi ona istnieć w indeksie wyszukiwarki. W przypadku bana na stronę, znika ona z indeksu wyszukiwarki. Gwoli wyjaśnienia, ban to najcięższa kara w wyszukiwarce internetowej.

Kilka ważnych faktów dotyczących wyszukiwarek
Wyszukiwarka Google w polskiej wersji językowej dostępna jest od 2002 r. Wyszukiwarka przyporządkowuje stronom określone miejsce w rankingu. Oceny przydatności stron względem zapytania dokonuje algorytm. Algorytm oceny stron wyszukiwarki Google jest tajny. Wiadomo, że wyszukiwarka Google dokonuje oceny przydatności danej strony internetowej do zapytania na podstawie ok. 250 czynników. Jednym z nich jest PageRank, opatentowana przez Google metoda nadawania oceny stronom internetowym na podstawie reputacji i wartości stron, które linkują do strony ocenianej. Obecnie większość wyszukiwarek stosuje podobne kryterium oceny stron internetowych, choć każda z nich ma inny algorytm. Można to sprawdzić np. wpisując zapytanie do Binga i porównując wynik wyszukiwania z Google. Mniej więcej strony w pierwszej dziesiątce wyników wyszukiwania są obecne w innych wyszukiwarkach na swoich miejscach z dokładnością do kilku pozycji. Kolejną przydatną wiadomością będzie ta, że Google nieustannie zmienia swój algorytm, dopracowuje go i ulepsza. Jest to konieczne, gdyż ciągle trwa i trwać będzie walka między twórcami wyszukiwarek którzy chcą dostarczyć swoim użytkownikom trafne wyniki wyszukiwania, a spamerami, którzy za wszelką cenę chcą sprzedać swój produkt lub usługę.

Dzisiejsze wyszukiwarki mają dużo większe możliwości, niż pierwsza publiczna wersja Google z 1998 r. Obecnie wyszukiwarki potrafią rozpoznawać dokumenty (doc, xls, pdf), potrafią czytać tekst z obrazków i animacji flash, potrafią wykrywać spam. Póki co, większość popularnych wyszukiwarek internetowych prezentuje listę stron internetowych po wpisaniu słów kluczowych. Strony te są posortowane według trafności względem zapytania. Następnym krokiem są wyszukiwarki semantyczne, które na podstawie wprowadzonego pytania podają gotową odpowiedź, bez potrzeby przeszukiwania stron. Już istnieją projekty takich wyszukiwarek. Mowa tu o Wolfram Alpha i wyszukiwarce Hakia. Google pracuje nad wyszukiwarką semantyczną przetwarzającą język naturalny, pierwsze publiczne testy mają być przeprowadzane w 2013 r.

Na koniec warto powiedzieć o dwóch dodatkach Google, z których będziemy często korzystali. Pierwszy to operator wyszukiwania zaawansowanego site. Operator ten pokazuje przybliżoną listę dokumentów pobranych przez Google, daje informacje o zaindeksowaniu serwisu lub też zawęża wyniki wyszukiwania do wybranej domeny

site:googlepolska.blogspot.com
zwróci listę pobranych przez Google dokumentów (stron) z witryny googlepolska.blogspot.com

Narzędzie Google dla Webmasterów do bezpłatne narzędzie pomagające wykryć potencjalne problemy ze stroną internetową i dostarczające podstawowych informacji o Twojej stronie w Sieci. Za pomocą tego dodatku wskażesz Google domyślną lokalizację geograficzną odbiorców Twojej strony, ustawisz szybkość odwiedzin robota, wykluczysz parametry z adresu URL (np. identyfikatory sesji), usuniesz z wyszukiwarki Twoje strony, w których przeciekły newralgiczne dane.

Inne narzędzia zewnętrznych dostawców z których będziemy korzystać przy pozycjonowaniu zaprezentuję w dalszych częściach kursu.  Do zobaczenia w kolejnej lekcji kursu pozycjonowania!


0 komentarzy:

Prześlij komentarz

Podziel się swoimi myślami.Spam nie będzie tolerowany.