Mimo wielu aktualizacji algorytmu wyszukiwarki w 2012 r. ilość spamu w serpach wcale drastycznie nie spadła. Wielkie serwisy polują na dane użytkowników.
Rafał Lysik
To nie tylko moja odosobniona opinia, ale i zwykłych użytkowników, którzy na co dzień poszukują informacji w Google. Niektórzy mówią że Google schodzi na psy. Niektórzy twierdzą, że od ostatniego roku polepszyły się wyniki wyszukiwania. A jak jest naprawdę?
Prawda zwykle leży pośrodku, a więc trochę racji mają i Ci narzekający, ale także Ci chwalący. Miniony rok upłynął na walce ze stronami niskiej jakości, z farmami linków, z preclami i swlami. Czytałem gdzieś w internecie, że w ubiegłym roku liczba domen w swlach spadła o 235 tysięcy (polskich domen ;).
Prawdą jest, że czołowe miejsca na bardzo konkurencyjne frazy okupują kilkuletnie serwisy, często działające w wielu krajach. To prawdziwi internetowi giganci, pod względem środków na marketing i pozycjonowanie przeznaczają więcej pieniędzy niż nasze rodzime serwisy, które pozycjonują się zgodnie z wytycznymi. Dzięki wewnętrznemu linkowaniu i pozyskiwaniu linków z wielu źródeł, głównie nienajlepszej jakości, zyskują czołowe pozycje w serpach. Walka z takimi serwisami jest trudna i na pewno poza zasięgiem części webmasterów, tych z White Hat SEO.
Wpisujecie w Google adres dowolnej domeny. W top 20 wyskakują strony typu serpstat.pl, pl.similarsites.com, www.webstatsdomain.com, pr-history.com, www.ranking.net.pl, siteaero.com, website.informer.com, thedomainfo.com, push2check.com, hypestat.com, newsalloy.com, www.websitelooker.com, webinfo.reformal.ru. Z takich stron nie ma żadnego pożytku. Oferują głupie banery ile jest warta Twoja strona. Pokazują PageRank i ranking Alexa. Nie wiadomo która z takich stron kopiuje od której informacje. Są zalane reklamami Adsense i to jest pewnie ważny powód tworzenia takich serwisów. Domen na świecie są miliony. Wyobraźcie sobie że budujecie taki serwis i generujecie milionowy site, właściwie bez wysiłku. Możecie to wykorzystać albo jako do emitowania różnorakich reklam, albo do pozyskania punktów w swlach, bo przecież site jest ogromny. Również dla webmastera takie strony wyrządzają dużo szkody. Może nie bezpośrednio, ale jednak. Większość z takich stron ma swoje crawlery, które pobierają dziennie z Twojego serwera megabajty danych. Należałoby prawdę mówiąc zablokować dostęp takim crawlerom do serwera, zostawiając tylko Google, Binga i parę innych.
Koszmarem może być pobieranie programów z różnych repozytoriów. Tu jest prawdziwa walka, serwisów oferującym darmowe pliki jest od groma. Tu również ktoś zwietrzył interes, gdyż wiele z takich serwisów kopiuje opisy programów od konkurencji, nadużywa opisów rozszerzonych. Często takie serwisy nie są moderowane i zdarzają się wygasłe linki do plików, a programy do repozytoriów dodają ...roboty.
Nieunikalne opisy programów w róznych serwisach z programami. |
W wynikach wyszukiwania można znaleźć mnóstwo niskiej jakości precli. Właściciele tych stron za pomocą mini-wpisów próbują wypozycjonować strony swoich klientów, umieszczając do nich link w tekście. Takie strony to prawdziwy śmietnik, zarówno od strony graficznej, jak i treści. Wszystko upakowane w jeden blog, bez ładu i składu. Tematyka naprawy pralek, lalek barbie i kredytów samochodowych w jednym.
Jak już jesteśmy przy kredytach samochodowych, to poruszmy temat stron wysokokonkurencyjnych i sklepów internetowych. Webmasterzy muszą zwracać dużo większą uwagę na jakość i ilość treści, a także na właściwą budowę struktury strony www. Strony powinny być robione z myślą o użytkownikach, a nie robotach. Oznacza to większy wysiłek włożony w stworzenie takiego serwisu, ale z korzyścią dla użytkownika końcowego. Strony finansowe pozycjonuje się jeszcze trudniej, nie każdego stać na wynajęcie dobrego copywritera. Coraz trudniej zarobić na programach partnerskich, gdyż ilość użytkowników biorących udział w tych programach nasyca się. Na bardzo konkurencyjne frazy w serpach raczej nie ma wielkich rotacji. Liderzy zajmujący te pozycje posiadają najczęściej inne serwisy partnerskie, z których linkują do tych. W dodatku w Polsce szybko powstają klony innych serwisów, co wpływa na jakość całej branży. Sukces gwarantuje chyba tylko znalezienie niszy lub unikalne i bezinteresowne podejście do klienta.
Matt Cutts śmieje się ze specjalistów SEO. Na forum PiO pojawiają się wątki osób, które są stażystami w firmach SEO. Wiedza tych ludzi i ich poczynania powodują zimne dreszcze. A przecież oni nie bawią się z testowymi stronkami, tylko pracują nad stronami firmowymi związanymi z biznesami.
Na wszelkich moich stronach drzwiami i oknami dobijają się boty, które chcą wetknąć swój śmieciowy komentarz podlinkowany do stron klientów. Średnio 100-200 spamowych komentarzy w każdym miesiącu na blogu postawionym na WP. Forum phpBB mimo włączonej Captcha i zatwierdzania nowych userów przez admina notuje podobnie po kilkadziesiąt-kilkaset fake-kont w ciągu miesiąca. Sebastian Miśniakiewicz podejmuje temat depozycjonowania stron konkurencji. Okazuje się, że w Polsce znajdują się zarówno zleceniodawcy takich
zleceń jak i zleceniobiorcy. Sebastian dalej drąży temat przekonując, że
depozycjonowanie stron jest czynem nieuczciwej konkurencji. W Polsce to poważny problem, gdyż jak webmaster nie umie dopieścić swojej strony i zrobić ją po prostu lepszą od konkurencji, to odpala swla i dopala stronę konkurencji licząc na to, że Google podejmie działania zapobiegawcze. Jak pies ogrodnika. Sytuacja narasta do takiej skali, że Google wypuszcza narzędzie do usuwania niechcianych linków. W końcu chcąc nie chcąc większość polskich swli wprowadza system weryfikacji domen zabezpieczający przed niechcianym linkowaniem.
Idźmy dalej. W sieci strach już cokolwiek publikować pod własnym nazwiskiem, gdyż od razu ogólnodostępną "treść" podchwytują spamerskie roboty, które z naszych wypowiedzi tworzą sobie kontent. Później w serpach znajdujemy serwisy typu www.kto-kogo.pl czy plus.topsy.com/googleplus. A jak ktoś kiedyś powiedział, jeśli coś trafi już do sieci, to nigdy z niej nie zniknie. Czasami obserwuję prawdziwość tego powiedzonka obserwując zmagania użytkowników na Forum Google dla Webmasterów. Zdjęcia, imię i nazwisko, pesel, numer konta bankowego i adres. To wszystko może trafić na ogólnodostępne strony. Mało tego. Usunięcie tego wcale nie jest takie proste ze względu na powyższe.
Wielkie serwisy rosną w siłę i często świadomie prowokują Google. Są do tego stopnia bezczelne i aroganckie, że tworzą prywatne swle i wmawiają Google, że polityka Google walki ze spamem jest ...czynem nieuczciwej konkurencji wobec nich, a samo Google jest monopolistą. Nawet wielkie porównywarki cen nie krępują się z kupowaniem linków, a właściciele dużych polskich serwisów okazują skruchę i tłumaczą się że nie wiedzieli o działaniach swoich podwładnych, po tym jak serwisy te dostały bana w Google. Pewnie doczekamy się niedługo sytuacji gdy kilka wielkich stron straci większość ruchu z Google i wtedy poskarży się Komisji Europejskiej.
Rok 2012 upłynął także pod znakiem zmian w polityce prywatności wielkich serwisów internetowych. Google wprowadziło ujednoliconą politykę prywatności dla większości swoich produktów. Towarzyszyły temu wielkie kontrowersje, protesty i pozwy, już po wprowadzeniu ujednoliconej polityki. Według przeciwników tego pomysłu, Google będzie mogło połączyć działania użytkownika w kilku serwisach w jeden profil i tym samym stworzyć jego portret zachowań i psychologiczny. Google zna nasze imię i nazwisko, datę urodzenia, gdzie mieszkamy, jakich mamy przyjaciół, czym się interesujemy i czego szukamy. Ma często nasze zdjęcia i maile. Skoro te informacje posiada Google, to równie dobrze do tych informacji może mieć dostęp Policja, gdyż z roku na rok ilość żądań o udostępnienie informacji do Google wzrasta. Wprawdzie Google dba o bezpieczeństwo naszych danych, jednak według europejskich odpowiedników GIODO, Google nie spełnia wymagań dyrektywy UE o ochronie danych w zakresie informacji, które muszą być dostarczone właścicielom danych. W 2012 r. także inne serwisy zmieniły swoją politykę prywatności. Politykę prywatności zmienił także Facebook. Bardzo niepokojące są działania różnych aplikacji które mają dostęp do danych użytkownika i mogą publikować na jego tablicy.Grudniowe zmiany dotyczące widoczności zdjęć i komentarzy przez publikę wprawiły niektórych w zdumienie. W grudniu 2012 r. nową kontrowersyjną politykę prywatności wprowadził też Instagram - kupiony kilka miesięcy temu przez facebooka. Chodzi ogólnie o zapis, że Instagram będzie mógł wykorzystywać wszystko, co użytkownik udostępnia na swoim profilu. Na znak protestu popularny kanał telewizyjny National Geographic zawiesił swoje konto, usuwając z niego wszystkie fotografie.
Początek minionego roku upłynął pod znakiem ACTA i ataków na duże lub opiniotwórcze serwisy internetowe. W czasie zamieszek i protestów ludzie więcej dowiedzieli się o ACTA, szkoda że do tych zamieszek musiało dojść. Winę ponosi tu także polski rząd, który chciał po cichu wprowadzić ACTA.
Jeśli chodzi o jakość wyników wyszukiwania Google, to są także i plusy, żeby być dokładnym w ocenie działań. Webmasterzy muszą przykładać więcej wysiłku, pracy i środków aby stworzyć dobrą i unikalną stronę, a następnie ją wypozycjonować. Kary dla nieprzestrzegających zasad mogą być dotkliwe, metoda rozpoczynania od nowa w przypadku przedobrzenia (przez przekierowanie 301 na nową domenę) nie daje już dobrych rezultatów. Google zwiększa udział lokalnych firm w wynikach wyszukiwania, zwiększa także swoje funkcje społecznościowe.
Jednak grzechem byłoby stwierdzić, że Google uda się wytępić całkowicie spamerów. Na nowe metody są nowe antymetody i tak w kółko.
1 komentarzy:
Nie potrzeba mi żadnych analiz, wystarczy, że zaloguje się na swoją pocztę lub odwiedzę kilka takich "małowartościowych" stron i już widzę ilość spamu, jaka nas otacza. Szkoda tylko, że są ludzie, którzy chcą się w to bawić.
Prześlij komentarz
Podziel się swoimi myślami.Spam nie będzie tolerowany.