Postanowiliśmy sprawdzić, ile jest prawdy w powszechnie krążących mitach SEO. Zapytaliśmy o nie 188 osób z branży, część z nich porównując z oficjalnymi zapewnieniami ze strony Google. Poniżej znajduje się 10 mitów i zdania ankietowanych na ich temat.

Lista mitów:

Mit 1: Google manipuluje pozycjami serwisów konkurencyjnych, aby wypromować swoje produkty

Wielokrotnie webmasterzy zarzucali Google, że manipuluje pozycjami serwisów konkurencyjnych, aby zrobić miejsce własnym produktom. Nawet w zeszłym roku, kiedy Google postanowiło nałożyć ręczne filtry na kilka popularnych porównywarek cenowych i innych serwisów e-commerce'owych, uważano, że wyszukiwarka przygotowuje się do wprowadzenia na polski rynek usługi - Zakupy Google (Google Shopping).

Google manipuluje pozycjami serwisów konkurencyjnych, aby wypromować swoje produkty

Ponad połowa ankietowanych potwierdza to stanowisko (55,23%), jednak sporo osób (27,13%) wstrzymało się od odpowiedzi na to pytanie, więc ciężko jednoznacznie stwierdzić, czy mit udało się potwierdzić. Tym samym uznajemy go za...

Mit prawdopodobny

Mit 2: Można zaszkodzić pozycjom konkurencyjnej strony linkami

Kiedy jeszcze Google utrzymywało, że bardzo trudno jest zaszkodzić konkurencyjnej stronie, nie było tak dużego zdecydowania w temacie możliwości depozycjonowania.

„(...) można by pomyśleć, że skoro SWLe przekazujące PageRank wychodzą poza zasady Google, to wykupując na przykład rotacyjne linki i zgłaszając raport spamu można zaszkodzić konkurencji. Ponieważ jednak bierzemy większą ilość sygnałów pod uwagę, takie działanie na niekorzyść innych webmasterów jest skuteczne wyłącznie w teorii.”

Źródło: http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html (17 listopada 2008; Kaspar Szymański)

Jednak od wprowadzenia aktualizacji o nazwie Pingwin w kwietniu zeszłego roku, której data pokrywała się z masową wysyłką powiadomień o wykryciu nienaturalnych linków przychodzących, większość ma zdecydowane stanowisko w tej sprawie.

Można zaszkodzić pozycjom konkurencyjnej strony linkami

Uważa się, że skoro można doprowadzić do nałożenia filtra na własną stronę, to samo można zrobić z serwisem konkurencyjnym, z czym zgadza się znaczna większość ankietowanych (84,57%). Działanie takie jest jednak tym trudniejsze, im silniejsza i bardziej zaufana jest strona, a najłatwiejsze jest przy serwisach stronach, w szczególności z podejrzanym profilem linków.

Mit potwierdzony

Mit 3: Strony bez wersji mobilnych będą miały gorsze pozycje niż te z nimi

W pierwszej połowie czerwca br. zostaliśmy zasypani informacjami z różnych źródeł na temat rzekomego pogorszenia pozycji w Google dla stron, które mają słabe wersje mobilne, albo nie mają ich w ogóle. Chodziło m.in. o sytuacje, w których przy wyszukiwaniu mobilnym, użytkownik zamiast trafić na podstronę z konkretnym artykułem, jest przekierowywany na stronę główną. Problem w tym, że wiele osób błędnie zinterpretowało tę informację. Podczas gdy zgodnie z zapowiedziami Google, zmiana miała dotknąć wyłącznie wyników wyszukiwania dla urządzeń mobilnych:

„To improve the search experience for smartphone users and address their pain points, we plan to roll out several ranking changes in the near future that address sites that are misconfigured for smartphone users.”

Źródło: http://googlewebmastercentral.blogspot.com/2013/06/changes-in-rankings-of-smartphone_11.html (11 czerwca 2013; Yoshikiyo Kato)

na polskich serwisach pisano, że:

„Google oficjalnie ogłosił, że będzie karał serwisy internetowe, które nieprawidłowo wyświetlają się na telefonach komórkowych i tabletach”

Kara nałożona przez wyszukiwarkę może dotknąć blisko 70% stron internetowych w Polsce, które nie mają witryn mobilnych - spadną one znacznie w wynikach wyszukiwania (...)”

Źródło: http://online-marketer.com.pl/2013/9284.html

Google poinformowało na swoich stronach, że będzie obniżało w wynikach wyszukiwania pozycję stron, które po macoszemu traktują mobilnych użytkowników.”

Źródło: http://di.com.pl/news/48330,0,Google_ukarze_witryny_ktore_maja_slabe_wersje_mobilne_Lepiej_pozno_niz_wcale-Adrian_Nowak.html (13 czerwca 2013; Adrian Nowak)

w których to nie ma jasnego przekazu mówiącego, że zmiany dotyczą wyłącznie wyników dla urządzeń mobilnych i że w oryginalnym materiale nie ma wzmianki o ewentualnych karach, a jedynie o dostosowaniu algorytmu pod użytkowników mobilnych. A co na ten temat sądzą ankietowani?

Strony bez wersji mobilnych będą miały gorsze pozycje niż te z nimi

Ponad połowa osób (53,19%) biorących udział w ankiecie nie zgodziła się ze stwierdzeniem, jakoby strony bez wersji mobilnych miały mieć gorsze pozycje niż te, które takie wersje posiadają. Tylko 1/4 (26,06%) sprzeciwiła się temu, jednak biorąc pod uwagę większość głosów i mając do porównania oryginalny wpis na blogu Google z błędnym tłumaczeniem na polskich stronach, możemy ten mit uznać za:

Mit obalony

Mit 4: Dla Google najważniejszy jest użytkownik i pod tym kątem wyszukiwarka dba o swoje wyniki

Pierwsza z „dziesięciu prawd Google” głosi, że:

„Od samego początku koncentrujemy się na dostarczaniu użytkownikom najlepszych możliwych rozwiązań. Niezależnie od tego, czy projektujemy nową przeglądarkę internetową, czy dopracowujemy wygląd strony głównej, bardzo dbamy o to, aby nasze usługi służyły przede wszystkim użytkownikowi, a nie naszym wewnętrznym celom lub wynikom finansowym.”

Źródło: http://www.google.com/about/company/philosophy/

Jednak większość ankietowanych (56,38%) twierdzi, że to właśnie wyniki finansowe są najważniejsze, zarówno dla Google, jak i każdej innej firmy.

Dla Google najważniejszy jest użytkownik i pod tym kątem wyszukiwarka dba o swoje wyniki

Mimo wszystko aż 37,23% opowiedziało się po przeciwnej stronie, dlatego ostateczny rezultat to:

Mit prawdopodobny

Mit 5: Narzędzie disavow links tool szkodzi zgłaszanym stronom

Narzędzie disavow links tool powstało po to, aby webmasterzy mieli większy wpływ na to, które z linków kierujących do ich stron powinny być brane pod uwagę przy ustalaniu rankingu, a które nie. Miało ono pomóc w pozbyciu się kar Google nałożonych z powodu wykrycia nienaturalnych linków przychodzących. Sam John Mueller podczas jednego z hangoutów na Google+ zapewniał, że obecnie to jedyny cel, do jakiego to narzędzie służy i że często zgłaszane strony nie są dodatkowo analizowane.

Jednak w rozmowach webmasterów pojawiają się wręcz skrajne opinie na ten temat. Jedni są pewni, że narzędzie służy wyłącznie do pomocy stronom, na które nałożono filtr. Inni określają to mianem podcinania gałęzi, na której się siedzi. Zdaniem tych drugich, byłoby dziwne, gdyby Google nie wykorzystywało tak ogromnej ilości zebranych w ostatnim roku danych – czy to do nauczania algorytmu, jak lepiej wykrywać nienaturalne linki, czy to do masowego zerowania wartości często zgłaszanych serwisów, a nawet ich banowania, czy chociażby do automatycznego flagowania stron do późniejszego ręcznego sprawdzenia. Mimo wszystko zdania na ten temat były podzielone i aż 1/3 osób (36,17%) nie była w stanie odpowiedzieć na to pytanie.

Narzędzie disavow links tool szkodzi zgłaszanym stronom

Mit uznajemy za:

Mit prawdopodobny

Mit 6: PR strony się zmniejsza, jeśli zamieszcza się na niej dużo linków wychodzących

Od wielu lat na forach i blogach można znaleźć wypowiedzi na temat tego, że nie warto zamieszczać na swojej stronie zbyt wielu linków, bo przechodzi na nie część PR i tym samym stronie zostaje go coraz mniej. Jakie obecnie jest zdanie na ten temat?

PR strony się zmniejsza, jeśli zamieszcza się na niej dużo linków wychodzących

Zdania na ten temat są podzielone. Jednak większość tych, która zgadzała się z tą teorią podkreśla, że dotyczy to wyłącznie sytuacji, w których dochodzi do nałożenia kary przez Google w wyniku wykrycia dużej liczby linków wychodzących, przez co stronę podejrzewa się o handel linkami. Osoby te zaznaczają jednak, że dopóki zachowuje się umiar, a linki kierują do dobrych jakościowo serwisów, PR strony zamieszczającej link nie zmniejsza się.

Ze względu na spore różnice zdań, mit uznajemy za:

Mit prawdopodobny

Mit 7: Linki site-wide szkodzą i należy ich unikać za wszelką cenę

Coraz częściej, m.in. w wyniku wypowiedzi pracowników Google, webmasterzy obawiają się zamieszczania, a także zdobywania linków site-wide (wyświetlanych na wszystkich podstronach serwisu) w obawie przed uznaniem ich za nienaturalne. Nawet w poradach Johna Muellera odnośnie przygotowywania pliku z niechcianymi linkami, należy zwrócić szczególną uwagę na tego typu linki i stosować komendę domain:adresstrony.pl zamiast listować kilka pojedynczych adresów podstron w zgłoszeniu. Czy jednak na pewno takie linki są szkodliwe?

Linki site-wide szkodzą i należy ich unikać za wszelką cenę

Ponad połowa ankietowanych (57,98%) nie zgadza się z tym i uznaje linki site-wide za jak najbardziej naturalne. Jednak większość z nich zwraca uwagę na to, że bezpieczniej jest linkować w taki sposób anchory brandowe, a nie komercyjne (tj. ze słowami kluczowymi) i zachować tematyczność linkowania. Podkreślają również, że linki site-wide są dobrym sposobem na zróżnicowanie profilu backlinków pod warunkiem, że zachowuje się w nich umiar.

Mit został uznany za:

Mit obalony

Mit 8: Google bierze pod uwagę dane z Google Analytics przy ustalaniu pozycji

Od dość dawna można się spotkać z opiniami na temat tego, że Google przy ustalaniu rankingu bierze pod uwagę dane statystyczne takie jak liczba odwiedzin, wskaźnik odrzuceń, czy też liczbę odwiedzonych podstron. Z drugiej strony, z Google Analytics korzysta tylko część stron, a aby ruch na stronie mógł mieć wpływ na jej pozycję, dane na jego temat powinny być dostępne dla wszystkich stron.

Zapytaliśmy 188 osób o to, co sądzą na ten temat.

Google bierze pod uwagę dane z Google Analytics przy ustalaniu pozycji

Większość (52,13%) nie zgodziła się z tym, że dane z GA mogą w jakikolwiek sposób wpływać na pozycję strony. Matt Cutts również temu zaprzecza, mówiąc:

„Not only do we not use it in Web Spam. I promise you my web team will never go and ask the analytics team to use their data.”

„Google Analytics is not used in search quality in any way for our rankings.”

Źródło: http://www.youtube.com/watch?v=CgBw9tbAQhU (2 luty 2010; Matt Cutts)

Jedną z ciekawych sugestii wśród komentarzy do ankiety było zdanie na temat tego, że Google może przecież brać pod uwagę klikalność wyników, która jest dostępna dla wszystkich zaindeksowanych stron.

Na tę chwilę uznajemy ten mit za:

Mit obalony

Mit 9: Linki graficzne są słabsze od tekstowych

Wiele osób ma wątpliwości co do tego, czy warto używać linków graficznych w pozycjonowaniu do innych celów, niż tylko jako forma zróżnicowania profilu backlinków. Inni twierdzą, że skoro w atrybucie ALT dla obrazka można zawrzeć dowolne słowa kluczowe, to jest on traktowany na równi z anchorem linka tekstowego. Kolejni powołują się na wyniki testów, według których Google nadaje wyższy priorytet linkom tekstowym – mając do wyboru 2 linki, z czego pierwszy jest graficzny (z uzupełnionym atrybutem ALT), a drugi tekstowy, Google pominie pierwszy i weźmie pod uwagę anchor linka tekstowego.

 

Linki graficzne są słabsze od tekstowych

Z pewnością jest to kwestia do przetestowania, jednak ze względu na małą przewagę głosów na „nie”, mit uznajemy za:

Mit prawdopodobny

Mit 10: Google dobrze radzi sobie z rozpoznaniem duplikatów i wyświetlaniem na wyższej pozycji strony z oryginalnym artykułem

Na koniec zostawiliśmy sobie temat powielania treści i tego, jak radzi z tym sobie wyszukiwarka. Zapewne każdemu z nas zdarzało się widzieć na wyższych pozycjach w Google artykuł skopiowany, niż ten oryginalny. Samo Google niewiele pisze na temat sposobów wykrywania duplikatów, mimo zapewnień o tym, że mechanizm ten radzi sobie coraz lepiej. Z oficjalnych wypowiedzi wiemy jedynie, że podstrona z wyższym PR (jako bardziej popularna) ma większe szanse na to, aby uznać ją za źródło informacji.

„(...) if you do syndicate content, make sure that you include a link to the original content. That will help ensure that the original content has more PageRank, which will aid in picking the best documents in our index.”

Źródło: http://www.mattcutts.com/blog/duplicate-content-question/ (1 luty 2008; Matt Cutts)

Ankietowanym również nie było łatwo udzielić jednoznacznej odpowiedzi na pytanie o to, czy Google dobrze sobie radzi z rozpoznaniem duplikatów.

Google dobrze radzi sobie z rozpoznaniem duplikatów i wyświetlaniem na wyższej pozycji strony z oryginalnym artykułem

Pojawiały się jednak sugestie odnośnie tego, że strona bardziej zaufana będzie miała większe szanse na uznanie jej za oryginał, stąd też obawa webmasterów o pozycje ich artykułów w przypadku ich przedruku na popularnych serwisach.

Ostatni mit uznajemy zatem za:

Mit prawdopodobny

i pozostaje nam zachęcić Was do przeprowadzenia własnych testów zarówno w tym temacie, jak i poruszonych w poprzednich mitach.