Baza wiedzy » Blog » Pozycjonowanie / SEO

Zmiany w wytycznych Google dla Webmasterów

Zaktualizowano: 2016-01-29  
(8 min czytania)
Zmiany w wytycznych Google dla Webmasterów
Pojawiły się nowe wskazówki i zalecenia dla webmasterów, dotyczące prawidłowego budowania strony dla wyszukiwarki Google. Jest to bardzo ważne wydarzenie, ponieważ wprowadzone zostały zmiany wyjaśniające wiele kwestii, które do tej pory były sporne.
Spis treści
1. W zaktualizowanych wskazówkach dla webmasterów pojawiły się zupełnie nowe zalecenia:1.1. „W miarę możliwości zabezpiecz połączenia witryny korzystając z protokołu HTTPS. Szyfrowanie interakcji użytkownika z witryną to sprawdzona metoda komunikacji w Internecie.”1.2. „Projektując witrynę, weź pod uwagę wszystkie rodzaje i rozmiary urządzeń, w tym komputery, tablety i smartfony. Skorzystaj z narzędzia do testowania optymalizacji mobilnej, sprawdź, jak strony działają na urządzeniach mobilnych i dowiedz się, co warto poprawić.”1.3. „Upewnij się, że strony są przydatne dla użytkowników z wadami wzroku, na przykład testując łatwość obsługi z użyciem czytnika ekranu.”1.4. „Upewnij się, że ważne treści są domyślnie widoczne w witrynie. Google może indeksować zasoby HTML ukryte w elementach nawigacyjnych, takich jak karty czy sekcje rozwijane. Uważamy jednak, że dostępność takich treści dla użytkowników jest nieco ograniczona, więc proponujemy umieszczenie najważniejszych informacji w domyślnym widoku strony.”2. Pojawiły się także aktualizacje w obecnych zaleceniach2.1. „Upewnij się, że do wszystkich stron w witrynie prowadzą linki z innych stron, które można znaleźć. Link odsyłający powinien zawierać tekst lub – w przypadku obrazów – atrybut alt odnoszący się do strony docelowej.”2.2. „Prześlij plik mapy witryny z linkami do ważnych stron w witrynie. Udostępnij również stronę z listą linków do tych stron w postaci czytelnej dla człowieka (czasem nazywaną indeksem witryny lub stroną mapy witryny).”2.3. „Ogranicz liczbę linków na stronie (maksymalnie kilka tysięcy).”2.4. „Zarządzaj indeksowaniem za pomocą pliku robots.txt na serwerze internetowym, zapobiegając indeksowaniu nieskończonych przestrzeni, jakimi są strony wyników wyszukiwania. Dbaj o aktualność pliku robots.txt. Dowiedz się, jak zarządzać indeksowaniem za pomocą pliku robots.txt. Przetestuj zasięg i składnię pliku robots.txt za pomocą narzędzia do testowania pliku robots.txt.”2.5. „Upewnij się, że elementy <title> i atrybuty alt są opisowe, konkretne i dokładne.”2.6. „Zapoznaj się z zalecanymi sprawdzonymi metodami postępowania z obrazami, filmami i danymi strukturalnymi.”2.7. „Jeśli korzystasz z systemu zarządzania treścią (np. Wix lub WordPress), upewnij się, że tworzy on strony i linki, które mogą być indeksowane przez wyszukiwarki.”2.8. „Aby ułatwić Google dokładne zrozumienie zawartości witryny, zezwól na zaindeksowanie wszystkich jej zasobów, które znacząco wpływają na renderowanie stron, w tym plików CSS i JavaScript, istotnych dla właściwej interpretacji stron. System indeksowania Google renderuje strony internetowe tak, jak widziałby je użytkownik, uwzględniając również obrazy, pliki CSS i JavaScript. Aby zobaczyć zasoby stron, których Googlebot nie może zaindeksować, a także poprawić instrukcje w pliku robots.txt, skorzystaj z raportu na temat zablokowanych zasobów w Search Console oraz z narzędzi Pobierz jako Google i Tester pliku robots.txt.”2.9. „Upewnij się, że linki do reklam nie wpływają na pozycję stron w wyszukiwarkach. Możesz na przykład zablokować linki do reklam dla robota za pomocą pliku robots.txt lub atrybutu rel="nofollow".”2.10. „Istotne nazwy, treści i linki powinny być zapisane zwykłym tekstem, a nie za pomocą elementów graficznych. Jeśli musisz używać obrazów w zawartości tekstowej, użyj atrybutu alt z kilkoma słowami opisu.”2.11. „Upewnij się, że wszystkie linki prowadzą do aktywnych stron internetowych. Używaj prawidłowego kodu HTML.”2.12. „Zoptymalizuj czas wczytywania stron. Szybko działające witryny są atrakcyjne dla użytkowników i podnoszą ogólną jakość internetu (szczególnie w przypadku użytkowników z wolnym połączeniem internetowym). Google zaleca przetestowanie wydajności strony za pomocą takich narzędzi jak PageSpeed Insights oraz Webpagetest.org.”3. Co zostało w dokumencie rozdzielone/zaktualizowane?3.1. „Zaprojektuj witrynę tak, by uzyskać wyraźną pojęciową hierarchię stron.”4. Co zostało usunięte?4.1. Dynamiczne adresy

Oryginalnie podsumowanie wprowadzonych zmian pojawiło się na seroundtable.com. Ten artykuł jest luźnym tłumaczeniem materiału zawartego w seroundtable.com.

Aktualne wskazówki dla webmasterów można znaleźć w pomocy Google  w wersji polskiej oraz angielskiej.

Warto zwrócić uwagę na fakt, że zazwyczaj wprowadzenie zmian we wskazówkach dla webmasterów skutkowało w niedługim czasie wprowadzeniem przez inżynierów Google aktualizacji w samej wyszukiwarce, a dokładnie w algorytmie odpowiedzialnym za wyświetlanie wyników wyszukiwania. Kto wie – być może tym razem także będziemy świadkami takiego zachowania Google?

W zaktualizowanych wskazówkach dla webmasterów pojawiły się zupełnie nowe zalecenia:

 

W miarę możliwości zabezpiecz połączenia witryny korzystając z protokołu HTTPS. Szyfrowanie interakcji użytkownika z witryną to sprawdzona metoda komunikacji w Internecie.”

Znaczy to tyle, że posiadanie zabezpieczonej witryny jest teraz zaleceniem ze strony Google.  Oczywiście można było się spodziewać takiej decyzji prędzej czy później. Sprawia to, że nie ma już szarej strefy powątpiewania „warto/nie warto”. Po prostu, jeżeli mamy taką możliwość, dodajmy obsługę HTTPS dla naszej strony.

 

Projektując witrynę, weź pod uwagę wszystkie rodzaje i rozmiary urządzeń, w tym komputery, tablety i smartfony. Skorzystaj z narzędzia do testowania optymalizacji mobilnej, sprawdź, jak strony działają na urządzeniach mobilnych i dowiedz się, co warto poprawić.”

To także element, którego można było prędzej czy później spodziewać się we wskazówkach dla webmasterów. Jeżeli do tej pory zwlekałeś z przystosowaniem swojej strony do urządzeń mobilnych – czekałeś za długo. Od tego momentu nie ma już mowy o wątpieniu w istotność posiadania wersji mobilnej własnej witryny.

Warto zwrócić uwagę, że to pierwszy raz, gdy w wytycznych dla webmasterów pojawia się wzmianka o urządzeniach mobilnych i dostępności stron na te urządzenia.

 

Upewnij się, że strony są przydatne dla użytkowników z wadami wzroku, na przykład testując łatwość obsługi z użyciem czytnika ekranu.”

Zalecenia co do dostępności strony, a także jej przydatności dla użytkowników z wadami wzroku dawno nie była obecna w dokumencie. Teraz nie ma wątpliwości, że strony powinny być dobrze przystosowane także i dla osób z wadami wzroku.

 

Upewnij się, że ważne treści są domyślnie widoczne w witrynie. Google może indeksować zasoby HTML ukryte w elementach nawigacyjnych, takich jak karty czy sekcje rozwijane. Uważamy jednak, że dostępność takich treści dla użytkowników jest nieco ograniczona, więc proponujemy umieszczenie najważniejszych informacji w domyślnym widoku strony.

Ten zapis kończy dyskusję, czy roboty Google „czytają” treść zawartą w tabach (zakładkach) i czy radzą sobie z rozwijanym tekstem.  Warto jednak starać się tak prezentować treść, aby zakładki nie były wymagane.

 

Pojawiły się także aktualizacje w obecnych zaleceniach

 

Upewnij się, że do wszystkich stron w witrynie prowadzą linki z innych stron, które można znaleźć. Link odsyłający powinien zawierać tekst lub – w przypadku obrazów – atrybut alt odnoszący się do strony docelowej.”

Można to przetłumaczyć w bardzo prosty sposób – twórz stronę opartą o jasną hierarchię i najlepiej z linkami tekstowymi. Każda podstrona powinna posiadać co najmniej jeden statyczny, tekstowy link wewnętrzny.

W wersji angielskiej słowa układają się w formie „wszystkie linki powinny być osiągalne…” Nie ma natomiast wzmanki na temat statyczych linków, które do tej pory były przez Google preferowane. Chodzi tylko o to, aby link do podstrony był „osiągalny”.

Punkt ten wcześniej połączony był z informacją o prostej hierarchii strony. Aktualnie elementy te zostały rozłączone.

 

Prześlij plik mapy witryny z linkami do ważnych stron w witrynie. Udostępnij również stronę z listą linków do tych stron w postaci czytelnej dla człowieka (czasem nazywaną indeksem witryny lub stroną mapy witryny).

Jest to połączenie dwóch starych zapisów, z których jeden mówił o tworzeniu mapy strony dla użytkowników z najważniejszymi podstronami, a w przypadku wystąpienia dużej liczby podstron – aby podzielić mapy strony na wiele podstron.

Drugi zapis mówił: „Dodaj swoją mapę strony do Google Search Console, co pozwoli poznać strukturę Twojej strony robotom indeksującym, a także zwiększyć pokrycie zbadanych stron.

Nowy zapis także został podzielony na dwie części – jedna dotyczy ludzi, druga robotów, ale z tą ciekawostką, że zalecenie na temat mapy strony dla ludzi znalazło się w zbiorze zaleceń dla robotów.

 

Ogranicz liczbę linków na stronie (maksymalnie kilka tysięcy).

Lata temu Google zalecało w swoich dokumentach ze wskazówkami dla Webmasterów aby nie tworzyć więcej niż 100 linków. Później zaktualizowali ten zapis do „dodaj tyle linków aby miało to jakiś sens i umiar”. Teraz z czystym sumieniem możemy dodać nawet kilka tysięcy linków.

 

Zarządzaj indeksowaniem za pomocą pliku robots.txt na serwerze internetowym, zapobiegając indeksowaniu nieskończonych przestrzeni, jakimi są strony wyników wyszukiwania. Dbaj o aktualność pliku robots.txt. Dowiedz się, jak zarządzać indeksowaniem za pomocą pliku robots.txt. Przetestuj zasięg i składnię pliku robots.txt za pomocą narzędzia do testowania pliku robots.txt.

Wcześniej ta reguła mówiła o tym do czego wykorzystywane jest robots.txt, a także o sprawdzeniu, czy przypadkowo nie blokujemy dostępu do strony poprzez reguły w tym pliku.

Co dziwne, w nowej wersji zapisu znikł punkt mówiący o przypadkowym wyindeksowaniu strony. Pojawił się natomiast (w wersji angielskiej) termin „crawl budget” nieprzetłumaczony na język polski.

 

Upewnij się, że elementy <title> i atrybuty alt są opisowe, konkretne i dokładne.”

Zapis ten w porównaniu ze starszą wersją został zaktualizowany o słowo „konkretne”.

 

Zapoznaj się z zalecanymi sprawdzonymi metodami postępowania z obrazami, filmami i danymi strukturalnymi.

Różnica jest taka, że zamiast słowa "przeczytaj" pojawiło się zalecenie „zapoznaj się”.

 

Jeśli korzystasz z systemu zarządzania treścią (np. Wix lub WordPress), upewnij się, że tworzy on strony i linki, które mogą być indeksowane przez wyszukiwarki.

Zmianą w tym punkcie jest wymienienie z nazwy dwóch CMSów.

 

Aby ułatwić Google dokładne zrozumienie zawartości witryny, zezwól na zaindeksowanie wszystkich jej zasobów, które znacząco wpływają na renderowanie stron, w tym plików CSS i JavaScript, istotnych dla właściwej interpretacji stron. System indeksowania Google renderuje strony internetowe tak, jak widziałby je użytkownik, uwzględniając również obrazy, pliki CSS i JavaScript. Aby zobaczyć zasoby stron, których Googlebot nie może zaindeksować, a także poprawić instrukcje w pliku robots.txt, skorzystaj z raportu na temat zablokowanych zasobów w Search Console oraz z narzędzi Pobierz jako Google i Tester pliku robots.txt.”

Zmiany w tym punkcie to tak naprawdę niuans w postaci zachęcenia do jeszcze większego skupienia się na kaskadowych arkuszach styli (CSS) oraz JavaScript, które „znacząco wpływają na renderowanie stron”. We wcześniejszej wersji tego punktu nie było wzmianki o wpływie tych elementów na działanie i renderowanie strony. Pojawiła się także informacja, że o zablokowanych zasobach dowiedzieć się możemy w Google Search Console.

 

Upewnij się, że linki do reklam nie wpływają na pozycję stron w wyszukiwarkach. Możesz na przykład zablokować linki do reklam dla robota za pomocą pliku robots.txt lub atrybutu rel="nofollow".

Wszystkim znany zapis, który wcześniej brzmiał nieco inaczej. Pojawiał się przykład, że linki dystrybuowane w reklamach Google AdSense czy DoubleClick posiadają nałożony znacznik nofollow.

Zapis ten czyści sytuację kiedy zastanawiano się, czy znacznik nofollow dotyczy tylko sieci dystrybuujących linki czy wszystkich linków reklamowych. Zapis ten jako pierwszy nakazuje korzystanie z rel=”nofollow”.

 

Istotne nazwy, treści i linki powinny być zapisane zwykłym tekstem, a nie za pomocą elementów graficznych. Jeśli musisz używać obrazów w zawartości tekstowej, użyj atrybutu alt z kilkoma słowami opisu.

Główną zmianą w tym punkcie jest opisanie możliwości użycia „kilku słów” w alt. Wcześniej pojawiał się w tym miejscu tylko zapis mówiący „rozważ użycie alt”.

 

Upewnij się, że wszystkie linki prowadzą do aktywnych stron internetowych. Używaj prawidłowego kodu HTML.

Wcześniej punkt ten brzmiał:

„Zbadaj stronę w poszukiwaniu niedziałających linków i poprawnego HTML”.

Pierwsza zmiana to po prostu jaśniejszy przekaz. Drugą zmianą jest to, że Google zamiast pisać „dostarcz nam działające linki” mówi „upewnij się, że wszystkie linki kierują do działających podstron”. To trochę prostszy sposób powiedzenia: „badaj stronę pod kątem niedziałających linków”.

 

Zoptymalizuj czas wczytywania stron. Szybko działające witryny są atrakcyjne dla użytkowników i podnoszą ogólną jakość internetu (szczególnie w przypadku użytkowników z wolnym połączeniem internetowym). Google zaleca przetestowanie wydajności strony za pomocą takich narzędzi jak PageSpeed Insights oraz Webpagetest.org.”

Ten punkt został zaktualizowany poprzez usunięcie wzmianki o przestarzałych narzędziach jakie Google dostarcza, ale już dłużej nie wspiera.

 

Co zostało w dokumencie rozdzielone/zaktualizowane?

Zaprojektuj witrynę tak, by uzyskać wyraźną pojęciową hierarchię stron.

Wcześniej punkt ten dotyczył: „Tworzenia stron z jasną hierarchią i linkami tekstowymi. Każda strona powinna być dostępna poprzez co najmniej jeden link na stronie”.

Dodanie pojęcia „wyraźną” (ang. conceptual) jest ciekawe.

 

Co zostało usunięte?

 

Dynamiczne adresy

Wzmianka o używaniu dynamicznych stron, które zawierają na przykład znacznik „?”. Chodziło o troskę Google, że nie wszystkie roboty indeksujące będą w stanie odpowiednio zinterpretować takie adresy. Wpis ten został usunięty, ponieważ dynamiczne adresy stały się aktualnie standardem.

Usunięty został także zapis o blokowaniu wyników wyszukiwania poprzez robots.txt. Punkt ten został opisany na nowo.

Jeżeli Twoja strona jeszcze nie została dostosowana do nowych wytycznych Google dla Webmasterów, zadbaj o to jak najszybciej! Brak odpowiednich wdrożeń może osłabić pozycjonowanie i seo Twojej witryny!

Wasze komentarze (10)
Redakcja WhitePress® zastrzega sobie prawo usuwania komentarzy niezgodnych z Regulaminem publikowania komentarzy oraz niezgodnych z prawem i dobrymi obyczajami.

Administratorem danych osobowych osób korzystających ze strony internetowej whitepress.com i wszystkich jej podstron (dalej: Serwis) w rozumieniu Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (dalej: RODO) jest wspólnie „WhitePress” Spółka z ograniczoną odpowiedzialnością z siedzibą w Bielsku – Białej przy ul. Legionów 26/28, wpisana do rejestru przedsiębiorców KRS prowadzonego przez Sąd Rejonowy w Bielsku – Białej, VIII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS: 0000651339, NIP: 9372667797, REGON: 243400145 oraz pozostałe spółki z Grupy WhitePress (dalej łącznie: Administrator).

Dokonując zapisu na newsletter wyrażacie Państwo zgodę na przesyłanie informacji handlowych za pomocą środków komunikacji elektronicznej, w tym w szczególności poczty elektronicznej, dotyczących marketingu bezpośredniego usług i towarów oferowanych przez WhitePress sp. z o.o. oraz jej zaufanych partnerów handlowych, zainteresowanych marketingiem własnych towarów lub usług. Podstawą prawną przetwarzania Państwa danych osobowych uzasadniony interes Administratora oraz jego partnerów (art. 6 ust. 1 lit. f RODO).

W każdym momencie przysługuje Państwu możliwość wycofania zgody na przetwarzanie Państwa danych osobowych w celach marketingowych. Więcej informacji na temat przetwarzania oraz podstaw przetwarzania Państwa danych osobowych, w tym przysługujących Państwu uprawnień, znajdziecie Państwo w naszej Polityce prywatności.

Czytaj całość
Halinka
2018-11-21, 13:01

Zmiany w Google są bardzo często i jeśli chcemy być obeznani w temacie musimy na bieżąco śledzić to co dzieje się w tej branży. Jeśli nawet przez chwilę nie będziemy śledzić tej branży powrót wiązać będzie się z podjęciem szerokich działań doszkalających ;) Wszystko jednak można osiągnąć - trzeba tylko chcieć ;)

ideo.pl

Zgłoś komentarz

Robert
2018-11-18, 15:25

spoko artykuł, tylko o linkowaniu za wiele nie ma

rozwodowy.pl

Zgłoś komentarz

Stani
2017-01-02, 07:57

Zauważyłem, że google coraz bardziej zwraca uwagę na szybkść otwierania się strony

opstron.pl

Zgłoś komentarz

Zdalny
2016-02-17, 15:24

Wniosek a propos linkowania nasuwa się jeden - umiar :)

ZdalnyMarketing.pl

Zgłoś komentarz

martens
2016-02-12, 13:40

Tomasz, linki będą jednym z najważniejszych czynników. Problemem dla Google jest ich ocena. Tutaj pewnie ciągle będzie trwała rewolucja :)

backpack.beskidmaly.pl

Zgłoś komentarz

Tonej
2016-02-05, 16:36

Tak w sumie żadnych nowych rzeczy których byśmy nie znali nie ma ale warto przeczytać - usystematyzować.

semkonsultant.pl

Zgłoś komentarz

Michał
2016-02-03, 15:13

Spoko podsumowanie ;)
W sumie nie pojawiło się nic rewolucyjnego - ot sformalizowanie wcześniej pojawiających się wzmianek na hangoutach z googlersami i na blogu Google.

jangas.pl

Zgłoś komentarz

Żołnierz Wyklęty
2016-02-03, 09:51

Najbardziej ucieszył mnie ten podpunkt "Limit the number of links on a page to a reasonable number (a few thousand at most)." . Zawsze miałem problem z tą ilością linków wewnętrznych.

redisbad.pl

Zgłoś komentarz

Aleksiejs
2016-01-30, 21:58

W sumie nic ciekawego nie napisali, kto optymalizował swoją stronę/strony ten o większość punktów i tak zahacza. Niektóre zmiany pojedynczych słów są lekko śmieszne..

aleksiejs.pl

Zgłoś komentarz

Tomasz
2016-01-30, 20:50

Im bardziej kogla naciska na linki nofollow tym dłużej linki prowadzące do strony będą najważniejszym czynnikiem rankingowym.

birdmedia.pl

Zgłoś komentarz

Polecane artykuły