Ile poczekamy zanim Google zindeksuje moją nową stronę (i od czego to zależy)?

Masz dość czekania, aż Google zindeksuje Twoją nową treść? Pomóż mu, upewniając się, że Twoje strony są możliwe do zindeksowania. Nie możesz się doczekać zaindeksowania nowej zawartości? Dowiedz się, dlaczego tak trudno jest oszacować , ile czasu może potrwać indeksowanie, i co możesz zrobić, aby to przyspieszyć. Indeksowanie to proces pobierania informacji z Twojej witryny, kategoryzowania ich i przechowywania w bazie danych. Ta baza danych – indeks Google – jest źródłem wszystkich informacji, które można znaleźć w wyszukiwarce Google.

 

Strony, które nie są uwzględnione w indeksie, nie mogą pojawiać się w wynikach wyszukiwania, niezależnie od tego, jak dobrze pasują do danego zapytania. Załóżmy, że niedawno dodałeś do swojego bloga nową stronę. W swoim nowym poście omawiasz popularny temat, mając nadzieję, że przyniesie on dużo nowego ruchu.

 

Ale zanim zobaczysz, jak strona radzi sobie w wyszukiwarce Google, musisz poczekać, aż zostanie zindeksowana. Więc ile dokładnie trwa ten proces? A kiedy zacząć się martwić, że brak indeksowania może sygnalizować problemy techniczne w Twojej witrynie?

 

Jak długo trwa indeksowanie? Najlepsze domysły ekspertów

Indeks Google zawiera setki miliardów stron internetowych i zajmuje ponad 100 milionów gigabajtów pamięci. Ponadto Google nie ogranicza liczby stron w witrynie, które można zaindeksować . Chociaż niektóre strony mogą mieć pierwszeństwo w kolejce indeksowania, zazwyczaj strony nie muszą konkurować o indeksowanie. W tej kolosalnej bazie danych powinno być jeszcze miejsce na jeszcze jedną małą stronę, prawda? Nie musisz się martwić o swój wpis na blogu? Niestety, być może będziesz musiał.

 

Google przyznaje, że nie każda strona przetwarzana przez jego roboty zostanie zaindeksowana. W styczniu 2021 r. rzecznik wyszukiwarki Google, John Mueller, rozwinął ten temat, ujawniając, że to całkiem normalne, że Google nie indeksuje wszystkich stron dużej witryny. Wyjaśnił, że wyzwaniem dla Google jest próba zrównoważenia chęci indeksowania jak największej ilości treści z szacowaniem, czy będzie ona przydatna dla użytkowników wyszukiwarek.

 

Dlatego w wielu przypadkach nieindeksowanie danego fragmentu treści jest strategicznym wyborem Google. Google nie chce, aby jego indeks zawierał strony o niskiej jakości, zduplikowane treści lub strony, których użytkownicy nie będą szukać. Najlepszym sposobem na uniknięcie spamu w wynikach wyszukiwania jest jego nieindeksowanie.

Ile poczekamy zanim Google zindeksuje moją nową stronę

Ale dopóki Twoje posty na blogu będą wartościowe i przydatne, nadal będą indeksowane, prawda? Odpowiedź jest skomplikowana. Tomek Rudzki, ekspert ds. indeksowania w Onely – firmie, w której pracuję – obliczył, że średnio 16% wartościowych i indeksowalnych stron w popularnych serwisach nigdy nie jest indeksowanych.

 

Czy istnieje gwarancja, że ​​Twoja strona zostanie zindeksowana?

Jak można się domyślić z tytułu tego artykułu, nie ma ostatecznej odpowiedzi na to pytanie dotyczące indeksowania. Nie będziesz mieć możliwości ustawienia przypomnienia kalendarza w dniu, w którym Twój post na blogu ma zostać zindeksowany. Jednak wiele osób zadało już wcześniej to samo pytanie, zachęcając pracowników Google i doświadczonych specjalistów SEO do udzielenia wskazówek.

John Mueller twierdzi , że indeksowanie strony może zająć od kilku godzin do kilku tygodni . Podejrzewa, że ​​większość dobrych treści jest wychwytywana i indeksowana w ciągu około tygodnia. Badania przeprowadzone przez Rudzkiego wykazały, że średnio 83% stron jest indeksowanych w ciągu pierwszego tygodnia od publikacji. Niektóre strony muszą czekać do ośmiu tygodni na zaindeksowanie. Oczywiście dotyczy to tylko stron, które ostatecznie zostaną zindeksowane.

 

 

Zapotrzebowanie na indeksowanie i budżet indeksowania

Aby nowa strona w Twoim blogu została wykryta i zindeksowana, Googlebot musi ponownie zindeksować bloga. Częstotliwość ponownego indeksowania witryny przez Googlebota z pewnością wpływa na szybkość indeksowania nowej strony, a to zależy od charakteru treści i częstotliwości jej aktualizacji. Serwisy informacyjne, które niezwykle często publikują nowe treści, wymagają częstego ponownego indeksowania. Można powiedzieć, że są to witryny o dużym popycie na indeksowanie.

 

Przykładem witryny o niskim popycie na indeksowanie może być witryna o historii kowalstwa, ponieważ jej zawartość nie będzie bardzo często aktualizowana. Google automatycznie określa, czy witryna ma niskie lub wysokie zapotrzebowanie na indeksowanie . Podczas wstępnego indeksowania sprawdza, o czym jest witryna i kiedy była ostatnio aktualizowana. Decyzja o częstszym indeksowaniu strony nie ma nic wspólnego z jakością treści – decydującym czynnikiem jest szacowana częstotliwość aktualizacji.

 

Drugim ważnym czynnikiem jest szybkość indeksowania . Jest to liczba żądań, które Googlebot może wykonać bez obciążania Twojego serwera. Jeśli hostujesz swojego bloga na serwerze o niskiej przepustowości, a Googlebot zauważy, że serwer zwalnia, dostosuje i zmniejszy szybkość indeksowania. Z drugiej strony, jeśli witryna reaguje szybko, limit wzrasta, a Googlebot może indeksować więcej adresów URL.

Co musi się stać, zanim Twoja strona zostanie zindeksowana?

Skoro indeksowanie wymaga czasu, można się również zastanawiać – jak dokładnie ten czas jest spędzany? W jaki sposób informacje z Twojej witryny są klasyfikowane i uwzględniane w indeksie Google? Omówmy zdarzenia, które muszą mieć miejsce przed indeksowaniem.

Odkrywanie treści

Wróćmy do przykładu, w którym zamieściłeś nowy wpis na blogu. Googlebot musi wykryć adres URL tej strony w pierwszym kroku potoku indeksowania.

 

Może się to zdarzyć poprzez:

  • Podążanie za linkami wewnętrznymi , które podałeś na innych stronach swojego bloga.
  • Śledzenie linków zewnętrznych utworzonych przez osoby, które uznały Twoje nowe treści za przydatne.
  • Przeglądanie mapy witryny XML przesłanej do Google Search Console.

 

Fakt odkrycia strony oznacza, że ​​Google wie o jej istnieniu i adresie URL.

 

Pełzanie

Indeksowanie to proces odwiedzania adresu URL i pobierania zawartości strony. Podczas indeksowania Googlebot zbiera informacje o głównym temacie strony, jakie pliki zawiera ta strona, jakie słowa kluczowe się na niej pojawiają, itp. Po znalezieniu linków na stronie robot indeksujący podąża za nimi do następnej strony, a cykl jest kontynuowany. Należy pamiętać, że Googlebot przestrzega reguł określonych w pliku robots.txt, dzięki czemu nie będzie indeksować stron zablokowanych przez dyrektywy podane w tym pliku.

 

Wykonanie

Renderowanie musi nastąpić, aby Googlebot mógł zrozumieć zarówno treść JavaScript, jak i pliki graficzne, audio i wideo. Tego typu pliki zawsze były większym wyzwaniem dla Google niż HTML. Rzecznik programistów Google, Martin Splitt, porównał renderowanie do gotowania potrawy. W tej metaforze początkowy plik HTML strony internetowej z linkami do innych treści jest przepisem. Możesz nacisnąć klawisz F12 na klawiaturze, aby wyświetlić go w przeglądarce.

Wszystkie zasoby witryny, takie jak CSS, pliki JavaScript, obrazy i filmy, są składnikami niezbędnymi do nadania witrynie ostatecznego wyglądu. Kiedy witryna osiągnie ten stan, masz do czynienia z renderowanym kodem HTML, częściej nazywanym modelem obiektów dokumentu. Martin powiedział również, że wykonanie JavaScript jest pierwszym etapem renderowania, ponieważ JavaScript działa jak przepis w przepisie.

 

W niedalekiej przeszłości Googlebot indeksował początkową wersję HTML strony i pozostawiał renderowanie JavaScript na później ze względu na koszt i czasochłonność procesu. Branża SEO określiła to zjawisko jako „dwie fale indeksowania”. Jednak teraz wydaje się, że te dwie fale nie są już potrzebne. Mueller i Splitt przyznali, że w dzisiejszych czasach prawie każda nowa strona internetowa domyślnie przechodzi przez etap renderowania. Jednym z celów Google jest zbliżenie do siebie indeksowania, renderowania i indeksowania.

 

Czy możesz szybciej zindeksować swoją stronę?

Nie możesz zmusić Google do zindeksowania Twojej nowej strony. To, jak szybko to się dzieje, jest również poza twoją kontrolą. Możesz jednak zoptymalizować swoje strony, aby wykrywanie i indeksowanie przebiegało tak płynnie, jak to tylko możliwe. Oto, co musisz zrobić:

 

Upewnij się, że Twoja strona jest indeksowana

Aby zapewnić możliwość indeksowania stron, należy przestrzegać dwóch ważnych zasad:

  • Należy unikać blokowania ich przez robots.txt lub dyrektywę noindex.
  • Należy oznaczyć kanoniczną wersję danego elementu treści znacznikiem kanonicznym.

Robots.txt to plik zawierający instrukcje dla robotów odwiedzających Twoją witrynę. Możesz go użyć do określenia, które roboty nie mogą odwiedzać określonych stron lub folderów. Wszystko, co musisz zrobić, to użyć dyrektywy disallow. Na przykład, jeśli nie chcesz, aby roboty odwiedzały strony i pliki w folderze o nazwie „przykład”, plik robots.txt powinien zawierać następujące dyrektywy:

User-agent: *

Disallow: /example/

 

Czasami można przez pomyłkę zablokować Googlebotowi indeksowanie wartościowych stron. Jeśli obawiasz się, że Twoja strona nie została zaindeksowana z powodu problemów technicznych, zdecydowanie powinieneś zajrzeć do pliku robots.txt. Googlebot jest uprzejmy i nie przekaże do potoku indeksowania żadnej strony, której mu powiedziano. Sposobem na wyrażenie takiego polecenia jest umieszczenie dyrektywy noindex w:

  • X-Robots-tag w odpowiedzi nagłówka HTTP adresu URL Twojej strony.
  • Metatag robots w sekcji <head> Twojej strony.

 

Upewnij się, że ta dyrektywa nie pojawia się na stronach, które powinny być indeksowane. Jak już mówiliśmy, Google chce uniknąć indeksowania zduplikowanych treści. Jeśli znajdzie dwie strony, które wyglądają jak kopie siebie nawzajem, prawdopodobnie zindeksuje tylko jedną z nich.

Tag kanoniczny został stworzony, aby uniknąć nieporozumień i natychmiast skierować Googlebota pod adres URL, który właściciel witryny uważa za oryginalną wersję strony. Pamiętaj, że kod źródłowy strony, którą chcesz umieścić w indeksie Google, nie powinien wskazywać innej strony jako kanonicznej.

Prześlij mapę witryny

Mapa witryny zawiera listę wszystkich adresów URL witryny, które chcesz zaindeksować (do 50 000). Możesz przesłać go do Google Search Console, aby pomóc Google szybciej odkryć mapę witryny. Dzięki mapie witryny ułatwiasz Googlebotowi znajdowanie Twoich stron i zwiększasz szansę na zaindeksowanie tych, których nie znalazł podczas korzystania z linków wewnętrznych. Dobrą praktyką jest odwoływanie się do mapy witryny w pliku robots.txt.

 

Poproś Google o ponowne zindeksowanie Twoich stron

Możesz poprosić o indeksowanie poszczególnych adresów URL, korzystając z narzędzia do sprawdzania adresów URL dostępnego w Google Search Console. Nadal nie gwarantuje indeksowania i będziesz potrzebować trochę cierpliwości, ale jest to kolejny sposób na upewnienie się, że Google wie, że Twoja strona istnieje.

 

W razie potrzeby użyj interfejsu Google Indexing API

Indexing API to narzędzie umożliwiające powiadamianie Google o nowo dodanych stronach. Dzięki temu narzędziu Google może efektywniej planować indeksowanie czasochłonnych treści. Niestety nie możesz go używać do swoich postów na blogu, ponieważ obecnie narzędzie to jest przeznaczone tylko dla stron z ofertami pracy i wideo na żywo. Podczas gdy niektórzy profesjonaliści SEO używają interfejsu Indexing API do innych typów stron – i może to działać krótkoterminowo – wątpliwe jest, aby pozostało opłacalnym rozwiązaniem na dłuższą metę.

 

Zapobiegaj przeciążeniu serwera w swojej witrynie

Pamiętaj też o zapewnieniu dobrej przepustowości serwera, aby Googlebot nie zmniejszał szybkości indeksowania Twojej witryny. Unikaj korzystania z usług współdzielonych dostawców hostingu i pamiętaj, aby regularnie testować swój serwer, aby upewnić się, że poradzi sobie z zadaniem.

 

Streszczenie

Nie da się dokładnie przewidzieć, ile czasu zajmie zaindeksowanie Twojej strony (lub czy kiedykolwiek to nastąpi), ponieważ Google nie indeksuje wszystkich przetwarzanych treści. Zazwyczaj indeksowanie odbywa się od kilku godzin do kilku tygodni po publikacji. Największym wąskim gardłem dla indeksowania jest szybkie indeksowanie.

 

Jeśli Twoja treść spełnia progi jakości i nie ma przeszkód technicznych dla indeksowania, przyjrzyj się przede wszystkim temu, jak Googlebot indeksuje Twoją witrynę, aby szybko zaindeksować nową treść. Zanim strona zostanie przekierowana do potoku indeksowania, Googlebot ją zaindeksuje i w wielu przypadkach renderuje umieszczone na niej obrazy, filmy i elementy JavaScript.

 

Witryny, które zmieniają się częściej, a zatem mają większe zapotrzebowanie na indeksowanie, są częściej ponownie indeksowane. Gdy Googlebot odwiedzi Twoją witrynę, dopasuje szybkość indeksowania na podstawie liczby zapytań, które może wysłać do Twojego serwera, nie przeciążając go.

 

Dlatego warto zadbać o dobrą przepustowość serwera. Nie blokuj Googlebota w pliku robots.txt, ponieważ wtedy nie będzie on indeksował Twoich stron. Pamiętaj, że Google szanuje również metatag noindex robots i generalnie indeksuje tylko kanoniczną wersję adresu URL.