Înțelegerea și rezolvarea „Descoperit – momentan neindexat”
Publicat: 2023-02-07Dacă vedeți „Descoperit – momentan neindexat” în Google Search Console, înseamnă că Google cunoaște adresa URL, dar nu a accesat-o cu crawlere și nu a indexat-o încă.
Nu înseamnă neapărat că pagina nu va fi niciodată procesată. După cum spune documentația lor, s-ar putea să revină la el mai târziu fără niciun efort suplimentar din partea dvs.
Dar alți factori ar putea împiedica Google să acceseze cu crawlere și să indexeze pagina, inclusiv:
- Probleme de server și probleme tehnice la fața locului care restricționează sau împiedică capacitatea de accesare cu crawlere a Google.
- Probleme legate de pagina în sine, cum ar fi calitatea.
De asemenea, puteți utiliza API-ul de inspecție Google Search Console pentru a pune în coadă adresele URL pentru starea lor coverageState
(precum și alte puncte de date utile) în masă.
Solicitați indexarea prin Google Search Console
Aceasta este o soluție evidentă și, pentru majoritatea cazurilor, va rezolva problema.
Uneori, Google este pur și simplu lent să acceseze cu crawlere noi adrese URL - se întâmplă. Dar alteori, problemele de fond sunt vinovate.
Când solicitați indexarea, se poate întâmpla unul dintre două lucruri:
- Adresa URL devine „Accesat cu crawlere – momentan nu este indexat”
- Indexare temporară
Ambele sunt simptome ale unor probleme de bază.
Al doilea se întâmplă deoarece solicitarea de indexare oferă uneori URL-ului dvs. o „prospețime” temporară, care poate duce adresa URL peste pragul de calitate necesar și, la rândul său, poate duce la indexare temporară.
Obțineți buletinele informative zilnice pe care se bazează marketerii.
Vezi termenii.
Probleme de calitate a paginii
Aici vocabularul poate deveni confuz. Am fost întrebat: „Cum poate Google să determine calitatea paginii dacă nu a fost încă accesată cu crawlere?”
Aceasta este o întrebare bună, iar răspunsul este că nu se poate.
Google face o presupunere cu privire la calitatea paginii pe baza altor pagini de pe domeniu. Clasificările lor se bazează, de asemenea, pe modelele URL și arhitectura site-ului web.
Ca urmare, mutarea acestor pagini din „conștientizare” în coada de accesare cu crawlere poate fi deprioritizată pe baza lipsei de calitate pe care au găsit-o pe pagini similare.
Este posibil ca paginile cu modele URL similare sau cele situate în zone similare ale arhitecturii site-ului să aibă o propunere de valoare scăzută în comparație cu alte părți de conținut care vizează aceleași intenții și cuvinte cheie ale utilizatorului.
Cauzele posibile includ:
- Profunzimea principală a conținutului.
- Prezentare.
- Nivelul conținutului suport.
- Unicitatea conținutului și perspectivelor oferite.
- Sau chiar mai multe probleme de manipulare (adică conținutul este de calitate scăzută și este generat automat, filat sau dublu direct conținutul deja stabilit).
Lucrul la îmbunătățirea calității conținutului în clusterul site-ului și a paginilor specifice poate avea un impact pozitiv asupra reaprinderii interesului Google de a vă accesa cu crawlere conținutul cu un scop mai mare.
De asemenea, puteți să nu indexați alte pagini de pe site despre care recunoașteți că nu sunt de cea mai bună calitate, pentru a îmbunătăți raportul dintre paginile de bună calitate și cele de proastă calitate de pe site.
Buget și eficiență accesați cu crawlere
Bugetul de accesare cu crawlere este un mecanism adesea greșit înțeles în SEO.
Majoritatea site-urilor web nu trebuie să-și facă griji pentru acest lucru. De fapt, Gary Illyes, de la Google, a susținut că probabil 90% dintre site-uri web nu trebuie să se gândească la bugetul de accesare cu crawlere. Este adesea privită ca o problemă pentru site-urile web ale întreprinderilor.
Eficiența accesării cu crawlere, pe de altă parte, poate afecta site-urile web de toate dimensiunile. Trecut cu vederea, poate duce la probleme cu privire la modul în care Google accesează cu crawlere și procesează site-ul.
Pentru a ilustra, dacă site-ul dvs.:
- Duplică adresele URL cu parametri.
- Rezolvă cu și fără bare oblice.
- Este disponibil pe HTTP și HTTPS.
- Servește conținut din mai multe subdomenii (de exemplu, https://website.com și https://www.website.com).
… atunci s-ar putea să întâmpinați probleme de duplicare care afectează ipotezele Google cu privire la prioritatea accesării cu crawlere pe baza unor ipoteze mai largi ale site-ului.
Este posibil să distrugeți bugetul de accesare cu crawlere al Google cu adrese URL și solicitări inutile. Având în vedere că Googlebot accesează cu crawlere site-urile web în porțiuni, acest lucru poate duce la ca resursele Google să nu se extindă suficient de mult pentru a descoperi toate adresele URL nou publicate la fel de repede pe cât ați dori.
Doriți să vă accesați site-ul cu crawlere în mod regulat și să vă asigurați că:
- Paginile se rezolvă într-un singur subdomeniu (după cum se dorește).
- Paginile se rezolvă într-un singur protocol HTTP.
- URL-urile cu parametri sunt canonizate la rădăcină (după cum se dorește).
- Link-urile interne nu folosesc redirecționări în mod inutil.
Dacă site-ul dvs. utilizează parametri, cum ar fi filtrele pentru produse de comerț electronic, puteți reduce accesul cu crawlere a acestor căi URI, interzicându-le în fișierul robots.txt.
Serverul dvs. poate fi, de asemenea, important în modul în care Google alocă bugetul pentru a vă accesa cu crawlere site-ul.
Dacă serverul dvs. este supraîncărcat și răspunde prea lent, pot apărea probleme de crawling. În acest caz, Googlebot nu va putea accesa pagina, ceea ce înseamnă că o parte din conținutul dvs. nu va fi accesat cu crawlere.
În consecință, Google va încerca să revină mai târziu pentru a indexa site-ul, dar fără îndoială va provoca o întârziere în întregul proces.
Legătura internă
Când aveți un site web, este important să aveți legături interne de la o pagină la alta.
De obicei, Google acordă mai puțină atenție adreselor URL care nu au link-uri interne sau nu au suficiente linkuri interne și chiar le poate exclude din indexul său.
Puteți verifica numărul de link-uri interne către pagini prin crawler-uri precum Screaming Frog și Sitebulb.
A avea o structură organizată și logică a site-ului web cu link-uri interne este cea mai bună cale de a merge atunci când vine vorba de optimizarea site-ului dvs.
Dar dacă aveți probleme cu acest lucru, o modalitate de a vă asigura că toate paginile dvs. interne sunt conectate este să „pirați” adâncimea de accesare cu crawlere utilizând sitemap-uri HTML.
Acestea sunt concepute pentru utilizatori, nu pentru mașini. Deși pot fi văzute ca relicve acum, ele pot fi totuși utile.
În plus, dacă site-ul dvs. are multe adrese URL, este înțelept să le împărțiți în mai multe pagini. Nu doriți să fie conectate pe toate dintr-o singură pagină.
De asemenea, linkurile interne trebuie să utilizeze eticheta <a> pentru link-urile interne în loc să se bazeze pe funcții JavaScript, cum ar fi onClick()
.
Dacă utilizați un cadru Jamstack sau JavaScript, investigați modul în care acesta sau orice bibliotecă asociată gestionează linkurile interne. Acestea trebuie prezentate ca etichete <a>.
Opiniile exprimate în acest articol sunt cele ale autorului invitat și nu neapărat Search Engine Land. Autorii personalului sunt enumerați aici.