Comprendere e risolvere "Scoperto – attualmente non indicizzato"
Pubblicato: 2023-02-07Se vedi "Scoperto - attualmente non indicizzato" in Google Search Console, significa che Google è a conoscenza dell'URL, ma non l'ha ancora scansionato e indicizzato.
Non significa necessariamente che la pagina non verrà mai elaborata. Come dice la loro documentazione, potrebbero tornarci più tardi senza alcuno sforzo aggiuntivo da parte tua.
Ma altri fattori potrebbero impedire a Google di eseguire la scansione e l'indicizzazione della pagina, tra cui:
- Problemi del server e problemi tecnici in loco che limitano o impediscono la capacità di scansione di Google.
- Problemi relativi alla pagina stessa, come la qualità.
Puoi anche utilizzare l'API di ispezione di Google Search Console per mettere in coda gli URL per il loro stato di stato di coverageState
(così come altri punti dati utili) in massa.
Richiedi l'indicizzazione tramite Google Search Console
Questa è una soluzione ovvia e nella maggior parte dei casi risolverà il problema.
A volte, Google è semplicemente lento a eseguire la scansione di nuovi URL: succede. Ma altre volte, i problemi di fondo sono i colpevoli.
Quando richiedi l'indicizzazione, potrebbero verificarsi due cose:
- L'URL diventa "Scansionato - attualmente non indicizzato"
- Indicizzazione temporanea
Entrambi sono sintomi di problemi di fondo.
Il secondo accade perché la richiesta di indicizzazione a volte dà al tuo URL un temporaneo "incremento di freschezza" che può portare l'URL al di sopra della soglia di qualità richiesta e, a sua volta, portare a un'indicizzazione temporanea.
Ottieni la newsletter quotidiana su cui si affidano i marketer di ricerca.
Vedi termini.
Problemi di qualità della pagina
È qui che il vocabolario può diventare confuso. Mi è stato chiesto: "Come può Google determinare la qualità della pagina se non è ancora stata sottoposta a scansione?"
Questa è una buona domanda, e la risposta è che non può.
Google sta facendo un'ipotesi sulla qualità della pagina sulla base di altre pagine del dominio. Anche le loro classificazioni si basano sui pattern URL e sull'architettura del sito web.
Di conseguenza, lo spostamento di queste pagine dalla "consapevolezza" alla coda di scansione può perdere la priorità in base alla mancanza di qualità riscontrata in pagine simili.
È possibile che le pagine su pattern URL simili o che si trovano in aree simili dell'architettura del sito abbiano una proposta di basso valore rispetto ad altri contenuti indirizzati alle stesse intenzioni e parole chiave dell'utente.
Le possibili cause includono:
- La profondità del contenuto principale.
- Presentazione.
- Livello di contenuto di supporto.
- Unicità dei contenuti e delle prospettive offerte.
- O problemi ancora più manipolativi (ad esempio, il contenuto è di bassa qualità e generato automaticamente, filato o duplica direttamente il contenuto già stabilito).
Lavorare per migliorare la qualità dei contenuti all'interno del cluster del sito e delle pagine specifiche può avere un impatto positivo sul riaccendere l'interesse di Google nella scansione dei tuoi contenuti con maggiore finalità.
Puoi anche noindex altre pagine del sito web che riconosci non sono della massima qualità per migliorare il rapporto tra pagine di buona qualità e pagine di cattiva qualità sul sito.
Crawl budget ed efficienza
Il crawl budget è un meccanismo spesso frainteso nella SEO.
La maggior parte dei siti Web non deve preoccuparsi di questo. In effetti, Gary Illyes di Google ha dichiarato che probabilmente il 90% dei siti Web non ha bisogno di pensare al crawl budget. È spesso considerato un problema per i siti Web aziendali.
L'efficienza della scansione, d'altra parte, può influire sui siti Web di tutte le dimensioni. Trascurato, può portare a problemi su come Google esegue la scansione e l'elaborazione del sito web.
Per illustrare, se il tuo sito web:
- Duplica URL con parametri.
- Risolve con e senza barre finali.
- È disponibile su HTTP e HTTPS.
- Fornisce contenuti da più sottodomini (ad es. https://website.com e https://www.website.com).
…allora potresti riscontrare problemi di duplicazione che incidono sui presupposti di Google sulla priorità di scansione basati su presupposti più ampi del sito.
Potresti esaurire il budget di scansione di Google con URL e richieste non necessari. Dato che Googlebot esegue la scansione dei siti Web in porzioni, ciò può comportare che le risorse di Google non si estendano abbastanza per scoprire tutti gli URL appena pubblicati alla velocità che desideri.
Desideri eseguire regolarmente la scansione del tuo sito Web e assicurarti che:
- Le pagine si risolvono in un singolo sottodominio (come desiderato).
- Le pagine si risolvono in un singolo protocollo HTTP.
- Gli URL con parametri sono canonizzati alla radice (come desiderato).
- I collegamenti interni non utilizzano i reindirizzamenti inutilmente.
Se il tuo sito web utilizza parametri, come i filtri dei prodotti di e-commerce, puoi frenare la scansione di questi percorsi URI disabilitandoli nel file robots.txt.
Il tuo server può anche essere importante nel modo in cui Google alloca il budget per eseguire la scansione del tuo sito web.
Se il tuo server è sovraccarico e risponde troppo lentamente, potrebbero verificarsi problemi di scansione. In questo caso, Googlebot non sarà in grado di accedere alla pagina e di conseguenza alcuni dei tuoi contenuti non verranno sottoposti a scansione.
Di conseguenza, Google proverà a tornare più tardi per indicizzare il sito Web, ma senza dubbio causerà un ritardo nell'intero processo.
Collegamento interno
Quando si dispone di un sito Web, è importante disporre di collegamenti interni da una pagina all'altra.
Google di solito presta meno attenzione agli URL che non hanno collegamenti interni sufficienti o insufficienti e potrebbe persino escluderli dal suo indice.
Puoi controllare il numero di collegamenti interni alle pagine tramite crawler come Screaming Frog e Sitebulb.
Avere una struttura del sito Web organizzata e logica con collegamenti interni è il modo migliore per ottimizzare il tuo sito Web.
Ma se hai problemi con questo, un modo per assicurarti che tutte le tue pagine interne siano collegate è "hackerare" la profondità di scansione utilizzando le sitemap HTML.
Questi sono progettati per gli utenti, non per le macchine. Sebbene ora possano essere visti come reliquie, possono ancora essere utili.
Inoltre, se il tuo sito web ha molti URL, è consigliabile suddividerli in più pagine. Non vuoi che siano tutti collegati da una singola pagina.
Anche i link interni devono utilizzare il tag <a> per i link interni invece di affidarsi a funzioni JavaScript come onClick()
.
Se stai utilizzando un framework Jamstack o JavaScript, esamina come esso o le librerie correlate gestiscono i collegamenti interni. Questi devono essere presentati come tag <a>.
Le opinioni espresse in questo articolo sono quelle dell'autore ospite e non necessariamente Search Engine Land. Gli autori dello staff sono elencati qui.