Diagnosi probabile
Quando una pagina o un intero sito non viene indicizzato, la causa più comune non è “Google che non vede il sito” in senso generico, ma uno di questi blocchi tecnici: pagina esclusa da robots.txt, meta noindex o header HTTP equivalente, canonica errata, sitemap mancante o incoerente, contenuto troppo debole o duplicato, problemi di crawl dovuti a errori server, reindirizzamenti anomali oppure una penalizzazione manuale o algoritmica. In molti casi il problema nasce da una configurazione lasciata attiva dopo un test, una migrazione o un cambio tema/CMS.
Un’altra ipotesi frequente è che la pagina sia tecnicamente accessibile ma non scansionabile o non ritenuta utile dal motore: se il contenuto è quasi identico ad altre URL, se la versione canonica punta altrove, se il sito risponde lentamente o se la pagina ha pochi segnali interni, l’indicizzazione può essere ritardata o ignorata.
Verifiche immediate
- Apri la pagina interessata e controlla il sorgente HTML: cerca la stringa
noindexdentro il tagmeta robotse verifica che non ci sia una canonica che punta a un’altra URL. Esito atteso:index,followoppure assenza di direttive che blocchino l’indicizzazione. - Controlla
robots.txtvisitando/robots.txte verifica che non blocchi la directory o il file in questione. Esito atteso: nessuna regolaDisallowche impedisca il crawl della pagina. - Se hai accesso a Google Search Console, usa il controllo URL della pagina: verifica se Google la considera “Indicizzabile”, se rileva una canonica diversa o se segnala “Bloccata da robots.txt”, “Esclusa da tag noindex” o “Scansionata, attualmente non indicizzata”.
- Confronta la pagina con la sitemap: verifica che l’URL sia presente nella sitemap inviata e che la sitemap restituisca codice
200. Esito atteso: URL presente, versione corretta, nessun redirect inutile.
Soluzione consigliata passo-passo
- Correggi prima i blocchi tecnici più evidenti. Se trovi
noindex, rimuovilo dal template, dal plugin SEO o dall’header HTTP. Se la pagina è bloccata inrobots.txt, modifica il file in modo conservativo e fai un backup prima del cambiamento. Percorso tipico:/public_html/robots.txtoppure la root del sito nel pannello hosting. - Verifica la canonica. La URL canonica deve puntare alla stessa pagina, non a una variante diversa, a una home generica o a una pagina di test. Se usi WordPress, controlla le impostazioni del plugin SEO e il template del tema. Dopo la correzione, ricarica il sorgente e conferma che la canonica sia coerente.
- Aggiorna la sitemap e inviala di nuovo in Search Console. Se il sito genera sitemap automatiche, rigenerale dopo ogni modifica importante. Esito atteso: la sitemap mostra le URL corrette e Search Console la accetta senza errori di lettura.
- Controlla la qualità della pagina. Se il contenuto è molto breve, duplicato o quasi identico ad altre pagine, arricchiscilo con testo originale, struttura chiara, titoli coerenti e link interni pertinenti. Google può scansionare la pagina ma decidere di non indicizzarla se il valore percepito è troppo basso.
- Verifica la stabilità tecnica dell’URL. La pagina deve rispondere con
200, senza catene di redirect, senza errori intermittenti e con tempi di risposta ragionevoli. Se noti lentezza, controlla cache, plugin pesanti, query lente e risorse bloccanti. Una pagina instabile viene rastrellata con meno fiducia. - Se il sito è stato migrato, controlla che non siano rimasti ambienti di staging, password protection, blocchi IP o intestazioni
X-Robots-Tag: noindex. Questi casi sono molto comuni dopo spostamenti tra staging e produzione. - Dopo la correzione, in Search Console usa “Richiedi indicizzazione” solo per le pagine davvero pronte. Non abusarne su URL ancora instabili: prima rendi coerente il contenuto, poi richiedi il nuovo crawl.
Controlli finali / rollback
- Riapri la pagina in browser e verifica tre punti: sorgente senza
noindex, canonica corretta, risposta200. Se uno di questi controlli fallisce, non considerare risolto il problema. - Ricontrolla Search Console dopo alcuni giorni: lo stato atteso è “Indicizzata” oppure “Scansionata e indicizzata”. Se rimane “Esclusa”, individua la motivazione specifica prima di fare altri cambi.
- Se la modifica a
robots.txt, canonica o meta robots causa effetti indesiderati, ripristina il backup del file o il settaggio precedente del plugin SEO. Conserva una copia della configurazione iniziale per un rollback rapido. - Come regola pratica, valida sempre una sola modifica alla volta: prima sblocca il crawl, poi correggi la canonica, poi migliora il contenuto. Questo rende più facile capire quale intervento ha risolto davvero il problema.
Assunzione: il sito è pubblico e non presenta blocchi intenzionali per ambienti privati, staging o contenuti riservati.
Commenti (0)
Nessun commento ancora.
Segnala contenuto
Elimina commento
Eliminare definitivamente questo commento?
L'azione non si può annullare.