166 27/03/2026 07/04/2026 4 min

Diagnosi probabile

Quando una pagina o un intero sito non viene indicizzato, la causa più comune non è “Google che non vede il sito” in senso generico, ma uno di questi blocchi tecnici: pagina esclusa da robots.txt, meta noindex o header HTTP equivalente, canonica errata, sitemap mancante o incoerente, contenuto troppo debole o duplicato, problemi di crawl dovuti a errori server, reindirizzamenti anomali oppure una penalizzazione manuale o algoritmica. In molti casi il problema nasce da una configurazione lasciata attiva dopo un test, una migrazione o un cambio tema/CMS.

Un’altra ipotesi frequente è che la pagina sia tecnicamente accessibile ma non scansionabile o non ritenuta utile dal motore: se il contenuto è quasi identico ad altre URL, se la versione canonica punta altrove, se il sito risponde lentamente o se la pagina ha pochi segnali interni, l’indicizzazione può essere ritardata o ignorata.

Verifiche immediate

  1. Apri la pagina interessata e controlla il sorgente HTML: cerca la stringa noindex dentro il tag meta robots e verifica che non ci sia una canonica che punta a un’altra URL. Esito atteso: index,follow oppure assenza di direttive che blocchino l’indicizzazione.
  2. Controlla robots.txt visitando /robots.txt e verifica che non blocchi la directory o il file in questione. Esito atteso: nessuna regola Disallow che impedisca il crawl della pagina.
  3. Se hai accesso a Google Search Console, usa il controllo URL della pagina: verifica se Google la considera “Indicizzabile”, se rileva una canonica diversa o se segnala “Bloccata da robots.txt”, “Esclusa da tag noindex” o “Scansionata, attualmente non indicizzata”.
  4. Confronta la pagina con la sitemap: verifica che l’URL sia presente nella sitemap inviata e che la sitemap restituisca codice 200. Esito atteso: URL presente, versione corretta, nessun redirect inutile.

Soluzione consigliata passo-passo

  1. Correggi prima i blocchi tecnici più evidenti. Se trovi noindex, rimuovilo dal template, dal plugin SEO o dall’header HTTP. Se la pagina è bloccata in robots.txt, modifica il file in modo conservativo e fai un backup prima del cambiamento. Percorso tipico: /public_html/robots.txt oppure la root del sito nel pannello hosting.
  2. Verifica la canonica. La URL canonica deve puntare alla stessa pagina, non a una variante diversa, a una home generica o a una pagina di test. Se usi WordPress, controlla le impostazioni del plugin SEO e il template del tema. Dopo la correzione, ricarica il sorgente e conferma che la canonica sia coerente.
  3. Aggiorna la sitemap e inviala di nuovo in Search Console. Se il sito genera sitemap automatiche, rigenerale dopo ogni modifica importante. Esito atteso: la sitemap mostra le URL corrette e Search Console la accetta senza errori di lettura.
  4. Controlla la qualità della pagina. Se il contenuto è molto breve, duplicato o quasi identico ad altre pagine, arricchiscilo con testo originale, struttura chiara, titoli coerenti e link interni pertinenti. Google può scansionare la pagina ma decidere di non indicizzarla se il valore percepito è troppo basso.
  5. Verifica la stabilità tecnica dell’URL. La pagina deve rispondere con 200, senza catene di redirect, senza errori intermittenti e con tempi di risposta ragionevoli. Se noti lentezza, controlla cache, plugin pesanti, query lente e risorse bloccanti. Una pagina instabile viene rastrellata con meno fiducia.
  6. Se il sito è stato migrato, controlla che non siano rimasti ambienti di staging, password protection, blocchi IP o intestazioni X-Robots-Tag: noindex. Questi casi sono molto comuni dopo spostamenti tra staging e produzione.
  7. Dopo la correzione, in Search Console usa “Richiedi indicizzazione” solo per le pagine davvero pronte. Non abusarne su URL ancora instabili: prima rendi coerente il contenuto, poi richiedi il nuovo crawl.

Controlli finali / rollback

  1. Riapri la pagina in browser e verifica tre punti: sorgente senza noindex, canonica corretta, risposta 200. Se uno di questi controlli fallisce, non considerare risolto il problema.
  2. Ricontrolla Search Console dopo alcuni giorni: lo stato atteso è “Indicizzata” oppure “Scansionata e indicizzata”. Se rimane “Esclusa”, individua la motivazione specifica prima di fare altri cambi.
  3. Se la modifica a robots.txt, canonica o meta robots causa effetti indesiderati, ripristina il backup del file o il settaggio precedente del plugin SEO. Conserva una copia della configurazione iniziale per un rollback rapido.
  4. Come regola pratica, valida sempre una sola modifica alla volta: prima sblocca il crawl, poi correggi la canonica, poi migliora il contenuto. Questo rende più facile capire quale intervento ha risolto davvero il problema.

Assunzione: il sito è pubblico e non presenta blocchi intenzionali per ambienti privati, staging o contenuti riservati.