Benvenuti in una nuova guida firmata dalla redazione di ElaMedia, una Web Agency di Roma con più di 15 anni di attività nel campo della realizzazione di siti web e nella loro promozione tramite Consulenza Link Building.

Menu di navigazione dell'articolo

Dopo aver approfondito alcune tematiche legate al tag canonical, oggi cambiato tema.

Ormai la maggior parte delle aziende tende a sfruttare il web per potersi fare conoscere, pubblicizzare i propri prodotti o servizi e, in questo modo, ampliare gli ambiti o i mercati di riferimento e raggiungere una larga fetta di potenziali clienti, così da poter incrementare anche le proprie vendite. Lo stesso discorso lo si può fare anche per un professionista (un giornalista o un avvocato, ad esempio), che intenda raggiungere una certa notorietà su internet. Questo è diventato infatti un'importante ed utilissima vetrina.

Tuttavia, creare e mantenere costantemente aggiornata una pagina web e soprattutto renderla sempre interessante ed accattivante per gli utenti non è una cosa facile. Sono tanti gli elementi che concorrono al successo di un sito, tra cui uno dei più importanti è senz'altro quello di affidarsi ad esperti in questo ambito e che sappiano inoltre utilizzare strumenti e mezzi idonei a questo scopo. Tra questi ultimi, è possibile usufruire di piccoli accorgimenti che "spingano" una nostra pagina.

È ben noto che per ottenere dei risultati interessanti con il proprio portale internet, non basta solo proporre contenuti interessanti, ma dobbiamo lavorare sull’ottimizzazione SEO (hai già letto il nostro approfondimento su come fare l'ottimizzazione seo di un sito web?) ovvero eseguire tutta una serie di accorgimenti che permettono a Google di inserire le nostre pagine nei suoi risultati di ricerca e dunque incorrere in un buon posizionamento del sito web. Difficilmente, infatti, gli utenti esploreranno più di 1-2 pagine di risultati, quindi il nostro obiettivo è sicuramente quello di finire nella parte alta della prima pagina, fino all’ambitissima prima posizione.

Come i maggiori esperti della rete sanno benissimo infatti, un semplice utente che sta cercando un'informazione, un sito o una pagina tende ad effettuare generalmente ricerche veloci su internet e che non richiedano molto tempo e sforzo. Di conseguenza, egli tende a visualizzare soltanto le primissime pagine dei risultati ottenuti e che soddisfino il suo interesse. Conoscendo tutto ciò, è importantissimo, come abbiamo detto, cercare di essere tra le prime visualizzazioni di un motore di ricerca. E come ottenere tutto questo? Di quali mezzi è possibile usufruire, di conseguenza, per ottimizzare la SEO? Vediamone alcuni.

Il Noindex

Uno strumento sicuramente importante per l’ottimizzazione SEO è l’utilizzo corretto del Noindex. Può essere fondamentale se sei chiamato a gestire un sito web che si basa sul sistema ecommerce. Tieni presente che se ne avessi bisogno la nostra Agenzia è specializzata nello sviluppo di siti e commerce già pronti all'uso.

Fa parte dei “meta tag robots” e serve a dare le giuste indicazioni, ai Motori di ricerca, per l’interpretazione delle nostre pagine web. Sono proprio i meta tag robots che comunicano ai motori di ricerca la keyword che abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei Link interni ed esterni ed anche la nostra volontà di indicizzare una pagina.

La scelta di deindicizzare una pagina non è una scelta folle, ma ha un’utilità specifica, relativa soprattutto alla funzione di determinate pagine. Ci sono alcune pagine che potrebbe non avere nessuna utilità indicizzare, ma che abbiamo comunque bisogno della loro esistenza sul sito. Pensiamo ad esempio, alla Privacy policy del sito, o pagine di servizio, quelle che insomma sono chiamate “pagine spam engine” e che, se numerose, posso penalizzare il nostro sito.

Queste pagine, come è evidente, non posso essere cancellate dal sito ma possiamo far capire a google che non vogliamo siano indicizzate.

Sarà proprio l’attributo rel=”noindex” che comunicherà a google il nostro non voler indicizzare la pagina. Naturalmente sarà solo una direttiva, che non costringe i crawler (software che analizzano i contenuti di una rete in modo automatizzato per i motori di ricerca) ad eseguirla e che permette comunque a Google di salvare la pagina nel suo archivio.

Ricorda che se ti occorre un Consulente SEO a Roma, puoi contattarci al numero 800 117 270.

Chiama l'800 119 270 o scrivici per un preventivo

Formula del consenso

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie)

Ti invitiamo a leggere il nostro articolo su Googlebot per esplorare più a fondo gli argomenti riguardanti la SEO (segui i migliori Blog SEO sul web).

Come e dove inserire il Noindex

L’inserimento dell’attributo Noindex dovrà avvenire tramite codice HTML nella sezione “Head” della nostra pagina.

Per impedire alla maggior parte dei web crawler dei motori di ricerca di indicizzare la pagina, inserisci il seguente meta tag:

<meta name="robots" content="noindex">

Per impedire solo ai web crawler di Google di indicizzare una pagina utilizza questo meta tag:

<meta name="googlebot" content="noindex">

Alcuni crawler potrebbero non interpretare l’istruzione Noindex, e quindi, è possibile che la nostra pagina venga ugualmente indicizzata e appaia in alcuni motori di ricerca. 

Ovviamente se hai bisogno di servizi di copywring a Roma, non pensarci due volte: chiamaci… ti risponderà un esperto SEO che sarà al tuo servizio per tutte le domande che ti vengono in mente.

Il file robots.txt

Il file robots.txt rappresenta uno degli strumenti chiave per chiunque voglia ottimizzare il proprio sito web e garantire che i motori di ricerca comprendano in modo efficace la struttura e i contenuti del sito. Si tratta di un semplice file di testo, posizionato nella root del sito, che dà istruzioni precise ai crawler sui percorsi e sui file che possono o non possono essere scansionati. In altre parole, è come una sorta di "mappa" che indica ai motori di ricerca quali sezioni esplorare e quali evitare, permettendo così di evitare un carico eccessivo di richieste e di focalizzare l'attenzione solo sui contenuti più rilevanti per il posizionamento del sito.

Il file robots.txt, tuttavia, non è progettato per escludere del tutto pagine web dai risultati di ricerca; per questo obiettivo, è preferibile utilizzare il meta tag "noindex" inserito nel codice HTML delle singole pagine. Il robots.txt, infatti, ha principalmente la funzione di gestione del traffico di scansione, offrendo al webmaster uno strumento di controllo sulla frequenza e sulla profondità con cui i crawler accedono al sito. Questo approccio permette di ottimizzare le risorse e di evitare rallentamenti o, peggio ancora, di sovraccaricare il server con un numero eccessivo di richieste in simultanea, mantenendo comunque un accesso bilanciato ai contenuti più rilevanti.

Inoltre, il robots.txt è particolarmente utile per regolare la scansione di file multimediali, come immagini, video e file audio. Questi contenuti, pur essendo spesso essenziali per l'esperienza utente, non sempre contribuiscono direttamente al posizionamento nei risultati di ricerca. Attraverso il file robots.txt, è possibile gestire il traffico di scansione legato a queste risorse, garantendo che la priorità venga data ai contenuti testuali che sono fondamentali per l'indicizzazione e il posizionamento organico.

Un altro utilizzo strategico del robots.txt consiste nel bloccare l'accesso a file di risorse che non sono indispensabili per l'indicizzazione, come determinati script, immagini decorative o fogli di stile. Questi elementi, sebbene necessari per la corretta visualizzazione del sito agli utenti, non sempre sono rilevanti per i motori di ricerca e, in molti casi, bloccarne la scansione può risultare vantaggioso. Tuttavia, occorre fare attenzione: bloccare risorse fondamentali per il rendering di una pagina può interferire con la comprensione dei contenuti da parte dei crawler, in particolare di Googlebot. Se Google, infatti, non riesce a visualizzare correttamente una pagina a causa di risorse bloccate, potrebbe faticare a interpretarne il contenuto, influenzando negativamente l'indicizzazione e di conseguenza il posizionamento nei risultati di ricerca.

Oltre ai consigli che trovi in questo articolo, per raggiungere un'ampia visibilità online e attrarre un pubblico globale è molto importante creare un sito con Joomla, un solido CMS, ma anche la successiva ottimizzazione per scalare la SERP (pagina dei risultati dei motori di ricerca) dell'elenco dei migliori motori di ricerca internazionali riveste un'importanza fondamentale.

I limiti del file robots.txt

Questo sistema di blocco, ha di per sé alcuni limiti e non ha lo scopo di rendere totalmente rintracciabili le tue pagine web.

Vediamone alcuni:

  • Può essere interpretata diversamente dai crawler: i web crawler dei maggiori motori di ricerca si attengono alle istruzioni di questo file, ma alcuni potrebbero non comprendere determinate istruzioni;
  • Le istruzioni robots.txt sono solo linee guida: come già detto si tratta d’istruzioni che non obbligano i vari bot a seguirle alla lettera, di conseguenza se abbiamo informazioni riservate da proteggere il miglior metodo è la password;
  • Una pagina bloccata può essere raggiunta se ha backlink provenienti da siti esterni: Anche se diciamo a Google di non eseguire la scansione di quella risorsa, potrebbe comunque raggiungerla se siti esterni hanno al loro interno link che rimandano alla risorsa bloccata.

Questi, come abbiamo detto, non sono altro che alcuni dei vari strumenti di cui è possibile usufruire per "spingere" il nostro sito, come qualsiasi altro, su internet all'interno di un motore di ricerca. Questo è, in pratica, una sorta di vetrina che ci permette di mostrare i nostri prodotti e se riusciamo ad inserirli in primo piano e facilmente visibili per eventuali clienti interessati, allora potremmo essere riconosciuti, apprezzati ed avere così successo. Tuttavia, per ottenere tutto ciò sul web, bisogna utilizzare gli elementi o accorgimenti più utili, tra cui appunto il Noindex ed il file robots.txt.

Ricorda che se ti occorre una Consulenza Web puoi far affidamento ai nostri esperti. Contattaci al numero verde che trovi qui sulla destra.

In questo articolo dedicati all'ottimizzazione dei motori di ricerca, ci sentiamo di includere una menzione alla nostra guida sui redirect 301 o 302 per sottolineare l'importanza di gestire correttamente le modifiche dell'URL e minimizzare gli impatti negativi sulla visibilità online.

In relazione ai contenuti potrebbe interessarti l'approfondimento su su come diminuire il bounce rate delle pagine web.

Quali sono i migliori Plugin di Joomla e Wordpress che ci aiutano a gestire il noindex?

Gestire efficacemente il tag "noindex" è fondamentale per ottimizzare la visibilità del tuo sito web sui motori di ricerca, evitando l'indicizzazione di pagine non rilevanti o duplicate. Sia Joomla che WordPress offrono una varietà di plugin che facilitano questa gestione.

Per Joomla:

  1. 4SEO: Questo plugin avanzato offre una gestione completa delle impostazioni SEO, inclusa la possibilità di aggiungere tag "noindex" a specifiche pagine o sezioni del sito. È progettato per automatizzare molte operazioni SEO, rendendo più semplice il controllo dell'indicizzazione.

  2. PWT SEO: Conosciuto come il "Yoast per Joomla", PWT SEO fornisce suggerimenti in tempo reale per migliorare il punteggio SEO delle tue pagine. Permette di impostare facilmente il tag "noindex" su articoli o menu specifici, aiutando a evitare l'indicizzazione di contenuti indesiderati.

  3. SEOSimple: Questo plugin genera automaticamente meta tag descrittivi e offre la possibilità di aggiungere il tag "noindex, follow" alle pagine di categoria, migliorando la gestione dell'indicizzazione.

Per WordPress:

  1. Yoast SEO: Uno dei plugin SEO più popolari, Yoast SEO consente di controllare l'indicizzazione delle pagine direttamente dall'editor, offrendo opzioni per impostare il tag "noindex" su pagine, post e tipi di contenuto personalizzati.

  2. All in One SEO Pack: Questo plugin offre funzionalità simili a Yoast, permettendo di gestire facilmente i meta tag "noindex" e altre impostazioni SEO per diverse sezioni del sito.

  3. PRyC WP: Add noindex tag: Un plugin leggero che aggiunge un campo "noindex" nell'editor di pagine, post e tipi di contenuto personalizzati. Selezionando questa opzione e salvando, il tag "noindex" viene aggiunto alla pagina, bloccandone l'indicizzazione da parte dei motori di ricerca.

  4. Ultimate Noindex Nofollow Tool II: Questo plugin permette di aggiungere il meta tag "noindex" a archivi, categorie, pagine di ricerca, tag, pagine autore e altre sezioni, offrendo un controllo granulare sull'indicizzazione del sito.

FAQ

Cos'è il noindex in SEO?

"Noindex" è una direttiva che puoi inserire in una pagina web per indicare ai motori di ricerca di non includere quella pagina nell'indice dei loro risultati di ricerca. Questo significa che la pagina non apparirà nei risultati di ricerca, anche se i motori di ricerca la rastrelleranno. L'uso di noindex è una pratica comune in SEO (Search Engine Optimization) quando non si vuole che determinate pagine del sito siano visibili nei motori di ricerca, come le pagine di ringraziamento, le pagine di amministrazione o quelle con contenuto duplicato.

Quando dovrei utilizzare la direttiva noindex?

L'utilizzo della direttiva noindex dipende dal contenuto del tuo sito e dai tuoi obiettivi SEO. Generalmente, la direttiva noindex viene utilizzata quando non vuoi che una pagina appaia nei risultati di ricerca. Alcuni esempi comuni includono pagine con contenuto duplicato, pagine temporanee, pagine di amministrazione o pagine che non aggiungono valore al tuo sito dal punto di vista SEO. Ricorda, però, che anche se una pagina è impostata come noindex, i link presenti su quella pagina possono comunque passare il valore SEO (link juice), a meno che non sia impostato anche il tag "nofollow" sui link.

Come posso impostare la direttiva noindex su una pagina?

Ci sono diverse tecniche per impostare la direttiva noindex su una pagina. Una delle più comuni è l'utilizzo del meta tag noindex. Questo può essere aggiunto all'HTML di una pagina, nel tag head. Ecco un esempio di come appare: <meta name="robots" content="noindex">. Un'altra opzione è utilizzare il file robots.txt del tuo sito per bloccare l'indicizzazione di intere Directory o tipi di file. Tuttavia, bisogna fare attenzione quando si utilizza questa tecnica, poiché un uso improprio del file robots.txt può portare a problemi di visibilità nei motori di ricerca.

Cosa succede se imposto la direttiva su una pagina?

Se imposti la direttiva noindex su una pagina, i motori di ricerca come Google non includeranno quella pagina nei loro indici, il che significa che non apparirà nei risultati di ricerca organici. È importante notare, però, che i motori di ricerca potrebbero ancora rastrellare (crawling) la pagina e seguire i link presenti su di essa, a meno che non sia impostato anche un tag "nofollow" sui link. Inoltre, se una pagina è già stata indicizzata e successivamente si imposta la direttiva noindex, potrebbe volerci del tempo prima che la pagina venga effettivamente rimossa dall'indice del motore di ricerca.

La direttiva influisce sul mio SEO?

La direttiva noindex ha un impatto diretto sul tuo SEO in quanto le pagine contrassegnate con noindex non saranno incluse nei risultati dei motori di ricerca. Questo può essere utile se ci sono pagine sul tuo sito che non vuoi che appaiano nei risultati di ricerca, come pagine con contenuto duplicato o di bassa qualità. Tuttavia, l'uso eccessivo o improprio del noindex può avere un impatto negativo sul tuo SEO, limitando la visibilità del tuo sito nei motori di ricerca. Pertanto, è importante utilizzare la direttiva noindex con attenzione e strategia.

Se vuoi andare più in profondità e studiare come ottenere più link esterni, ti suggeriamo il nostro approfondimento sulla Broken Link Building.

Autore: Enrico Mainero

Immagine di Enrico Mainero

Dal 2011 Direttore Responsabile e Amministratore unico di ElaMedia Group SRLS. Mi dedico prevalentemente all'analisi dei siti web e alla loro ottimizzazione SEO, con particolare attenzione allo studio della semantica e al loro posizionamento organico sui motori di ricerca. Sono il principale curatore dei contenuti di questo Blog (assieme alla Redazione di ElaMedia).

Contattaci

Contattaci al numero verde gratuito 800 119 270 o compila il Form per richiedere un preventivo gratuito

Formula di acquisizione del consenso dell'interessato

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie)

 

Prenota una consulenza gratuita