Cos’è la Technical SEO? Guida alla SEO Tecnica in 12 passi

Guida alla Technical Search Optimization per configurare e curare l’aspetto tecnico del tuo sito web

Cos’è la Technical SEO

La Technical SEO sono interventi di natura tecnica sulla configurazione di un sito web con il fine di ottimizzare il suo posizionamento sui motori di ricerca.

Fare SEO tecnica si intende curare aspetti tecnici On Page e On site di un sito web per facilitare la sua scansione da parte dei motori di ricerca e renderlo più veloce curandone le web performance, l’accessibilità e certi aspetti della sua User Experience.

 

Perché è importante la SEO Tecnica

La Technical SEO è molto importante all’interno di una campagna di ottimizzazione e posizionamento: le performance e le corrette configurazioni tecniche sono fattori fondamentali di posizionamento sui motori di ricerca.

È risaputo che Google predilige contenuti di qualità da proporre nelle sue SERP, il tutto nell’ottica di offrire la migliore esperienza utente possibile agli utilizzatori del suo motore di ricerca. Pertanto se un sito web risultasse lento a caricare i contenuti o addirittura non raggiungibile, Google lo considererebbe sicuramente non meritevole di posizionamento e visibilità.

Inoltre è statisticamente provato che siti con tempi di caricamento superiori ai 3 secondi, vengono abbandonati definitivamente dal 53% degli utenti: utenti potenzialmente persi e con una bassissima probabilità di ritorno.

Quindi non è sufficiente avere un sito ricco di contenuti originali e pertinenti o avere una popolarità conquistata grazie ad una strategia efficace di link building. Occorre curare minuziosamente anche la sua configurazione tecnica.

 

Guida alla Technical Search Optimization

Entriamo nel dettaglio di alcuni aspetti che caratterizzano la Technical SEO.

Ecco 12 buone pratiche da adottare per avere un sito web ottimizzato dal punto di vista della SEO Tecnica:

  1. Rendi il tuo sito sicuro con l’HTTPS
  2. Attiva ii redirect da HTTP a HTTPS
  3. Migliora la velocità di caricamento delle tue pagine
  4. Crawling: assicurati che il tuo sito sia scansionabile e indicizzabile
  5. Crea una Sitemap XML
  6. Rimuovi i contenuti duplicati
  7. Dead Link: gestisci le pagine orfane
  8. Non utilizzare il tag nofollow per i link interni
  9. Cura l’aspetto mobile del tuo sito
  10. Usa il markup hreflang per contenuti multilingua
  11. Usa il dati strutturati schema.org per aiutare i motori di ricerca
  12. Segnali web essenziali: ottimizza le metriche Web Core Vitals

 

1. Rendi il tuo sito sicuro con l’HTTPS

La sicurezza è un altro aspetto tecnico fondamentale per garantire la privacy degli utenti che interagiscono con le pagine web. Il primo passo da fare per rendere un sito web sicuro è quello di attivare il protocollo HTTPS o HTTP Secure.

L’HTTPS assicura che nessuno malintenzionato possa intercettare la comunicazione e i dati inviati tra il browser del client e il server in cui è ospitato il sito. Per dati intendiamo informazioni sensibili come email, dati personali e numeri di carte di credito.

Per attivare questo protocollo è necessario installare un certificato SSL sul proprio sito. Se installato, sul lato sinistro della barra di ricerca del browser verrà visualizzato un lucchetto che accerterà l’attivazione del protocollo e la sicurezza del sito. Caso contrario verrà visualizzato il messaggio “sito non sicuro”.

È risaputo ormai che la sicurezza è considerato un fattore di ranking da parte dei motori di ricerca: i siti sicuri avranno posizionamenti in SERP più alti rispetto ad equivalenti non sicuri.

 

2. Attiva il redirect da HTTP a HTTPS

Dopo aver attivato il protocollo HTTPS è necessario assicurarsi che le risorse del tuo sito web non siano raggiungibili e servite contemporaneamente sia dal protocollo HTTP e HTTPS. In questo caso infatti lo spider potrebbe rilevare una copia del tuo sito e dei suoi contenuti rischiando di incorrere in penalizzazioni da parte del motore di ricerca.

È necessario pertanto attivare il redirect da HTTP a HTTPS, cioè tutte le richieste di risorse effettuate su HTTP verranno automaticamente girate su HTTPS.

Il redirect può essere fatto modificando il file .htaccess situato nella nella cartella root del sito web. Ecco la direttiva specifica con redirect 301 da utilizzare:

RewriteEngine on
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

 

Qualora invece il tuo sito web girasse su WordPress, è possibile attivare il redirect modificando semplicemente nelle Impostazioni Generali il protocollo in HTTPS per il WordPress Address (URL) e il Site Address (URL).

 

3. Migliora la velocità di caricamento delle tue pagine

Un sito web non può e non deve essere lento nel caricamento. Le persone sono sempre più impazienti ad ottenere le risposte e i contenuti richiesti nel minor tempo possibile. Oltre 2/3 secondi come tempo di caricamento, gli utenti si spazientiscono e tendono ad abbandonare il sito.

Stiamo parlando di una perdita di potenziali clienti che molto probabilmente andranno a ricercare queste informazioni sui siti della concorrenza.

Per migliorare la velocità di caricamento è necessario individuare quelle eventuali risorse di blocco che ne rallentano la visualizzazione. Esistono due strumenti gratuiti che consento di effettuare questo genere di analisi:

 

Entrambe gli strumenti, dopo una scansione del sito web sottoposto ad analisi, presentano una lista di suggerimenti da intraprendere per risolvere le criticità causa di rallentamento. Per esempio immagini troppo pesanti o formati non idonei, risorse di blocco Javascript o Cascading Style Sheets (Css) che bloccano o tardano il rendering della pagina, compressione, browser caching, CDN e altro ancora.

 

4. Crawling: assicurati che il tuo sito sia scansionabile e indicizzabile

I motori di ricerca utilizzano dei software chiamati bot o spider per eseguire la scansione delle pagine di un sito web. Questa scansione, detta anche Crawling, viene effettuata in maniera del tutto casuale, senza tener conto della gerarchia e ordine delle pagine. Non è detto infatti che lo spider entri per la prima volta nel sito attraverso la pagine principale, l’home page.

Una buona normalizzazione e struttura dei contenuti può però facilitare il lavoro dei crawler nell’individuazione delle pagine più importanti e dei contenuti più rilevanti.

Ad ogni modo esistono altre tecniche per facilitare il loro lavoro:

  • creando un file robots.txt, un semplice file di testo localizzato nella root del sito e dentro il quale sono specificate istruzioni particolari di inclusione ed esclusione di risorse da analizzare ed indicizzare;
  • implementando i meta tag robots, specifici tag html inseriti nel tag HEAD della pagina e che permettono di dare indicazioni specifiche sul comportamento da adottare durante il crawling.

 

Nel caso tu volessi approfondire ti suggerisco la lettura di una guida all’utilizzo del robots.txt e ai meta tag robots.

 

5. Crea una Sitemap XML

La Sitemap è un file in formato xml che contiene tutti i contenuti di un sito web organizzati gerarchicamente: pagine, categorie del blog e i suoi post. Segnalata ai motori di ricerca attraverso un’apposita funzione di Google Search Console, consente di segnalare allo spider le risorse per le quali effettuare una scansione evitando così la possibilità che alcuni di queste vengano trascurate durante il crawling a causa di un Crawl Budget limitato o una struttura gerarchica non facilmente scansionabile.

La sitemap non è obbligatoria, ma fortemente consigliata. Se un sito web disponesse infatti di una perfetta struttura di navigazione, i motori di ricerca sarebbero in grado autonomamente di processare ogni risorsa del sito.

Nell’incertezza di come possa essere vista tale struttura agli occhi di Google, il consiglio è quello di generarne ugualmente una, localizzarla sulla root del sito e sottoporla all’attenzione dei motori di ricerca.

Possono essere presenti più sitemap: sitemap per i video e per le news per esempio. In questo caso, per ovviare ad un eccessivo numero di file xml, vengono utilizzate delle sitemap indice che consentono di creare una struttura gerarchica ed organizzata.

 

6. Rimuovi i contenuti duplicati

Un sito web potrebbe incorrere, anche involontariamente, in un problema di contenuti duplicati. È la situazione in cui un contenuto, o una porzione di esso, viene pubblicato su altre pagine del sito o addirittura su altri siti sparsi in rete.

È un problema che non grava principalmente sull’esperienza di navigazione utente, quanto invece sui motori di ricerca che di fronte a due contenuti uguali non sono in grado di assegnare il giusto peso di rilevanza e pertinenza ad uno specifico argomento.

Quale contenuto dovrebbe essere preso in considerazione e che ranking dovrebbe assumere in SERP? In questo caso i motori di ricerca assegneranno loro un posizionamento basso tra i risultati delle ricerche.

Non possiamo parlare di una vera e propria penalizzazione, come dettagliatamente scritto in questo articolo, bensì di un’incapacità da parte del motore di ricerca di indicizzare nel modo corretto le risorse del sito.

Come poter allora ovviare a questo problema? Esiste il meta tag canonical, un tag html che, di fronte ad una situazione di duplicazione, indica al motore di ricerca qual’è la risorsa principale da prendere in considerazione e quale invece duplicato e dipendente dalla prima.

Come approfondimento ti suggerisco la seguente guida su come consolidare gli URL duplicati.

 

7. Dead Link: gestisci le pagine orfane

I Dead Link sono un altro aspetto tecnico della SEO Tecnica. Detti anche link morti o broken link, sono collegamenti ipertestuali che non portano a nessuna risorsa specifica (il famoso Status Code 404). Si generano solitamente in seguito all’eliminazione o allo spostamento di un contenuto o risorsa. In questo caso è opportuno intervenire correggendo gli errori 404 e adottando opportuni redirect 301 a nuove risorse strettamente correlate.

Ma perché è importante risolvere questo genere di errore? Ti pongo questa domanda: “Che sensazione provi quando a fronte di una richiesta di una pagina atterri su una risorsa non esistente?” Non è di certo una sensazione piacevole, così non lo è per qualsiasi altro utente che naviga in rete e tanto meno per i motori di ricerca che si sforzano continuamente di fornire risultati di ricerca di qualità nelle loro SERP.

Esistono strumenti, alcuni di questi anche gratuiti, che consento l’individuazione immediata dei Dead Link. Tra questi possiamo segnalare Google Search Console e Screaming Frog.

 

8. Non utilizzare il tag nofollow per i link interni

I link nofollow sono principalmente utilizzati per i link in uscita e servono a segnalare a Google determinate risorse che non vuoi approvare o per le quali non desideri trasmettere Link Juice, ossia valore di posizionamento.

Ne consegue che utilizzare il tag nofollow per i link interni al sito è un errore piuttosto grossolano da evitare.

 

9. Usa il dati strutturati schema.org per aiutare i motori di ricerca

I dati strutturati sono meta-informazioni inserite nel codice delle pagine di un sito web e servono ad aiutare i motori di ricerca a comprendere meglio i contenuti dal punto di vista semantico.

Grazie ad essi è possibile comunica ai motori di ricerca che tipo di contenuto è presente in una pagina. Per esempio se si tratta di un articolo in vendita puoi specificarne il suo prezzo, la sua disponibilità e i tempi di consegna. Oppure nel caso di una ricetta culinaria puoi fornire l’elenco dei suoi ingredienti e la sua procedura di preparazione.

I dati strutturati sono divenuti uno protocollo standard di comunicazione tra i principali motori di ricerca: nel 2011 infatti, Google, Microsoft, Yahoo e Yandex hanno ideato un vocabolario condiviso chiamato schema.org. Sul sito ufficiale di schema.org sono descritti tutti gli schemas – o tipi di dato – che possono essere adottati e comunicati ai motori di ricerca.

L’implementazione di dati strutturati oltre a facilitare la comprensione dei contenuti permette di sfruttare i Rich Snippet nella SERP, tutta una serie di informazioni aggiuntive oltre al titolo e alla descrizione che consento di incrementare il Conversion Rate e i click verso il sito: prezzi, disponibilità, tempi di consegna, recensioni e altro ancora.

Questi tipi di informazioni fornite anticipatamente in SERP consento un aumento del CTR e un incremento del traffico di qualità verso il sito web di destinazione.

 

10. Cura l’aspetto mobile del tuo sito

Un altro aspetto fondamentale della Technical Search Optimization è l’adattabilità responsiva del design di un sito web su dispositivi differenti come smartphone e tablet. Dal 2015, dopo l’uscita dell’aggiornamento dell’Algoritmo Google soprannominato Mobile Friendly Update, il mobile-ready è divenuto un fattore di ranking fondamentale da non trascurare.

Per testare la responsività del tuo sito e delle sue pagine ti consiglio l’utilizzo del seguente strumento: il Test Mobile Friendly di Google.

 

11. Usa il markup hreflang per contenuti multilingua

Hreflang è un markup HTML utilizzato per indicare al motore di ricerca differenti versioni linguistiche di una pagina web.

Il tag Hreflang serve anche per:

  • evitare di incorrere in un problema di contenuti duplicati: senza l’utilizzo di hreflang  Google potrebbe considerare queste pagine come duplicati penalizzandone una tra queste in termini di posizionamento. Per esempio, se un sito web dovesse mostrare lo stesso contenuto per chi naviga dagli Stati Uniti o dal Regno unito, Google grazie all’Hreflang sarebbe in grado di distinguere il fatto che è destinato ad utenti appartenenti a due regioni distinte.
  • aiutare il posizionamento delle altre versioni localizzate: è dimostrato infatti che le pagine all’interno di un gruppo Hreflang condividono gli stessi segnali di posizionamento.

 

 

Tengo a precisare che l’internazionalizzazione lato SEO di un sito web è un aspetto di Technical SEO opzionale e che riguarda esclusivamente quei siti che operano in mercati internazionali e con contenuti localizzati nelle varie lingue.

Ecco una guida dettagliata sull’utilizzo del tag HrefLang.

 

12. Segnali web essenziali: ottimizza le metriche Web Core Vitals

Ultimo aspetto della Technical SEO ma per questo non meno importante, sono i segnali web essenziali o Core Web Vitals, 3 nuove metriche di Google legate alla User Experience che sono diventate ufficialmente fattori di posizionamento SEO.

Le metriche Web Core Vitals sono tre sostanzialmente:

  • LCP o Largest Contentful Paint
  • FID o First Input Delay
  • CLS o Cumulative Layout Shift

Ti invito alla lettura del mio articolo maggiormente dettagliato sui segnali web essenziali e le metriche Core Web Vitals.

 

Conclusioni

Ho cercato di spiegare in breve cos’è la Technical SEO, perché è importante e quali sono gli aspetti fondamentali che andrebbero presi maggiormente in considerazione. Mi rendo conto che ogni aspetto andrebbe sviscerato singolarmente e approfondito maggiormente. Per tanto ti invito a leggere gli articoli correlati di approfondimento e a contattarmi per eventuali chiarimenti o a scrivere un commento sottostante.

Condividi su linkedin
Condividi su facebook
Condividi su twitter
Condividi su whatsapp
Condividi su telegram
Condividi su email
Marco D'Amico

Marco D'Amico

SEO Specialist, Digital Strategist e fondatore di SEOAlk. Da anni si occupa di sviluppo web, ottimizzazione SEO e Digital Coaching.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Potrebbe interessarti anche