Cos’è la Technical SEO? 8 passi per fare SEO tecnica

La Technical SEO e 8 aspetti tecnici fondamentali da prendere in considerazione per un’ottimale configurazione SEO del proprio sito web.

Cos’è la Technical SEO?

La Technical SEO sono interventi di natura tecnica sulla configurazione di un sito web con il fine di ottimizzare il suo posizionamento sui motori di ricerca.

Fare SEO tecnica si intende curare aspetti tecnici di conformità con le ultime tecnologie web. Vuol dire rendere un sito più veloce curandone le web performance, l’accessibilità e facilitando la sua scansione da parte dei motori di ricerca.

Possiamo considerare la Technical SEO un’altra branca della SEO, distinguendola dalla SEO on-page, rivolta alla struttura e ai contenuti del sito, e dalla SEO off-site, rivolta invece nell’accrescere la popolarità del brand su internet e a curarne il profilo backlink.


Perchè è importante fare Technical SEO?

La Technical SEO è molto importante all’interno di una campagna di ottimizzazione e posizionamento: le performance e le corrette configurazioni tecniche sono fattori fondamentali di posizionamento sui motori di ricerca.

È risaputo che Google predilige contenuti di qualità da proporre nelle sue SERP, il tutto nell’ottica di offrire la migliore esperienza utente possibile agli utilizzatori del suo motore di ricerca. Pertanto se un sito web risultasse lento a caricare i contenuti o addirittura non raggiungibile, Google lo considererebbe sicuramente non meritevole di posizionamento e visibilità. Inoltre è statisticamente provato che siti con tempi di caricamento superiori ai 3 secondi, vengono abbandonati definitivamente dal 53% degli utenti. Utenti potenzialmente persi e con una bassissima probabilità di ritorno.

Quindi non è sufficiente avere un sito ricco di contenuti originali e pertinenti o avere una popolarità conquistata grazie ad una strategia efficace di link building. Occorre curare minuziosamente anche la sua configurazione tecnica.


8 aspetti tecnici da prendere in considerazione

Entriamo in dettaglio nell’analisi di aspetti che caratterizzano la Technical SEO, almeno i più importanti, da considerare per avere un sito web tecnicamente ottimizzato:

La velocità

Un sito web non può e non deve essere lento nel caricamento. Le persone sono sempre più impazienti ad ottenere le risposte e i contenuti richiesti nel minor tempo possibile. Oltre i tempi accettabili di caricamento – 2/3 secondi – gli utenti si sentono frustrati, spazientiti e tendono ad abbandonare il sito. Stiamo parlando di una perdita di potenziali clienti che molto probabilmente andranno a ricercare queste informazioni sui siti della concorrenza.

Per migliorare la velocità di caricamento è necessario individuare quelle eventuali risorse di blocco che ne rallentano la visualizzazione. Esistono due strumenti gratuiti che consento di effettuare questo genere di analisi:


Entrambe gli strumenti, dopo una scansione del sito web sottoposto ad analisi, presentano una lista di suggerimenti da intraprendere per risolvere le criticità causa di rallentamento. Per esempio immagini troppo pesanti o formati non idonei, risorse js o css che bloccano o tardano il rendering della pagina, compressione, browser caching, CDN e altro ancora.


Il Crawling

I motori di ricerca utilizzano dei software chiamati bot o spider per eseguire la scansione delle pagine di un sito web. Questa scansione, detta anche Crawling, viene effettuata in maniera del tutto casuale, senza tener conto della gerarchia e ordine delle pagine. Non è detto infatti che lo spider entri per la prima volta nel sito attraverso la pagine principale, l’home page.

Una buona normalizzazione e struttura dei contenuti può però facilitare il lavoro dei crawler nell’individuazione delle pagine più importanti e dei contenuti più rilevanti.

Ad ogni modo esistono altre tecniche per facilitare il loro lavoro:

  • creando un file robots.txt, un semplice file di testo localizzato nella root del sito e dentro il quale sono specificate istruzioni particolari di inclusione ed esclusione di risorse da analizzare ed indicizzare;
  • implementando i tag meta robots, specifici tag html inseriti nel tag HEAD della pagina e che permettono di dare indicazioni specifiche sul comportamento da adottare durante il crawling.

Le Sitemap

La sitemap è un file in formato xml che contiene tutti i contenuti di un sito web organizzati gerarchicamente: pagine, categorie del blog e i suoi post. Segnalata ai motori di ricerca attraverso un’apposita funzione di Google Search Console, consente a questi di effettuare una scansione di tutti i contenuti del sito evitando la possibilità che alcuni di questi vengano trascurati durante il crawling.

La sitemap non è obbligatoria, ma fortemente consigliata. Se un sito web disponesse infatti di una perfetta struttura di navigazione, i motori di ricerca sarebbero in grado autonomamente di processare ogni risorsa del sito. Nell’incertezza di come possa essere vista tale struttura agli occhi di Google, il consiglio è quello di generarne ugualmente una, localizzarla sulla root del sito e sottoporla all’attenzione dei motori di ricerca.

Possono essere presenti più sitemap: sitemap per i video e per le news per esempio. In questo caso, per ovviare ad un eccessivo numero di file xml, vengono utilizzate delle sitemap indice che consentono di creare una struttura gerarchica ed organizzata.


I contenuti duplicati

Un sito web potrebbe incorrere, anche involontariamente, in un problema di contenuti duplicati. È la situazione in cui un contenuto, o una porzione di esso, viene pubblicato su altre pagine del sito o addirittura su altri siti sparsi in rete.

È un problema che non grava principalmente sull’esperienza di navigazione utente, quanto invece sui motori di ricerca che di fronte a due contenuti uguali non sono in grado di assegnare il giusto peso di rilevanza e pertinenza ad uno specifico argomento.

Quale contenuto dovrebbe essere preso in considerazione e che ranking dovrebbe assumere in SERP? In questo caso i motori di ricerca assegneranno loro un posizionamento basso tra i risultati delle ricerche. Non possiamo parlare di una vera e propria penalizzazione, come dettagliatamente scritto in questo articolo, bensì di un’incapacità da parte del motore di ricerca di indicizzare nel modo corretto le risorse del sito.

Come poter allora ovviare a questo problema? Esiste il tag meta canonical, un tag html che, di fronte ad una situazione di duplicazione, indica al motore di ricerca qual’è la risorsa principale da prendere in considerazione e quale invece duplicato e dipendente dalla prima.


I Dead Link

I Dead Link sono altro aspetto tecnico della Technical SEO. Detti anche link morti sono collegamenti ipertestuali che non portano a nessuna risorsa specifica (il famoso Status Code 404). È normale durante il ciclo evolutivo di un sito web eliminare o spostare contenuti: l’importante è tenere monitorata questa situazione correggendo gli errori 404 e adottando opportuni redirect 301 a nuove risorse.

Ma perchè è importante risolvere questo genere di errore? Vi pongo questa domanda: “Che sensazione provate quando a fronte di una richiesta di una pagina atterrate su una risorsa inesistente?” Non è di certo una sensazione piacevole, così non lo è per qualsiasi altro utente che naviga in rete e tanto meno per i motori di ricerca che si sforzano continuamente di fornire risultati di ricerca di qualità nelle loro SERP.

Per fortuna esistono strumenti, alcuni di questi anche gratuiti, che consento l’individuazione immediata dei Dead Link. Tra questi possiamo segnalare Google Search Console e Screaming Frog.


La sicurezza

La sicurezza è un altro aspetto tecnico fondamentale per garantire la privacy degli utenti che interagiscono con le pagine web. Il primo passo da fare per rendere un sito web sicuro è quello di attivare il protocollo HTTPS o HTTP Secure.

L’HTTPS assicura che nessuno malintenzionato possa intercettare la comunicazione e i dati inviati tra il browser del client e il server in cui è ospitato il sito. Per dati intendiamo informazioni sensibili come email, dati personali e numeri di carte di credito.

Per attivare questo protocollo è necessario installare un certificato SSL sul proprio sito. Se installato, sul lato sinistro della barra di ricerca del browser verrà visualizzato un lucchetto che accerterà l’attivazione del protocollo e la sicurezza del sito. Caso contrario verrà visualizzato il messaggio “sito non sicuro”.

È risaputo ormai che la sicurezza è considerato un fattore di ranking da parte dei motori di ricerca: i siti sicuri avranno posizionamenti in SERP più alti rispetto ad equivalenti non sicuri.


I dati strutturati

I dati strutturati sono meta-informazioni inserite nel codice delle pagine di un sito web e servono ad aiutare i motori di ricerca a comprendere meglio i contenuti dal punto di vista semantico.
Grazie ad essi puoi comunicare ai motori di ricerca che tipo di contenuto è presente in una pagina. Per esempio se si tratta di un articolo in vendita puoi specificarne il suo prezzo, la sua disponibilità e i tempi di consegna. Oppure nel caso di una ricetta culinaria puoi fornire l’elenco dei suoi ingredienti e la sua procedura di preparazione.

I dati strutturati sono divenuti uno protocollo standard di comunicazione tra i principali motori di ricerca: nel 2011 infatti, Google, Microsoft, Yahoo e Yandex hanno ideato un vocabolario condiviso chiamato schema.org. Sul sito ufficiale di schema.org sono descritti tutti gli schemas – o tipi di dato – che possono essere adottati e comunicati ai motori di ricerca.

L’implementazione di dati strutturati oltre a facilitare la comprensione dei contenuti permette di sfruttare i Rich Snippet nella SERP, tutta una serie di informazioni aggiuntive oltre al titolo e alla descrizione: prezzi, disponibilità, tempi di consegna, recensioni e altro ancora.

Questi tipi di informazioni fornite anticipatamente in SERP consento un aumento del CTR e un incremento del traffico di qualità verso il sito web di destinazione.


Internazionalizzazione

Se il tuo sito è un business internazionale rivolto a mercati esteri, i motori di ricerca necessitano di un piccolo aiuto per capire quali contenuti localizzati mostrare nei risultati di ricerca.

In questo intento entra in gioco il tag hreflang, un tag html che consente di definire per ogni pagina, per quale paese e lingua è destinata. Il tag hreflang serve anche a risolve un potenziale problema di contenuto duplicato. Per esempio, se un sito web dovesse mostrare lo stesso contenuto per chi naviga dagli Stati Uniti o dal Regno unito, Google sarebbe in grado di distinguere il fatto che è destinato ad utenti appartenenti a due regioni distinte.

Tengo a precisare che l’internazionalizzazione lato SEO di un sito web è un aspetto di Technical SEO opzionale e che riguarda esclusivamente quei siti che operano in mercati internazionali e con contenuti localizzati nelle varie lingue.


Conclusioni

Ho cercato di spiegare in breve cos’è la Technical SEO, perché è importante e quali sono gli aspetti fondamentali che andrebbero presi maggiormente in considerazione. Mi rendo conto che ogni aspetto andrebbe sviscerato singolarmente e approfondito maggiormente. Per tanto ti invito a leggere gli articoli correlati di approfondimento e a contattarmi per eventuali chiarimenti o a scrivere un commento sottostante.

Marco D'Amico

Marco D'Amico

SEO Specialist, Digital Strategist e fondatore di SEOAlk. Da anni si occupa di sviluppo web, ottimizzazione SEO e Digital Coaching.

Condividi su linkedin
Condividi su facebook
Condividi su twitter
Condividi su email

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *