Una “checklist“, che possa essere utilizzata come traccia per creare l’analisi SEO di un sito web già avviato, adatta ad essere presentata ai clienti da parte dei professionisti
1) Qual è la situazione del posizionamento e chi sono i “competitors“?
Prima di tutto verifichiamo lo stato iniziale del posizionamento in base alle keywords di riferimento, ed i “competitors” nelle relative SERP. Questo aspetto è importante per capire se la direzione delle parole chiave è quella corretta, o se necessita una “deviazione” verso una ulteriore analisi.
Gli strumenti da utilizzare per questo tipo di verifica sono:
- la ricerca di Google, per fare dei test direttamente sulle serp, variando anche i parametri di geolocalizzazione;
- l’analizzatore del ranking di SEO utility, un semplice tool che verifica le posizioni di una parola chiave su Google, Yahoo e Bing, con diverse interessanti opzioni di ricerca;
- Keyword Planner, lo strumento di Google AdWords per avere le informazioni statistiche sulle ricerche collegate ad una keyword.
2) Com’è la link popularity?
Attraverso Google Search Console e altri tool come Majestic SEO Site Explorer, Ahrefs Site Explorer o Open Site Explorer, è semplice avere un report di tutti i backlinks relativi al sito che stiamo analizzando.
Tenendo conto anche della qualità dei siti web dai quali provengono i link, possiamo avere un’idea della link popularity del sito: elemento importante per il posizionamento sui motori di ricerca, soprattutto nell’era “post penguin“.
I primi due punti, ci permettono di avere uno “snapshot” relativo al posizionamento e alla “popolarità” del sito web, ma soprattutto ci permette di individuare il settore operativo in cui si colloca.
A questo punto, con questa consapevolezza, passiamo agli aspetti tecnici.
3) Il sito web è “scansionabile” / “indicizzabile” dagli spider?
Punto basilare per ottenere l’indicizzazione da parte dei motori di ricerca, in quanto consiste nel verificare se gli spider possono scansionare le pagine del sito web.
Come possiamo verificarlo?
Prima di tutto, consiglio la lettura dell’articolo dal titolo “robots.txt: come usare il robots.txt in ottica SEO“, che presenta i punti chiave dell’azione di crawling da parte dei motori di ricerca.
Comunque esistono degli strumenti gratuiti per verificare il comportamento di un sito web al passaggio del crowler; eccone alcuni.
- Google Search Console: tool immancabile per ogni webmaster. Grazie alla funzione “Scansione” > “URL bloccati” è possibile individuare immediatamente se e quali parti del sito sono non accessibili allo spider di Google. Unica avvertenza: le modifiche non vengono aggiornate in tempo reale, ma ad ogni scansione del robot.
- Screaming Frog SEO Spider Tool: strumento, da scaricare ed installare (solo per windows), fornisce dati dettagliati e specifici su ogni risorsa disponibile ai motori di ricerca.
- MOZ Crawl Test: tool che fornisce un’analisi completa della “salute” di tutte le risorse del sito in esame. Di sicuro il più completo, ma gratuito per 30 giorni.
4) E’ stata strutturata una buona architettura?
E’ preferibile che la l’architettura del sito web sia più “piatta” possibile (flatter site architecture): meglio sviluppare i contenuti in maniera orizzontale, senza introdurre livelli di profondità elevati.
5) E’ stata creata la sitemap XML? E’ stata comunicata a Google?
Non è obbligatorio creare e comunicare a Google (attraverso Webmaster Tool) la “sitemap“, ma fa parte delle buone pratiche SEO e, di certo, accorcia i tempi di indicizzazione. Il modo migliore per verificare la mappa e inviarla a Google è utilizzare Google Search Console / Scansione /Sitemap.
6) Verifiche strutturali delle pagine (codice HTML)
Le verifiche strutturali, chiaramente, dipendono dalla morfologia del sito web. Tuttavia, vediamo alcuni punti importanti, in formato checklist, per evitare di introdurre errori SEO e per ragionare in ottica di miglioramento.
- Tag rilevanti: verificare la presenza e la corretta formattazione dei tag “title“, “description” e “Keywords“. I primi due fanno parte dell’ABC della SEO: sono fondamentali per ottenere un buoni risultati in termini di posizionamento e di conversioni. Determinano, inoltre, la struttura del risultato all’interno delle SERP. Relativamente al tag keywords, è ormani noto da tempo che per Google è ininfluente, ma per gli altri motori? Inserirlo non costa nulla…
- Struttura degli URL: oggi è sottinteso l’uso del “rewrite URL“. Gli URL devono avere una struttura che definisco “SEO & USER friendly“, ovvero devono avere un ottimo rapporto tra lunghezza ed esplicitazione del contenuto al quale si riferiscono. Consiglio di evitare assolutamente il carattere “_” (underscore).
- Il corretto funzionamento del rewrite URL. Tale verifica è intesa in rapporto alla duplicazione dei contenuti. L’esempio classico è la coesistenza, per la homepage, di tutte le seguenti versioni di URL: www.miosito.it/it/, www.miosito.it/it, www.miosito.it/it/home/, www.miosito.it/it/home. La stessa cosa vale per la questione “www” o “non www“: deve essere presente una regola di rewrite che ne rende utilizzabile una sola versione.
- Canonical URL: tutte le pagine devono indicare l’URL canonico attraverso l’apposito tag.
- Frase nella testata: consiglio sempre la presenza di una frase “importante” (contenente uno o due link strategici) nell’header del sito web, meglio se in alto a sinistra: si tratta di una posizione considerata importante dai motori di ricerca.
- Logo: ricordiamoci di dare la giusta importanza al logo, corredandolo di link, title e testo alternativo.
- Briciole di pane (breadcrumbs): sono importanti sia per mantenere un buon livello di navigabilità da parte degli utenti, ma anche per favorire la scansione delle pagine da parte degli spider dei motori di ricerca.
- H1 e H2: devono essere presenti in tutte le pagine, tenendo conto del fatto che il testo che contengono è quello che verrà considerato più importante.
- L’ottimizzazione delle immagini: fondamentale per un buon posizionamento. A questo proposito consiglio la lettura del post di questo blog dal titolo “SEO: come ottimizzare le immagini“.
- L’ottimizzazione dei link: tutti i link devono avere un anchor text ed un title coerenti con la pagina in cui sono contenuti e con quella di destinazione.
- CSS inline: da evitare; consiglio di esportarlo completamente in file esterni.
- Tag HTML deprecati: evitarli assolutamente.
- Compressione del codice JavaScript e dei fogli di stile: importante per garantire elevate prestazioni al sito web.
- Dati strutturati: ne consiglio sempre l’utilizzo, in quanto vengono interpretati da Google per arricchire gli snippet in SERP. Per approfondire, suggerisco il seguente post: “Microdati, microformati e rich snippet: cosa sono e perché sono importanti“.
- Condivisione Social Media: è consigliata la presenza, in tutte le pagine, di elementi di interconnessione e di condivisione con i Social Network.
- Google Authorship: è importante l’associazione, attraverso il tag specifico, dell’utente di Google+ ai contenuti del sito.
- Versione responsive (per dispositivi mobile): il sito web deve essere visibile dai dispositivi mobile mantenendo un buon gradi di accessibilità e di prestazioni.
7) Ottimizzazione dei contenuti
L’analisi dei contenuti che compongono il sito, è probabilmente, l’attività più importante di un’analisi SEO. Deve essere effettuata con grande attenzione e in “simbiosi” con le parole chiave da valorizzare.
Ecco alcuni consigli per la verifica ed il miglioramento dei contenuti.
- Ottimizzazione dei meta tag delle pagine: consiglio la lettura del post “Come aumentare il CTR dei risultati nelle SERP“.
- Qualità dei testi. Consiglio la consultazione dei seguenti post: “Web Writing: l’arte di scrivere per il web – Intervista a Francesca Zadra” e “L’importanza dei contenuti di qualità sul web“.
- Struttura dei testi: per effettuare tale verifica, suggerisco di utilizzare una installazione di WordPress con il plugin WordPress SEO by Yoast. L’analizzatore SEO delle pagine di questo tool è davvero utile e potente, soprattutto nella versione a pagamento. Tra i parametri considerati troviamo: lunghezza del testo, keyword density, presenza della parola chiave nei punti strategici (titolo, title, description, primo paragrafo, h1/h2, testo alternativo delle immagini, ecc.), ottimizzazione delle immagini in relazione alla keyword da valorizzare, correttezza dei meta tag, presenza di link interni, presenza di link esterni (nofollow/dofollow), ecc..
- Duplicazione dei contenuti: grazie a Siteliner, possiamo verificare in pochi secondi la presenza di contenuti duplicati e contenuti “comuni“, possiamo anche utilizzare copyscape.com per verificare la duplicazione dei contenuti da altri siti web.
8) Prestazioni
Le prestazioni del sito websono importantissime per il posizionamento: è chiaro che, a parità di qualità verrà considerato migliore il sito web che restituisce la risorsa richiesta più velocemente.
Lo strumento da utilizzare per tale verifica è Google PageSpeed Insights. Valuta la velocità di caricamento delle pagine e l’esperienza dell’utente sia in versione “desktop“, sia in versione “mobile“, fornendo preziosi suggerimenti per l’ottimizzazione.
Per aumentare le prestazioni, consiglio, oltre che l’ottimizzazione della struttura del sito, l’utilizzo di sistemi di caching.
9) Penalizzazioni
E’ importantissimo verificare se sono in atto delle penalizzazioni (algoritmiche o manuali). Se sono presenti vanno gestite con cura, e ne vanno comprese le motivazioni.
Altri 20 consigli per ottimizzare la SEO in un sito WordPress: