E SEM
Guida avanzata al Web Marketing
La Search Engine Optimization (SEO), in italiano ottimizzazione per i motori di ricerca, è
l’insieme delle tecniche grazie alle quali un sito web appare tra i primi risultati mostrati da un
motore di ricerca. È quindi un fattore chiave di successo per qualsiasi attività sul web, dal blog
personale al sito di e-commerce. L’arte del posizionamento nei motori di ricerca non è una
scienza esatta, perché non si conoscono i principi e gli algoritmi alla base del funzionamento di
Google & C.: solo l’esperienza sul campo, i test e lo studio dei brevetti rilasciati possono
arricchire il bagaglio di conoscenze di un buon esperto SEO. Grazie all’esperienza dell’autore e
alla collaborazione di specialisti italiani e internazionali, questo libro illustra le tecniche più
efficaci e aggiornate per migliorare il posizionamento dei siti web, affiancando il tutto a nozioni
di SEM (Search Engine Marketing), SMO (Social Media Optimization) e ASO (App Store
Optimization), nonché a cauti assaggi di un argomento scottante come la Black Hat SEO. Questa
nuova edizione introduce, inoltre, diverse novità, tra cui:
• Aggiornamento con le ultime novità di Google: Search Console, AMP, Google Rich Cards.
• Un riassunto a punti per ogni capitolo, per focalizzare l’attenzione sugli aspetti cruciali.
• Un intero capitolo dedicato a casi pratici, per vedere come un professionista SEO opera
realmente.
Gli autori
Marco Maltraversi, già autore delle precedenti edizioni di questo libro e di due volumi sull’uso
avanzato di Windows 7 e Windows 8.1, è laureato magistrale in Ingegneria Informatica, SEO
Specialist e docente in master universitari in Web Communication. Collabora con diverse web
agency italiane e straniere come consulente in ambito SEO e IT management. È fondatore di
YourDigitalWeb (www.yourdigitalweb.com) e ideatore dei corsi formativi in campo SEO e
digital come SEOThatWorks (www.seothatworks.it) e Marketing Business Summit
(www.mbsummit.it).
Valentina Turchetti, Web Content Manager, aiuta le aziende e i professionisti a sfruttare i social
media e i contenuti online per farsi conoscere e promuoversi efficacemente sul Web,
trasformando la comunicazione digitale in una concreta opportunità di Business
(www.seobuzz.it).
MARCO MALTRAVERSI
Con la collaborazione di Valentina Turchetti
SEO E SEM
Guida avanzata al Web Marketing
SEO e SEM | Guida avanzata al Web Marketing
IV edizione
I diritti di traduzione, di memorizzazione elettronica, di riproduzione e adattamento totale o parziale con qualsiasi mezzo
(compresi i microfilm e le copie fotostatiche), sono riservati per tutti i Paesi. Le fotocopie per uso personale del lettore
possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art.
68, commi 4 e 5, della legge 22 aprile 1941 n. 633.
Le fotocopie effettuate per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da
quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e
Autorizzazioni per le Riproduzioni Editoriali, Corso di Porta Romana 108, 20122 Milano, e-mail
autorizzazioni@clearedi.org e sito web www.clearedi.org. La presente pubblicazione contiene le opinioni dell’autore e ha
lo scopo di fornire informazioni precise e accurate. L’elaborazione dei testi, anche se curata con scrupolosa attenzione,
non può comportare specifiche responsabilità in capo all’autore e/o all’editore per eventuali errori o inesattezze.
L’Editore ha compiuto ogni sforzo per ottenere e citare le fonti esatte delle illustrazioni. Qualora in qualche caso non fosse
riuscito a reperire gli aventi diritto è a disposizione per rimediare a eventuali involontarie omissioni o errori nei riferimenti
citati.
Tutti i marchi registrati citati appartengono ai legittimi proprietari.
Via G. Spadolini, 7
20141 Milano (MI)
Tel. 02 881841
www.edizionilswr.it
Introduzione
Cosa non troverai nel libro
Materiale online
Gli autori
Il rapporto fra SEO e Web Marketing
Ringraziamenti
Bibliografia
Ringraziamenti speciali
Sitografia
Introduzione
La Search Engine Optimization (SEO) è spesso considerata la parte più tecnica del Web
Marketing, poiché fornisce un valido aiuto nella promozione dei siti e, al tempo stesso, richiede
una conoscenza specifica degli strumenti di sviluppo web. L’arte del posizionamento nei motori
di ricerca non è una scienza esatta perché non si conoscono i principi e gli algoritmi che sono
alla base dei principali Search Engine: solo l’esperienza sul campo, i test e lo studio dei brevetti
rilasciati possono arricchire il bagaglio di conoscenza di un buon esperto SEO. Lo scopo di
questo libro, nella sua quarta edizione, è quello di illustrare le tecniche più efficaci e aggiornate
per migliorare il posizionamento di un sito web, affiancando il tutto a nozioni di SEM (Search
Engine Marketing), SMO (Social Media Optimization) e ASO (App Store Optimization), nonché
a cauti assaggi di un argomento scottante come il Black Hat SEO. Grazie all’esperienza sul
campo dell’autore e alla collaborazione di esperti sia italiani (come Andrea Vit, Gianluca
Fiorelli, Davide Pozzi, Benedetto Motisi, Simone Righini, Mauro Ginelli, Valerio Novelli,
Gaetano Romeo, Paolo Dello Vicario, Maurizio Ceravolo, Ivano Di Biasi, Riccardo Mares e
Andrea Zonzin) sia internazionali (come l’organizzazione SEO Certification.org, Mark Porter,
Scott Hendison, Garret French, Bill Slawski, presidente di SEO by the Sea), si è realizzata questa
guida completa e aggiornata, che racchiude tutte le linee guida essenziali per rendere un sito web
più appetibile agli occhi dei motori di ricerca. Un libro adatto veramente a tutti, dai curiosi alle
agenzie di marketing, agli esperti in campo SEO.
Materiale online
All’indirizzo web www.libro-seo.it è possibile reperire i materiali aggiuntivi del libro e tutta
una serie di informazioni e notizie utili per rimanere sempre aggiornati con il mondo SEO e SEM.
Chi fosse interessato a seguire corsi SEO professionali può trovare informazioni e date dei corsi
su www.libro-seo.it/corsoseo - www.corso-seo.it www.seothatworks.it e www.mbsummit.it.
Gli autori
Marco Maltraversi è laureato magistrale in Ingegneria Informatica, SEO Specialist e docente in
Master universitari in Web Communication. Collabora con diverse agenzie web italiane ed estere
come consulente SEO e Web Marketing Strategist. È possibile contattarlo direttamente al suo sito
www.yourdigitalweb.com o attraverso i blog:
• www.libro-seo.it
• www.corso-seo.it
• www.mbsummit.it
Valentina Turchetti, esperta di Social Media Marketing e Comunicazione Online, collabora con
aziende e web agency per lo studio e l’implementazione di strategie efficaci di comunicazione e
promozione sul web. La potete contattare attraverso il suo blog, www.seobuzz.it, o tramite il suo
profilo LinkedIn: https://www.linkedin.com/in/valentinaturchetti.
Ringraziamenti
Desidero ringraziare la casa editrice Edizioni LSWR per la fiducia accordatami, che ha
permesso di realizzare questo libro, e in particolare Marco Aleotti e Fabrizio Comolli, il cui
entusiasmo e la cui cortesia hanno reso piacevole un lavoro difficile e impegnativo. Non posso,
ovviamente, tralasciare genitori e parenti, amici e colleghi per l’incoraggiamento e il supporto
morale. Una menzione speciale va a Massimo Fattoretto, Maurizio Ceravolo, Riccardo Mares,
Andrea Zonzin, Paolo dello Vicario, Andrea Venturi, Claudio Marchetti, Ivano Di Biasi, Valerio
Novelli, Gaetano Romeo, Simone Righini, Mauro Ginelli, Mattia Soragni, Omar Campanella,
Benedetto Motisi, Ivan Cutolo e Davide Prevosto, e a tutti coloro che ci hanno fornito preziosi
consigli e che ci hanno permesso di condividere materiali e informazioni utili per rendere
veramente completo questo libro. Infine, ringrazio tutte le fantastiche persone che, in un modo o
nell’altro, hanno collaborato con noi per arrivare alla conclusione di questo progetto.
Marco Maltraversi
CORSI SEO
CORSI SOCIAL MEDIA
CORSI WEB MARKETING
Sconto immediato sul biglietto non in early booking da 10€ fino a 100€ fornendo
codice del libro + codice sconto “libroseo2016”
e i corsi di
www.seobuzz.it
SEOZoom è il partner ideale per tutti i professionisti del web che si occupano di Search
Marketing: all’interno della piattaforma sono disponibili strumenti per l’analisi dei
domini e delle parole chiave fino a funzionalità specifiche per chi si occupa di content
marketing e keyword research.
Si tratta di uno strumento ideale per tutti i professionisti del settore digitale grazie al
supporto nello sviluppo di strategie SEO e Web Marketing attraverso alcuni strumenti
dedicati, come ad esempio, lo studio e l’analisi della concorrenza.
In questo modo attiverai una demo di 15 giorni per provare tutte le funzionalita presenti
in SEOZoom.
Per informazioni:
https://www.seozoom.it
info@seozoom.it
Inizia subito ad ottimizzare il tuo sito
Con greatcontent hai accesso ad un team di autori professionisti per la scrittura di
schede prodotto, descrizioni di categoria, recensioni e articoli di blog.
La nostra esperienza pluriennale con Zalando, Lastminute.com, PagineGialle e molti
altri ci ha permesso di sviluppare una piattaforma ottimale per la progettazione,
supervisione e l’esporto di contenuti di alta qualità.
Come funziona
Inserisci una richiesta selezionando la tipologia di testo e il livello di qualità
desiderato. La nostra piattaforma è configurata per trovare l’autore più adatto per
ciascun testo. Consegniamo solo contenuti unici che contengono le keywords e la
formattazione richieste nelle principali lingue europee, con la consulenza della nostra
redazione.
Coupon da 20€
Crea un account gratuito all’indirizzo http://www.greatcontent.it/seosem20 e riceverai
un coupon da 20€ per richieste superiori ai 100€ di spesa!
Contatti
Giuseppe Colucci
www.greatcontent.it
gc@greatcontent.com
02 947 503 38
Capitolo 1
I motori di ricerca e le loro funzionalità
Introduzione
Il web è in continua evoluzione e, con esso, tutte le tecnologie direttamente collegate. Trovare le
informazioni in modo rapido ed efficace è un requisito fondamentale, sia per ottimizzare il
proprio tempo, sia per ridurre i costi. Le informazioni che circolano sulla rete si espandono
vertiginosamente e assumono forme e contenuti diversi (documenti, video, link, streaming, flussi
audio); per questo i motori di ricerca rivestono, sempre più, un ruolo cruciale. I delicati
meccanismi che regolano il funzionamento di un motore di ricerca permettono agli utenti di
ricevere, in base alle loro ricerche, risultati utili e coerenti. L’utente struttura una query (elenco
di parole da ricercare) da dare in pasto al motore di ricerca; quest’ultimo la elabora e fornisce,
attraverso opportune logiche, una serie di informazioni più o meno rilevanti. L’insieme di tutte le
pagine restituite come risultato di una determinata ricerca va sotto il nome di SERP (Search
Engine Results Page). Il successo di un motore di ricerca dipende principalmente dalla
rilevanza dei risultati di ricerca forniti. Per addentrarci in questo mondo così articolato,
analizzeremo e spiegheremo alcuni dati statistici per capire il meccanismo dei motori di ricerca.
Figura 1.1 - Analisi di mercato sull’andamento degli acquisti online in Italia (sems.it).
È quindi indubbio che i motori di ricerca costituiscano il principale punto di accesso a Internet.
Dalle statistiche effettuate da Com Score Networks sul traffico generato tra i primi 25 motori di
ricerca, si evince che:
• il 49% delle ricerche viene effettuato dal posto di lavoro;
• il 44% dal computer di casa;
• il 7% da università/scuole/enti di formazione.
Una recente ricerca di WebTrends su un campione di circa 300 PMI, di cui 50 italiane, ha
rilevato, invece, che:
• il 79% delle imprese analizza il traffico Internet;
• ma solo il 30% riesce ad agire appropriatamente in base ai dati ottenuti;
• in particolare, solo il 50% cattura e analizza i dati generati da Internet;
• in Italia il 74% dei consumatori si fida dei consigli degli amici, il 64% dei commenti della
rete, il 45% dell’adv televisivo;
• in Europa vola il keyword advertising, che ha toccato quota 36% di credibilità (fonte
Nelsen 2016).
NOTA
Non bisogna sottovalutare un settore in enorme crescita, cioè il Web Mobile. Le ricerche
effettuate da dispositivi mobili (che vanno da cellulari a palmari) sono aumentate
vertiginosamente e hanno superato le ricerche desktop. Stati Uniti, Italia e Gran Bretagna
sono i Paesi leader per quanto concerne la diffusione del Web Mobile.
Dall’analisi di questi dati possiamo capire come risulti fondamentale conoscere e studiare i
meccanismi interni che regolano il funzionamento di un motore di ricerca e le tipologie di query
eseguite dai navigatori web. Ciò significa comprendere le logiche e le dinamiche proprie
dell’Information Retrieval (IR) e applicarle al contesto dei motori di ricerca. L’IR può essere
concepito come l’insieme delle tecniche utilizzate per il recupero mirato dell’informazione. È
stata una disciplina scientifica in auge per 50 anni, fino all’avvento del World Wide Web: la sua
logica permetteva di trovare i documenti rilevanti per l’utente partendo da una data collezione
statica di documenti (Corpus).
A differenza dell’IR, le ricerche nel web riguardano in generale risultati (non solo documenti)
che sono rilevanti per l’utente. Per tale motivo è necessario analizzare e adattare il modello
all’evoluzione tecnologica in corso. I problemi che possono verificarsi sono i seguenti:
• mis-conception = certe informazioni che si pensava fossero necessarie in realtà non sono
utili per la ricerca;
• mis-translation = la traduzione in forma verbale non rispecchia le informazioni
desiderate;
• mis-formulation = le query non rispecchiano le informazioni desiderate;
• polysemy = una parola ha più di un significato;
• synonimy = alcuni concetti possono essere espressi utilizzando parole diverse.
Adattando l’IR al concetto di ricerche nel web, si nota come vi siano alcuni problemi di fondo,
primi fra tutti la diversità dei dati da trattare e da catalogare, l’espansione vertiginosa delle
informazioni e la trasformazione del web da collezione di documenti testuali a database
multimediale, in cui si ha una convergenza di tutti i media tradizionali. Tali ostacoli hanno fatto sì
che l’IR si evolvesse di pari passo con l’evoluzione del web, perciò, se le tecniche di retrieval
classico continuassero a essere necessarie per la ricerca sul web, da sole non risulterebbero più
sufficienti e rilevanti.
Come si può notare dalla Figura 1.2, i passaggi per formulare un risultato coerente sono diversi,
così come i possibili problemi che si possono verificare. Durante la formulazione di una query di
ricerca, l’utente desidera trovare le indicazioni più rilevanti il prima possibile. Possiamo quindi
dare una classificazione delle query nel web, tra cui individuiamo tre macrocategorie:
• query navigazionali (25%): il bisogno immediato è quello di raggiungere un certo sito.
Per esempio: Fiat, Barilla;
• query informative (40%): l’intenzione è quella di acquisire informazioni che si presume
siano presenti in una o più pagine web. L’obiettivo è quello di imparare qualcosa dalla
lettura o dalla visualizzazione di contenuti sul web, come testi, immagini, video. Per
esempio: Robot mobili, il web 2.0;
• query transazionali (35%): l’intenzione è quella di svolgere alcune operazioni (acquisti,
fruizione di servizi, acquisizione di file) con la mediazione del web. L’utente è alla ricerca
principalmente di una risorsa disponibile tramite le pagine web. Per esempio: Scarica
programmi gratis.
Figura 1.2 - Esempio di struttura di funzionamento di un motore di ricerca e problemi nell’interpretazione delle query.
Molte ricerche possono rientrare in più di una categoria in base alle esigenze di ricerca. Gli
utenti tipicamente costruiscono query poco precise e hanno necessità e aspettative diverse.
L’analisi dei dati ha rilevato che:
• l’85% degli utenti guarda solo la prima pagina dei risultati della ricerca;
• il 78% degli utenti non raffina le query dopo la prima ricerca;
• vi è la tendenza a spostarsi da una pagina all’altra seguendo dei link, piuttosto che a
ripartire da un’altra pagina o a ripetere la ricerca.
NOTA
Per questo motivo sono fondamentali un corretto posizionamento del sito web nelle prime
postazioni e una corretta analisi delle query, che potrebbero portare nuove visite al nostro
sito web.
Tali dati ci fanno riflettere sull’importanza che oggi riveste il Web Marketing: conoscere gli
utenti, quello che cercano e capire i loro interessi è fondamentale per costruire il proprio
business, avvalendosi di uno strumento che ormai è diventato indispensabile per la vita di molte
persone, il WWW. Ovviamente non è sufficiente avere la patente e una macchina per arrivare
primi al Gran Premio, ma occorrono molteplici fattori, accorgimenti tecnici e astuzie, che solo un
bravo professionista SEO riesce a mettere in pratica. La “battaglia” non viene vinta al termine di
una gara, ma solo a fine stagione, quando si vedono maturare i frutti e la costanza permette di
mantenere i risultati ottenuti.
NOTA
Grazie all’evoluzione dei Social Network, sono nate diverse discipline, tutte legate da un
unico filo conduttore: la visibilità nel web. Una di queste è la SMO (Social Media
Optimization), cioè l’insieme di metodologie atte ad attrarre i visitatori verso un sito
utilizzando i Social Media.
Questi dati ci fanno capire come sia importante e allo stesso tempo difficile per aziende, società
e professionisti rendersi distinguibili nel web. Non è più importante essere presenti nello
spazio Internet, è invece fondamentale essere visibili.
I primi motori di ricerca iniziarono a comparire intorno alla metà degli anni Novanta, quando le
informazioni nella rete cominciarono a essere complesse e milioni di file e documenti si
riversarono nel web: per l’utente avere a disposizione uno strumento di document retrieval
risultava fondamentale per ottimizzare tempo e risorse.
ALIWEB (Archie Like Indexing for the Web) può essere ufficialmente considerato il primo
motore di ricerca del web, in quanto solo Matthew Gray aveva introdotto il primo spider nel web
pochi mesi prima, ma senza avere un gran successo. ALIWEB fu annunciato nel novembre del
1993 e precedette di alcuni mesi WebCrawler, il primo motore di ricerca in grado di indicizzare
intere pagine web. In quegli anni nacquero interessanti progetti, come Excite, Yahoo! (David Filo
e Jarry Yan), Lycos, Altavista e Inktomi.
NOTA
Lycos consentiva di effettuare ricerche per parole contigue e ordinava i risultati per
pertinenza. Inizialmente contava 50.000 pagine indicizzate; nel giro di due anni arrivò a
contenerne oltre 60 milioni.
Dopodiché si susseguirono diversi motori di ricerca, fino all’avvento di Google, ai giorni nostri,
che divenne leader mondiale incontrastato in questo settore. Larry Page e Sergey Brin fondarono
Google nel settembre del 1998: seguendo un progetto arduo e difficile, riuscirono a creare un
motore di ricerca che in pochi anni divenne il primo a livello mondiale.
NOTA
Non dimentichiamoci, in ordine cronologico, delle scelte strategiche fatte da Microsoft nella
creazione del motore di ricerca Bing, che di fatto va a sostituire il vecchio MSN Live Search.
Un motore di ricerca, come detto precedentemente, funziona da “scanner” delle pagine web
presenti nella rete; in modo automatico le categorizza e le propone all’utente come risultato di
una determinata query. I motori di ricerca possono essere classificati in tre macrocategorie:
• motori di ricerca di prima generazione: analisi dei dati presenti nella pagina; erano i
tempi di Altavista, Infoseek ed Excite. Questi motori di ricerca, sorti nella prima metà
degli anni Novanta, utilizzavano il semplice criterio delle keyword (parole chiave),
inserite nelle pagine HTML attraverso i meta tag. Tale sistema permetteva di collegare le
parole ricercate a pagine web, i cui meta tag segnalavano la presenza dei contenuti
richiesti. Infine, veniva stilata dal motore una lista di riferimenti ordinati secondo
pertinenza e rilevanza;
• motori di ricerca di seconda generazione: analisi di dati specifici del web (link, anchor-
text, click-through data). Tali motori di ricerca, grazie alla loro particolare struttura e
all’enorme capacità di elaborazione di cui sono in possesso, sono diventati
imprescindibili nello scenario attuale di Internet: pensiamo a come il concetto stesso di
ipertesto sarebbe limitato senza uno strumento che ci colleghi ai contenuti mediante
un’espressione, una stringa di testo. Inoltre, i motori ci aiutano a introdurre la questione
della visibilità in rete, che sta alla base della SEO e che è il vero propulsore del nuovo e
straordinario sviluppo della rete stessa dal punto di vista commerciale;
• motori di ricerca di terza generazione: tentativo di dare risposta ai “bisogni che stanno
dietro alle query” attraverso l’analisi semantica dei dati:
– integrazione di risorse multiple;
– aiuto all’utente (spell checking, query refinement ecc.);
– determinazione del contesto spaziale (dove è l’utente, dove è ciò che l’utente cerca) e
del query stream (traccia delle query precedenti).
Molti motori di prima generazione hanno avuto un salto generazionale, cercando di adattarsi alle
richieste del web e proponendosi come motori 3G (di terza generazione): in questo scenario
troviamo Google, il motore di ricerca più utilizzato al mondo (per questo motivo sarà preso in
considerazione per la maggior parte della trattazione di questo libro). La prerogativa che ha
premiato Google, innalzandolo in pochi anni a leader mondiale, consiste nella sua rivoluzionaria
idea di inserire negli algoritmi di ricerca i link tra siti web come variabili di calcolo della
rilevanza. In realtà, sono diversi i fattori che concorrono con differenti percentuali all’algoritmo
(circa 200), ma il valore aggiunto consiste nel considerare i collegamenti tra siti come elementi
matematici. Naturalmente, gli aspetti che hanno concorso al successo di Google sono molteplici,
a partire da una progettazione user-friendly, per passare a un continuo aggiornamento, in
particolar modo per ciò che riguarda l’algoritmo di ricerca e le parti che lo compongono.
Tornando al vero punto di svolta di Google, esso è universalmente conosciuto col nome di
PageRank, altro gioco di parole tra il cognome di uno degli autori e la prerogativa di questo
algoritmo di assegnare un valore (rank) a ogni pagina web (page). L’algoritmo PageRank risulta
tuttora uno tra gli elementi più importanti per la classificazione delle pagine web, anche se
esistono ipotesi e pareri contrastanti su “come” esso venga utilizzato all’interno del calcolo che
dà origine al posizionamento delle pagine.
Il valore del PageRank per ogni singola pagina è pubblico. Come vedremo nei prossimi
paragrafi, Google fornisce i suoi risultati a molti motori di ricerca partner: non a caso, la maggior
parte degli specialisti SEO consiglia di prendere come punto di riferimento Google. Questo,
però, è vero solo in parte: considerare anche altri motori di ricerca, come Yahoo!, Bing o
AskJeeves, è importante per migliorare l’indicizzazione del sito web. Per esempio, potremmo
essere posizionati più facilmente su questi motori di ricerca ottenendo un buon riscontro di visite.
Inoltre, non è da trascurare la popolarità di alcuni motori di ricerca come Baidu per la Cina,
Seznam per la Slovacchia o Rambler e Yandex per la Russia. Come si evince dalla Figura 1.4,
Google rimane per ora il re incontrastato.
Figura 1.4 - Utilizzo dei principali motori di ricerca (fonte: StatCounter).
NOTA
NOTA
NOTA
NOTA
È bene precisare che spesso si utilizza lo stesso termine per identificare spider, crawler e
robot. In realtà questi componenti, anche se simili, possono svolgere azioni leggermente
differenti e potrebbero essere considerati in modo diverso. Un’altra cosa da non
sottovalutare è il fatto che il compito del crawler è quello di effettuare il download di risorse
web e cercare all’interno di esse eventuali link.
• indexer: processa i dati generati dallo spider, generando indici e metadati che facilitano la
fase di ricerca (effettuata dal query processor). L’indexer svolge diverse funzioni, tra cui
quella di catalogare e contenere le informazioni sui siti web, che vengono successivamente
interpretate attraverso algoritmi e modelli statistici durante la fase di analisi e scansione
dell’indice;
• parser: estrae la risorsa memorizzata nel repository e ne legge i contenuti, suddividendoli
in base alla tipologia. Se la risorsa contiene link ipertestuali, questi ultimi verranno
aggiunti al database di URL e memorizzati nel link graph. Durante questa fase, grazie a un
sistema di metadati, i dati contenuti nell’indice vengono etichettati con ulteriori
informazioni (lingua, genere, tasso di aggiornamento e così via). Tali metadati risultano
decisivi per consentire al motore di ricerca di offrire elementi più rilevanti;
• query processor, anche definito Search engine software: accetta richieste e fornisce
risposte (può riformulare le query per correggere eventuali errori o per fornire un insieme
di risposte eterogenee quando la ricerca non sembra andare a buon fine; classifica i
risultati in base al grado di matching con la query, ma anche a un ranking ottenuto facendo
link analysis).
L’architettura dei moderni motori di ricerca è in continua evoluzione per cercare di venire
incontro alle nuove richieste degli utenti, cioè contenuti sempre più diversificati, multimedialità e
interattività. Bisogna sapere che in questo scenario le variabili in gioco aumentano e cambiano
repentinamente, perciò è necessario essere aggiornati e attenti alle mutazioni del mercato.
Non dobbiamo dimenticare che i motori di ricerca sono anche e soprattutto potenti media il cui
obiettivo principale rimane quello di produrre ricavi. Per quanto i risultati di un motore di
ricerca possano sembrare autorevoli e obiettivi, la loro organizzazione risente della natura
commerciale dell’azienda che lo ha creato e lo mantiene in vita. Vi sarà capitato, per esempio, di
trovare tra i risultati della vostra ricerca anche un video di YouTube; questi video, portando
ricavi a Google, tipicamente ricevono un “bonus” in posizionamento che non risulta evidente agli
utenti meno attenti (l’azienda creatrice di YouTube è stata acquistata da Google nel 2006). Il
motore di ricerca di solito viene ritenuto imparziale, tuttavia risente di un certo conflitto
d’interessi che a oggi non è ancora stato risolto. I contenuti ospitati da aziende di proprietà del
motore di ricerca possono avere un bonus nel posizionamento. La piattaforma Blogger (acquistata
da Google nel 2003), per esempio, ha vari milioni di siti indicizzati all’interno di Google.
Per aumentare il margine dei ricavi, l’azienda Google ha due possibilità: aumentare il numero e
la qualità dei clic sui propri annunci pubblicitari o ridurre il costo del motore di ricerca.
Possiamo renderci conto, quindi, di come sia importante per un sito web essere “economico” nei
confronti di Google. Ad esempio, un sito che sia online da cinque anni tende a essere già
“conosciuto” da Google, che farà passare il suo spider solo per gli aggiornamenti delle novità
piuttosto che per scovare pagine nuove. Un sito pubblicato stamattina dovrà essere scovato da
Google e il valore del sito dovrà essere calcolato per la prima volta. Un sito web più “snello”,
cioè senza HTML inutile, sarà preferibile per il motore di ricerca, che potrà estrarre i testi con
facilità, e così via.
NOTA
NOTA
Nessuno è in grado di conoscere con esattezza le sofisticate leggi matematiche che regolano il
funzionamento di Google o di altri motori; si può solamente ipotizzare con test o esperimenti sul
campo il comportamento che può avere un motore di ricerca in risposta a determinati input. I
principali fattori che influenzano il posizionamento si dividono in due branche principali: i fattori
interni alla pagina (on page factors) e i fattori esterni alla pagina (off page factors).
NOTA
L’ottimizzazione di questi parametri è un buon inizio nel lavoro finalizzato alla visibilità di un
sito web. Vediamo come sfruttare questi fattori:
• localizzazione delle keyword: il Search Engine Algorithm localizza le keyword presenti
nella pagina partendo dai tag HTML, nell’headline o nei primi paragrafi (le keyword
posizionate nell’headline o nei primi paragrafi risultano molto importanti per la
localizzazione);
• frequenza: è molto importante inserire le keyword in zone della pagina visibili, ma non
esagerare nella “quantità”. I motori di ricerca in passato misuravano la frequenza della
keyword commisurandola e rapportandola al contesto della pagina per determinare il
PageRank. Anche il concetto delle co-citazioni è molto importante in quest’ottica;
• aggiungere funzionalità in base a specifici fattori: differenti motori di ricerca possono
indicizzare in modo diverso e con frequenza differente i contenuti presenti all’interno di un
sito web. È quindi necessario che un webmaster sappia con quale frequenza gli spider
“aggiornano” lo stato del sito web, così da ottimizzare le singole pagine sviluppate ed
evitare di classificare la pagina come spamming (l’argomento spam per i motori di ricerca
sarà trattato nei prossimi capitoli);
• i Microformati e i Microdati: il Web Semantico (Microformati e Microdati) sta
gradualmente cambiando il web e il modo in cui è possibile reperire le informazioni
online. Standardizzando gruppi di dati, strutture, informazioni, business card, liste, i
Microformati e i Microdati stanno creano un nuovo e più strutturato approccio orientato a
Internet, il primo passo verso un Web Semantico più interattivo. Per tale motivo, questi
aspetti dovranno essere presi in considerazione durante il nostro processo di sviluppo
SEO (http://microformats.org e http://schema.org).
Gli off page factors comprendono (ovviamente è un primo elenco di base che avremo modo di
approfondire):
• link popularity;
• link building;
• author rank;
• tecniche di Social Media Marketing e Social Media Optimizazion;
• promozione su altri media, come radio, tv o riviste;
• inserimento in directory di qualità (tecnica ormai da considerarsi obsoleta), comunicati
stampa, article marketing, guest post (basandosi sulle regole di Google per evitare
penalizzazioni).
Tutti questi fattori, assieme a quelli di off site, concorrono all’autorevolezza di un sito web agli
occhi di Google e dei principali motori di ricerca.
Uno dei principali limiti dei motori di ricerca è la difficoltà di mettere in relazione contenuti non
direttamente connessi, ma che hanno affinità. L’utilizzo di tecniche come la retroazione di
pseudopertinenza permette di superare alcuni di questi ostacoli, usufruendo della ridondanza del
linguaggio naturale per migliorare e arricchire la formulazione dell’interrogazione dell’utente.
Inoltre, l’adozione di linguaggi per la descrizione semantica dei dati presenti sul web consente ai
motori di ricerca di attrezzarsi adeguatamente per rispondere meglio ai bisogni dei navigatori.
Dobbiamo, infatti, ricordare come Google, tra le varie tecniche di catalogazione e indicizzazione
dei contenuti web, adoperi l’algorimo conosciuto col nome PageRank. L’algoritmo PageRank
risulta tutt’ora uno tra gli elementi più importanti per la classificazione delle pagine web. Sin dal
momento della sua introduzione, esso fece sentire il suo peso, in particolare nella lotta allo spam,
che ebbe da quel momento maggiori difficoltà operative, essendo diventato a quel punto inutile il
suo annidamento nel codice sorgente di un sito. I meta tag videro da quel momento diminuire la
loro importanza, mentre ne acquistarono moltissima i link verso il sito, dato il loro contributo di
autorevolezza e rilevanza.
L’algoritmo ideato da Brin e Page consente di ottenere una classifica delle pagine indipendente
dalle query. La classificazione si attua periodicamente.
Il PageRank (punteggio, grado della pagina) è dato dalla seguente formula:
Credo che nessuno punti al PageRank alto come a un obiettivo finale. Il PageRank
rappresenta solo quello che noi vogliamo davvero: fare più soldi, attirare più lettori,
generare più contatti, fare più iscrizioni alla newsletter. Guardare al PageRank come a una
metrica di successo ha senso solo nel momento in cui più esso è alto e meglio il mio sito è
posizionato, più traffico riceve, e più persone fanno quello che voglio che facciano sulle
mie pagine. Perché preoccuparsi di un numero che è lontano dai tuoi obiettivi reali, quando
invece ci sono cose che puoi misurare e che sono legate a ciò che vuoi davvero
raggiungere? Trovare le metriche direttamente collegate ai tuoi obiettivi di business ti
permetterà di lavorare su di essi e quindi di raggiungere il tuo scopo.
In poche parole, Google ci dice chiaramente di non soffermarci troppo sul PageRank, ma di
prendere in considerazione anche altre metriche, quali:
• il tasso di conversione dei clienti/visitatori;
• la frequenza di rimbalzo;
• la percentuale di clic (CTR) sui nostri annunci/banner.
NOTA
Già nel 2009 erano state rilasciate dichiarazioni chiare in merito: “La parte più famosa del
nostro algoritmo di ranking è il PageRank, un algoritmo sviluppato da Larry Page e Sergey
Brin, fondatori di Google. Il PageRank è ancora in uso oggi, ma ora è una parte di un sistema
molto più grande e complesso”. Il PageRank a oggi non viene più aggiornato da Google
(barretta verde nel browser per intenderci).
Il PageRank è stato per anni un punto di riferimento per molti webmaster, ma oggi è necessario
prestare attenzione ad altre metriche, come già accennato. Se avviamo 10.000 visitatori
giornalieri nel nostro sito di e-commerce con un alto PageRank, ma solamente due utenti effettivi
hanno compiuto acquisti, allora dobbiamo preoccuparci: cosa non va nel nostro sito web? Se il
nostro scopo è fare business online, dobbiamo avere un piano di marketing adeguato e sfruttare e
analizzare metriche quali il tempo di permanenza sul sito web, l’andamento delle visite, o il
CTR. Il PageRank rimarrà solamente un numero, una metrica di riferimento che dovrà essere il
punto iniziale (e non finale) di una nostra campagna SEO e di Web Marketing (contando che la
barretta che segna il Page Rank non viene più aggiornata da Parte di Google!).
NOTA
Oltre a risolvere problemi di calcolo, i motori di ricerca devono fornire risultati pertinenti
con la query formulata. Lo spam, cioè il tentativo di influenzare i risultati dei motori di
ricerca, è un fenomeno presente e tenuto in considerazione dai motori di ricerca. Vedremo
questo aspetto nei successivi capitoli del libro.
NOTA
TrustRank costituisce una piccola sconfitta di Google contro lo spam: è la prima incoerente
concessione all’intervento umano di un motore di ricerca che, per ammissione dei suoi
inventori, ha sempre puntato su procedure automatizzate.
NOTA
Esistono altri strumenti per misurare la popolarità di un sito web, tra cui Alexa Rank, un
rilevatore di autorevolezza che stima circa 10 milioni di siti internet nel mondo. Se un sito ha
valore “1”, significa che esso ha il massimo grado di autorevolezza e popolarità. La
classifica si basa sui dati storici di traffico aggregato di tre mesi, forniti dagli utenti che
hanno installato la Toolbar Alexa, e sui dati ottenuti da altre fonti diverse di traffico
(http://www.alexa.com).
Gli attuali trend, come il social networking, la content production e curation e tutti i segnali
sociali, obbligano Google ad aggiornare costantemente i propri algoritmi per strutturare e
migliorare il proprio indice al fine di offrire all’utente risultati sempre più ottimali e in linea con
le sue aspettative. Abbiamo già illustrato come il PageRank risulti ormai un concetto “superato”,
che molto probabilmente verrà integrato, aggiornato e ampliato attraverso l’Author Rank.
L’Author Rank non è ancora un vero algoritmo: a oggi siamo a conoscenza solo dell’esistenza del
brevetto “Google Agent Rank” depositato nel settembre 2011 (http://tinyurl.com/rank-autore). Il
concetto è semplice: l’identità e la reputazione degli utenti che hanno prodotto e veicolato un
determinato contenuto potrebbero essere utilizzati da Google per influenzare la valutazione dei
risultati di ricerca nel momento in cui essi verranno indicizzati. L’identità potrà essere accertata
per mezzo di una firma digitale (il rel author) che aiuta Google a far capire chi è l’autore, in
quale nicchia è attivo e chi sono i suoi follower. Infatti Google utilizzava rel=”author” e Google
+ per legare l’identità dell’autore ai suoi contenuti: in questo modo era possibile linkare utenti e
creatori di contenuti di cui ci fidiamo e che hanno una buona reputazione all’interno del mondo
web. Il 28 agosto 2014, John Mueller annuncia la morte dell’authorship, ma a oggi non è chiaro
se in futuro potrà essere sfruttato. L’Author Rank invece è un progetto che sembra ancora essere
vivo in quanto permetterà a Google (ad esempio attraverso Schema.org) di identificare gli autori
che costruiranno il link graph delle pagine web.
Insomma, l’Author Rank potrebbe rivelarsi una delle novità più interessanti nel mondo del web e
anche altri segnali ci fanno ipotizzare che Google abbia serie intenzioni di andare in tale
direzione. In un recente brevetto (http://tinyurl.com/rank-commenti) rilasciato da Google, infatti,
si accenna al fatto che un articolo commentato da utenti con una certa reputazione potrebbe
posizionarsi meglio nella SERP. Ovviamente sono tutti tips, che però dovremmo prendere in
considerazione per migliorare la nostra Brand Reputation e, di conseguenza, la visibilità sul web.
Figura 1.7 - Logica Author Rank.
L’algoritmo HillTop, nato nel 2001, porta la firma di Krishna Bharat e rappresenta il
tentativo più serio di immettere variabili tematiche nel calcolo del ranking di Google.
È importante sottolineare che, per quanto l’algoritmo HillTop introduca una componente, per così
dire, semantica nel calcolo del valore delle pagine web, nel senso che considera l’attinenza
tematica come una variabile importante della risposta alle query, esso rimane in continuità con
PageRank, in quanto è anch’esso un algoritmo basato sull’analisi dei link. La differenza tra i due
consiste semmai nel tipo di autorevolezza derivata dall’analisi, basata sugli inbound link in
PageRank e sul contenuto in HillTop.
Queste digressioni ci servono per comprendere come l’arte della SEO si debba appoggiare non
solo all’ottimizzazione della specifica pagina HTML, ma a tutta una serie di fattori esterni che ne
influenzano il corretto posizionamento.
NOTA
NOTA
Non bisogna dimenticare Jagger Update, un aggiornamento suddiviso in due parti (Jagger part
I e Jagger part II), nato con lo scopo, da parte di Google, di combattere la lotta allo “spam
content” e alla manipolazione dei risultati. Le principali novità riguardano la penalizzazione,
da parte del motore di ricerca, di tecniche considerate scorrette, atte a innalzare il PageRank.
Questi motori di ricerca mettono in luce un nuovo approccio focalizzato su una selezione
dell’informazione per concetti e categorie, avvicinandosi all’ottica semantica. Tale svolta, unita
alla possibilità di una maggiore personalizzazione dei contenuti proposti all’utente, raggiungibile
grazie all’aumento dell’interattività e alla conseguente creazione di profili di utenza, apre il
dibattito sul tema dell’intelligenza artificiale applicata ai motori di ricerca. In questa direzione si
è mosso anche un sistema prototipale (che però sembra essere ormai in dismissione) denominato
CREDO (Conceptual REorganization of DOcument). Basato sui reticoli concettuali, esso
produce cluster facilmente gestibili e comprensibili rispetto a quelli generati con i normali
metodi statistici. Lo scenario che si profila pare muoversi nella direzione di un mix nell’utilizzo
delle tecniche finora analizzate, volto a sfruttarne le prerogative di successo e a eliminarne i
punti deboli. Nello specifico, l’elevata automazione degli algoritmi dei motori di ricerca assicura
una rapidità e una reiterazione di indicizzazione irraggiungibili, ma pecca di scarsa elasticità. Le
directory presentano una struttura ordinata e consentono una progressiva scrematura del rumore
(l’informazione inutile); inoltre, come nel caso di dmoz (una delle più importanti directory), si
realizza quella classificazione qualitativa dei risultati che al momento soltanto l’essere umano è
in grado di fornire. Tuttavia, la loro grossa lacuna strutturale consiste nei tempi di censimento del
web estremamente lenti, aspetto che impedisce di tenere il passo con l’espansione del web
stesso, nonostante i sempre maggiori sforzi di collaboratori e volontari. Il clustering, dal canto
suo, pur proponendo una buona mediazione tra le due possibilità sopra elencate, non sempre offre
un grado di rilevanza accettabile rispetto all’informazione cercata, e non sempre i cluster sono gli
strumenti più adatti per approfondire la ricerca. Non è raro scoprire che alcune delle pagine web
presentate sono in realtà irrilevanti, se non addirittura fuorvianti. Un discorso a parte meritano i
metamotori, il cui sviluppo è trasversale rispetto agli elementi trattati finora. I metamotori sono
portali che non hanno un proprio database e aggregano i risultati dei motori di ricerca principali
servendosi degli archivi di questi ultimi. In realtà la loro efficacia è molto discutibile. In questo
settore, caratterizzato da trasformazioni rapide, è difficile ipotizzare con certezza quale sia il
futuro dei motori di ricerca; di certo è plausibile aspettarsi un raffinamento degli algoritmi verso
risultati più precisi. La verticalizzazione dei settori sarà decisiva per incrementare la prestazione
e la qualità dei risultati. Per esempio, la personalizzazione dei risultati è un argomento alla base
dell’accesso intelligente alle risorse: in questo contesto Direct Hit fu uno dei primi motori di
ricerca a fornire risultati personalizzati in base all’utente. Le nuove strade si concentreranno
verso il Web Semantico, cioè particolari strutture dati in grado di fornire un valore aggiunto ai
contenuti. Lo strumento utilizzato a questo scopo si chiama XML, acronimo di Extensible Markup
Language. Si tratta di un metalinguaggio che consente di attribuire una struttura ai documenti e di
inserire informazioni sui propri contenuti. Grazie a questo standard, già utilizzato in ambito web
(per esempio, per l’utilizzo dei Feed RSS), è possibile garantire informazioni semanticamente
corrette e strutturate ai motori di ricerca, che saranno poi in grado di interpretarle correttamente e
quindi di fornire query più raffinate. Un motore di ricerca semantico tenta quindi di dare un senso
ai risultati della ricerca in base al contesto in cui l’analisi viene effettuata.
I principali motori di ricerca semantica sono:
• Cognition: era un motore di ricerca semantico basato su una mappa semantica costruita
negli ultimi 25 anni. Purtroppo questo progetto è stato abbandonato;
• DeepDyve: era un motore di ricerca che consentiva di accedere ai contenuti del “Deep
Web”, cioè la parte di Internet che non è indicizzata dai motori di ricerca tradizionali
(come banche dati o riviste);
• SenseBot (http://www.sensebot.net): è un motore di ricerca semantico (in versione beta),
che genera una sintesi del testo di più pagine web in base al tema della query di ricerca.
Esso utilizza text mining e comment summarization per estrarre il senso di pagine web e
presentarle all’utente in maniera coerente;
• Hakia (recentemente dismesso): era un motore di ricerca general purpose basato sul web
semantico e sul natural language processing (NLP). Hakia è un'idea dello scienziato Riza
Berkan, che ha contribuito attivamente, assieme ad altri personaggi illustri, a sviluppare
l'algoritmo SemanticRank;
• iStella: è un nuovo motore italiano con diverse funzionalità interessanti e con un trend di
crescita davvero promettente;
• Volunia: è un nuovo motore di ricerca di terza generazione tutto italiano ideato da
Massimo Marchiori. Il suo core raggruppa sia funzionalità social sia peculiarità derivanti
dal web semantico. Purtroppo pare che il progetto abbia terminato la sua vita e sia
definitivamente stato abbandonato.
• EVI (https://www.evi.com/): True Knowledge motore di ricerca semantico di Cambridge
fondato da William Tunstall-Pedoe
• Yummly (http://www.yummly.com/): Motore di ricerca mobile semantico dedicato al
mondo dello shopping e delle ricette
• Swoogle (http://swoogle.umbc.edu/) Motore di ricerca semantico storico.
NOTA
Pare che alcuni ingegneri di Facebook, guidati dell’ex Googler Lars Rasmussen, stiano
silenziosamente lavorando su un motore di ricerca che, sperimentalmente, sarà interno a
Facebook, ma che potrebbe essere ampliato all’intero web.
NOTA
I motori di ricerca, quindi, adottano e adotteranno strumenti e mezzi sempre più sofisticati:
tecniche di apprendimento automatico, utilizzate soprattutto in ambito ingegneristico, potranno
essere sfruttate per creare un’“intelligenza” e una memoria storica nel fornire informazioni
sempre più mirate.
Molti search engine hanno sviluppato una serie di opzioni per personalizzare la ricerca attraverso
“agenti intelligenti”, che identificano il profilo dell’utente sulla base dell’analisi delle preferenze
e degli interessi espressi durante le precedenti navigazioni: i risultati delle ricerche successive si
adegueranno al profilo costruito. Quelli che abbiamo appena definito agenti intelligenti sono, in
realtà, gli stessi algoritmi che rendono possibile il data mining. Tale processo consiste
nell’estrazione di conoscenza, sotto forma di informazioni strutturate e tra loro collegate, che
avviene interrogando banche dati di grandi dimensioni. Lo scopo è quello di rendere disponibili
schemi o relazioni tra dati che esistono già, ma che rimarrebbero invisibili, o comunque nascosti.
Infine, troviamo la possibilità di riconoscere e individuare sempre più in dettaglio i contenuti
multimediali. Saper riconoscere, attraverso OCR, testi di immagini, contenuti di video o flussi
multimediali permetterebbe una migliore organizzazione degli indici e quindi risultati di ricerca
più raffinati. La visualizzazione e il perfezionamento dei risultati rappresentano gli aspetti
vincenti di un processo evolutivo indispensabile; non a caso, Google ultimamente ha dichiarato la
possibilità di indicizzazione dei contenuti testuali o XML dei filmati Flash. Anche la ricerca
sull’elaborazione dei contenuti audio, video e stream multicanale deve ancora evolversi del tutto:
per esempio, blinkx (www.Blinkx.com) e eHow (http://www.ehow.com/) sono motori di ricerca
multimediali basati sul web 2.0 che stanno crescendo e progredendo. In un settore caratterizzato
da mutamenti e trasformazioni rapide, è prevedibile l’avvento di innovazioni che seguiranno il
naturale evolversi delle tecnologie. Per tale motivo, un esperto SEO e di Web Marketing deve
rimanere sempre in stretto contatto con le innovazioni che riguarderanno più o meno direttamente
il mondo dei motori di ricerca.
NOTA
In questo scenario troviamo anche i motori di ricerca visuali, che mostrano visivamente
mappe ricche di contenuti, per fornire a colpo d’occhio le relazioni risultanti dalle query di
ricerca.
Il vecchio indice di Google è costituito da diversi strati, alcuni dei quali sono stati aggiornati a
un ritmo più veloce rispetto agli altri; per esempio, lo strato principale si potrebbe aggiornare
ogni due settimane. Per aggiornare uno strato, potrebbe essere necessario analizzare tutto il web,
il che comporterebbe un notevole ritardo tra il momento in cui abbiamo trovato una pagina o
un’informazione e il momento in cui essa risulta realmente disponibile.
La logica che sta dietro il nuovo sistema di indicizzazione permette di analizzare il web in
piccole sezioni e di aggiornare continuamente l’indice di Google. In tal modo, appena vengono
trovate nuove informazioni o notizie, esse possono essere indicizzate più facilmente e soprattutto
più rapidamente.
NOTA
NOTA
Si può quindi constatare come Google sia in grado di identificare le situazioni in cui qualcuno
potrebbe faticare a trovare qualcosa e, in tal caso, il motore di ricerca potrebbe tentare di offrire
utili suggerimenti. Numerosi sono i brevetti resi pubblici da Google (patft.uspto.gov): i soggetti
più attenti e curiosi potrebbero ricavare valide informazioni da essi per migliorare le proprie
pratiche SEO.
Dal mio punto di vista, è importante ricordare Caffeine (anche se è stato rilasciato nel 2010),
perché è uno dei primi celebri cambi di algoritmo ad aver avuto un nome pubblico, che ha poi
funzionato anche come leva di marketing. I SEO di tutto il mondo conoscono i nomi degli
aggiornamenti (Penguin, Panda, Hummingbird ecc.), che restano così impressi nella mente degli
addetti ai lavori, anche se poi il loro funzionamento può non essere trasparente. Un elenco
aggiornato con le modifiche pubbliche agli algoritmi di Google si può trovare all’indirizzo
http://bit.ly/algoritmi-pubblici.
NOTA
Le penalizzazioni inflitte dai motori di ricerca e la definizione di cosa sia considerato spam
saranno tematiche ampiamente affrontate nei prossimi capitoli.
Proprio in merito alla ricerca sociale e al Semantic Web, Google ha annunciato My Answers,
reso disponibile anche in Italia nel dicembre 2013, che integra la Social Search e Google
Now. My Answers introduce diverse funzioni:
• risultati personali: grazie ai collegamenti di Google+, è possibile ottenere informazioni
dettagliate partendo dai post e dalle foto della nostra cerchia di collegamenti;
• profili nella ricerca: attraverso le nuove funzionalità di Google sarà possibile trovare una
persona partendo dalla nostra rete di contatti di Google+;
• persone e pagine Google+: se cerchiamo un particolare argomento, potrebbero apparire
nel lato destro dei risultati di ricerca le persone che su Google+ stanno discutendo su
questo specifico tema. Ciò dovrebbe aiutare a scoprire nuove comunità e persone che
discutono dei temi di nostro interesse.
My Answers (ex Google Search, plus Your World) permette di ottenere risultati di ricerca
determinati non più soltanto dalla pertinenza del contenuto, ma anche dal grado di trust, autorità e
connessioni sociali con le persone che fanno parte della nostra cerchia su Google+ (come
illustrato nella Figura 1.11).
Figura 1.11 - Esempio di SERP con Google Search.
L’evoluzione del Social Search dimostra che l’influenza dei social network cambierà anche le
ricerche e il modo di reperire le informazioni: le connessioni sociali porteranno a generare
risultati globali, quindi anche la SEO si evolverà per permetterci di ottenere risultati di qualità
sempre maggiore (come illustrato durante la trattazione di questo libro).
Proseguendo, troviamo Google Instant: mentre digitiamo, una funzionalità di ricerca fornisce
frasi e parole correlate, che ci permettono di definire meglio ciò che vogliamo trovare
(recentemente disponibile anche per il mondo Mobile). Infine, tra le ultime novità annoveriamo
Knowledge Graph, una nuova caratteristica di ricerca introdotta da Google.
Alla base vi è l’idea di rendere il motore di ricerca un elemento più vicino agli interessi degli
utenti, che permetta di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive,
città, edifici, personaggi storici, opere d’arte, introducendo concetti sempre più vicini al Web
Semantico.
Le features più importanti di questo nuovo “algoritmo” ci permetteranno di riconoscere differenze
tra le diverse accezioni di un termine di ricerca, fornire un riassunto personalizzato per
comprendere la bontà dei risultati prodotti da una determinata query e procurare informazioni
aggiuntive su persone e personaggi. Tutte queste innovazioni cambieranno il modo di utilizzare il
web e per tale motivo anche la SEO si dovrà adattare a tali mutamenti.
Figura 1.12 - Google Knowledge Graph.
NOTA
Dai laboratori di Google è uscito Penguin Update (24 aprile 2012), un nuovo algoritmo entrato
di recente in azione; esso “penalizza” i siti web che sfruttano tecniche definite “web spamming”.
In particolare, le tecniche ritenute dannose dall’algoritmo sono il keyword stuffing e il link
spamming (a settembre 2016 Google Penguin è diventato "Real Time").
Google non si è limitato ad apportare modifiche per combattere lo spam, ma ha introdotto novità
in stile “social” per contrastare il successo di social network come Facebook e Twitter e
combattere l’insuccesso di Google Buzz (ex social network di Google). Tra queste abbiamo già
citato My Answers (ex Google Search, plus Your World) e Google Social Search, che si sta
evolvendo sempre più. Google+1 (sia come social network sia come “ex pulsante di gradimento”
– ex perché non funziona più questa caratteristica sulle SERP) offriva la possibilità agli utenti di
votare sia pagine web presenti nei risultati di ricerca, sia annunci AdWords. In questo modo, le
persone collegate alla nostra rete sociale potranno vedere le nostre preferenze.
Tra le ultime novità in casa Google troviamo, inoltre, Hummingbird, il nuovo algoritmo di
ricerca che Google sta utilizzando dalla fine dell’agosto 2013, il cui nome deriva dalla sua
precisione e velocità. Hummingbird agisce sulle query conversazionali e ha effetti su circa il
90% di tutte le ricerche in Google. In particolare, Google ha affermato che Hummingbird presta
maggiore attenzione a ogni singola parola della query, assicurandosi che l’intera query venga
presa in considerazione. Lo scopo principale è quello di far emergere pagine che rispondano
all’intero significato della query, rispetto a pagine che rispondono solo ad alcuni termini.
Google lavora da anni per migliorare l’aspetto semantico e, con l’introduzione del Knowledge
Graph, la “mappa della conoscenza”, il cambiamento risulta davvero importante e significativo.
Assieme a Hummingbird rappresenta una svolta epocale per il motore di ricerca più
utilizzato al mondo. Infine troviamo RankBrain, il nuovo sistema di intelligenza artificiale e di
apprendimento automatico che viene sfruttato da Google per migliorare i risultati della ricerca.
Avremo comunque modo di approfondire gli aggiornamenti di Google nei prossimi capitoli.
NOTA
Per essere sempre aggiornati sulle ultime modifiche dell’algoritmo di Google, vi consigliamo
di visionare il link http://moz.com/google-algorithm-change.
Le evoluzioni degli altri search engine
L’evoluzione e i cambiamenti che influenzano il web sono repentini e continui. Per questo non
solo Google, ma anche gli altri motori di ricerca si evolvono e aggiornano di continuo i loro
algoritmi per produrre risultati coerenti e per inseguire gli enormi cambiamenti prodotti dal web
moderno.
Tra i più rilevanti possiamo citare:
• il recente accordo tra Facebook e Bing: utilizzando Facebook Search, è possibile
visualizzare risultati esterni powered by Bing. Inoltre, il motore di ricerca di Microsoft
sfrutterà i Like di Facebook per mostrare alcune informazioni aggiuntive all’interno delle
proprie SERP;
• il lancio di Bing Social, con cui sarà possibile effettuare ricerche fra gli status updates di
Facebook e Twitter. Tale ricerca non si limiterà alle fan page, ma si estenderà anche ai
profili degli utenti Facebook che hanno deciso di rendere pubblica la propria bacheca.
Arriva Bing Network, un aggiornamento della piattaforma per la pubblicità, e Bing si
evolve per stare al passo con le evoluzioni tecnologiche con molti release e cambi di
algoritmo e una webmaster console sempre più ricca.
• Yahoo! annuncia nuove e interessanti evoluzioni, che produrranno risultati di ricerca
provenienti da video, news e social network;
• Search Alliance Yahoo! e Microsoft: recentemente per gli Stati Uniti e il Canada è stata
completata la transizione delle tecnologie Yahoo! verso le piattaforme Microsoft, sia per i
posizionamenti organici, sia per quelli a pagamento. Una parte significativa di questa
transizione ha comportato lo spostamento di tutti gli inserzionisti di Yahoo! Search
Marketing con un account in Nord America verso la piattaforma Microsoft Advertising
adCenter per la gestione delle campagne di Search Advertising;
• Yandex, motore di ricerca russo, aggiorna i propri algoritmi ed è in grado di leggere le
pagine fan e gli aggiornamenti provenienti da Facebook; Yandex, in base a recenti
dichiarazioni (dicembre 2013), escluderà i backlinks dai fattori di posizionamento di un
sito nei risultati; il 2 febbraio 2016 a Yandex ha annunciato il lancio del suo nuovo
algoritmo, Vladivostok, il cui funzionamento ha avuto effetto immediato sulle SERP;
• Ask.com, famoso motore di ricerca, ha visto la sua quota di mercato diminuire
drasticamente. Il presidente Doug Leeds ha affermato che ASK potrà offrire risultati di
ricerca a uno dei suoi concorrenti. Il sito web di proprietà di IAC è ancora una delle
destinazioni preferite del web, ma purtroppo esso non ha chance contro i principali
concorrenti, che stanno costantemente lanciando nuove funzionalità, come abbiamo appena
visto (http://tinyurl.com/ask-problemi).
Le novità non si fermano a quelle sopra elencate; ve ne sono molte altre in continua evoluzione. A
chi volesse restare in contatto con il mondo SEO e dei Search Engine consigliamo di visitare il
sito web ufficiale del libro www.libro-seo.it, in cui riporteremo aggiornamenti e interessanti
novità.
Con particolare riferimento all’Italia, ricordiamo i motori di ricerca Arianna (oggi powered by
Google), Virgilio, i già citati iStella e Volunia, e Quag.
NOTA
Secondo una ricerca condotta dal Financial Times, sono cinque i motori di ricerca che
detengono quote di mercato importanti al di fuori del mercato occidentale:
• Seznam, per la Repubblica Ceca, con il 65%;
• Baidu, in Cina, con circa il 60%;
• Naver, per la Corea del Sud, con circa il 60%;
• Yahoo!, Giappone, con circa il 50%;
• Yandex, Russia, con il 46%.
Questi motori hanno alcuni elementi in comune: quattro di loro utilizzano alfabeti non latini,
quattro sono in Asia e uno in Europa orientale. Quindi, se dovessimo occuparci di campagne
SEO in questi Paesi, dovremmo prendere in seria considerazione i motori di ricerca sopra
menzionati.
Sul web esistono svariati motori di ricerca: per molti di essi risulta impossibile mantenere
aggiornati i database in maniera continua e periodica; un numero ingente di search engine fornisce
come visualizzazioni i risultati prodotti da alcuni dei principali motori di ricerca attraverso
SERP. Ogniqualvolta un utente effettua una ricerca con un motore, infatti, ottiene come risposta un
elenco ordinato. Differenti motori di ricerca potranno quindi produrre risultati diversi in base
alla stessa chiave di ricerca, mentre le directory possono ottenere importanti relazioni fornite
anche da terze parti. È allora fondamentale capire queste relazioni per aumentare il proprio
PageRank e ottimizzare nel miglior modo possibile il proprio sito web o quello dei propri
clienti.
La Figura 1.14 (che deve essere considerata solo indicativa, poiché gli accordi di marketing tra
le varie società possono mutare anche rapidamente) rappresenta le relazioni che intercorrono tra
i principali motori di ricerca.
Figura 1.14 - Le principali relazioni tra i vari motori di ricerca (potrebbero variare).
Nella Figura 1.15 (anche questa fotografa una realtà in rapido mutamento) si può notare come
Google e Yahoo! forniscano i loro risultati ad altri motori di ricerca.
Figura 1.15 - I risultati forniti da Google e Yahoo! (Potrebbero variare nel tempo)
Tali analisi ci servono per capire fino in fondo l’importanza di una corretta ottimizzazione del
sito web, in modo tale che un corretto e buon posizionamento si possa propagare in maniera del
tutto naturale anche all’interno di vari motori di ricerca.
NOTA
Figura 1.16 - Lo spider di Google (googlebot) non indicizzerà il nostro sito se questo non è stato implementato seguendo le
normali tecniche SEO.
Nell’Appendice B potrete trovare una tabella con i principali motori di ricerca che si rivelerà
molto utile per la vostra campagna SEO.
Conclusioni e punti salienti del capitolo
In questo capitolo abbiamo cercato di fare chiarezza su cosa sia un motore di ricerca, su come
funzioni (a grandi linee senza entrare nei dettagli) e come sia importante nella vita di tutti i giorni.
Cosa ricordarsi?
• Google ha molti algoritmi e rilascia periodici aggiornamenti, se vogliamo farei i “bravi
SEO” dobbiamo essere costantemente aggiornati e avere un occhio critico;
• in alcuni mercati non regna solo Google, prendiamo in considerazione altri Search Engine;
• la SEO non è una scienza esatta, va interpretata, capita e amata!
“Lo scienziato non è l’uomo che fornisce le vere risposte; è quello che pone le vere
domande.”
(Claude Lévi-Strauss)
Capitolo 2
Strategia, pianificazione e Web Marketing:
l’efficacia del SEM
Web Marketing
Quando ci si imbatte nel termine Web Marketing (Internet Marketing), bisogna pensare a una
serie di azioni di marketing online, sul web, attuate da un’impresa che vuole analizzare il mercato
per poi instaurare relazioni di business con gli utenti. Avvalendosi di un potente strumento, quale
è Internet, l’azienda mira a stabilire piani di promozione (si pensi, per esempio, ai sempre più
diffusi banner) atti a captare nuovi potenziali consumatori, ma anche a fidelizzare quelli già
esistenti, dopo aver perlustrato il proprio settore di mercato e aver individuato concorrenti, target
di riferimento e possibili future aree commerciali da presidiare. È comunque buona norma
affiancare al Web Marketing quello classico, tradizionale: questi due rami del marketing
dovrebbero viaggiare di pari passo, nel senso che l’azienda, se dotata di budget adeguato,
trarrebbe un vantaggio economico e di posizionamento sul mercato notevole grazie alla
combinazione di entrambi. Ciò non sempre risulta essere un procedimento semplice e immediato,
poiché diversi sono gli elementi che caratterizzano il Web Marketing, da un lato, e il marketing
tradizionale, dall’altro. Mentre il primo, infatti, adotta una politica promozionale incentrata sulla
personalizzazione, costruita ad hoc, ovvero in relazione ai bisogni degli utenti, il secondo
presenta un’ottica di promotion indistinta, uguale per tutti i visitatori; di conseguenza, il prezzo
dei prodotti o servizi è determinato dalla clientela, nel caso del marketing online, e dall’azienda
stessa nel caso del marketing classico. Un altro fattore distintivo risiede nel fatto che nell’attività
promozionale sul web, a differenza di quella tradizionale, i navigatori sono raggiunti in via
diretta, attraverso un computer e il collegamento a Internet. Non bisogna tralasciare un ulteriore
aspetto fondamentale: la tipologia di promozione. Se il Web Marketing vanta una strategia pull,
dove è l’utente medesimo, soggetto attivo, a essere attratto dalla pubblicità online (come banner o
link), il marketing tradizionale è caratterizzato da una strategia push, dove l’utente, soggetto
passivo, è, oseremmo affermare, costretto ad assorbire ogni forma pubblicitaria di massa (esempi
validi possono essere la televisione e la stampa). L’evoluzione di Internet e del web è frenetica,
nuovi canali di comunicazione nascono e possono essere quindi utilizzati per attività di
promozioni online. Network online, tv digitali, social media, Streaming on the Web sono alcuni
esempi, a questo proposito, in cui è possibile imbattersi durante una campagna di marketing
online. In tale contesto si posiziona il Cluetrain Manifesto, nato nel 1999, un programma
composto da 95 punti, che ha spinto molti dirigenti aziendali a rivedere i canoni dei loro modelli
di e-business. Si tratta di un manifesto per la comunicazione di impresa nel mondo online: il
Cluetrain Manifesto cerca di uniformare il linguaggio e le tecniche di marketing da sviluppare in
un contesto web. Tra i punti salienti di questo nuovo linguaggio, che tenta di trasformare le
esigenze e i bisogni delle aziende che si affacciano al mondo online, troviamo i seguenti:
• il mercato online conosce molto spesso i prodotti meglio delle aziende che li producono.
Con Internet non ci sono segreti;
• se una cosa è buona o cattiva, i clienti comunque lo dicono a tutti;
• le aziende devono scendere dalla loro torre d’avorio e parlare con la gente con cui
vogliono entrare in contatto;
• le Pubbliche Relazioni non si relazionano con il pubblico. Le aziende hanno una paura
tremenda dei loro mercati;
• le aziende dovrebbero rilassarsi e prendersi meno sul serio. Hanno bisogno di un po’ di
senso dell’umorismo.
Questa lunga serie di linee guida, che hanno già più di dieci anni di vita, è ancora molto valida e
deve far riflettere le aziende sui mutamenti che dovranno apportare per rendere forti le loro
campagne di Web Marketing in un mondo, quello di Internet, in continua evoluzione. Occorre
cercare di ideare e concepire prodotti e servizi che entusiasmino gli acquirenti affinché essi ne
parlino spontaneamente. È quindi plausibile pensare il futuro del Web Marketing come una serie
di prodotti o servizi al cui interno sia racchiusa l’idea di marketing.
Figura 2.1 - Gerarchia nell'Online Marketing
Tutte le azioni appena viste servono a creare un valore aggiunto per l’azienda che cerca di
proporre i propri servizi sul web. Inoltre, tra le varie strategie emergenti, possiamo annoverare:
• inserimento di video o streaming su canali web online, per esempio YouTube;
• presenza dell’azienda e dei prodotti nei principali social network e acquisti di spazi
pubblicitari su di essi (per esempio, Facebook);
• Cloud Computing, E-mail Marketing, Viral Marketing e Mobile Marketing.
Quelle elencate sono solo una minima parte delle azioni che possono essere intraprese durante
una strategia e pianificazione di un processo di Web Marketing. Bisogna sempre ricordarsi che il
cliente (sia esso un singolo individuo, un’associazione o un’azienda) è un patrimonio
inestimabile per l’azienda. La fidelizzazione dell’utente è uno dei passi da monitorare sempre
(newsletter, feed rss): un cliente insoddisfatto tipicamente tramanda la notizia ad altre otto-dieci
persone. Un cliente soddisfatto potrà portare feedback utili al nostro piano di marketing; per tale
motivo dobbiamo puntare su:
• pubblicità online;
• pubblicità offline;
• multicanalità;
• pubbliche relazioni (fiere, eventi, convegni);
• E-mail Marketing;
• Direct Marketing;
• web analytics (analisi delle utenze).
Non dobbiamo, inoltre, dimenticarci che il Web Marketing moderno e le strategie di SEM
dovranno sfruttare anche i social media come nuovo canale comunicativo. Per questo motivo è
necessario seguire buone regole e netiquette durante la comunicazione sul web, tra cui:
• ascoltare prima di parlare;
• fornire valore aggiunto;
• non spammare;
• non essere permalosi;
• rispondere e condividere contenuti interessanti;
• essere collaborativi.
Figura 2.3 - L’importanza del cliente nel Web Marketing (fonte: eCircle).
Ovviamente, non esistono assiomi che indichino quale sia la via corretta da seguire; ogni caso va
trattato separatamente e contestualizzato, ma questa è la giusta base da cui partire per cercare di
organizzare una buona campagna di Web Marketing.
NOTA
Il Web Marketing moderno deve essere capace di adattarsi ai continui mutamenti. Per
esempio, un sito web dovrebbe essere fruibile da cellulari e palmari, le applicazioni per PC
dovrebbero essere “tradotte” per altre piattaforme e sistemi operativi come Android e via
dicendo. La pubblicità non deve essere fine a se stessa, ma deve creare un valore aggiunto
per l’azienda e soprattutto per i clienti.
Branding o direct response?
Quando applichiamo le nostre risorse al Web Marketing, la prima azione da effettuare potrebbe
essere la ricerca dell’aumento di visibilità del marchio aziendale (brand awareness), in modo
tale da suscitare curiosità e riconoscibilità da parte dei potenziali clienti. Lo scopo che ci si pone
è quello di attribuire al brand un’associazione così forte e immediata nella mente del
consumatore, tale per cui ogni volta che egli vede quel marchio, lo associa istantaneamente a un
certo oggetto e/o a un certo livello di qualità. Tale meccanismo comporta un processo medio-
lungo: la “brand association” implica uno studio prestabilito e la messa in atto di determinati
fattori, perciò i risultati emergono in un lasso temporale abbastanza lungo. Viceversa, per cercare
di ottenere un riscontro immediato di visite e quindi anche di possibili clienti, si cerca di attuare
una campagna di direct response. L’obiettivo è quello di invogliare l’utente a cliccare su banner o
link per condurlo verso il nostro sito web. Il fine ultimo è l’ottenimento di visite immediate in
poco tempo per cercare di instaurare fin da subito un contatto diretto con l’utenza. Il Click-
Through Rate è una misurazione adatta per questo tipo di campagna, perché si correla
direttamente all’obiettivo.
Come dimostra una recente ricerca condotta da SEMPO (State of Search Marketing 2014), il
brand impact risulta essere una metrica poco utilizzata. Da ciò deriva la difficoltà di tracciare la
campagna di brand attraverso l’utilizzo dei motori di ricerca.
NOTA
Marketing Virale
Il primo e immediato esempio di utilizzo del SEM, mediante tecniche di Social Media
Marketing (marketing che, sfruttando il canale dei media, diffonde materiale curioso tra i
visitatori, incrementando quindi la visibilità di un sito), è sicuramente il cosiddetto Marketing
Virale. Si tratta di una sorta di passaparola, poiché gli utenti, di loro spontanea volontà, si
trasmettono documenti, foto, video o quant’altro ritengano divertente: detto diversamente, essi
sono mossi da un interesse comune, che diffondono tra loro servendosi del web (si pensi, per
esempio, ai video condivisi su YouTube). Conseguentemente, ciò che è ritenuto originale o
curioso si propaga in rete in tempi molto brevi e apporta un numero sempre più consistente di
individui al sito web contenente l’oggetto di interesse. Un altro fattore vantaggioso è l’E-mail
Marketing: attraverso la posta elettronica si possono promuovere e pubblicizzare testi, video,
prodotti/servizi in ambito sia commerciale sia ludico. È una tipologia di marketing assolutamente
valida, poiché permette di monitorare e fidelizzare la clientela o gli utenti interessati ai contenuti
di un sito web: affinché questo sistema risulti efficace, è necessario considerare la redemption,
vale a dire sapere chi, tra i vari destinatari di posta elettronica, ha ricevuto la mail e l’ha scartata
a priori, chi l’ha ricevuta e l’ha letta, ma si è poi dimostrato disinteressato, e chi l’ha ricevuta,
l’ha letta e si è incuriosito. A differenza della posta ordinaria, l’E-mail Marketing è meno
costoso, è diretto e immediato e consente di catalogare i destinatari realmente interessati a ciò
che si propone sul web mediante le cosiddette “conferme di ricezione”, che permettono al gestore
del sito di rilevare il numero di aperture delle mail piuttosto che gli esiti positivi o negativi. Un
ulteriore impiego del SEM si esplicita nel social bookmarking, dove sono catalogati ed
etichettati contenuti vari condivisibili dagli utenti, e nell’Article Marketing, a scopo
promozionale, effettuato tramite la diffusione di articoli. Vanno ricordati anche i sempre più
famosi social network, leader fra tutti Facebook: come si evince dal vocabolo “network”, sono
proprio queste reti che consentono intrecci e propagazione di notizie, eventi e materiali curiosi
gestiti dagli utenti. Ultimi, ma non meno importanti, i Consumer Generated Media (CGM)
inglobano opinioni, consigli e suggerimenti degli utenti, riferiti, in particolare, a prodotti/servizi
(si pensi a blog o forum): per l’amministratore del sito si rivela di estrema importanza
monitorare i CGM, così da poter progettare o modificare adeguatamente aspetti del proprio sito
web.
Si è quindi potuto constatare quanto possa essere utile e opportuno applicare il SEM; tuttavia,
bisogna precisare che le campagne di Search Engine Marketing richiedono spesso un notevole
investimento di denaro, pertanto non sempre esso può essere preso in considerazione: infatti, se,
per esempio, volessimo pubblicizzare il nostro sito web su Virgilio, dovremmo versare una certa
somma affinché esso possa comparire in forma pubblicitaria nella sezione desiderata.
Dobbiamo precisare che durante la trattazione di questo libro si è preferito utilizzare una
netta distinzione tra i termini SEO (utilizzato per indicare il posizionamento organico nei
motori di ricerca) e SEM (Search Engine Marketing al cui interno troviamo aspetti SEO e
SEA) per evitare fraintendimenti. Nell’ambito del Search Marketing, molto spesso
l’acronimo SEM viene anche utilizzato per indicare tutte le azioni di visibilità sul web, che
comprendono, tra le altre cose, azioni SEO e SEA (si veda la Figura 2.1).
Un esperto SEO, per il lavoro che compie, proporrà al proprio cliente una parcella. Le azioni che
egli intraprenderà saranno molteplici e tipicamente non dovrebbero richiedere investimenti di
denaro: potremmo ipotizzare che dovranno essere fatti interventi di modifica delle pagine,
inserimento in canali (gratuiti) e altre azioni che generalmente non comportano il pagamento di
alcuna cifra. Proprio per questo, la SEO sta avendo molto successo: grazie all’impegno, allo
studio e alla tenacia, è possibile ottenere ottimi risultati solo con un investimento in termini di
tempo (anche se il tempo è denaro). Questa visibilità “naturale” è fondamentale per posizionare
correttamente un sito web o una pagina online, poiché, come abbiamo accennato e come vedremo,
la struttura del sito, le tecniche SEO adottate e tutti i fattori on page e off page sono importanti
per una corretta indicizzazione. Nel contempo, per rafforzare la propria posizione sul web, è
possibile operare azioni a pagamento, come per esempio l’acquisto di link (non ben visto da
Google), l’apertura di spazi pubblicitari su siti rilevanti o l’adesione a campagne di Pay Per
Click come Google AdWords. Queste azioni di Search Engine Marketing, abbinate a strategie di
Web Marketing, possono essere molto efficaci, ma hanno costi a volte molto elevati, motivo per
cui non tutte le aziende sono in grado di sostenerli. Inoltre, dobbiamo soffermarci su un punto
significativo: molto spesso l’azione a pagamento ha risultati brillanti nel periodo in cui viene
intrapresa, ma, appena termina la visibilità, scompare. Per questo è fondamentale avere una forte
sinergia tra visibilità naturale e a pagamento, in modo da fondere i profitti e ottenere risultati
duraturi nel tempo.
Figura 2.5 - Esempio di visibilità naturale e a pagamento.
NOTA
Una recente ricerca di Rand Fishkin di SEOmoz ha constatato come nel 2016 negli Stati Uniti
siano stati investiti circa 2,5 miliardi di dollari in attività SEO e 22 miliardi di dollari nel
Pay Per Click. Analizzando i dati, si è notato che i risultati organici hanno raccolto circa il
79% dei clic contro il 21% prodotto dagli annunci a pagamento presenti sulle SERP. Questo
dimostra l’importanza delle campagne SEO e soprattutto indica come una sinergia tra SEO e
SEM possa condurre a risultati concreti e vincenti.
NOTA
Il principale problema legato all’analisi di mercato e ai competitors nel web consiste nel doversi
confrontare superando i confini territoriali del mercato. Dobbiamo tenere conto di competitors
dislocati in uno scenario virtualmente senza confini. Cerchiamo quindi di sintetizzare gli elementi
che dobbiamo considerare in un’analisi di mercato online:
• individuazione dei concorrenti online;
• analisi delle attività e degli strumenti utilizzati dai nostri competitors;
• analisi del comportamento del target di riferimento online;
• impostazione di strumenti per la Web Analytics (per esempio, Google Analytics);
• web trend e segmentazione del mercato di riferimento (Partitioning);
• definizione dei fattori di differenziazione rispetto alla concorrenza (Marketing mix).
Queste sono le principali attività che consigliamo di attuare per generare una corretta analisi di
mercato rivolta al web.
NOTA
Durante questa fase potremmo già individuare alcune keyword da utilizzare nelle nostre
campagne SEO.
Strategia e pianificazione
Come in tutte le attività, organizzare le idee e impostare una strategia è un punto cruciale per
cercare di ottenere i risultati desiderati. Anche in ambito SEO definire una strategia da seguire ci
permetterà di capire su quali aspetti puntare e soprattutto di individuare nel tempo le giuste
modifiche da apportare. Dobbiamo sempre ricordarci che i motori di ricerca evolvono, quindi
anche le tattiche e i piani devono essere modulati per essere flessibili e adattarsi a eventuali
cambiamenti. Iniziare ad attuare tecniche e azioni SEO senza una giusta pianificazione, oltre a
farci perdere tempo, potrebbe far svanire nel nulla azioni di successo. Ipotizziamo, infatti, di
avere messo in atto in una certa data una strategia, in un’altra data un’altra strategia SEO e così
via. Una di queste strategie ha prodotto i suoi frutti veicolando sul sito web ottimizzato un gran
numero di visitatori, ma emerge un problema: non sappiamo quale delle tecniche abbia prodotto
tali risultati. Da qui possiamo comprendere l’importanza di una pianificazione e di una strategia
corrette. La prima azione da seguire è l’individuazione del numero di interventi che dovremmo
apportare per la nostra campagna SEO. Se siamo professionisti SEO, ciò è fondamentale per
capire il numero di ore da dedicare al progetto e fornire al cliente un preventivo di budget
coerente. Per essere precisi, ci dobbiamo porre queste domande:
• è un sito nuovo o già presente? Come ben sappiamo, per posizionare un sito web ci
vogliono tempo e pazienza, e così anche per vedere i primi risultati; se un sito è già online
ed è stato precedentemente indicizzato, la nostra azione SEO potrebbe richiedere minor
tempo. Usiamo sempre il condizionale perché ogni progetto è differente, non è un assioma
assoluto;
• l’età del dominio? Sapere da quanti anni è online un dominio ci permette di individuare
quanti link di ritorno il sito ha ricevuto;
• il sito web da indicizzare deve essere multilingua? Ovviamente, se dobbiamo posizionare
un sito realizzato in più lingue, il tempo che impiegheremo per attuare le nostre strategie
sarà maggiore;
• che sito è? È fondamentale capire che tipo di sito web dobbiamo ottimizzare (o
eventualmente anche realizzare). È un blog? Un sito web personale? Un portale? Un e-
commerce? Tutte queste informazioni sono necessarie per comprendere gli strumenti da
adottare, eventuali tecnologie di programmazione da preferire rispetto ad altre e se
eventualmente è possibile sfruttare CMS o software open source.
Raccolti tali dati preliminari, possiamo farci una prima idea del tipo di lavoro che dovremmo
intraprendere. Questo, però, non è sufficiente: un altro passo consiste nell’individuare gli
obiettivi da raggiungere e le azioni da intraprendere per cercare di metterli in atto. Per esempio,
potrebbe essere comoda la creazione di una tabella in cui riportare l’azione eseguita, l’obiettivo
da perseguire e i risultati raggiunti. Attraverso questa operazione banale, possiamo monitorare le
azioni intraprese, scoprire quali azioni hanno avuto successo e quali invece non hanno prodotto
risultati. In tal modo, si migliora la strategia e ci si concentra sui punti carenti per cercare di
migliorarli.
Tabella 2.1 - Esempio di tabella azioni-obiettivi-risultati.
Figura 2.6 - Esempio di modello SEO e SEM.
Una volta compresa l’importanza di avere una nostra tabella in cui annotare le azioni che
intendiamo intraprendere e gli obiettivi prefissati, dobbiamo cercare di capire in modo più
preciso l’intervallo temporale in cui operare tali modifiche e ipotizzare un intervallo in cui esse
potranno portare i loro frutti. Infatti, bisogna essere sempre chiari con i clienti e far comprendere
loro che i tempi di realizzazione di un progetto SEO si basano su stime e deduzioni empiriche,
perciò i risultati si otterranno nel tempo. A questo punto abbiamo già tutta una serie di
informazioni che ci consentiranno di sviluppare un piano strategico del nostro progetto SEO. È
qui che nasce la sinergia tra SEO e Web Marketing: a nostro avviso, questi due concetti
dovrebbero essere sempre considerati e amalgamati (come già ampiamente illustrato), per far sì
che il progetto sia robusto e migliori nel tempo. Per il successo di una campagna SEO è
fondamentale conoscere il target dei navigatori e i loro bisogni, effettuando un’analisi di mercato
opportuna. Nel frattempo, per rafforzare le operazioni SEO attuate, potrebbe risultare
interessante intraprendere azioni di marketing sul web o SEM (Search Engine Marketing), come
pubblicità su siti web o campagne PPC (Pay Per Click). Possiamo notare, quindi, che, per essere
operativi a 360°, dobbiamo lavorare in sinergia con questi strumenti e avere ben chiara fin
dall’inizio la strategia da attuare, rimanendo coscienti del fatto che essa potrà essere modificata e
modellata in base alle azioni che svolgeremo.
Analisi interna
La successiva fase da prendere in considerazione nel modello SEO e SEM consiste nel
miglioramento dell’indicizzazione di un sito web o di una pagina agendo su fattori concreti, come
banner, codice HTML e modifiche al layout o alla struttura del sito. Queste ottimizzazioni on
page consentono di creare una sinergia con i motori di ricerca e di rendere i contenuti più
appetibili. Infatti, una buona struttura di navigazione, un corretto uso di link, un’organizzazione
appropriata dei nomi di file e un utilizzo di URL dinamici rappresentano elementi che potranno
giocare a nostro favore nel processo di indicizzazione di un sito web. Essi saranno ampiamente
analizzati nei prossimi capitoli e andranno a costituire un mattoncino importante nella nostra
strategia SEO.
Analisi esterna
Abbiamo già osservato l’analisi esterna (off page optimization), ma nei prossimi capitoli
studieremo le azioni da mettere in pratica per attuarla. Questa fase è importante perché ci
permette di creare quel valore aggiunto che autorizzerà il sito web che stiamo promuovendo a
mantenere un’indicizzazione duratura nel tempo. Molto spesso l’ottimizzazione interna è
sottovalutata dagli specialisti del settore, in quanto richiede molto tempo e spesso è difficile
individuare i canali o le metodologie da applicare per ottenere riscontri tangibili dell’operato
svolto.
La Link Popularity, cioè la popolarità di un sito web data dalla qualità e dalla quantità dei link
esterni che puntano al nostro sito web, e la Link Building, o meglio Link Earning, sono i due
principali fattori che agiscono direttamente sui fattori off page (bisogna prestare molta attenzione
dopo l’aggiornamento di Google Penguin anche nel mercato italiano). Il lavoro dell’esperto SEO
è quello di cercare di proporre notizie nuove, ottenere feedback da clienti e pubblicizzare il sito
web su forum, blog o social network. È un lavoro arduo e faticoso, che tuttavia con il tempo si
dimostrerà fruttuoso, soprattutto in termini di visibilità.
Campagna SEM
Abbiamo trattato in modo conciso ed efficace il Web Marketing e il SEM. Questa fase del
modello SEO deve essere eseguita per completare l’ottimizzazione esterna. Maggiori sono i
canali su cui puntiamo, maggiori saranno le probabilità di ottenere un feedback positivo. Essere
attivi nei social network, creare campagne di E-mail Marketing e Mobile Phone Marketing sono
tutte attività che completano il processo di visibilità aziendale. In questo contesto, troviamo il
Social Media Marketing (SMM) e la Social Media Optimization (SMO), settori potenzialmente
strategici per la pubblicità di siti web. Il compito della Social Media Optimization consiste
nell’elaborazione e nella pubblicazione di contenuti specifici, facendo uso di keyword. Si tratta
di materiale rivolto a un pubblico veramente interessato e coinvolto nella ricerca e/o lettura dei
contenuti in oggetto.
NOTA
Una delle tecniche più utilizzate nel SEA è il keyword advertising. Google AdWords è uno
degli strumenti più utilizzati in questo campo e consente di inserire i propri annunci per
determinate keyword nei risultati di ricerca di Google come link sponsorizzati. Non
dobbiamo confonderci con Google AdSense, che funziona esattamente in modo contrario: il
webmaster inserisce annunci del programma Google AdWords sul proprio sito web
(rispettando un rigido contratto) e, in base ai clic effettuati su tali annunci, può ottenere un
certo ricavo.
Questi sono solo alcuni punti cruciali per comprendere il comportamento dell’utente e migliorare
l’esperienza utente. Il data analyst ricopre quindi un ruolo fondamentale nel processo di
marketing online (Ricordiamoci sempre che nella definizione classica SEM = SEO + SEA come
mostra la figura 2.1).
È davvero importante avere una strategia e porre l’utente al centro del nostro processo di
ottimizzazione. In questa fase è altresì opportuno evitare di commettere errori che potrebbero
rallentare i nostri processi di visibilità sul web. Uno dei principali difetti dei SEO è l’ego, che
offusca la mente e soprattutto la capacità di ragionare in team. Non è detto che le pratiche o i
tecnicismi applicati in un settore producano gli stessi effetti in un altro settore; e non è
assolutamente da prendere per oro colato quello che viene scritto nei libri o nei blog di settore,
ma va sempre contestualizzato e dimostrato sul campo.
Nel caso specifico supponiamo che io vi dica che, visti i nuovi algoritmi sulla semantica di
Google, è opportuno scrivere testi più lunghi di 600 parole con un tasso di dicotomia del 2% e
una frequenza di correlazione tra le parole chiave del 15%. Bene, anche se è una cosa puramente
inventata magari per qualche contesto e in qualche scenario potrebbe essere la “magia” del
momento, ma dobbiamo evitare di continuare a pensare che c’è il trucco dietro ogni azione SEO.
Gli algoritmi dei motori di ricerca funzionano analizzando pattern, per questo motivo chi opera
nel settore deve adattare le proprie conoscenze e capacità in modo differente in base al contesto.
Ora che il concetto è chiaro, ovvero che nella SEO non esistono trucchi, possiamo soffermarci su
come fare SEO.
NOTA
Ovviamente esistono moltissime altre attività e scenari in cui applicare la SEO come ad
esempio il recupero di filtri o penalizzazioni di Google, l’ottimizzazione di progetti esistenti
e molto altro…
“La difficoltà non sta nel credere alle nuove idee, ma nel fuggire dalle vecchie.”
(J.M. Keynes)
Capitolo 3
SEO gentile: l’inizio dell’ottimizzazione on
page
NOTA
È bene ricordare che l’ottimizzazione on page è solamente uno degli elementi vincenti in
grado di determinare un buon posizionamento del sito web: fondamentale risulta essere, per
esempio, anche una mirata attività promozionale.
Figura 3.1 - Elenco di alcuni costrutti on page per la SEO da prendere in considerazione.
NOTA
Il www (World Wide Web) davanti al nome del dominio viene tipicamente utilizzato per
distinguerlo da altri servizi; generalmente lo si può anche omettere.
La scelta del dominio è un passo fondamentale, perciò va analizzata con cura. Per prima cosa
bisogna ricordarsi che il nome del sito web identificherà la nostra attività; per tale motivo, non
dobbiamo mai dimenticarci alcune fondamentali regole che dovranno essere amalgamate
opportunamente con la SEO. Vi siete mai chiesti perché una società possa essere disposta a
pagare milioni di dollari per acquistare un particolare nome di dominio?
Domini come business.com, casino.com e via dicendo sono stati venduti per cifre astronomiche.
Ciò perché sia il brand, sia le keyword erano parti integranti e ben amalgamate all’interno di
questi nomi di dominio. Altre società hanno invece puntato sulla forza del marchio e sulla facilità
di memorizzazione del loro nome, come eBay, Amazon e Twitter. Vediamo, quindi, quali sono i
passi salienti per scegliere correttamente il nome del nostro dominio.
NOTA
Davvero una bella rivoluzione, che porterà vantaggi e visibilità a livello di marchio.
Il processo di registrazione è articolato in tre fasi e permetterà a ICANN di effettuare tutte le
verifiche del caso e di attribuire o meno la paternità a un TLD che si andrà a richiedere. I costi
per il riconoscimento e l’assegnazione dei nuovi TLD personalizzati si aggirano intorno ai $
185.000: è quindi plausibile che solo i grandi brand e colossi internazionali potranno sostenere
tali spese.
NOTA
Un nome di dominio non deve essere facilmente confuso con gli altri
È fondamentale che il nome del nostro dominio sia unico e non confondibile con siti di altre
aziende o, ancora peggio, di competitors. Se al telefono dobbiamo pronunciare a un cliente o a un
fornitore il nome del nostro sito web, dobbiamo essere sicuri che egli lo scriva correttamente.
Per tale motivo, non bisogna dimenticarsi di scegliere un nome facilmente pronunciabile. In
questo contesto è bene prestare attenzione a non violare copyright o brevetti: è consigliabile
visitare il sito della sezione marchi e brevetti dello Stato in cui andremo a effettuare la
registrazione.
NOTA
Molte aziende, non trovando il dominio libero, tendono a adottare la soluzione consistente
nell’invertire l’ordine delle parole che compongono il nome: se il dominio
www.felicesono.it risulta essere già occupato, l’azienda sarebbe tentata di registrare il sito
www.sonofelice.it. Va da sé che anche in tale situazione il rischio di confusione, da parte
dell’utente, tra i nomi di dominio è notevole.
NOTA
Nel caso in cui il dominio con riferimento esplicito all’azienda o al marchio che vogliamo
registrare non sia disponibile, non bisogna disperarsi. È necessario ingegnarsi per trovare
nomi funzionali, nomi che descrivano l’unicità dell’azienda o nomi che esprimano emozioni o
mission. Possiamo utilizzare la tecnica backordering, chiedendo al nostro maintainer/register
(chi ci fornisce l’hosting web) di avvisarci nel momento in cui il nome di dominio che
vorremmo registrare risulterà nuovamente disponibile. Vi segnaliamo due società che
effettuano questo tipo di servizi:
http://domainmart.com
e:
https://www.snapnames.com
NOTA
Esistono due estensioni, .mobi e .tel, specifiche per i servizi di telefonia mobile.
Un intrigante TLD potrebbe essere il .biz (Business), il primo ambiente su scala mondiale
dedicato esclusivamente alla comunità imprenditoriale, anche se va menzionato il fatto che si
tratta della seconda estensione più utilizzata dagli spammer mondiali (secondo quanto
testimoniato dalla ricerca “Spam Double-Funnel: Connecting Web Spammers with Advertisers”).
In merito a quanto affermato in questo paragrafo, non essendoci documenti ufficiali (da parte di
Google o di altri motori di ricerca), non possiamo fornire certezze, ma solo basarci su
documentazioni ed esperimenti personali. Siamo, tuttavia, molto propensi a sbilanciarci
nell’affermare che i domini .it per l’Italia e .com per l’estero siano da considerarsi come le
estensioni preferibili durante la fase di registrazione di un dominio.
NOTA
È quindi fondamentale prendere in considerazione i TLD del nostro Paese, per esempio .it per
l’Italia, .de per la Germania e anche .eu o .asia se la nostra azienda si muove all’interno delle
macroaree del continente. Un ultimo prezioso suggerimento concerne la possibilità di registrare
lo stesso dominio con diverse estensioni (come www.sonofelice.it, www.sonofelice.com,
www.sonofelice.org, www.sonofelice.net), al fine di evitare che qualcun altro possa, in futuro,
accaparrarsi il vostro nome di dominio.
NOTA
Da una ricerca è emerso come i domini con estensione .info siano i più utilizzati per azioni di
spam, con ben il 68%, seguiti dai domini .biz con il 53%, .net con il 12% e .com con l’11%.
Secondo il nostro punto di vista, quindi, non risulta consigliabile appoggiare un sito
aziendale o istituzionale su domini con tali estensioni (in quanto potrebbe subire
penalizzazioni), se non con lo scopo di evitare “l’occupazione del brand” da parte dei nostri
competitors. Un caso reale di penalizzazione inerente a quanto appena illustrato può essere
trovata al seguente link: http://tinyurl.com/penalizzazione-dominio. Va però precisato che
questa dovrebbe essere una fase di transizione, poiché penalizzare tutti i domini .info (o .biz)
solo perché alcuni di questi vengono utilizzati per commettere abusi è, ovviamente, una
misura troppo restrittiva e non crediamo che questo sia l’obiettivo dei principali motori di
ricerca.
La Marca e il Brand
Le ultime tendenze SEO e del web 2.0 tendono a utilizzare trattini di separazione per individuare
un buon dominio web. Infatti, i motori di ricerca sembrano interpretare i trattini (-) come spazi,
quindi la combinazione di parole chiave direttamente nel dominio rafforzerà la propria presenza
all’interno della SERP. Per esempio, registrare il sito energia-solare.com potrebbe essere utile
nell’utilizzo delle keyword “energia” e “solare”. Ma queste che valore hanno per il nostro
branding? Generalmente poco. Infatti, un dominio in cui sono presenti trattini è difficile da
pronunciare e soprattutto da ricordare; potrebbe, inoltre, risultare troppo generico e mancare di
credibilità agli occhi dei clienti. Fortunatamente, c’è una via di mezzo tra il brand e la strategia
di SEO. Il nostro consiglio è quello di individuare un buon nome di dominio che rappresenti la
nostra società o il nostro sito web o blog; se riusciremo ad aumentare il suo trust, i nomi di
dominio con trattini o underscore risulteranno inutili forzature.
NOTA
Rankability
Questo termine consiste nella combinazione delle strategie SEO, branding e marketing. Una
tecnica ritenuta molto utile (ma non molto praticata) è quella di combinare un termine generico +
una parola chiave. È sufficiente scegliere una determinata parola chiave, aggiungendo un
elemento distintivo dopo di essa (SEOBook, AutoSI, TendeRavelli e via dicendo). Questa
combinazione di termini racchiude un valore SEO intrinseco, perché le persone sono costrette a
usare le parole chiave direttamente nel link. Inoltre, i motori di ricerca utilizzano quasi sempre i
valori della parola chiave all’interno del nome di dominio per scopi di classificazione. Infine, un
tale nome conserva un elemento di branding unico e facilmente distinguibile.
Anzianità di un dominio
La SEO, come abbiamo più volte ripetuto, è una scienza astratta che si basa su test, prove e
deduzioni. Da sempre è stato affermato dai maggiori guru in ambito SEO che l’anzianità di un
dominio rappresenta un aspetto rilevante tra i fattori che determinano il posizionamento di un sito
web. Matt Cutts in una recente intervista (http://tinyurl.com/rank-dominio) ha cercato di fare
chiarezza su questo aspetto, e la sua dichiarazione è stata resa nota dopo che alcune aziende di
web hosting avevano diffuso la notizia che, se veniva registrato un dominio per un lasso di tempo
superiore a tre anni, esso era agevolato nel processo di indicizzazione; tale notizia è stata subito
smentita da Google e dai principali motori di ricerca. Quello che Matt Cutts afferma è che il fatto
di registrare un dominio fino al 2020 non implica che Google dia maggior peso a esso, perché
non è possibile ipotizzare se il sito verterà sempre sui medesimi contenuti, se le informazioni
fornite saranno di qualità e via dicendo. Inoltre, se un sito è stato registrato dieci anni fa ma è
sempre rimasto inutilizzato, come potrà avere maggiore influenza rispetto a un sito web
“giovane”, che vanta numerose visite e contenuti di qualità? Esistono sì brevetti da parte di
Google da cui si evince la possibilità di utilizzare i dati storici di un sito per determinarne il
posizionamento, ma questo non vuol dire che siano usati e che influiscano direttamente sul
posizionamento di un sito web. Il suggerimento è di non preoccuparsi tanto per il numero di anni
per i quali il dominio è stato registrato, ma di creare contenuti nuovi, freschi e di qualità. A
nostro avviso, l’anzianità di un sito web ha la sua importanza per quello che concerne la storia
passata: infatti, se abbiamo un portale che tratta di cucina registrato nel 2001 ma con contenuti
aggiornati e un buon numero di backlink, è ovvio che esso avrà, in termini di posizionamento e
trust, dei vantaggi rispetto a un nuovo sito di cucina nato nel 2016. Questo per tutta una serie di
fattori che potrebbero andare ben oltre l’anzianità, come la storia e i contenuti. L’età di un sito
potrebbe essere, quindi, un elemento da tenere in considerazione solamente se il sito stesso ha,
alle spalle, una storia di contenuti, di qualità e di autorevolezza.
NOTA
NOTA
Vogliamo segnalarvi questi due tool, che permettono di verificare in tempo reale la
disponibilità di un dominio:
http://ajaxwhois.org
e:
http://www.domjax.com
NOTA
A supporto di quanto appena spiegato, vogliamo ricordare quanto illustrato da Matt Cutts in
un suo post del 2008: “A top-level domain (TLD registry) will offer domains for under $ 4.
The result will be another TLD blighted by spammy domain registrations”
(http://www.mattcutts.com/blog/my-2008-predictions/). Esistono altresì diversi servizi che
permettono di scegliere un hosting affidabile: tra questi vi vogliamo segnalare
http://www.myserverweb.it.
Il secondo passo consiste nel decidere se il nostro sito web avrà un indirizzo IP condiviso o
dedicato. Cosa cambia? Tipicamente, vi sono notevoli differenze a livello sia di costo, sia di
performance. Se utilizziamo un indirizzo IP condiviso, le risorse del server su cui risiederà
saranno ovviamente ripartite fra i siti che sono presenti su di esso. Inoltre, dobbiamo verificare
che sul medesimo indirizzo IP non risiedano siti bannati o bloccati e considerare il fatto che un
sito web hostato su un indirizzo IP condiviso potrebbe rallentare le operazioni di scansione da
parte dello spider del motore di ricerca, che potrebbe impiegare più tempo per raggiungere e
scansionare il sito web. Questo problema non è presente su un sito avente IP statico, in quanto lo
spider raggiungerà direttamente il sito web.
NOTA
Un indirizzo IP dedicato avrà, è vero, costi maggiori, ma se il sito web otterrà un grande
afflusso di visitatori e sarà ottimizzato SEO, è fondamentale che risieda su un server dedicato
(o virtuale) avente un’opportuna banda e un indirizzo IP dedicato, e che il sito stesso sia stato
concepito per supportare forti picchi di carico di visitatori. I motori di ricerca, infatti, sono
sempre più attenti al tempo di caricamento delle pagine web, parametro determinato in parte
anche dalle performance del server e da come è stata realizzata la pagina stessa.
Se abbiamo registrato un dominio, possiamo utilizzare un tool gratuito che ci consente di sapere
quali sono i siti hostati sul medesimo IP:
http://www.yougetsignal.com/tools/web-sites-on-web-server/
Questo strumento ci segnala tutti i siti hostati con il medesimo IP, quindi possiamo controllare il
numero di siti web presenti.
Per essere sicuri di non avere cattivi vicini, questo strumento fa al caso nostro. Inserendo
l’indirizzo IP del sito web, esso verifica che tale indirizzo non sia presente nelle principali black
list. Il link di questo utile strumento è:
http://whatismyipaddress.com/blacklist-check
Esistono, inoltre, alcuni tool di test per i DNS in grado di rilevare eventuali criticità legate a
un’errata configurazione dei Domain Name System. Tra i più completi possiamo segnalarvi:
• Intodns (http://www.intodns.com): strumento che ci permette di avere a colpo d’occhio
una visione d’insieme di eventuali anomalie di configurazione dei nostri DNS;
• Robtex (http://www.robtex.net): una serie di utility per verificare lo stato dei DNS per i
nostri siti web;
• Dnscheck (http://dnscheck.pingdom.com): un altro tool per effettuare test sui server DNS.
IP C-Block
La classe di indirizzi C è quella che va da 192.0.1.1 a 223.255.254.254. Un IP di Classe C può
appartenere a un segmento di IP identico a quello di un altro provider: in questo modo potrebbero
esserci più siti con lo stesso range IP. La cosa più brutta per un qualsiasi webmaster è svegliarsi
una mattina e trovare una situazione in cui l’affluenza di utenti verso il suo sito web è scesa
dell’80% durante la notte. Uno dei principali motivi che possono causare un crollo improvviso
delle visite è il collegamento simultaneo di diversi siti web aventi lo stesso blocco di indirizzi IP
di classe C. I motori di ricerca utilizzano algoritmi complessi per verificare la vera popolarità o
il posizionamento di un sito web e potrebbero insospettirsi su questi link “fasulli”, etichettandoli,
in un primo momento, come inutili, fino addirittura a bandire il sito web dai principali motori di
ricerca. Un modo con cui i search engine tentano di controllare se i siti web collegati sono di
proprietà del medesimo webmaster consiste nella verifica dell’utilizzo o meno della stessa
classe C-Block di indirizzi IP.
Per evitare questo evento potenzialmente disastroso è possibile utilizzare il tool gratuito IP
Report (http://www.ip-report.com/index.php).
NOTA
Non bisogna, quindi, sottovalutare la velocità di caricamento delle nostre pagine web e la banda
dell’hosting. Matt Cutts (ingegnere e portavoce di Google) ha affermato che la velocità di un sito
potrebbe diventare uno dei molteplici fattori che vanno a influenzare il ranking del sito web.
Questi aspetti saranno ampiamente discussi nel Capitolo 4.
EMD UPDATE
L’EMD, abbreviativo di Exact-Match Domain, è un dominio che contiene esattamente la parola
chiave principale che vogliamo posizionare in SERP. Google è da sempre molto attento allo
“spam” o alle tecniche ingannevoli ideate da webmaster per migliorare il posizionamento SEO.
Una di queste consiste nel registrare nomi di dominio con all’interno la keyword esatta, come,
per esempio, www.auto-usate.it o www.prestiti-facili.com e via dicendo. Nel settembre 2012
Matt Cutts ha postato i seguenti tweet:
Figura 3.8 - EMD Update, dichiarazioni di Matt Cutts e John Mueller.
Questo vuol significare che i domini in lingua inglese strutturati in modo tale da avere la
medesima keyword al loro interno potrebbero essere “penalizzati” se di bassa qualità o se i loro
contenuti non fossero strettamente correlati alla keyword utilizzata nel nome di dominio. John
Mueller ha ribadito che avere keyword nel dominio non è né un vantaggio né uno svantaggio.
Ovviamente, come abbiamo più volte ribadito, è sempre preferibile registrare un nome di
dominio che abbia un valore e un’associazione con il brand aziendale. Il test è stato fatto per
cercare di avere risposte concrete nella scelta di un nome di dominio.
Bene, a questo punto abbiamo un’analisi completa sulle scelte che possiamo fare nella
registrazione di un nuovo dominio (o di eventuali domini di redirect o sottodomini). Ora
passiamo all’analisi della filosofia di pensiero di Google riguardo a tale tema.
Google ha affermato:
Abbiamo guardato la classifica e il peso che diamo ai domini con parole chiave. Alcune
persone si sono lamentate del fatto che stiamo dando troppo peso alle parole chiave in
domini. Agendo in tale direzione, abbiamo pensato di regolare questo MIX. Abbiamo
ruotato la manopola del nostro algoritmo verso il basso…
Ciò è in palese contraddizione con quanto abbiamo appena illustrato all’inizio di questo
paragrafo: è proprio qui che vogliamo arrivare! Solo attraverso test, prove e ricerche, infatti, è
possibile verificare quanto di vero ci sia dietro una dichiarazione (anche se ufficiale di Google)
e quanto in realtà questa venga applicata. È necessario prestare maggiore attenzione alla scelta
del nome di dominio, perché, anche se non nel breve periodo, Google darà meno importanza, a
parità di altri N fattori, ai nomi di dominio che facciano un uso forzato di keyword. Ecco cosa
possiamo fare per registrare un nome di dominio ad hoc per la SEO odierna:
• limitare la registrazione di nomi di dominio con i trattini “-”;
• usare un dominio geolocalizzato (ad esempio, .it, .es);
• evitare nomi di dominio che contengano più di quattro parole;
• utilizzare un nome di dominio composto da brand + parola chiave;
• evitare nomi di dominio composti solo da keyword, ove possibile.
Figura 3.9 - Esempio di nome di dominio a chiave esatta posizionato in Google.
Ovviamente si avranno sempre casi limite, in cui il vostro nome di dominio sarà uguale al vostro
brand e conterrà già keyword simili a domini EMD (ad esempio, servizipmi srl o autousate snc);
in questo contesto avere un sito web con contenuti utili e originali ci permetterà di evitare
eventuali penalizzazioni derivanti da tali aggiornamenti algoritmici di Google.
Per concludere, prendiamo in considerazione un recente brevetto rilasciato da Google: Systems
and methods for detecting commercial queries: Invented by Amit Singhal, Matt Cutts, and
Jun Wu. Senza dilungarci troppo sull’analisi del brevetto, possiamo concludere che Google:
• preferisce nomi di dominio senza trattini o con al massimo uno o due separatori (“-“);
• preferisce nomi di dominio che contengano “query non commerciali”.
Infine, da un’analisi delle keyword presenti nel nome del dominio, possiamo dedurre che esse
hanno, secondo tale brevetto, ancora una certa importanza se collocate nel giusto contesto. Il
brevetto è del 2003, quindi non possiamo sapere se sia mai stato usato, se sia attualmente in uso e
se sarà utilizzato in futuro, ma queste indicazioni possono essere preziose per cercare di
individuare un nome di dominio corretto per la nostra attività o brand.
Se abbiamo host multipli che fanno riferimento al medesimo contenuto, potrebbero sorgere
problemi, in quanto il motore di ricerca tenterà di indicizzare i contenuti associati ai nomi
di host multipli. Se, ad esempio, un motore di ricerca non riconosce correttamente i due
nomi di host, che si riferiscono allo stesso contenuto, esso eseguirà la scansione delle
pagine da entrambi i nomi host.
Questa situazione porterà a un uso maggiore della larghezza di banda e a un doppio carico
di lavoro per lo spider del motore di ricerca. Inoltre, i due hostname fanno riferimento al
medesimo contenuto, il che può causare problemi di duplicazione dei contenuti e,
conseguentemente, una declassificazione nei risultati di ricerca.
Utilizzando tecniche di posizionamento, una pagina web sarà tanto più “in alto” nella
SERP se è puntata da un gran numero di altre pagine (se ha tanti link in ingresso).
Pertanto, se i due nomi di host si riferiscono al medesimo contenuto, essi saranno trattati
separatamente ai fini della classifica e potranno ricevere la metà dei link in ingresso.
Come possiamo apportare le modifiche corrette al nostro sito web per risolvere questo
problema? Indicando un unico Canonical HostName. È molto semplice: per esempio, in PHP, se
vogliamo fare un redirect da non www. a www., il codice da inserire in .htaccess è il seguente:
o in IIS7 o IIS6:
NOTA
Nel caso di utilizzo di IIS 7, è possibile impostare l’URL rewrite inserendo il canonical
domain name nel campo di configurazione.
Ovviamente quelle qui proposte sono solo alcune delle soluzioni tecniche che si possono
utilizzare. In tal modo risolveremo il problema consistente nell’avere due versioni del medesimo
sito online e miglioreremo nettamente il tempo che lo spider impiegherà per visionare il nostro
sito web.
“Abbiamo visto dei risultati positivi, e quindi stiamo iniziando a utilizzare HTTPS come un
segnale di ranking. Per ora è un segnale molto leggero – interessa meno dell’1% delle
ricerche globali, pertanto pesa meno rispetto ad altri segnali, come i contenuti di alta
qualità – e daremo tempo ai webmaster per passare a HTTPS. Ma, col tempo, potremmo
decidere di rafforzare questo segnale, perché vorremmo incoraggiare tutti i proprietari di
siti web a passare da HTTP a HTTPS, per fare in modo che tutti sul web siano sicuri.”
Ciò significa, in buona sostanza, che gli utenti che interrogano i motori di ricerca pongono
maggiore attenzione ai primi risultati, non procedendo oltre la seconda o terza pagina di ricerca,
se le informazioni ottenute in prima battuta risultano valide. Da una serie di analisi e di dati, si è
inoltre visto che gli utenti tendono ultimamente a creare frasi elaborate, a volte anche abbastanza
lunghe, nella costruzione delle loro query di ricerca. Questo consente ai risultati di essere scelti
all’interno di uno scenario vasto e aperto, che potrebbe essere costituito da milioni di possibili
frasi e combinazioni differenti. Tali analisi ci fanno capire l’importanza della scelta delle parole
chiave e come queste possano influenzare il nostro posizionamento.
NOTA
NOTA
Le keyword che sceglieremo non andranno a popolare solamente i meta tag nell’HTML delle
pagine, ma serviranno anche per creare contenuti ad hoc, strutturare URL, creare titoli
accattivanti nelle pagine e così via.
Modello classico
Nel modello classico di SEO si tratta di capire quali possano essere le combinazioni di parole
chiave che rispondono al meglio (e con maggior probabilità) ai bisogni degli utenti, in modo da
indirizzare i propri sforzi in ambito SEO verso di esse.
Se volessi promuovere una pizzeria nella zona di Roma Nord, le possibili key da scegliere
potrebbero essere: “Pizzeria Roma Nord” o “Ristorante Roma Nord”. Google fornirebbe, per
quelle parole, una determinata SERP (Search Engine Results Page), formata da tutti i risultati che
soddisfano la richiesta di una pizzeria nella zona di Roma Nord. Un bravo SEO, quindi,
dovrebbe capire quali possano essere le keyword correlate alla tematica trattata dal sito da
ottimizzare, e strutturare quest’ultimo in modo da poter soddisfare le richieste formulate con
quelle keyword.
Esistono alcuni interessanti strumenti che aiutano in questo compito (come il Keyword Planner
di Google, oppure il tool di Wordtracker).
Il processo può essere schematizzato nel modo seguente:
1. Analisi dell’argomento trattato dal sito: qual è la tematica che sto affrontando? Chi sono i
possibili utenti che vorrebbero arrivare su questo sito?
2. Analisi qualitativa delle parole chiave: per quali parole chiave cercherei questo sito? Su
quali argomenti potrei scrivere nuovi contenuti e, se dovessi cercare quegli argomenti, con
quali parole lo farei? Quali sono le parole chiave che mi aspetto siano più cercate?
3. Analisi quantitativa delle parole chiave tramite AdWords Keyword Planner, Wordtracker
o altri strumenti online; si ottengono i volumi di traffico delle parole chiave pensate e si
cercano nuove idee. Si tabula poi tutto in un foglio Excel e si riordina.
4. Estensione dei concetti a partire dalle parole chiave selezionate; se ne cercano altre, che
potranno fare da linee guida per la stesura di nuovi contenuti.
5. Tracciamento e analisi: il processo di selezione delle parole chiave continua nel tempo;
vengono via via selezionate le più performanti e scartate le meno importanti, raffinando ed
espandendo continuamente i risultati.
Questo approccio classico ci permette di avere una visione d’insieme delle possibili keyword da
analizzare e sfruttare nel nostro percorso di posizionamento e visibilità di un progetto web.
La parte esplicita è la vera e propria domanda (o insieme di parole chiave) che digitiamo nel box
di ricerca. La parte implicita è la parte non espressa, che il motore di ricerca può evincere in
altri modi.
Immaginiamo, ad esempio, di essere a Roma e di cercare “Metro Roma” con il nostro
smartphone, mentre camminiamo.
Probabilmente, una ricerca di questo tipo è stata effettuata per cercare il sito con gli orari della
metro, o per trovare la stazione metro più vicina alla propria posizione… sicuramente si esclude
un bisogno di informazioni generali sulla metro!
La parte esplicita della query è “Metro Roma”, la parte implicita è il fatto di avere cercato
“Metro Roma” mediante uno smartphone, mentre si cammina.
I parametri che determinano una query implicita potrebbero essere molteplici: si va dall’analisi
della periferica in uso, alla posizione, fino ad arrivare agli interessi espressi sui Social Network,
o all’orario in cui si formula la query. Google ha recentemente acquisito Behavio, una società
che si occupa di sviluppare un framework che prevede i bisogni dell’utente, in base all’analisi
degli stati correnti e passati dei sensori del suo smartphone.
Tom Anthony, in un suo post su Moz, ci propone di smettere di pensare alle keyword e di iniziare
a occuparci dei contesti in cui le query vengono formulate; nel concetto di “contesto” vanno a
finire cose come la ricerca personalizzata di Google, la geolocalizzazione delle ricerche,
l’analisi degli stati dello smartphone, l’analisi degli interessi su Facebook.
Ogni frase assume un diverso significato in base a chi la dice e a quando la dice, come nella vita
reale. Questo non significa che le keyword non siano importanti, ma vanno considerate come una
parte di un concetto più grande, che deve includere anche l’analisi dei possibili bisogni al
contorno.
Il SEO del futuro usa le keyword come base di partenza per un’analisi del mercato e dei bisogni
dell’utente a tutto tondo. Il concetto di keyword diventa, così, la base misurabile e quantificabile
di un concetto più ampio e difficile da gestire, ma che, se condotto bene, può veramente essere la
chiave di volta per la gestione di progetti complessi.
Una buona metodica può essere quella di iniziare a includere, nelle nostre analisi delle keyword,
anche una suddivisione della stessa keyword in più possibili contesti; per ogni contesto potrà
essere strutturata una specifica landing page ad hoc, oppure si potrà lavorare a una singola
landing page che però tenga conto di ogni contesto; a guadagnarne saranno gli utenti, i motori di
ricerca e il vostro sito.
Keyword competition
I vostri concorrenti che si approcciano al WWW dovranno affrontare il vostro stesso problema
nella ricerca delle keyword: un’opzione intelligente è quella di analizzare le loro strategie per
capire e imparare da esse il modo migliore per individuare keyword efficaci e competitive. Per
fare questo possiamo procedere come segue:
• analizzare il loro sito web e scoprire le parole chiave utilizzate. È possibile esaminare il
codice HTML selezionando “sorgente” opzione presente nella barra del menu del
proprio browser. Attraverso il codice sorgente della pagina possiamo individuare le
parole chiave, il titolo, le descrizioni e i meta tag;
• studiare i primi risultati della SERP di ricerca all’interno dei principali motori di ricerca
(ci possiamo avvalere, per compiere tale azione, anche di tool come SemRush);
• scoprire articoli da loro recensiti e pubblicati per individuare termini che potrebbero
essere utili al posizionamento;
• vedere i commenti di utenti, della critica e dei media per capire se le loro azioni di
marketing e di ricerca delle keyword hanno prodotto risultati soddisfacenti.
Se saremo in grado di aggiungere un adeguato mix di idee nostre a queste informazioni, potremo
disporre di un insieme meravigliosamente robusto di parole chiave da utilizzare come punto di
partenza. Questo aspetto, focalizzato sullo scenario della scelta delle keyword, è importante, in
quanto, come abbiamo visto, è più facile posizionare una keyword meno competitiva.
Quest’ultima, tuttavia, veicolerà comunque nuovi visitatori verso il sito web? La keyword
difficulty in ambito SEO è la difficoltà di posizionare una specifica keyword all’interno dei
primi risultati della SERP. Per prima cosa, è utile impiegare i comandi allintitle, allinurl e
allinanchor per individuare i concorrenti e la competitività per una determinata parola chiave (in
appendice è mostrato l’utilizzo di questi comandi).
Figura 3.11 - Utilizzo di SemRush per analizzare le keyword posizionate su Google presenti nelle pagine dei competitors.
Fatto ciò, dovremo analizzare il numero complessivo di risultati prodotti per una specifica parola
chiave, la loro posizione nella SERP e i meta tag keyword, title e description di eventuali
competitors. Attraverso la nostra creatività e prendendo in considerazione anche gli spunti sulla
ricerca euristica delle keyword analizzate nel precedente paragrafo, scopriremo termini
interessanti per la nostra attività e in linea con le nostre aree di mercato. Una volta completati i
passi descritti, avremo in mano un ricco insieme di termini importanti. Lo step successivo è
quello di ampliare tali condizioni utilizzando strumenti di ricerca di parole chiave, come
vedremo nei successivi paragrafi. Per facilitare tali operazioni, vi anticipiamo alcuni tool:
• http://www.compete.com è uno strumento che ci favorisce nella ricerca dei nostri
principali competitors;
• http://www.semrush.com è uno dei tool SEO più completi per analizzare il traffico
organico e il posizionamento nella SERP di Google dei propri competitors/clienti;
• SEO Digger (http://seodigger.com): ci fornisce una visione complessiva delle keyword
usate e un’analisi preliminare sui principali competitors presenti sul web;
• http://www.seomoz.org/keyword-difficulty/ è uno strumento fondamentale per individuare
le keyword con maggiore possibilità di posizionamento. Peccato che la funzione “gratuita”
sia spesso disabilitata a causa dell’elevato traffico sul sito web;
• Kgen e SEO for Firefox (http://tools.seobook.com/firefox/seo-for-firefox.html) sono due
plug-in scaricabili dalla rete e utilizzabili all’interno di Firefox per analizzare le keyword
utilizzate dai competitors.
NOTA
Tra gli altri tool che ci aiutano a scoprire i nostri competitors, possiamo menzionare:
SpyFu (http://spyfu.com)
Nichewatch (www.nichewatch.com)
NOTA
Keyword popularity
I visitatori sono alla ricerca di informazioni: ricercano keyword differenti per recuperare le
informazioni di loro interesse. Pertanto è importante per la SEO selezionare le parole chiave più
popolari fra i target dei visitatori per quel determinato sito web. Per esempio, se qualcuno vuole
effettuare una ricerca per l’industria automobilistica, svolgerà più ricerche con keyword
differenti: automobilistica, industria automobilistica, quattro ruote, due ruote ecc. Tutte queste
keyword, però, non attireranno probabilmente molto traffico: si tratta di keyword non “attraenti”
per il nostro target di utenti. Un buon professionista SEO deve studiare attentamente il target che
potrà avere il sito e i contenuti del medesimo, scegliendo in modo adeguato e consapevole le
keyword per ogni singola pagina. È utile, inoltre, conoscere la “provenienza” dei propri
visitatori, cioè individuare la pertinenza di marketing del proprio sito web. Se dobbiamo
posizionare un’azienda che fornisce servizi per la telefonia, utilizzare la parola chiave “telecom”
ci potrebbe portare molte visite, ma, nonostante ciò, molti dei visitatori non ritorneranno a
trovarci perché non saranno soddisfatti delle informazioni non coerenti rispetto a quanto
ricercato. La pertinenza e un marketing mirato sono fondamentali per il successo di una campagna
SEO, soprattutto nella fase di scelta delle keyword e dei contenuti per il sito web.
NOTA
Focalizzare i passaggi da eseguire durante la ricerca delle parole chiave è fondamentale per
ottenere dei risultati; vediamoli di seguito:
• ricerchiamo le parole chiave utilizzate dai nostri concorrenti e cerchiamo di individuare
quelle che possono essere più appetibili per la nostra audience;
• proseguiamo con una sessione di brainstorming per elencare e individuare tutte le parole e
le possibili frasi che gli utenti potrebbero utilizzare per trovarci;
• se il nostro sito è già avviato, è fondamentale prendere in considerazione i dati statistici e
analizzare i file di log al fine di individuare le parole chiave su cui puntare;
• l’elenco delle parole chiave ottenute dovrà essere suddiviso per scoprire le parole chiave:
– Generiche (Short Tail):
• frasi brevi o parole singole;
• basso tasso di conversione tra ricerche, numero di visite prodotte e permanenza sul
sito;
• possibilità di ottenere un discreto traffico.
– Specifiche/focalizzate:
• tipicamente frasi corte e settoriali;
• focalizzate sul target dell’attività;
• solitamente portano traffico ridotto ma “di qualità” (possibilità che gli utenti si
soffermino di più sulle nostre pagine web).
– The Long Tail:
• frasi lunghe e mirate;
• utilizzando frasi di questo tipo, è possibile interagire direttamente con nicchie di
mercato specifiche;
• traffico ridotto ma specifico per un determinato target.
NOTA
In ambito SEO si identificano come Short Tail Keyword parole chiave brevi composte da
uno o due termini al massimo, come “carne”. Le Long Tail Keyword sono invece quelle
parole chiave costituite da più termini, come “carne di manzo fresca” o “carne macinata di
suino”.
La teoria della coda lunga è stata introdotta nel 2004 da Chris Anderson e afferma che le
ricerche effettuate in Internet in assenza di uno specifico limite di offerta tendono a essere
infinitamente lunghe. Questa teoria focalizza l’attenzione sulla possibilità che molte persone
siano disposte ad acquistare oggetti poco conosciuti all’interno della rete, a scapito di quella
branca di persone che tende a comprare solamente i prodotti commerciali di marche conosciute.
In parole povere, in molti casi, gli eventi poco frequenti o di bassa ampiezza (la coda lunga)
possono, cumulativamente, superare in numero o in importanza la porzione iniziale della curva. In
pratica, possiamo applicare questo concetto a YouTube: migliaia di video sconosciuti possono
pesare di più, in termini di rilevanza, di qualche video conosciuto (come video musicali o spot
televisivi). Lo stesso discorso vale per iTunes, il quale contiene milioni di canzoni differenti. La
finalità è quella di vendere poche canzoni, anche sconosciute, a un ampio numero di utenti,
massimizzando così le vendite. Il precursore di questa teoria, prima dell’avvento di Internet, è
stato il principio di Pareto (conosciuto anche come legge 80/20), massicciamente utilizzato in
economia.
Il grafico di Pareto, identificabile con un istogramma, è utile per stabilire quali sono i maggiori
fattori che hanno influenza su un dato fenomeno: in questo contesto solo i prodotti più popolari
otterranno un riscontro in termini di vendite. Grazie all’avvento del WWW e alla diminuzione dei
costi di magazzino e distribuzione, per alcuni settori viene a cadere in parte tale concetto e si
afferma sempre di più la teoria di Chris Anderson, secondo la quale i prodotti meno popolari e
non di nicchia possono produrre, se considerati collettivamente, un numero più elevato di vendite
rispetto a prodotti con maggiore popolarità.
Cercheremo di applicare questa nozione nel processo di ricerca delle keyword. Se analizziamo
la Figura 3.12, possiamo notare come i pochi utenti che approdano al nostro sito utilizzino per lo
più keyword specifiche e ottimizzate, mentre la parte destra (che rappresenta la coda lunga) è
costituita da una varietà di keyword che possono assumere una rilevanza sempre maggiore, ed è
proprio a queste che dovremo prestare maggiore attenzione.
Figura 3.12 - Grafico rappresentante l’andamento delle keyword secondo la teoria della coda lunga.
Le “Long Tail Keyword” generano solitamente bassi volumi di accessi verso il nostro sito perché
hanno una competitività minore. Prese complessivamente, queste keyword possono fruttare un
numero di accessi molto rilevante.
Questi dati sono confermati anche dal fatto che, tipicamente, ogni mese circa il 15% delle
ricerche effettuate su Google è assolutamente nuovo: ciò significa che gli utenti utilizzano
combinazioni di keyword “non adoperate” dalla maggior parte dei siti web. Ecco l’importanza
della teoria della coda lunga applicata all’ambito della ricerca delle keyword. È ora necessario
che ci soffermiamo ad analizzare le parole chiave che saranno utili al nostro scopo, ma che non
abbiamo finora preso in considerazione.
NOTA
È importante osservare come le keyword della coda lunga posseggano una percentuale di
conversione maggiore rispetto ai termini più generici, come si evince dal grafico. Infatti, una
persona che cerca la parola “Ristorante” avrà meno possibilità di raggiungerci di una che
utilizza termini di ricerca più specifici, come “Ristorante in centro Parma”. Dobbiamo, però,
tenere ben presente che quelle illustrate sono regole generiche. Non è sempre detto che Short
Tail sia uguale a basso tasso di conversione, soprattutto nel caso di campagne PPC strutturate
o quando si ha a che fare con brand forti.
Esiste anche un apposito servizio che consente di individuare le Long Tail Keyword. È
sufficiente accedere al sito www.hittail.com e, dopo la registrazione, ci verrà fornito uno script
da inserire all’interno delle nostre pagine web. Fatto ciò, il servizio inizierà a raccogliere i dati e
ci fornirà importanti informazioni sulle keyword utilizzate per accedere al sito e su quelle che
potrebbero essere interessanti per gli utenti. La Figura 3.13 mostra una delle schermate di analisi
delle keyword fornite da HitTail.com.
Figura 3.13 - Analisi delle Long Tail Keyword per il sito www.ingegneridelweb.com fornite dal servizio HitTail.com.
NOTA
Potremmo avvalerci anche di un altro tool, come per esempio Google Analytics
(www.google.com/analytics), per monitorare le parole chiave di accesso.
NOTA
Il Keyword Sniping è una tecnica SEO che si basa proprio su questo concetto: arrivare nelle
prime posizioni della SERP con una keyword poco cercata e utilizzata è più facile che non
con una keyword con alti volumi di ricerca.
A volte il “mercato delle keyword” per gli stessi competitors risulta saturo ed è perciò opportuno
individuare in modo consapevole parole chiave risultanti da una lista di termini logici e di frasi
che sono in relazione con i nostri prodotti o la nostra realtà aziendale. Questa scelta dovrebbe
essere fatta da persone differenti, in modo tale da coprire la totalità dei bisogni. In questa lotta
ardua esistono numerosi strumenti online da scaricare gratis (o quasi), che ci facilitano nel
compito di individuazione di keyword appropriate. Si tratta di tool più o meno utili, ma a nostro
avviso rappresentano uno strumento fondamentale che ogni esperto SEO dovrebbe adottare nelle
proprie campagne di ottimizzazione. Vediamo un elenco dei principali tool a supporto per la
ricerca delle keyword (non ci soffermeremo a spiegare ogni tool, in quanto il loro utilizzo è
veramente semplice e intuitivo).
• AdWords Keyword Planner (https://adwords.google.com/KeywordPlanner): è uno
strumento utile, che ci suggerisce delle parole chiave e la concorrenza che esiste su di
esse. L’unica cosa a cui dobbiamo prestare attenzione è il fatto che, in realtà, i dati forniti
sono presi prevalentemente da un’analisi degli inserzionisti di Google AdWords. Ci
fornisce risultati approssimativi, ma è sufficientemente preciso per dare un’idea indicativa
delle keyword scelte.
Figura 3.14 - Esempio di utilizzo di Keyword Planner per le parole chiave di Google.
NOTA
Google stava sperimentando alcuni strumenti interessanti, come Google Sets, che consentiva
di raggruppare parole chiave aventi una correlazione semantica. Con nostro dispiacere, però,
il colosso di Mountain View ha chiuso Google Labs, il settore dal quale erano nati servizi
rivoluzionari come Gmail, Maps e Docs: la nuova filosofia aziendale prevede di concentrarsi
sui prodotti più che sulla sperimentazione.
Figura 3.15 - Esempio di utilizzo del tool Google Trends per la ricerca delle keyword.
Figura 3.16 - Esempio di utilizzo di alcune funzionalità di ricerca avanzata fornite da Google.
Figura 3.17 - Esempio di utilizzo di Google Instant: vengono visualizzati automaticamente i risultati di una ricerca che
inizia con le lettere digitate.
• Ricerche Correlate (EX Google Wonder Wheel): è una delle funzionalità grafiche che
sono state recentemente “tolte” da Google; la possiamo ritrovare nelle ricerche correlate
in forma testuale.
• Wordtracker: è stato il primo software online per la ricerca delle parole chiave ed è
considerato il miglior suggeritore di parole chiave nel mondo. Wordtracker è stato
introdotto nel 1999 da Andy e Mike Mindel e ha lo scopo di aiutare i proprietari dei siti
web e dei motori di ricerca a identificare parole chiave e frasi che sono rilevanti per i
loro clienti e che possono produrre un determinato risultato, data una determinata query di
ricerca. Wordtracker offre un database di oltre 300 milioni di query di ricerca all’URL
www.wordtracker.com (è disponibile il servizio a pagamento). Esiste una funzionalità
gratuita fruibile dal link http://freekeywords.wordtracker.com.
NOTA
NOTA
Per la ricerca di parole chiave possiamo, inoltre, avvalerci di strumenti come dizionari
online o tool per la ricerca di sinonimi. Tra essi annoveriamo:
http://www.synonym.com
http://www.dictionary.com
http://www.sapere.it/sapere/dizionari.html
NOTA
Tra gli altri numerosissimi tool in commercio possiamo citare Keyword Elite, un potente
software a pagamento per la ricerca delle keyword.
Tutti i tool analizzati possono esserci più o meno utili per individuare le keyword da sfruttare
durante le nostre campagne di marketing. Dobbiamo, però, precisare che essi vanno utilizzati con
moderazione (alcuni tool, per esempio, non supportano ancora la lingua italiana) e con il
supporto della nostra capacità creativa nello scoprire parole chiave nuove e facilmente
indicizzabili.
La formula per calcolare il KEI è data dalla popolarità al quadrato divisa per il fattore dei
competitors:
P è l’indice di popolarità;
C è l’indice dei competitors.
Come spiega Sumantra Roy, la presunta ideatrice di tale formula, il KEI si basa su tre assiomi
fondamentali:
• il KEI per una specifica parola chiave si incrementa con l’aumento delle richieste da parte
degli utenti;
• il valore del KEI è controbilanciato dalla competizione per quella determinata parola
chiave, infatti il valore del KEI tende a diminuire con l’incremento dell’indice dei
competitors;
• la popolarità ha un’influenza positiva sull’indice. Quanto più alto sarà il valore del KEI,
tante più possibilità avremo che quella specifica keyword si posizioni correttamente.
Il KEI va considerato su una scala (diversi tool online utilizzano metriche differenti per calcolare
gli indici di popolarità e di competition, quindi anche il relativo KEI prodotto sarà differente):
• da 0 a 10: si hanno possibilità minime di posizionamento per quella specifica keyword;
• da 10 a 100: è un buon valore, che ci offre discrete possibilità di posizionamento;
• da 100 in su: per quella specifica keyword abbiamo ottime possibilità di posizionamento.
NOTA
Va sottolineato come il KEI sia vincolato dagli indici di popolarità e competition utilizzati,
che possono assumere valori differenti in base agli strumenti utilizzati.
Figura 3.20 - KAI: individuazione del denominatore della formula con Google AdWords.
Figura 3.21 - KAI: individuazione del numeratore con la ricerca avanzata di Google.
NOTA
Nella nostra formula, all’aumentare del numero di ricerche mensili, il KAI calerà. Questa
potrebbe sembrare una contraddizione; in realtà, tuttavia, dobbiamo pensare che stiamo
utilizzando dati misti tra ricerche reali e ricerche mensili per le inserzioni. Quindi, in ogni
caso, essendo un indice approssimativo, il risultato ottenuto può ritenersi accettabile.
NOTA
dove tfi,j è il numero di termini che appaiono nel documento j, mentre li è il numero totale di
termini nel documento.
Supponiamo che una parola compaia cinque volte all’interno di una pagina che conta un totale di
200 vocaboli: la densità della parola chiave sarà data da (5/200)*100 = 2,5%. La cosa davvero
importante è che la keyword density non è una variabile utilizzata dai motori di ricerca moderni
per stabilire quanto un documento sia attinente a una determinata query.
A conferma di ciò, analizzando alcuni brevetti dei motori di ricerca, possiamo notare come la
formula della keyword density, oltre a non essere mai citata, non risulti utile, perché non
abbraccia appieno nessuno dei concetti utilizzati per individuare la rilevanza delle keyword
all’interno di una pagina, come la linearizzazione, la tokenizzazione, la filtrazione, lo stemming,
la rilevanza, la precisione e la ponderazione. Tutte queste tecniche si basano su principi
matematici (LDA e LSI, per esempio, che vedremo in seguito) che vanno ben oltre una semplice
formula. La keyword density, quindi, per essere realmente utile, dovrebbe prendere in
considerazione i seguenti fattori:
• la distanza relativa tra le parole, o prossimità;
• il modo in cui in una pagina web vengono distribuite le parole chiave;
• la frequenza di co-citazione tra i due termini (co-occorrenza);
• la distinzione tra il tema principale, l’argomento e i sottotemi delle pagine web;
• la presenza di parole chiave in altre strutture HTML, come link, tag H1, H2 o nel titolo.
Il succo del discorso sta nel fatto che la keyword density è un concetto superato, dato che
l’Information Retrieval utilizza, per la catalogazione delle informazioni, tecniche avanzate che
superano i concetti di densità e frequenza di una parola chiave all’interno di un documento (o
pagina web). Per un motore di ricerca è importante fornire all’utente una risposta valida e
coerente: è bene utilizzare discorsi di senso compiuto e scrivere documenti per i navigatori e non
per i motori di ricerca. In sostanza, la keyword density è frutto di una conoscenza errata della
materia, è una tecnica che non esiste nella SEO e che non viene applicata agli algoritmi dei
moderni motori di ricerca. L’abbiamo citata per fornire al lettore un quadro completo sulle
terminologie SEO che in alcuni casi vengono contestualizzate in modo errato.
NOTA
Sul web esistono diversi tool per calcolare la keyword density (la cui utilità lato SEO è
insignificante); tra questi vi segnaliamo:
http://www.live-keyword-analysis.com/
Keyword pattern
Il keyword pattern è dato dalla misura con cui una determinata keyword si presenta all’interno di
una pagina web, senza essere ripetuta per più di due volte consecutive. È un concetto che si
avvicina molto a quanto visto precedentemente. Per esempio, la frase “L’azienda Cerasaro
produce aglio italiano, prodotti a base di aglio italiano e creme fatte esclusivamente con aglio
italiano” presenta al suo interno tre volte la ripetizione della keyword “aglio italiano” e ha quindi
un KP (Keyword Pattern) uguale a 3. Le keyword, secondo la teoria in questione, devono essere
distribuite in maniera naturale all’interno di un testo. Va inoltre precisato che uno sviluppo
innaturale di un particolare testo all’interno di una pagina web, soprattutto se presenta numerose
occorrenze dello stesso termine, potrebbe causare una penalizzazione per sovraottimizzazione. In
altre parole, anche questo concetto è ormai qualcosa di sorpassato e di non utilizzabile nella SEO
moderna.
Keyword frequency
La frequenza delle keyword si riferisce al numero di volte in cui una keyword appare all’interno
di una determinata pagina web. Ipoteticamente, si è sempre pensato che più volte compare una
keyword all’interno di una pagina web, più alta sarà la probabilità che tale pagina si posizioni
all’interno della SERP per quella determinata parola chiave. Come abbiamo avuto modo di
vedere, questi concetti servono al lettore solo per capire come i motori di ricerca non utilizzino
tali concetti.
NOTA
Tra i vari tool presenti nel web, possiamo segnalarvi http://www.ranks.nl, una serie di
applicazioni web per monitorare tutte le variabili associate alle keyword del proprio sito
web.
Keyword proximity
L’espressione keyword proximity (o prossimità delle keyword) denota la vicinanza di più parole
chiave. Ricercando, infatti, su Google “aglio italiano”, per esempio, si noterà come all’inizio
compaiano le keyword affiancate e, proseguendo via via con i risultati della ricerca, le parole
chiave appaiano sempre più distaccate fra loro.
NOTA
Possiamo osservare come la prossimità delle keyword costituisca un elemento importante per
migliorare l’indicizzazione di pagine e contenuti web.
Se utilizziamo la frase “Aglio in reti trasparenti, prodotto italiano”, possiamo notare come essa
abbia una prossimità minore rispetto ad “Aglio Italiano in reti trasparenti” per le parole Aglio e
Italiano. Dunque, una volta identificate le keyword e le frasi di prossimità, dovremo
opportunamente inserirle nelle nostre pagine web in modo omogeneo. Come vedremo a breve, le
keyword dovranno essere utilizzate non solo nel corpo della pagina, ma anche in opportuni tag
HTML (H1, Tag Title e così via).
NOTA
NOTA
Tra le varie zone importanti per la prominenza, le più importanti sono: il tag <title>, i vari tag
di intestazione (<h1>, <h2>, <h3> ecc.), i diversi paragrafi che compongono il corpo del
documento, il contenuto del meta tag description e la posizione del testo nel flusso
dell’HTML.
Purtroppo anche questo concetto ormai risulta superato; con l’introduzione della semantica negli
algoritmi dei principali motori di ricerca, queste scorciatoie possono essere usate solo al fine di
avere un sito web ottimizzato ma senza correlazione con gli algoritmi usati dai search engine.
NOTA
Non solo Google sta spostando il suo raggio d’azione verso la semantica e l’intelligenza
artificiale, anche altri motori di ricerca (ad esempio Bing con RankNet) e portali si stanno
muovendo verso quest’ottica al fine di capire il comportamento dell’utente e fornirgli
risposte sempre più personalizzate e coerenti.
Hummingbird è in grado d’interpretare il linguaggio naturale dell’utente basando la ricerca e le
relative risposte non più sulle parole chiave ma su un linguaggio comune. In questo modo sarà
possibile avere risposte a domande specifiche contestualizzate in base all’esperienza dell’utente
e alle ricerche fatte precedentemente. Ciò si integra con il mobile e le funzionalità di Google
Now. A supporto di questa novità, troviamo poi RankBrain, una parte dell’algoritmo di Google
che sfrutta un sistema di intelligenza artificiale di apprendimento automatico per processare i
risultati della ricerca.
In questo modo Google è in grado di identificare i modelli fra ricerche complesse
apparentemente non connesse fra loro e comprenderne le similitudini.
Quindi l’abbinata di Colibrì e Brain permetterà a Google di capire le query e dare risposte
sempre più precise.
Per esempio, la parola “apple” potrebbe essere associata sia al brand che al frutto. Grazie
all’apprendimento automatico e a quelli che in intelligenza artificiale vengono chiamati Vector,
l’algoritmo è in grado di comprendere e apprendere per fornire risposte precise.
Se iniziamo a digitare la parola “apple” in Google, ci verranno mostrati dei suggerimenti, come
si vede nella Figura 3.22.
Google associa “apple” al Brand, inoltre ci suggerisce un negozio nelle vicinanze dove poter
acquistare prodotti Apple.
Tutto questo per fornire un risultato di ricerca appropriato e in linea con le nostre esigenze. Ma
se cambiamo query, cosa succede? Proviamo a digitare in Google una frase apparentemente senza
senso come “apple caramellata”.
Possiamo notare come Google restituisca dati correlati alla ricerca sfruttando la sua capacità di
associazione delle entità.
Per trovare e mostrare risultati più rilevanti, Google può pescare informazioni: è ciò che molti
SEO definiscono Search Entity. In poche parole consiste nell’arricchire le ricerche effettuate
dagli utenti permettendo a essi di di stabilire una relazione che aiuta a identificare l’importanza
di vari documenti, e di conseguenza influenza le informazioni visualizzate.
Nello stabilire il contesto in cui si verifica una query, Google prende in considerazioni una serie
di fattori, fra cui:
• la cronologia delle ricerche dell’utente;
• la posizione geografica dell’utente;
• lo storico globale delle ricerche effettuate dall’utente;
• le relazioni con una gran quantità di dati memorizzati in precedenza (termini o entità);
• le caratteristiche della query (ortografia, varianti, ecc.);
• domini, sullo stesso tema, linkati dal documento;
• la co-occorrenza dei termini e la distanza fra questi.
Tutto quello che abbiamo visto finora è per spiegarvi che ormai il concetto di “keyword” è
superato e come Google vada ben oltre nel suo processo di ricerca.
Per cercare di avvicinarci alla realtà del motore di ricerca, dovremmo spiegare concetti come
ontologie, co-citazioni, term vector , NPL e studiarci le ricerche di Fagin e Halpern e
contestualizzare il tutto con i brevetti rilasciati da Google.
Quindi quando andiamo alla ricerca delle nostre parole chiave o topical hub o topic non
dobbiamo limitarci a considerare la keyword secca o i vecchi concetti come ad esempio quello
della coda lunga, ma dobbiamo altresì cercare di capire come Google possa sfruttare queste
parole chiave nel processo di ricerca.
Non è sufficiente utilizzare sinonimi o keyword correlate per avvicinarsi al modo di ragionare di
Google.
NOTA
Le Reti Semantiche sono state introdotte da Quillian (1968), che le ha utilizzate per costruire
modelli della memoria umana.
Ora che abbiamo le idee più chiare possiamo iniziare un processo ipotetico di ricerca dei topic
(argomenti) o delle keyword da sfruttare nel posizionamento del nostro progetto web.
Per prima cosa dobbiamo avere le idee chiare sull’argomento principale e via via dettagliare per
trovare le keyword e i topic con cui strutturare il sito e organizzare le informazioni.
Iniziamo con la keyword “droni” per vedere un ipotetico piano di lavoro per la ricerca delle
keyword e delle informazioni semanticamente correlate.
Sfruttando Google Trends, possiamo vedere l’andamento della keyword e l’interesse locale o
regionale.
Figura 3.24 - Ricerca keyword “droni” in Google Trends.
Il passo successivo è quello di trovare non solo le parole correlate, ma anche tutte le macro
informazioni annesse alla keyword principale presa in considerazione.
Ad esempio, grazie ai tool http://visuwords.com/ e tools.seozoom.it, ho la possibilità di vedere i
rami con keyword affini o attinenti e sfruttarli per creare sezioni del mio sito o articoli ad hoc. Le
seguenti immagini mostrano un esempio di utilizzo di questi due tool.
Figura 3.25 - Grafo di ricerca delle keyword con Visuwords.
Figura 3.26 - Grafo di ricerca delle keyword con SEOZoom.
A questo punto possiamo spostarci su strumenti di analisi delle keyword e del traffico visto in
precedenza per identificare i topic più ricercati.
Ad esempio, sfruttando Google Suggest o le ricerche correlate di Google, abbiamo
l’opportunità di avere un’idea più ampia di quello che gli utenti ricercano.
Scopriamo che “droni professionali” e “droni giocattolo” sono topic ricercati dagli utenti e
quindi potremmo sfruttarli nella nostra strategia.
Figura 3.27 - Ricerche correlate e con Google Suggest.
Ovviamente possiamo sfruttare altri strumenti, come il Suggest di Amazon o di Youtube per avere
idee nuove sulle keyword da usare.
Ora non ci resta che utilizzare SemRush o SEOZoom o altri tool che ci forniscono le keyword
correlate ai volumi di ricerca per avere un’idea a 360°. Ci basterà inserire la keyword e ci
verranno fornite keyword attinenti e correlate con i rispettivi volumi di ricerca. Nel nostro caso
specifico ci possiamo accorgere come “drone” sia più ricercato della parola “droni” in Italia.
Una volta che abbiamo il nostro pool di keyword, le possiamo suddividere per macro aree e
organizzarle per volumi di ricerca esportando il tutto in Excel e il gioco è fatto. Questo processo
prende il nome di Keyword Clustering, ovvero organizzare una grossa mole di topic e
informazioni in concetti chiave che ci permetterà anche una strutturazione armonica degli
argomenti del sito e ci fornirà una prima idea delle suddivisione delle informazioni.
Avremo in questo modo i topic e gli argomenti per strutturare i contenuti o per organizzare un sito
esistente sfruttando le keyword e i topic appena trovati.
NOTA
A questo punto abbiamo finito? Direi di no, perché non “spiare” la concorrenza? Ci potrebbe
essere utile sia per scoprire nuovi topic sia per capire pregi e difetti di chi sta concorrendo con
noi sulla SERP per una determinata keyword.
Grazie ai tool presenti sul mercato come SimilarWeb, SemRush o SEOZoom ci basterà inserire
l’url del sito da “spiare” per avere una serie di informazioni sulle keyword per cui è posizionato
e le pagine.
Potremmo prenderle in considerazione e arricchire il nostro pool di topic. A questo punto avremo
tutto il necessario per incominciare e quindi mettere mani alle keyword e pensare ai contenuti.
NOTA
Si può fare di meglio? Ovviamente Sì. Quella proposta è solo una delle diverse strade per
iniziare una ricerca delle keywords e dei topics. Potremmo sfruttare i social per capire come
la gente interpreta una parola chiave o un pensiero associato a essa, navigare i siti di risposte
come quora per farci un’idea delle domande che si pone la gente in merito alla parola chiave
che stiamo ricercando (nel nostro caso specifico relativamente ai droni). Insomma le strade
sono molte e le possiamo applicare in modo differente in base al progetto che dobbiamo
sviluppare.
“Non ci sono bacchette magiche, trucchi nascosti e segreti che possono portarti
immediatamente al successo, ma con il tempo, l’energia e la determinazione ci puoi
arrivare.”
(Darren Rowse)
Capitolo 4
Linee guida per lo sviluppo di siti web SEO
friendly
Il ruolo dei meta tag ai fini del posizionamento è stato oggetto di dibattiti e controversie, poiché
nei primi motori di ricerca essi costituivano l’unico mezzo a disposizione per descrivere i
contenuti dei siti, al di fuori del contenuto visualizzabile dagli utenti. Si tratta, quindi, di un buon
modo per sintetizzare i temi trattati nella pagina web, nonché il luogo ideale ove inserire le
keyword in base alle quali si vuole posizionare il proprio sito. La facilità di utilizzo improprio di
questo strumento ne ha via via svilito l’importanza e la considerazione da parte dei motori di
ricerca, cosicché attualmente gli spider di Google sono impostati in modo da attribuire loro un
valore vicino allo zero. L’utilizzo dei meta tag non migliora in maniera rilevante il
posizionamento su Google e va aggiunto che, proprio per la ragione appena descritta, un uso
scorretto e fuorviante degli stessi potrebbe causare penalizzazione o cancellazione permanente
dall’indice. Ciò premesso, esistono alcuni meta tag che ricoprono ancora una funzione
significativa, come vedremo nei prossimi paragrafi.
NOTA
Esistono diversi tool per generare i meta tag utilizzati dai principali motori di ricerca, come
http://tools.seobook.com/meta-medic/
e
http://www.seocentro.com/tools/search-engines/metatag-analyzer.html
Per comprendere le sezioni che spiegheremo, è necessario avere una certa dimestichezza con il
codice HTML, in quanto mostreremo pezzi di codice che saranno esemplificativi per capire le
azioni da compiere nel sorgente delle nostre pagine web. Dobbiamo altresì precisare che tutto
quello che andremo a illustrare è valido per pagine web statiche o dinamiche (.php, .jsp, .aspx
ecc.), in quanto il rendering della pagina per il browser web e per gli spider risulta sempre
essere semplicemente codice HTML. Tanto meglio sarà strutturato tale codice, più probabilità
avremo di essere posizionati nei motori di ricerca. La struttura del nostro codice deve essere:
• priva di errori: molto spesso, infatti, capita di dimenticarsi di chiudere tag, di utilizzare
strutture HTML errate e non conformi. Per controllare che le nostre pagine web siano
sintatticamente perfette, possiamo utilizzare questo tool: http://validator.w3.org. È bene
ricordare che in Italia i siti istituzionali e della pubblica amministrazione devono essere
accessibili e seguire la netiquette W3C sull’accessibilità, più precisamente:
http://www.w3.org/TR/WCAG10/;
• semplice e ben organizzata: sia l’utente, sia lo spider devono trovare facilmente le
informazioni all’interno della nostra pagina. Non è consigliato utilizzare immagini di
sfondo contrastanti con il testo o tabelle annidate o tag a cascata innestati dentro altri tag.
Il codice deve risultare il più pulito possibile. Questo aiuterà anche noi nell’eventuale
processo di aggiornamento delle pagine;
• facilmente modificabile: un buon prerequisito è quello di poter aggiornare le nostre
pagine web in maniera facile ed efficace. È quindi buona norma utilizzare i fogli di stile
(CSS), template per organizzare la grafica del sito web e mettere istruzioni JavaScript in
file esterni;
• leggera: per leggera intendiamo il peso in termini di byte complessivi della pagina. Infatti,
Google ha da poco reso noto un brevetto in cui è illustrato come, tra i parametri presi in
considerazione per il posizionamento, vi sia il tempo di caricamento della pagina. Più
veloce questa sarà a caricarsi, meglio sarà per noi, poiché lo spider impiegherà meno
tempo nell’analizzarla e non si correrà il rischio che l’utente abbandoni la visita perché la
pagina impiega troppo tempo a visualizzarsi nel browser. Buone norme da seguire
consistono dunque nell’ottimizzazione delle immagini e nella riduzione delle animazioni
flash; le analizzeremo nei prossimi paragrafi.
NOTA
Per scrivere pagine web pulite, accessibili e indicizzabili, è bene seguire le raccomandazioni
W3C.
NOTA
Non ci stancheremo mai di ripetere come sia fondamentale utilizzare titoli diversi e unici per
ogni pagina. La Search Console di Google può aiutare in questo compito
(www.google.com/webmasters/tools).
Il titolo della pagina potrebbe essere utilizzato in molti casi dai motori di ricerca all’interno
della SERP; per questo motivo è importante che il contenuto della pagina web sia coerente con il
titolo scelto, che il titolo sia unico per ogni pagina e che risulti breve, ma allo stesso tempo
descrittivo.
Figura 4.2 - Come potrebbe apparire il tag <title> in una ricerca effettuata in Google.
Ho detto “il titolo della pagina potrebbe essere utilizzato in molti casi dai motori di ricerca
all’interno della SERP " in quanto Google utilizza una visualizzazione differente nella SERP sia
in base al contesto sia in base a quello che è stato cercato. In tal modo, non è detto che il titolo
che comparirà nella SERP sia identico a quello inserito nel meta tag title. Per stabilire quale testo
sfruttare come titolo da mostrare della SERP, Google si basa su un criterio di corrispondenza di
ciascun testo con la query digitata dell’utente.
Le tipologie principali di testo da cui Google può attingere per estrapolare il titolo di una pagina
sono le seguenti:
• testo nel tag HTML Title;
• testo nell’elemento Title del feed RSS;
• testo nell’elemento TITLE nelle sitemap XML;
• Anchor Text dei link interni al sito;
• Anchor Text dei link esterni al sito;
• titolo della risorsa presente in DMOZ;
• nome del dominio;
• testo presente nella pagina;
• testo presente nell’URL della risorsa.
Quindi non dobbiamo sorprenderci se in alcuni contesti il titolo presente nella SERP potrebbe
risultare differente rispetto a quanto riportato nel tag Title della nostra pagina web.
NOTA
Ad alimentare questa tesi sono le informazioni stesse fornite da Google che afferma:
“Se abbiamo rilevato che un risultato specifico ha uno dei problemi di titolo elencati in
precedenza, possiamo tentare di generare un titolo migliorato da anchor, testo nella
pagina o da altre fonti. Tuttavia, a volte, anche le pagine con titoli ben formulati, coincisi
e descrittivi ricevono titoli diversi nei risultati di ricerca per indicare meglio la loro
pertinenza alla query. Il motivo è semplice: il tag title, come specificato dal webmaster,
può essere solo statico e fisso, indipendentemente dalla query. Una volta venuti a
conoscenza della query dell’utente, spesso riusciamo a ricavare da una pagina un testo
alternativo che spieghi meglio perché quel risultato è pertinente. L’utilizzo di questo testo
alternativo come titolo è d’aiuto sia all’utente, sia al sito. Gli utenti cercano i termini di
query o altri segni di pertinenza tra i risultati, quindi un titolo adatto alla query può
aumentare le possibilità che gli utenti vi facciano clic.”
I crawler dei motori di ricerca considerano questo tag come uno degli elementi più importanti.
Siccome il tag del titolo comunica il tema della pagina web ai visitatori, i motori di ricerca
ritengono che le informazioni inserite debbano essere attinenti al contenuto della pagina. Anche
se ci sono molti punti di vista circa i fattori on page e la loro importanza nella SEO, la maggior
parte degli esperti concorda sul fatto che il tag del titolo sia significativo. Risulta fondamentale
richiamare la parola chiave inserita nel sito anche in diverse zone della pagina e negli altri tag,
ma non solo: la sequenza di collocamento di questi termini è molto importante anche da un punto
di vista SEO. In genere i motori di ricerca visualizzano nella SERP i primi 70-71 caratteri
(ultimamente si parla anche di pixel: circa 600 px – prima erano 512 px circa – o più per Google
dopo l’aumento delle dimensioni avvenuto a maggio 2016), quindi il tag del titolo non dovrebbe
essere troppo lungo anche in relazione alla semantica della pagina. Dal momento che ogni pagina
contiene diverse informazioni, è utile variare il titolo per ogni pagina. Si noti anche come sia
possibile utilizzare plurali e singolari: per esempio, per Google “pollo” e “polli” possono
produrre risultati diversi all’interno della SERP, anche se semanticamente correlati (stemming);
per tale motivo è consigliato usare keyword che presentino entrambe le forme, plurale e
singolare. Il titolo deve poi contenere una frase che abbia un senso compiuto; vediamo un
esempio a tale proposito.
Secondo le raccomandazioni W3C, il tag title non dovrebbe superare i 64 caratteri di lunghezza.
Se il titolo riguarda una società di nome “Italia” che svende mobili, nel tag title possiamo
scrivere:
L’attrazione data dalle parole “regala” e “svendita” attirerà molti visitatori curiosi. Un’altra
peculiarità che si può applicare al tag title è quella di inserire valori di separazione chiamati
pipe (|), per separare frasi; per esempio:
NOTA
Nel tag <title>, come abbiamo avuto modo di vedere, vanno inserite le parole chiave più
significative e descrittive per il sito, senza perdersi nell’utilizzo di frasi commerciali (il
classico “benvenuti sul sito”) o di stop word che Google tende a ignorare.
Google ignora le stop word, come preposizioni, articoli, congiunzioni, che sono quindi da
evitare, tranne in una particolare situazione, ossia quando hanno un ruolo determinante nel
formare un’espressione che si vuole posizionare (per esempio: Lord OF THE rings). Lo spider
non è case sensitive, dunque le lettere maiuscole o minuscole sono considerate senza distinzione.
Vanno, tuttavia, accuratamente evitati:
• la ripetizione esasperata della stessa parola chiave: rischia di essere considerata spam;
• il mancato riempimento del tag: la pagina verrà di default intitolata “untitled document” e
sarà annullato un importante fattore di posizionamento;
• l’inserimento di parole chiave estranee al contesto e ai contenuti della pagina: prima o poi
il fatto verrà rilevato dagli spider e si andrà incontro a penalizzazioni da parte del motore
di ricerca.
NOTA
Sono sconsigliate anche le cosiddette poison word: esse non causano la cancellazione
dall’indice, ma potrebbero penalizzare il ranking, poiché sono in conflitto con importanti
utility del web. Tipiche poison word sono: Bookmark, Link, Resource, Directory, Search
Engine, Forum, BBS.
Il titolo perfetto
Per anni i SEO si sono chiesti quale fosse la quantità massima di caratteri di un tag TITLE
indicizzata da Google, sapendo che tale informazione, all’atto pratico, non è così fondamentale.
Grazie a un esperimento di reverse engineering, è stato possibile dimostrare come Google riesca
a indicizzare le prime 12 parole che compaiono all’interno del titolo. Potete leggere
l’approfondimento e il test completo all’URL: http://tinyurl.com/titolo-perfetto.
Senza entrare in approfondimenti tecnici e senza dimostrare il corollario, vi illustriamo le
conclusioni di questo interessante test:
• è stato dimostrato come Google sia in grado di indicizzare un massimo di 12 parole
estratte dal tag TITLE delle pagine web;
• è stato osservato che il testo del tag TITLE può essere archiviato in blocchi separati, così
come avviene per il testo del corpo delle pagine HTML. Nello specifico, il semplice
trattino “-” (carattere ASCII 45) non induce Google ad archiviare il testo in blocchi
diversi, mentre il molto simile trattino “–” (entità HTML –) produce la separazione
in blocchi come la pipe (|);
• è stato rilevato che, in presenza di sequenze di singoli caratteri separati da spazio, Google
indicizza parole create accorpando i caratteri stessi secondo criteri non ancora chiari. Il
limite delle 12 parole viene comunque sempre rispettato.
NOTA
Questi test hanno dimostrato che il limite reale del tag title, salvo condizioni particolari, è di 12
parole. Va anche specificato che sia a livello di usabilità sia a livello SEO vanno presi ben altri
accorgimenti e che il limite delle 12 parole deve essere solo un parametro valutativo da
considerare quando sviluppiamo i nostri titoli.
Riassumendo, come dovrebbe essere un buon titolo SEO?
• Di una lunghezza tale da non essere “troncato” nelle SERP dei principali motori di ricerca.
• È consigliabile posizionare le parole chiave il più vicino ai primi caratteri del Titolo.
• Fare un tag title leggibile e coerente con il contesto della pagina.
• Se si include un “marchio” nei tag title è opportuno posizionarlo alla fine del titolo a meno
che non si tratti di un brand ben noto che le persone cercano.
• Rendere ogni titolo unico.
• Evitare un titolo pieno di parole chiave senza alcun senso.
In breve il titolo deve colpire l’utente e invogliarlo al magico clic sulla SERP dei principali
motori di ricerca.
NOTA
I motori di ricerca, per visualizzare i risultati nella SERP, utilizzano porzioni di contenuti
prelevati dalle pagine chiamati “snippet”. Tale generazione avviene in modo automatico e il
tag description è utile per suggerire ai motori di ricerca quali informazioni inserire nello
snippet. Quindi, anche se è vero che è ad arbitrio del motore di ricerca popolare lo snippet
(Google non sceglie solo la description, ma anche una porzione di testo, se ritenuta
rilevante), utilizzando opportunamente il tag description potremo influenzare in modo
positivo i motori di ricerca e, allo stesso tempo, migliorare il nostro ranking.
Figura 4.3 - Esempio del modo in cui il tag <description> viene utilizzato da Google all’interno della SERP.
Tra le altre caratteristiche che deve avere il tag description, possiamo menzionare le seguenti:
• deve essere unico per ogni pagina: questo aiuta gli utenti e i motori di ricerca. In caso di
CMS o pagine dinamiche, è possibile generare automaticamente questo tag prendendolo da
parte del corpo della pagina. Per verificare la corretta impostazione dei tag description
delle nostre pagine web possiamo utilizzare lo strumento per webmaster messo a
disposizione da Google;
• deve essere coerente con il contenuto della pagina: ovviamente questo tag è una sorta di
preview di quello che l’utente troverà visitando la pagina, quindi deve rispecchiare e
riassumere il tema della pagina web;
• deve utilizzare frasi di senso compiuto e non essere generico: è inutile scrivere nel tag
description “questa è una pagina” o “questa è la Home Page”. Gli utenti e i motori di
ricerca non trarranno nessun beneficio da queste informazioni. Una descrizione del tipo “la
società Pinco Pallino produce stufe a legna di qualità, dal design innovativo; vienici a
scoprire…” ha sicuramente più valore e conferisce informazioni aggiuntive alla pagina in
questione.
NOTA
Per evitare che i motori di ricerca recuperino da Open Directory (DMOZ) le descrizioni da
utilizzare nello snippet prodotto dalla SERP, è possibile utilizzare opportuni meta tag:
• Per Google: <meta name="googlebot" content="noodp">
• Per Bing: <meta name="msnbot" content="noodp">
• Per Yahoo! <meta name="slurp" content="NOYDIR" />
Per ottimizzare il tag title e il tag description esistono diversi tool; uno dei migliori, a nostro
avviso, è www.seomofo.com/snippet-optimizer.html, uno strumento utile per avere un’idea di
massima di come potrebbe essere la rappresentazione del nostro titolo e della description nella
SERP di Google.
Nel corso del 2016, Google ha rivoluzionato il layout della SERP con conseguente
aggiustamento dei “pixel” visualizzati sia nel title sia nella descrizione aumentando il numero
di caratteri visualizzabili (anche in base al contesto).
Possiamo quindi affermare con certezza che questo meta tag è comparativamente meno importante
rispetto ad altri. Gli specialisti SEO cercano di aggiungere alcune informazioni nel meta tag
keywords per rendere il sito più amichevole agli occhi di un motore di ricerca (e anche dei
clienti che commissionano una campagna SEO), ma la maggior parte dei crawler non considera
minimamente questa porzione di codice. Detto questo, ricordiamo come Google e i principali
motori di ricerca non utilizzino, ormai da anni, questo meta tag: è quindi superfluo sfruttarlo e
perdere tempo nell’ottimizzazione di questo campo.
NOTA
Figura 4.5 - A maggio 2016 non solo Google ma anche altri motori di ricerca hanno apportato modifiche e quindi tale
tabella va utilizzata solo come idea di massima!
All’indirizzo http://tinyurl.com/codici-iso potete trovare l’elenco dei codici ISO da utilizzare nel
campo content.
NOTA
Possiamo specificare che una determinata pagina del sito web non venga tradotta
automaticamente da Google impostando il meta tag <meta name="googlebot" content="notranslate">. Se
vogliamo che non venga tradotta solo una porzione del codice, è sufficiente impostare l’uso
della classe “notranslate” in questo modo:
Come vedremo nel capitolo dedicato all’indicizzazione per i siti multilingua, in alcuni contesti
sarà preferibile utilizzare il namespace W3C dell’XHTML (o usarli entrambi) per specificare la
lingua delle pagine, come mostra il seguente listato:
Google afferma: “We do not use locational meta tag (like “geo.position” or “distribution”) or
HTML attributes for geotargeting” (http://tinyurl.com/google-regional), quindi viene dichiarato
ufficialmente che Google non considera questi meta tag per la localizzazione. Ciò non significa
che non dobbiamo usarli: è vero che Google è il motore di ricerca più utilizzato, ma non
dobbiamo basarci solo su di esso. Il meta tag in questione potrebbe essere utilizzato da altri
motori di ricerca (come, per esempio, Bing).
NOTA
Quando creiamo una pagina HTML, dobbiamo specificare anche il DocType. Il DocType
deve essere il primo elemento ad aprire il documento; si tratta di un tag che ha il compito di
fornire informazioni al server web che ospita la pagina. Le informazioni conferite da
DocType riguardano il tipo di documento visualizzato, oltre a essere necessarie alla
comunicazione tra browser e server. DocType deve essere scritto in una forma standard, per
esempio:
NOTA
A questo indirizzo trovate un’ottima spiegazione sulla scelta del DocType più opportuno in
base alle esigenze:
http://htmlhelp.com/tools/validator/doctype.html
NOTA
Ci sono diversi modi per impedire che i contenuti appaiano nei risultati di ricerca, come
l’aggiunta di “noindex” al meta tag robots, utilizzando .Htaccess per proteggere con
password le cartelle, e l’utilizzo di Google Search Console. Tools per rimuovere i contenuti
che sono già stati indicizzati. A tale proposito, vi segnaliamo questo interessante intervento
da parte di Google:
http://www.mattcutts.com/blog/google-noindex-behavior/
NOTA
Se non inseriamo nessun meta robots, gli spider indicizzeranno (salvo altre indicazioni o
problematiche) automaticamente tutte le pagine e seguiranno tutti i link presenti all’interno
del nostro sito web. Il meta tag noindex è utile nei casi in cui siano presenti contenuti
duplicati, versioni stampabili o altre situazioni particolari in cui non si vuole che tale pagina
venga indicizzata dai motori di ricerca.
È inoltre possibile specificare azioni differenti per gli spider dei motori di ricerca più
conosciuti, utilizzando una sintassi del tipo:
Analizziamo i valori non ancora presi in considerazione:
• NOARCHIVE inibisce la visualizzazione nei risultati della SERP della copia in cache (in
memoria) per quella specifica pagina;
• NOODP serve a specificare di non utilizzare la descrizione ODP/DMoz nella
visualizzazione dello snippet dei risultati della SERP (come avevamo già accennato in
precedenza, quando avevamo parlato del meta tag description);
• NOSNIPPET serve per impedire la visualizzazione dello snippet nei risultati di ricerca
dei vari motori;
• NOIMAGEINDEX è utilizzato per non consentire l’indicizzazione delle immagini presenti
all’interno della pagina;
• NOTRANSLATE: abbiamo accennato, nel precedente paragrafo, a questo tag; inserendolo,
inibiamo la possibilità di tradurre i nostri contenuti con Google Translate;
• UNAVAILABLE_AFTER ci permette di indicare allo spider la data e l’ora in cui bloccare
la scansione della nostra pagina web.
Per informarci che un articolo scadrà in un preciso momento in cui dovrebbe essere rimosso
dall’indice di Google, è possibile utilizzare il seguente tag:
Un altro esempio che possiamo proporre è quello di dire allo spider di ASK di non indicizzare
questa pagina web utilizzando il seguente tag:
NOTA
Una raccomandazione importante circa i contenuti del meta tag robots è quella di non
indicare direttive in conflitto tra loro (per esempio, index e noindex contemporaneamente).
In conclusione a cosa serve questo meta tag e come può essere usato?
• È un’istruzione di markup HTML.
• Serve per determinare se e come una pagina deve apparire nella SERP.
• Serve in alcuni casi per escludere dal link graph tutti i link che contiene una determinata
pagina.
NOTA
Il crawler deve poter accedere alla risorsa per poterla leggere. Se lo blocchiamo con con
robots.txt, potremmo generare un loop vizioso.
Il crawler continuerà a scaricare e archiviare la pagina anche in presenza di un’istruzione
noindex, come già accennato.
NOTA
Dobbiamo sottolineare che per ogni sottodominio sarebbe opportuno applicare un file
robots.txt. Allo stesso tempo, però, tale file si applica a tutte le directory e sottodirectory
presenti nello stesso dominio o sottodominio.
Vediamo ora come utilizzare correttamente questo file per istruire gli spider dei motori di
ricerca:
• User Agent indica a quale robot il comando si applica; è possibile definire il valore *
(asterisco) per specificare che tale comando viene applicato a tutti i robot. Se vogliamo,
invece, che l’azione sia specifica per un determinato crawler di un motore di ricerca,
possiamo specificare il valore.
• Disallow serve a indicare qual è il contenuto da bloccare (risorsa da non prelevare). Deve
iniziare con / e può essere usato con alcune combinazioni di caratteri speciali.
Tabella 4.2 - I crawler dei maggiori motori di ricerca.
Nome Robot Funzione
Google
Googlebot Analizza le pagine web
Googlebot-Mobile Analizza le pagine web per mobile
Googlebot-Image Analizza le immagini
Mediapartners-Google Analizza i contenuti AdSense
AdsBot-Google Analizza i contenuti AdWords
Yahoo!
Slurp Analizza le pagine web
Yahoo-MMCrawler Analizza le immagini
Yahoo-MMAudVid Analizza i contenuti video
Bing
MSNBot Analizza le pagine web
MSNBot-Media Analizza i contenuti multimediali
MSNBot-News Analizza i feed delle news
NOTA
Ai seguenti indirizzi potete prendere visione dei nomi dei principali crawler utilizzati dai
motori di ricerca:
http://www.searchenginedictionary.com/spider-names.shtml
http://www.robotstxt.org/db/abcdatos.html
Blocco l’accesso al solo spider di Google a tutti i file che hanno estensione.pdf:
L’esempio sotto riportato è più curioso: nella prima riga del Disallow blocco l’accesso a Google
(o, meglio, blocco il prelievo della risorsa) alla directory tmp, mentre nella riga sottostante viene
bloccato l’accesso sia ai file, sia alle directory pippo:
Blocco tutti i robot; questa procedura è da utilizzarsi quando il proprio sito è in fase di testing e
non è ancora pronto per essere online o per i sottodomini riservati:
Per consentire l’accesso a tutti gli spider del sito, dobbiamo lasciare uno spazio vuoto dopo i due
punti che seguono la dicitura Disallow:
Nell’esempio sotto riportato, inibisco l’accesso a tutte le cartelle tranne alla cartella public:
NOTA
Al seguente indirizzo potete trovare ulteriori spiegazioni sull’utilizzo avanzato dei comandi
per il file robots.txt:
http://www.conman.org/people/spc/robots2.html
Infine, l’ultimo esempio proposto serve a dare un aiuto agli spider per individuare la sitemap del
nostro sito web (spiegheremo più avanti cos’è la sitemap). Ricordiamo, inoltre, che, attraverso la
Search Console di Google è possibile monitorare la corretta installazione del file robots.txt e le
eventuali risorse bloccate.
NOTA
È importante sottolineare il fatto che mettere il tag “Disallow” a una determinata directory
non implica che essa non possa essere disponibile via web e quindi sia protetta da eventuali
attacchi di malintenzionati. Utenti curiosi potrebbero analizzare il vostro file robots.txt per
vedere le cartelle “protette” e cercare di accedervi. Per questo motivo è fondamentale
proteggere con password o con sistemi di cifratura lato server le directory o i file riservati.
Altro consiglio è non bloccare risorse richieste da Google: “Per un rendering e
un’indicizzazione ottimale, le nostre nuove linee guida specificano che si dovrebbe
consentire a Googlebot l’accesso a JavaScript, CSS e immagini utilizzate nelle tue pagine.
Questo permette il rendering e l’indicizzazione ottimale del tuo sito. Non consentire la
scansione di JavaScript o CSS del tuo sito, nel file robots.txt, danneggia direttamente il modo
con cui i nostri algoritmi fanno il rendering e l’indicizzazione dei tuoi contenuti, e ciò può
portare ad un ranking non ottimale”. Di conseguenza, è importante che il file robots.txt non
impedisca agli spider di accedere a tutte quelle risorse che sono indispensabili per
“disegnare” le pagine web, come le immagini, i file CSS, i file JavaScript e i font per i
caratteri, ad esempio.
Figura 4.6 - Gestione del file robots.txt dalla Search Console di Google.
X-Robots tag
X-RobotsTag è un tag che va inserito nell’HTTP header e ha le stesse funzionalità illustrate per il
meta tag robots. L’unica limitazione di questo metodo è che non esiste alcun sistema per trattare
un robot specifico. Le direttive da utilizzare sono le seguenti:
• X-Robots-Tag: noindex
• X-Robots-Tag: nosnippet
• X-Robots-Tag: notranslate
• X-Robots-Tag: noarchive
• X-Robots-Tag: unavailable_after: 10 May 2011 17:00:00 GMT
Un esempio di dichiarazione:
Per esempio, se vogliamo usare la direttiva NoArchive, dobbiamo modificare per Apache il file
.Htaccess aggiungendo tale direttiva:
Se siete interessati ad approfondire ulteriormente questo argomento, potete trovare alcune risorse
aggiuntive al seguente link:
https://developers.google.com/webmasters/control-crawl-index/?hl=it
NOTA
Anche Google supporta questo tag, come si evince dal blog ufficiale:
http://tinyurl.com/google-rep
Nel nostro caso dobbiamo moltiplicare il valore medio per 30 e possiamo stabilire in modo
approssimativo il budget mensile di scansione, ovvero 30*262=7860. Naturalmente questo
numero è soggetto a cambiamenti e fluttuazioni, ma ci consente di avere un’idea indicativa di
quante pagine del nostro sito possiamo aspettarci che vengano sottoposte a scansione in un
determinato periodo di tempo.
Per migliorare il CBO del nostro sito, dobbiamo eseguire alcune accortezze che poi andranno
adattate a ogni singolo caso:
1. evitare di indicizzare pagine di ricerca;
2. evitare paginazioni a loop infinito ma sfruttare i tag next e preview;
3. individuare le pagine 404 e sistemarle;
4. individuare link “rotti” e sistemarli;
5. evitare problemi di crawling (possiamo sfruttare strumenti come Screaming Frog per
analisi approfondite come vedremo nei prossimi capitoli).
In pratica dobbiamo fare in modo che tutte le risorse del nostro sito web siano raggiungibili in
modo semplice e che non ci siano errori che possano rallentare la “scansione” dello spider.
NOTA
Come avremo modo di vedere nella parte relativa ai tools, per monitorare il CBO oltre alla
Search Console di Google possiamo sfruttare tool come:
• ScreamingFrog
• VisualSEO
• DeepCrawler
Come mostrato dalla seguente immagine, ogni valore ha un significato specifico che ci permette
di avere informazioni dettagliate.
Attraverso tali informazioni possiamo, ad esempio, conoscere le pagine più visitate da un motore
di ricerca o individuare problematiche o criticità di un sito web. Ora che abbiamo preso
confidenza con i file di log dobbiamo cercare di capire come analizzarli in maniera rapida e
veloce.
Per fare tale operazione, possiamo utilizzare software in grado di analizzare i log (in real time o
stand alone) e fornirci statistiche ed evidenziare criticità istantanee.
Tra questi possiamo menzionare, ad esempio:
• http://www.sawmill.co.uk/
• https://www.splunk.com
• https://www.screamingfrog.co.uk/log-file-analyser/
• https://www.elastic.co/downloads/kibana
• http://www.webalizer.org
Senza dilungarci troppo, essendo un argomento molto tecnico, gli strumenti di analisi dei log ci
danno la possibilità a colpo d’occhio di trovare problematiche o fare analisi statistiche
dettagliate che risultano fondamentali per siti web di grosse dimensioni.
specifica l’autore.
NOTA
Molti webmaster abusano del meta tag meta revisit-after (che serve a comunicare ai motori di
ricerca ogni quanto tempo il contenuto della pagina potrebbe variare); consigliamo, quindi, di
non eccedere nell’utilizzo di questo meta tag, ma di utilizzare, per esempio, le sitemap XML
per questo compito.
Rimandiamo il lettore al link www.libro-seo.it, dove potrà prendere visione di tutti i meta tag
utilizzabili all’interno di una pagina HTML. Tra gli altri tag di cui si può usufruire, vogliamo
segnalarvi X-UA-Compatible, un meta tag introdotto da Microsoft e riconosciuto solo da Internet
Explorer.
Con l’utilizzo del codice sopra illustrato, è possibile richiedere esplicitamente l’utilizzo del
sistema di rendering di Internet Explorer nella versione 8. In questo modo, risolveremo diversi
problemi di visualizzazione delle nostre pagine HTML all’interno di browser che utilizzano
Internet Explorer 8 come motore di rendering.
NOTA
Il seguente link vi sarà utile per seguire le specifiche W3C durante la scrittura dei vostri meta
tag:
http://tinyurl.com/w3c-meta-data
I falsi miti e le domande più o meno inutili sui meta tag sono numerosi; il nostro consiglio è
quello di utilizzare la ragione e il buon senso e di non prendere per buona solamente
un’affermazione, anche se proveniente dai massimi guru in ambito SEO. Una delle osservazioni
che abbiamo avuto modo di apprezzare su questo argomento è quella scritta da Andrea Vit, il
quale afferma:
Sebbene siano in molti a pensare che il meta tag keywords non debba essere inserito nelle
pagine poiché potrebbe “insospettire” il motore per il possibile utilizzo di tecniche
“spammose” o di keyword stuffing, io ritengo invece che avrebbe ancora ragione
d’esistere, anche se non direttamente per scopi SEO. Pensiamo, per esempio, agli strumenti
di ricerca interna di un sito. Potrebbe essere utile utilizzare le parole chiave inserite nel
meta tag per raffinare le ricerche e renderle maggiormente puntuali.
A tale proposito, condividiamo con Andrea l’importanza della scelta di una modalità o
funzionalità in base alla relativa utilità, non lasciandoci condizionare da pregiudizi o false
credenze.
Heading tag
I tag di intestazione sono utilizzati per organizzare i testi della pagina, fornendo maggiore
rilevanza alle parole o frasi in essi racchiuse (non confondiamoli con i meta tag o i tag head
dell’HTML). Vi sono sei tipologie di tag di intestazione con cui possiamo organizzare i paragrafi
del nostro testo in ordine di importanza all’interno di una pagina web. Il tag <H1> è quello a cui
è attribuito maggior peso, fino ad arrivare a <H6>, quello meno significativo. Saper utilizzare gli
heading tag correttamente è molto importante ai fini dell’indicizzazione, in quanto attraverso di
essi possiamo indicare agli spider quali, secondo noi, sono le frasi più importanti all’interno di
un testo web.
Il tag H1 serve a indicare l’argomento principale della pagina, quindi sarà quello cui verrà
assegnata maggiore rilevanza dai motori di ricerca. Un esempio di utilizzo è il seguente:
L’utilizzo dei tag di intestazione deve avvenire in modo decrescente: prima si utilizza il tag
<H1>, poi il tag <H2> e così via. Deve esserci una sola intestazione <H1> per pagina e ci deve
essere coerenza nell’uso degli heading tag, senza saltare nessun livello, passando da H1 a H2 a
H3. Naturalmente non è necessario utilizzare tutti gli header dall’H1 all’H6. Per la maggior parte
dei contenuti delle pagine web, da una ricerca che abbiamo condotto su circa 100 siti web, i tag
più usati sono <H1>, <H2> e <H3>; vediamo in quale contesto possono venire utilizzati:
• il tag H1 viene tipicamente utilizzato per il titolo della pagina e serve a indicare
l’argomento principale;
• i tag H2 e H3 servono per specificare i sottotitoli (abstract) delle pagine;
• i tag H4 o H5 si utilizzano per contenere i testi delle pagine;
• i tag H5 o H6 servono invece per note, approfondimenti, copyright.
NOTA
L’ordine di scansione da parte dei principali spider dei motori di ricerca è da destra a
sinistra, partendo dall’alto verso il basso. Quindi è buona norma, come vedremo, utilizzare il
tag H1 nella posizione più alta della pagina, solitamente in alto a destra.
Uno dei problemi concernenti l’utilizzo dei tag di intestazione è la grandezza del carattere di
default, che risulta a volte eccessiva e non si conforma con il layout delle nostre pagine web.
Fortunatamente, usando i CSS, possiamo specificare il layout per ogni singolo tag di intestazione.
Per esempio:
In questo modo definiamo lo stile di visualizzazione dei tag. Ovviamente non dobbiamo “fare i
furbi” e utilizzare font troppo piccoli, soprattutto per i tag H1 e H2, in quanto potremmo essere
penalizzati dai motori di ricerca. L’importanza dei tag di intestazione è nota in ambito SEO; molto
spesso, tuttavia, essi sono mal utilizzati, poiché si cerca di ripetere nel tag H1 le keyword
presenti nella descrizione, nel titolo della pagina e nel corpo della pagina. Questa tecnica, che
una volta portava ottimi risultati in ambito SEO, sembra ora vista con sospetto dai motori di
ricerca perché utilizzata pesantemente dai blog e CMS standard (sovraottimizzazione). Il nostro
consiglio è quindi quello di evitare di creare pagine con i tag H1, title e description identici, e di
concentrarsi maggiormente sullo scrivere intestazioni che siano utili non solo ai motori di
ricerca, ma anche ai visitatori del nostro sito web. Sotto è riportato un esempio di corretto
utilizzo degli heading tag:
NOTA
Con HTML5 è possibile utilizzare tali strutture in diverse sezioni della pagina:
http://dev.w3.org/html5/markup/.
Nel nostro esempio informiamo sia il motore di ricerca, sia l’utente, del fatto che la pagina corsi-
seo.aspx conterrà contenuti sui corsi SEO tenuti da Ingegneridelweb.com. Tale collegamento
potrebbe puntare a pagine sia interne, sia esterne al sito web. Quanto più sarà appropriato e
coerente l’anchor text rispetto al contenuto della pagina linkata, tanto più daremo informazioni
corrette al visitatore. Questo aspetto viene premiato dai motori di ricerca, in quanto un buon
anchor text aiuterà a comprendere di cosa tratta la pagina che si andrà a visitare. Ovviamente,
utilizzare keyword all’interno di questo tag potrebbe sì aiutare, ma, come abbiamo già ripetuto, è
sempre necessario usare la logica e la razionalità e non abusarne mai: si rischierebbero
penalizzazioni da parte dei motori di ricerca. Inoltre, è noto come i link siano un elemento
fondamentale per il posizionamento, anche come fattore off page, perché non sono controllabili
direttamente dall’amministratore del sito web. Quindi, imparare a costruire anchor text efficaci
per le nostre campagne di marketing su altri siti web può rappresentare un buon inizio.
Analizzando diversi brevetti rilasciati da Google, e grazie a piccoli test che abbiamo effettuato su
alcuni siti web, possiamo affermare che all’interno dell’anchor text:
• è consigliabile usare testi brevi e descrittivi: dobbiamo dare un’idea di cosa andremo a
visitare. Evitiamo di inserire all’interno dei nostri link interni testi del tipo “clicca qui” o
“visita questa pagina” e diamo invece il giusto nome alla pagina che stiamo linkando;
• i link testuali sono da preferire rispetto ai link realizzati con immagini, perché potrebbero
migliorare l’indicizzazione della pagina;
• la lunghezza massima di un link, o meglio dell’anchor text di un link, non dovrebbe
superare le 8-10 parole. Infatti, Google sembra indicizzare le prime 8 parole dei link e
troncarle dopo circa 60 caratteri. Al link seguente è possibile approfondire quanto
affermato:
http://www.searchbrain.it/news/come-ti-smonto-google-una-piccola-scoperta-seo/;
• il peso dato ai link presenti nel footer e nella sidebar sembra essere calato. Pertanto, i link
adoperati per costruire un menu di navigazione dovrebbero essere posti in alto (in termini
di codice), sopra i contenuti (in relazione all’ambito SEO);
• i link devono essere semplici da individuare e possono essere formattati utilizzando i CSS
per uniformarsi al meglio con il layout del nostro sito web.
NOTA
I link a siti/risorse esterne possono avere grande rilevanza. Sebbene occorra non esagerare
con il numero di link che puntano all’esterno, se questi sono coerenti col tema e puntano a
risorse di valore o autorevoli, allora diventano sinonimo di qualità del sito e ne fanno
aumentare la considerazione. Il fattore determinante è, ancora una volta, l’attinenza.
Ritorneremo ancora sull’argomento, perché i link risultano importanti sia per gli utenti che
visiteranno il nostro sito per reperire le informazioni che ricercano, sia per i motori di ricerca, al
fine di capire le informazioni correlate a tali link.
Figura 4.10 - Esempio di visualizzazione nel browser dell’attributo title interno a un collegamento ipertestuale.
Attributo Rel=”NoFollow”
Nel 2005 i tre principali motori di ricerca (Yahoo!, Google e Microsoft) iniziarono una
campagna atta a ridurre l’efficacia di spam. Una delle azioni fu quella di adottare il tag
rel=”nofollow”, in modo che il motore di ricerca non passasse la reputazione della pagina al link
in questione.
Questa soluzione potrebbe essere utile nel caso di siti web con commenti (o forum, guestbook,
bacheche) interni; una tecnica molto usata dagli spammer è quella di inserire nei commenti link ai
loro siti web. Mettendo l’attributo rel=”nofollow” a eventuali link che compariranno nei
commenti, avviseremo i motori di ricerca che noi non conosciamo tali link e quindi non vogliamo
passare loro la nostra reputazione. In modo analogo, potremmo utilizzarlo per linkare un sito web
a cui non vogliamo passare la reputazione. Ovviamente, è sconsigliato utilizzare tale attributo nei
collegamenti interni a pagine del nostro sito web (l’unico caso in cui avrebbe senso sarebbe
quello in cui volessimo collegare una pagina interna del sito con una che è stata penalizzata dai
motori di ricerca o a cui vogliamo dare meno tempo). Un recente aggiornamento del W3C su
HTML5 parla del nofollow in maniera molto ambigua: “The nofollow keyword may be used with
a and area elements. This keyword does not create a hyperlink, but annotates any other hyperlink
created by the element (the implied hyperlink, if no other keywords create one). The nofollow
keyword indicates that the link is not endorsed by the original author or publisher of the page, or
that the link to the referenced document was included primarily because of a commercial
relationship between people affiliated with the two pages”
(http://dev.w3.org/html5/spec/links.html). Quindi potrebbe essere interpretato o come contenuto
su cui non abbiamo il controllo editoriale o come contenuto con cui vi siano rapporti
commerciali. L’evoluzione degli algoritmi di ricerca e la diversità di definizione messa in atto
dai diversi motori di ricerca porterebbe addirittura a un’interpretazione diversa di questo meta
tag. A nostro avviso, il tag nofollow utilizzato nei link potrebbe giocare un ruolo molto
importante in termini di passaggio o meno della polarità di un sito web nell’era dei social
network.
Recenti dichiarazioni di Matt Cutts (http://www.mattcutts.com/blog/guest-blogging/) sull’uso dei
Guest Posting e sull’utilizzo nei widget e nei link di affiliazione di link follow con anchor text
esatti hanno fatto sì che tale attributo (rel=”nofollow”) risulti fondamentale per i webmaster, per
non incappare in sgradevoli penalizzazioni.
NOTA
L’attributo nofollow viene utilizzato anche per impedire il passaggio di PageRank da una
pagina all’altra (ma nell’ultimo periodo, a causa delle continue evoluzioni del web, questo
tag, come visto precedentemente, potrebbe essere interpretato anche in maniera differente):
per un maggiore approfondimento consigliamo la lettura di questo post:
http://www.mattcutts.com/blog/pagerank-sculpting/
Inoltre non è del tutto corretto affermare che gli spider di Google non seguono i link con
attributo nofollow. La presenza di un attributo nofollow in un link induce Google a ignorare il
link per quello che è inerente al trust o ai segnali di ranking, ma ovviamente non garantisce
che la risorsa venga ignorata.
Attributo Rel=”Canonical”
Si tratta di un tag introdotto recentemente (nel 2009) da Yahoo!, Bing e Google e utilizzato per la
gestione dei contenuti duplicati. Come avevamo già accennato, utilizzare contenuti duplicati
all’interno delle nostre pagine web può causarne la penalizzazione. La canonizzazione degli URL
è quindi il processo messo in atto dai motori di ricerca per scegliere qual è il migliore URL
avendo a disposizione una serie di alternative. Agli occhi dei motori di ricerca, il nostro sito
web potrebbe avere pagine con contenuto identico ma raggiungibili da URL differenti. L’utilizzo
del tag rel=”canonical” ci consente di specificare la versione preferita dell’URL che il motore di
ricerca dovrebbe indicizzare (e visualizzare nelle SERP). Analizziamo un caso: supponiamo di
avere un sito web con una vetrina di prodotti; il link alla pagina del prodotto “ergal-bike” è il
seguente:
Il prodotto appartiene a una categoria specifica, cioè quella product-ergal, e potrebbe essere
anche raggiunto dal seguente link:
Il prodotto, come abbiamo detto, può avere “colorazioni differenti” e quindi potrà, per esempio,
essere raggiunto da questo link:
Tutti questi URL produrranno la visualizzazione della medesima pagina (o di pagine molto
simili), ma non sapremo quale di queste il motore di ricerca utilizzerà nel suo processo di
indicizzazione. In nostro aiuto arriva il nuovo tag rel=”canonical”, che consente, nel nostro caso
specifico, di indicare che la pagina canonica preferita è A:
NOTA
Questa tecnica deve essere adottata solo per le pagine presenti su un unico dominio; se
abbiamo spostato delle pagine su altri domini, è consigliabile utilizzare il redirect 301, come
vedremo nei prossimi paragrafi.
Dal punto di vista del posizionamento, la canonizzazione degli URL aiuta a concentrare i fattori
principali che influiscono sul PageRank su un’unica pagina, consentendo di sfruttare al meglio la
link popularity di cui gode un sito. Per ulteriori approfondimenti vi consigliamo i post seguenti:
http://tinyurl.com/rel-canonical
e:
http://tinyurl.com/seomoz-canonical
NOTA
Ricordiamo che il crawler deve poter accedere alla risorsa per poter leggere questo tag,
quindi non deve essere bloccato dal file robots.txt!
Ovviamente questo tag può facilmente andare in conflitto con altre istruzioni, come ad
esempio:
• tag di paginazione;
• meta robots nofollow;
• meta robots noindex.
In caso di istruzioni contrastanti normalmente viene ignorato.
Inoltre va ricordato che, come più volte specificato da Google, i rel=canonical non sono
sempre sufficienti per risolvere problemi di duplicazione di contenuti o risorse.
Attributo Rel=”Alternate”
Google ha recentemente annunciato una nuova metodologia per cercare di risolvere problemi
inerenti ai contenuti duplicati su siti multilingua in cui il template viene adattato alla lingua
dell’utente, mentre i contenuti restano nella lingua originaria. Tale situazione può verificarsi
quando il contenuto principale rimane nella lingua in cui è stato originariamente scritto, ma:
• abbiamo un menu di navigazione tradotto in diverse lingue;
• abbiamo un footer che si adatta alle diverse lingue supportate dal sito web;
• abbiamo sottomenu ad azioni specifiche tradotti in varie lingue.
Supponiamo che vi siano comunità o siti in cui è richiesta la registrazione dell’utente, che può a
sua volta crearsi una pagina del profilo. Per esempio, www.miosito.it/marco sarà il sito in lingua
madre italiana, mentre fr.miosito.it/marco sarà la versione francese ed en.miosito.it/marco sarà
quella inglese. Tutte queste versioni avranno i contenuti nella lingua madre (l’italiano), ma i menu
saranno tradotti nelle rispettive lingue. Tale situazione porterebbe ad avere pagine molto simili a
livello di contenuti, con conseguente rischio di penalizzazione.
Google propone una soluzione a queste tipologie di problemi: quella, cioè, di utilizzare appositi
attributi da inserire nei link che puntano alle versioni tradotte delle diverse pagine:
• rel=”alternate”: serve a specificare che si tratta di una pagina alternativa;
• hreflang=”codice della lingua ISO-639”: per identificare in quale lingua è stato tradotto
il template.
Figura 4.11 - Esempio di una situazione a rischio di penalizzazione: pagine con contenuti simili ma con menu in lingue
diverse.
Nella pagina canonica, quindi, cioè quella che sarà la versione base, verranno riportati i diversi
link alle pagine che avranno il template tradotto:
Questa tecnica è destinata ai siti in cui viene tradotto soltanto il modello (il template); non è
adatta a siti in più lingue i cui contenuti vengano tradotti completamente (in quanto avranno
URL e contenuti diversi e non si corre il rischio di penalizzazioni).
Fonte ufficiale:
http://googlewebmastercentral.blogspot.com/2010/09/unifying-content-under-multilingual.html
Ma allora qual è la differenza nell’uso di un tag piuttosto che di un altro? Dobbiamo precisare
che l’utilizzo di questi tag a livello di posizionamento esercita un’influenza molto bassa. Inoltre,
secondo una dichiarazione di Matt Cutts, non vi è alcuna differenza nell’utilizzo di questi tag; essi
vengono considerati con ugual peso.
NOTA
Sul motore di ricerca ranking di SEOmoz, i tag grassetto e strong sono elencati alla posizione
# 16, con un’influenza minima sul PageRank. Secondo Matt Cutts, Google considererebbe tali
tag con egual peso.
Detto ciò, dobbiamo però tenere presente che <b> e <strong> e <i> e <em>, anche se possono
sembrare uguali (a livello di rendering nel browser), hanno un significato assai diverso:
• i tag <b> e <i> servono a indicare al browser come visualizzare i caratteri racchiusi entro
tali tag;
• il tag <em> indica enfasi, mentre il tag <strong> indica un’enfasi semantica, che può
essere trasmessa da lettori vocali a persone con problemi di accessibilità.
Questo ci fa capire come, in realtà, l’utilizzo di tag che forniscono un risultato “simile” agli occhi
degli utenti possa essere interpretato in maniera differente dai browser o da strumenti per la
lettura dei testi. Poiché tutto, sul web, è ormai legato alla semantica, per aumentare le possibilità
di classifica è consigliabile:
• utilizzare il tag <strong> ed evitare il tag <b> (ormai deprecato);
• preferire il tag <em> al posto del tag <i>;
• utilizzare il corsivo <em>, in quanto sembra avere una rilevanza maggiore rispetto allo
<strong>;
• non abusare dei tag <em> e <strong>;
• utilizzare opportunamente i tag per evidenziare le parole che potrebbero comparire nella
SERP dei risultati, quindi colpire maggiormente l’attenzione degli utenti;
• minimizzare l’adozione di font-weight: bold (nei CSS), poiché è preferibile utilizzare il tag
<strong>.
NOTA
Usare il grassetto sulle keyword sembra incidere poco a livello di posizionamento. A ogni
modo, il grassetto potrebbe essere utilizzato per evidenziare keyword del contenuto che
compaiono nel tag title e nel meta tag description. Per Bing, invece, sembra essere importante
la presenza di una keyword nel tag BOLD (<b>).
NOTA
Questa pratica deve diventare di uso comune per tutti i webmaster: affinché un sito sia
validato secondo gli standard W3C, la presenza dell’attributo alt per le immagini costituisce
uno dei requisiti fondamentali.
Per quanto riguarda la SEO, sarebbe ottimo affiancare al testo un’immagine contenente nell’alt
una keyword che appare anche nel contenuto a fianco dell’immagine, come per esempio nel tag
<title> e nel meta tag description. Come sempre, non bisogna abusare di queste tecniche, ma
amalgamarle per ottenere i migliori risultati. Una buona idea potrebbe essere quella di usare
delle immagini per costruire elenchi puntati di link contenenti keyword, utili nel caso di pagine
con pochi contenuti (potete osservare un esempio di questa tecnica nella Figura 4.13).
Figura 4.13 - Elenco puntato con immagini con l’utilizzo dell’attributo alt per rafforzare la presenza delle keyword.
NOTA
L’attributo title del tag <img> può essere usato per definire i tooltip visibili quando viene
posizionato il cursore sopra l’immagine. Anche se la sua utilità in termini di SEO non è
comprovata, consigliamo di utilizzarlo per migliorare la user experience del proprio sito
web.
HTML 5 e SEO
L’HTML 5 è un linguaggio di markup per la costruzione di pagine web che con il tempo andrà a
sostituire l’attuale HTML 4.01, di cui rappresenta la naturale evoluzione. Per tale motivo, anche
in ambito SEO dovremo aspettarci novità e cambiamenti. Affrontarli in anticipo ci consentirà di
agire sulle nostre pagine per migliorarne l’indicizzazione in un modo sempre più orientato verso i
metadati e le strutture semantiche. I motori di ricerca stanno diventando sempre più intelligenti:
utilizzare quella che viene definita segmentazione (cioè una pagina è divisa in varie parti distinte
e queste parti sono trattate come voci separate) è importante al fine di migliorare il
posizionamento del sito web. Attualmente non vi è un modo per fare questo, ma con HTML 5 la
situazione potrebbe cambiare radicalmente. Infatti HTML 5 (utilizzato con CSS3) introduce
diversi nuovi tag per modellare in maniera semplice il layout di un sito web e fornire
informazioni e metadati aggiuntivi ai motori di ricerca. Da qui ci accorgiamo come il web stia
assumendo un’impronta semantica; di conseguenza, sia i motori di ricerca, sia i linguaggi di
programmazione devono adattarsi a tali cambiamenti.
Figura 4.14 - Struttura di un sito secondo HTML.
Il tag <header>
Il tag <header> è una benedizione per gli esperti SEO, perché aggiunge una notevole flessibilità
al layout delle pagine web. Il tag <header> è molto simile al tag <H1>; la principale differenza è
data dal fatto che può avere diversi contenuti come H1, H2, H3, possedere interi paragrafi di
testo, hard-coded link. Con questo elemento si raggruppano i contenuti presenti nell’intestazione
del documento HTML.
Il tag <nav>
La facilità di navigazione di un sito web è uno dei fattori importanti per gli esperti SEO. Il tag
<nav> è preposto a contenere gli elementi di navigazione della pagina. Sarà quindi un tag molto
utilizzato dagli spider per indicizzare i contenuti di un sito web.
Il tag <article>
Il tag <article> permette di contrassegnare le voci separate in una pubblicazione online, come un
blog o una rivista. Si prevede che, nel caso di articoli contrassegnati con il tag <article>,
quest’ultimo renderà il codice HTML più pulito, perché ridurrà la necessità di utilizzare i tag
<div>.
Il tag <section>
Il tag <section> può essere utilizzato per identificare le sezioni separate di una pagina, di un
capitolo o di un libro.
Il tag <hgroup>
Serve a raggruppare due o più intestazioni successive all’interno di una sezione. Esso può essere
composto dai tag h1 fino a h6.
Il tag <figure>
L’elemento figure serve per rappresentare diagrammi, immagini o contenuti grafici in generale. A
questo tag possiamo associare una didascalia grazie all’elemento figcaption.
Il tag <video>
Il nuovo elemento cross-browser che fornisce il supporto a contenuti multimediali.
Il tag <aside>
Con questo elemento si raggruppano i contenuti secondari del documento HTML, tipicamente
quelli gestiti nelle barre laterali di un sito web.
Il tag <footer>
Il tag <footer> può essere utilizzato più volte all’interno di una medesima pagina e serve per
chiudere delle sezioni e fornire informazioni sulla pagina.
NOTA
I tag che abbiamo descritto sono solo alcuni dei tanti e ci vorrebbe un intero libro per
illustrarli tutti; per approfondire l’argomento rimandiamo il lettore al seguente articolo:
http://www.w3schools.com/html/html5_new_elements.asp
HTML 5 si sta diffondendo sempre più, e anche i motori di ricerca, come vedremo nei prossimi
paragrafi, stanno adottando nuove funzionalità derivanti da questo linguaggio (markup, snippet,
rel next e prev ecc.).
I vantaggi legati all’uso di HMTL 5 sono numerosi:
• miglioramenti in usabilità e user experience;
• inserimento e adozione di tag che aiuteranno gli sviluppatori nella classificazione dei
contenuti;
• contenuti web ricchi (audio & video);
• costituisce una valida alternativa a Flash e Silverlight;
• è ormai ampiamente utilizzato per applicazioni mobili e giochi.
Quando HTML5 passerà alla release ufficiale, ci sarà un grosso cambiamento nel campo SEO,
poiché verranno utilizzati nuovi campi e nuove strutture da parte dei motori di ricerca per
indicizzare contenuti e pagine web. Tuttavia, una volta che HTML 5 sarà usato dalla comunità
web, esso diventerà lo standard dominante negli anni a venire, ed è per questo che risulta
opportuno testare e tenere d’occhio questa tecnologia, che cambierà l’approccio allo sviluppo di
applicazioni per il web.
NOTA
HTML 5 introdurrà anche tag rel (<a rel=”value”>) con significati semantici atti a definire la
relazione che intercorrerà tra i diversi link. Ciò, a nostro avviso, modificherà lo scenario
SEO introducendo nuovi e interessanti parametri da prendere in considerazione.
Il Web Semantico
Siamo giunti a uno stadio in cui le informazioni che circolano sulla rete sono divenute
incontrollabili e anche difficilmente categorizzabili. I motori di ricerca ci aiutano nel reperire le
informazioni, ma spesso questo non basta. Magari quello che cerchiamo è nascosto all’interno di
un sito poco indicizzato ed è proprio lì che risiede il vero valore. In questo contesto nasce il
Web Semantico (Semantic Web), un’architettura universale atta allo scambio di informazioni e
conoscenza. Il Semantic Web dovrà integrare e sostituire il web normale per esprimere concetti e
informazioni in maniera comprensibile alle applicazioni. In poche parole, con Web Semantico si
intende la trasformazione di Internet in un ambiente dove è possibile fornire informazioni e dati in
un formato adatto all’interrogazione, all’interpretazione e, più in generale, all’elaborazione
automatica. Tra le varie tecnologie adottate per giungere a tale scopo, troviamo:
• XML (eXtensible Markup Language), un metalinguaggio che fornisce un insieme standard
di regole sintattiche per modellare la struttura di documenti e dati (utilizzato, per esempio,
per le Sitemap e i Feed RSS);
• URI (Uniform Resource Identifier): serve a identificare in modo univoco una risorsa;
• OWL: serve per identificare espressioni di relazioni tra le proprietà in ontologie;
• DAML+OIL, linguaggio di ontologia orientato agli oggetti (Object Oriented);
• Web Service, un insieme di servizi atti a supportare l’interoperabilità tra diversi
dispositivi.
Con il termine Web Semantico si intende quindi la trasformazione del World Wide Web in un
ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) sono associati a
informazioni e dati (metadati) che ne specificano il contesto semantico in un formato adatto
all’interrogazione, all’interpretazione e, più in generale, all’elaborazione automatica. I principali
motori di ricerca si stanno adoperando per cercare di sfruttare la ricerca semantica all’interno
dei loro algoritmi, in modo da fornire risultati sempre più precisi ed eliminare lo spam nelle
SERP.
NOTA
In questo scenario, il primo grande cambiamento di Google è stato quello strutturale. Il vecchio
motore è stato completamente rimpiazzato da un nuovo motore semantico in grado di individuare
entità univocamente riconoscibili nelle pagine web e stabilirne le relazioni con tante altre entità.
Le relazioni tra le varie entità sono l’aspetto fondamentale su cui si costruisce il nuovo motore,
perché danno la possibilità a Google di approssimare una risposta per deduzione. Questa
capacità deduttiva basata sulle relazioni tra le varie entità conferisce a Google una sorta di
intelligenza artificiale che gli permette di rispondere con certezza su molti argomenti di cui è
“bene informato” e di dedurre possibili risposte attraversando le relazioni tra gli elementi
dell’ormai noto Knowledge Graph.
In concreto, se cerchiamo le parole “lago Tahoe” su Google, il motore di ricerca è in grado di
fornirci tutto quel che sa a proposito del lago: la sua posizione, la sua altitudine, la sua
temperatura media e il grado di salinità delle sue acque. In passato, se cercavamo “lago Tahoe”,
Google ci restituiva solo dei link all’ufficio turistico del lago, la relativa pagina di Wikipedia e
un link alla mappa della località.
Per fornire risposte a questo tipo di domande, il motore unisce una nuova tecnologia di ricerca
semantica al suo attuale sistema di indicizzazione dei contenuti. L’obiettivo? Riconoscere meglio
il valore delle informazioni pubblicate sul web e capire, quindi, quali contenuti mostrare nei
risultati della ricerca. Tutto questo dovrebbe avvenire non più affidandosi soltanto alla lettura
delle parole chiave contenute nelle pagine del web, ma attraverso il riconoscimento di specifiche
“entità”.
Google spera, inoltre, che la ricerca semantica possa invogliare le persone a trascorrere più
tempo sul suo sito, entrando così in competizione con Facebook e Twitter, tra i maggiori siti al
mondo per tempo medio di navigazione.
La mossa verso la ricerca semantica potrebbe spingere milioni di siti web a riorganizzare le loro
pagine, modificando ciò che viene chiamato il “linguaggio di mark-up” per agevolare il recupero
delle informazioni (in questi termini si è espresso Larry Cornett, web-search executive di
Yahoo!).
Singhal ha fatto sapere che Google e Metaweb Technologies hanno ampliato questo database fino
a raggiungere la quota di 200 milioni di “entità”, in parte attraverso lo sviluppo di algoritmi di
estrazione e formule matematiche che semplificano l’organizzazione dei dati raccolti nel web.
Google si è spinta anche oltre, interpellando organizzazioni e agenzie governative per ottenere gli
accessi a un gran numero di database, tra cui il CIA World Factbook, che raccolgono
informazioni aggiornate di carattere enciclopedico sui Paesi di tutto il mondo.
Oggi Google è un motore di ricerca molto complesso e con Hummingbird è decisamente intent
based, ossia tendente a comprendere quale sia l’intenzione che sta dietro la ricerca dell’utente,
quindi l’approccio del SEO deve essere completamente diverso.
Insomma, il Web Semantico si sta avvicinando a grandi passi e stravolgerà il modo di concepire
il web e soprattutto la SEO. Concetti come quello di Linked Open Data (LOD) si stanno
diffondendo nell’ambito web; cerchiamo di capirne di più. Al giorno d’oggi, l’idea di collegare
le pagine web utilizzando i collegamenti ipertestuali è ovvia, ma risale a 20 anni fa. Il concetto su
cui si basa il Linked Data è quello di definire opportune regole per la pubblicazione dei dati sul
web in modo che essi possano essere facilmente individuati, incrociati e manipolati dalle
macchine. Tutte queste informazioni sono organizzate in modo semantico secondo i concetti
dell’RDF. In sostanza, il LOD ci permetterà di pubblicare dati strutturati in modo che possano
essere interconnessi tra di loro e sia possibile stabilire delle relazioni tra di essi.
Alla base di tutto vi sono fondamentalmente due concetti:
• Web Semantico;
• URI, Uniform Resource Identifier.
Linked Open Data è la rappresentazione di dati strutturati migliorati attraverso l’uso di URI
HTTP; in sostanza, stiamo parlando di entità-relazioni rappresentate da dati strutturati basati su
modelli in cui le entità, gli attributi e i valori di attributi sono indicati da link.
C’è ancora molta strada da fare prima che questi concetti vengano realmente applicati al mondo
del web di tutti i giorni e soprattutto alla SEO, ma con Schema.org, hashtag ecc., ci stiamo
avvicinando a questa tipologia di rappresentazione, che sicuramente costituisce il futuro dei
collegamenti ipertestuali semantici.
I dettagli del progetto si possono trovare all’indirizzo: http://linkeddata.org/
Figura 4.16 - Semantica sul web.
I microformati
All’interno del Web Semantico si collocano anche i microformati, che non sono altro che una
parte di mark up presente in una pagina web, con un intrinseco valore semantico. L’uso di
standard largamente adottati come l’(X)HTML li rende modulari e semplici da utilizzare.
Figura 4.17 - Microformats.org, i microformati.
NOTA
Vediamo un esempio pratico di utilizzo; per prima cosa, prendiamo in considerazione una
porzione di codice html:
Attualmente, Google supporta tre linguaggi di marcatura per i dati strutturati: i microformati,
RDFa del W3C e lo standard microdata dell’HTML 5. Nonostante l’approvazione del W3C,
RDFa risulta decisamente più articolato da padroneggiare e gestire in confronto ai microformati
e, teoricamente, questo fattore ostacola la sua diffusione. Ciò non significa che non valga la pena
di utilizzarlo, poiché presenta vantaggi potenziali, come l’utilizzo di un minor numero di codici di
marcatura, che implica pagine di dimensioni più piccole. Anche lo standard microdata
dell’HTML 5 sembra molto promettente, ma allo stato attuale è ancora in fase “beta”.
NOTA
Secondo Google i microdati utilizzano semplici attributi nei tag HTML per assegnare nomi
brevi e descrittivi a elementi e proprietà. RDFa è un modo per associare etichette ai
contenuti al fine di descrivere uno specifico tipo di informazioni (http://tinyurl.com/meta-
rdfa).
Ora che abbiamo compreso l’utilità di questi strumenti, analizziamoli in modo più approfondito
attraverso esempi pratici. Utilizziamo i microformati (essendo questi i più utilizzati e semplici da
implementare) per descrivere la nostra organizzazione.
È utile creare tale struttura nella pagina di contatti dell’attività: analogamente, possiamo sfruttare
i microformati per creare schede informative riferite a persone o enti. Si può proporre l’utilizzo
dei microformati, implementandoli all’interno di una scheda prodotto, com’è illustrato nella
Figura 4.20.
Abbiamo quindi potuto apprezzare e osservare la facilità di utilizzo di queste strutture di dati, che
si integrano appieno con il nostro codice HTML. Per vedere ulteriori esempi, vi consigliamo di
visionare i seguenti link:
• http://tinyurl.com/Gmarking
• http://tinyurl.com/GReviews
• http://tinyurl.com/Gpeople
• http://tinyurl.com/GBusiness
Dopo aver creato le pagine contenenti i microformati, non ci resta altro che:
• validare il nostro codice di markup che utilizza i microformati:
http://www.google.com/webmasters/tools/richsnippets
o:
http://microformats.org/wiki/validator
• segnalare a Google il nostro sito web:
http://tinyurl.com/submit-snippet
NOTA
È molto importante seguire l’evoluzione tecnologica che accompagna la crescita del web
moderno, in quanto i vari motori di ricerca si spingeranno sempre di più verso questi scenari
per migliorarsi. Abbiamo già accennato a come Google utilizzi già i microformati: anche
Bing e Yahoo! hanno annunciato di utilizzarli. Ciò fa comprendere l’importanza dell’utilizzo
dei microformati all’interno delle nostre pagine web. A sostegno di questa tesi, troviamo la
notizia dell’acquisto di Metaweb (società specializzata nella catalogazione e archiviazione
delle ricerche sulle pagine web e il loro significato) da parte di Google.
I Microdati e Schema.org
Abbiamo visto l’utilizzo dei Microformati. Oltre a questi, esistono i Microdati, che, assieme a
RDFa, vanno a completare l’insieme delle strutture semantiche da utilizzare per fornire
informazioni strutturate ai motori di ricerca.
Grazie a HTML 5 è possibile espandere il core set dell’HTML classico con l’aggiunta di
vocabolari personalizzati (tramite i microdati, per l’appunto) che ci consentono di fornire
informazioni semantiche ai principali motori di ricerca. Nel luglio 2011, infatti, i principali
motori di ricerca, come Google, Bing e Yahoo!, si sono uniti sotto un unico “cappello”
Schema.org per creare e sostenere una serie di schemi per la marcatura di dati strutturati sulle
pagine web. Lo scopo principale di Schema.org è quello di fungere da punto di riferimento per i
webmaster, per facilitare l’utilizzo, da parte loro, dei microdati.
NOTA
Per comprendere meglio cosa siano i microdati, vediamo come Google li descrive:
La specifica dei microdati HTML5 è un modo per assegnare etichette ai contenuti al fine di
descrivere un tipo specifico di informazioni (ad esempio, recensioni, informazioni su
persone o eventi). Ogni tipo di informazione descrive uno specifico tipo di elemento, come
una persona, un evento o una recensione. Ad esempio, un evento ha proprietà quali il luogo,
l’ora di inizio, il nome e la categoria.
L’utilizzo dei microdati è più semplice di quanto possa sembrare: per ogni pagina HTML in cui
vogliamo sfruttare tali strutture possiamo specificare particolari attributi che ci consentono di
definire oggetti semantici. Troviamo, quindi, due elementi - radice itemscope e radice itemtype -
che ci servono come contenitore delle informazioni che vogliamo specificare:
• itemscope è il contenitore dell’oggetto e serve a identificare l’elemento;
• itemtype identifica e descrive il vocabolario in cui viene specificato il tipo di oggetto.
Infine, troviamo l’attributo itemprop, che deriva dai due elementi radice appena descritti e che
definisce la proprietà che verrà valorizzata con il testo contenuto presente nel tag. Vediamo un
esempio di utilizzo dei microdati:
Analizziamone il funzionamento:
• nella prima riga itemscope indica che i contenuti racchiusi tra i tag <div> sono un
elemento;
• http://schema.org/Person indica che l’elemento è una persona;
• ogni proprietà dell’elemento persona è identificata con l’attributo itemprop. Ad esempio,
itemprop=”name” descrive il nome della persona.
In modo analogo, possiamo creare strutture semantiche per diverse tipologie di oggetti definite in
Schema.org. Infine, per poter verificare la correttezza dei tag semantici, possiamo sfruttare lo
strumento di Google per i Rich Snippets, come mostrato nella Figura 4.21.
https://search.google.com/structured-data/testing-tool
Figura 4.21 - Esempio di validazione struttura con i microdati con lo strumento Rich Snippets di Google.
I microdati sono quindi un valido strumento che dovrebbe essere utilizzato in qualsiasi sito web
(come, per esempio, negli e-commerce, per descrivere attraverso strutture semantiche i propri
prodotti) al fine di migliorare le informazioni fornite agli utenti e generare i Rich Snippet,
conferendo quindi un valore aggiunto alle informazioni presenti nella SERP.
NOTA
Vogliamo precisare che non solo Google utilizza i Rich Snippet nella SERP, ma anche gli
altri principali motori di ricerca, come, per esempio, Bing, hanno iniziato di recente a
sfruttarli. Motivo in più per iniziare a implementare pagine web sfruttando i microdati.
Inoltre possiamo sfruttare JSON-LD per inserire strutture dati sviluppate con Schema.org; per
maggiori info https://developers.google.com/schemas/formats/json-ld.
Rich Cards
Google è sempre attivo e nell’ultimo periodo sta concentrando i suoi sforzi nelle SERP per
migliorarle. Dopo aver eliminato la barra di destra per gli annunci di ADWords, introdotto le
pagine AMP e avere aumentato i caratteri visibili per i titoli e le descrizioni in SERP, ha diffuso
un nuovo formato semantico, ovvero le Rich Cards, per fornire contenuti in maniera più
coinvolgente e visivamente accattivante. Attualmente sono disponibili per le ricette, i video, i
ristoranti e i corsi online ma non è detto che non vengano a breve estese ad altre strutture dati.
Google ha predisposto una guida per implementare queste CARD visualizzabili in formato
carosello consultabile all’url https://developers.google.com/search/docs/guides/mark-up-content.
Come avviene per i Microdati, è consigliato:
• usare JSON-LD;
• validare la struttura dati con lo strumento di Google https://search.google.com/structured-
data/testing-tool;
• sfruttare il nuovo formato all’interno delle pagine web.
Le Rich Cards sono sicuramente un nuovo strumento molto potente in mano sia agli editori che
agli sviluppatori per implementare pagine che abbiano un aspetto coinvolgente in SERP. Tutto
questo, inoltre, è tracciabile dalla Search Console di Google sia per conoscere le Cards corrette
sia per avere un’idea di quanti visitatori atterrano sul nostro sito sfruttando questa nuova
“funzionalità” di Google.
Open Graph
Quando parliamo di Web Semantico dobbiamo fare un doveroso accenno agli Open Graph.
Facebook ha introdotto l’OpenGraph, che ci permettere di aggiungere delle informazioni
strutturate alle pagine web, in modo tale da avere un maggiore controllo su come i contenuti
appaiono quando vengono condivisi su Facebook. Grazie alla sua diffusione, l’Open Graph è
stato riconosciuto come standard anche da altri social network, come Twitter, Google e LinkedIn.
Esso si basa su una serie di tag personalizzabili da inserire nell’<head> delle pagine Web. La
sintassi è molto semplice e la illustreremo brevemente:
• og:url: l’url canonica dell’articolo;
• og:title: il titolo dell’articolo;
• og:description: la descrizione dell’articolo;
• og:site_name: il nome del sito che pubblica la notizia;
• og:image: l’immagine di anteprima Facebook consiglia immagini di circa 1200 x 630
pixel.
Ecco un esempio:
È altresì possibile, infine, inserire il proprio nome nell’articolo linkato a un indirizzo e-mail
verificato. Infatti, alla fine di ottobre 2011 Google ha introdotto un modo semplificato e, in
tanti casi, automatico, per associare le pagine di un sito web ai profili Google+. Se una
persona pubblica e convalida il proprio indirizzo e-mail sul suo profilo Google+ e inserisce
il medesimo indirizzo e-mail in tutti i suoi articoli, Google collegherà gli articoli al profilo
Google+ dell’autore. Questa pratica potrebbe portare spam verso l’indirizzo e-mail utilizzato
e, per tale motivo, ne sconsigliamo l’utilizzo. Per maggiori informazioni:
http://tinyurl.com/markup-mail.
NOTA
Così facendo, attiveremo gli Authorship Markup anche per siti web in cui collaborano più autori.
Per verificare i passi eseguiti, possiamo utilizzare lo strumento di Google per i Rich Snippet:
http://www.google.com/webmasters/tools/richsnippets.
Se tutto è andato a buon fine, potremo apprezzare la potenzialità di questo risultato nella SERP di
Google, come mostra la Figura 4.27. Ma, dopo agosto 2014, questo non è più possibile. Infatti in
una dichiarazione John Mueller, portavoce di Google, ha detto:
Figura 4.26 - Lo strumento Rich Snippet di Google.
Figura 4.27 - Come si presentavano gli Authorship Markup nella SERP di Google.
“Sono stato coinvolto sin dalle fasi iniziali dei test sull’authorship markup, e della
visualizzazione dello stesso nei risultati delle ricerche. Abbiamo ricevuto un sacco di feedback
utile da webmaster e utenti, e abbiamo ottimizzato, aggiornato e affinato il riconoscimento e la
visualizzazione delle informazioni sull’authorship. Purtroppo, abbiamo anche osservato che
questa informazione non è utile ai nostri utenti come avevamo sperato, e può anche distrarre dai
risultati. In base a ciò, abbiamo preso le difficile decisione di interrompere la visualizzazione
dell’authorship nei risultati di ricerca.”
I nuovi tag rel=”next” e rel=”prev”
Tipicamente, nella gestione di news o in cataloghi di e-commerce online si sfrutta la paginazione
per suddividere un elenco di pagine. Google ha cercato di facilitare l’operatività ai webmaster, i
quali possono utilizzare i tag rel=”next” e rel=”prev” assieme al tag canonical per evitare
duplicazioni di contenuti, consentendo un’organizzazione strutturale delle informazioni.
NOTA
Ricordiamo che il tag rel=”canonical” permette di indicare a Google quale sia la pagina
principale all’interno di una sequenza di pagine “simili”.
Grazie all’utilizzo di questi nuovi tag, possiamo quindi dichiarare un ordine consequenziale delle
pagine per consentire agli utenti e al motore di ricerca una consultazione più semplice e lineare
dei contenuti.
Vediamo un esempio pratico fornito da Google per sfruttare tali tag.
Supponiamo di avere quattro URL con paginazione:
e nell’ultima pagina:
NOTA
Nel caso fossimo collegati con il nostro account Google, dobbiamo effettuare il log out
(disconnessione) per effettuare tale test.
Proviamo a digitare “vino” e “vini”: Google produce risultati differenti. Proseguiamo con “auto”
e “automobile” o “macchina”: anche in questo caso i risultati proposti si discostano in misura
notevole. Come ultimo test proviamo a impiegare diversi tempi verbali di una parola. Se fosse
ampiamente utilizzato LSI, i risultati di ricerca forniti dovrebbero essere molto simili. Proviamo
con “vincerò” “vinto”. Anche in questo caso i risultati divergono. Questo semplice test, a nostro
parere, serve a comprendere che, se anche i motori di ricerca usassero LSI, questo non
sembrerebbe influire in maniera così radicale sul posizionamento all’interno della SERP. Inoltre,
sembrerebbe che LSI, con numerosi carichi e una mole di dati, non risponda perfettamente: ciò
vorrebbe dire che Google potrebbe usare tecnologie migliori. Come sappiamo, nella SEO non
esistono certezze matematiche, quindi ogni considerazione va presa con cautela. A ogni modo,
possiamo attuare piccole modifiche in ambito SEO per cercare di approcciarci a LSI o a
metodologie simili (Google Suggest). I nostri consigli sono i seguenti:
• utilizzare sinonimi nell’anchor text: non avrebbe senso creare link che, per esempio,
utilizzino sempre e solamente la parola “SEO”; risulterebbe interessante variarli con
termini semanticamente simili, come Search Engine Marketing, posizionamento nei motori
di ricerca, motore di ricerca, ranking dei motori di ricerca;
• prendere in considerazione tutte le varianti di parole chiave suggerite da vari strumenti per
la generazione di keyword;
• nel corpo del documento utilizzare anche sinonimi e plurali per cercare di indicizzare più
keyword.
Questi semplici consigli, se ben amalgamati con quanto abbiamo visto e quanto vedremo in
seguito, potranno condurre a ottimi risultati in termini di posizionamento e visibilità. Ovviamente,
dobbiamo precisare che con il tempo i motori di ricerca miglioreranno i loro algoritmi, perciò è
sempre buona norma rimanere aggiornati sull’uscita di nuove tecnologie o sulla pubblicazione di
nuovi brevetti. Vi suggeriamo, a tale scopo, di seguire il blog www.seobythesea.com, che
propone in anteprima gli ultimi brevetti rilasciati dai principali motori di ricerca.
NOTA
Figura 4.28 - Utilizzo del tool per Firefox Google Semantics. Nell’esempio vengono forniti i sinonimi durante la ricerca
della parola “auto”.
A tale riguardo, vediamo un esempio di correlazione semantica individuata tramite LDA per
capirne il funzionamento:
La navetta spaziale ha viaggiato a lungo nello spazio prima di arrivare sulla Luna. Una
volta arrivata, le sonde esamineranno il suolo per cercare di stabilire se nelle profondità
dei crateri lunari si trova del ghiaccio.
Tale strumento può rivelarsi adatto per decidere se LDA possa realmente influire
sull’ottimizzazione SEO on page e quindi suggerirci quali sono le contromisure da adottare. Per
esempio:
• questo strumento può venire in aiuto per individuare le keyword più rilevanti per una
ricerca;
• ci permette di individuare la “bontà” di una determinata parola chiave;
• modificando il contenuto della pagina, possiamo scoprire come variano i risultati proposti
e agire di conseguenza.
L’argomento trattato è nuovo e di attualità; per questo crediamo che provare a effettuare
modifiche ad alcune pagine per testarle con questo strumento possa risultare interessante,
soprattutto con l’introduzione, da parte di Google, di strumenti che ci suggeriscono in automatico
le parole da cercare mentre le digitiamo nel browser (Google Instant). Testare e provare è
sempre una buona strategia SEO, ma bisogna anche prendere con le pinze le nuove scoperte e
approfondirle adeguatamente. LDA non è una nuova ricetta magica (è presente sul mercato da
quasi dieci anni), infatti l’importanza dei link, la validità dei contenuti e la link building
rimangono invariati per ottenere un corretto posizionamento, ma l’evoluzione degli algoritmi
utilizzati dai motori di ricerca potrebbe aprire nuove e interessanti strade, applicabili anche in
ambito SEO.
NOTA
Vogliamo segnalarvi due articoli in merito a LDA in cui potete trovare opinioni e pareri
contrastanti:
http://www.seomoz.org/blog/discussing-lda-and-seo-whiteboard-friday
http://seobullshit.com/lda-google-games
NOTA
NOTA
Non dimentichiamo della Search Console di Google che ci fornisce utili informazioni,
soprattutto a livello di dominio generale, indicando, per esempio, le metadescrizioni
duplicate, i tag title duplicati e le performance generali del nostro sito web.
Figura 4.33 - Suggerimenti forniti dalla Search Console di Google.
Ovviamente quello che abbiamo mostrato finora consiste in un rapido controllo automatico su
alcuni fattori. Per effettuare una vera Audit SEO, ovvero un’analisi approfondita, è necessario
analizzare diversi parametri tra cui i log di sistema, il comportamento del crawler, i tag, i
microdati, la velocità di caricamento, l’esperienza utente e così via. Nel Capitolo 5 analizzeremo
questi aspetti e approfondiremo tale analisi, per il momento vi consigliamo di scaricarvi
Screaming Frog (www.screamingfrog.co.uk) o Visual SEO (www.visual-seo.com), che ci
saranno molto utili per le nostre analisi on page.
Cosa ricordarsi?
• I Tag Html sono importanti, ma non sono l'unico strumento della SEO.
• Il Tag Title e Description variano in SERP e gli ultimi aggiornamenti hanno visto un
aumento di caratteri visibili.
• CBO è importante al fine di migliorare le risorse indicizzate, soprattutto per siti di grosse
dimensioni.
• Una buona struttura di navigazione di un sito web è fondamentale sia per gli utenti che per
i motori di ricerca.
• Schema.org è un primo passo verso concetti di strutture Web Semantiche.
• Le Rich Cards sono una delle ultime novità di Google in ambito snippet nelle SERP.
“Il design non è come sembra o come appare. Il design è come funziona.”
(Steve Jobs)
Capitolo 5
Architettura di un web project SEO
NOTA
Tuttavia, se per le applicazioni software desktop si può avere un profilo dell’utilizzatore finale
del software, ciò non è possibile per le applicazioni Intranet e, soprattutto, Internet, che si
rivolgono a utenti dei quali non sono note né le competenze informatiche, né i sistemi operativi
utilizzati. È dunque impossibile sapere quali competenze conservare e diviene essenziale cercare
l’esperienza minima comune a tutti gli utenti potenziali, che consiste nell’uso del browser e
dell’ipertestualità. È spontaneo chiedersi quale sia il modo ottimale per creare un’interfaccia lato
web che guidi l’utente durante le sue attività. Entra in gioco il concetto di consistenza, che
possiamo suddividere in tre entità:
• consistenza visiva: la similarità nell’apparenza e nella disposizione degli elementi grafici
che la compongono;
• consistenza nel comportamento: una determinata azione deve sempre produrre un risultato
simile; per esempio, tutti i bottoni si azionano con lo stesso tasto del mouse;
• consistenza funzionale: la stessa azione ha sempre lo stesso risultato.
Un’interfaccia progettata male può decretare l’insuccesso di programmi altrimenti ben scritti,
mentre una GUI (Graphic User Interface) accattivante può nascondere molte pecche. Questo
assioma, comunemente accettato nella programmazione tradizionale delle applicazioni desktop,
perde validità quando si costruiscono applicazioni Intranet: la GUI, infatti, influenza fortemente
tutta l’architettura del sistema e un errore nella sua analisi può condurre all’uso di tecnologie
inadatte a raggiungere gli obiettivi prefissati, costringendo alla riscrittura dell’intero sito web.
Per tale motivo, l’uso della consistenza ci permette di ottenere la riusabilità delle componenti di
interfaccia (esistono librerie di componenti di interfaccia con aspetto e comportamento
predefiniti) e di favorire la capacità di apprendimento da parte dell’utente. È evidente come
l’importanza dell’interfaccia utente, in ogni tipo di applicazione, sia molto elevata, e come, nel
caso di applicazioni Internet, non si limiti al lato estetico, ma ricada fortemente su tutto lo
sviluppo delle applicazioni. Ecco perché è fondamentale, per raggiungere i migliori risultati,
prestare attenzione, nella costruzione della GUI, sia all’utente a cui si rivolge l’applicazione, sia
al contesto in cui tale applicazione sarà usata e ai controlli necessari per renderla sicura ed
efficace.
NOTA
Un buon sito web dovrebbe avere una solida struttura di navigazione e rispettare i canoni di
accessibilità e usabilità (per esempio W3C).
Non è detto che un esperto SEO sia anche un programmatore, perciò, nella fase di sviluppo di un
sito web, le due figure (programmatore ed esperto SEO) devono lavorare in sinergia per
sviluppare un disegno architetturale che rispetti i seguenti punti:
• usabilità: un sito web deve essere facilmente navigabile e le informazioni devono essere
fornite in modo chiaro e conciso. Jakob Nielsen, il “guru” della usability, definisce
“usabile” (e quindi accessibile) un sito quando esso consente facilità ed efficienza di
utilizzo, permette pochi errori di interazione, è adeguato alle aspettative e ai bisogni degli
utenti e risulta facile da capire. L’uso di animazioni Flash, JavaScript e così via deve
essere ridotto e implementato solo per migliorare la user experience;
NOTA
Secondo la definizione data dalla norma ISO 9241, l’usabilità è il “grado in cui un prodotto
può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e
soddisfazione in uno specifico contesto d’uso”.
• accessibilità: le informazioni fornite da una pagina web o da un sito web devono essere
facilmente fruibili da tutte le persone. Per esempio, sarebbe opportuno dare agli utenti la
possibilità di aumentare il carattere delle scritte, in modo tale che possano essere lette
dalle persone che hanno difficoltà a leggere. Il layout del sito web deve essere simile su
tutti i dispositivi e browser web. In questo contesto dovrebbero essere utilizzati elementi
di programmazione (CSS, DIV HTML, per esempio) in modo tale da rispettare le
specifiche di accessibilità W3C (www.w3c.org);
NOTA
• fruibilità: un sito web deve poter essere visualizzato correttamente su diversi dispositivi e
browser. Con l’avvento di cellulari sempre più interattivi, risulta importante rendere i
contenuti dei nostri siti web fruibili anche da diversi apparati tecnologici.
A questo punto siamo pronti per procedere con il design architetturale del sito web. Individuato il
target degli utenti e i loro possibili bisogni, il passo successivo consiste nella definizione del
linguaggio di programmazione con cui implementare le nostre pagine web, e nella scelta di
utilizzare o meno risorse o CMS open source. Importante è progettare il sito web in modo che
attragga l’attenzione dei visitatori e sia in grado di rispondere in tempi brevi anche a numerosi
accessi. Un utente, in media, non aspetterà più di sei secondi per il caricamento di un contenuto (a
meno che non si tratti di un contenuto multimediale, come un filmato in streaming); per tale
motivo, un sito web deve essere progettato in modo tale che le pagine vengano caricate
velocemente (quindi è consigliato utilizzare immagini di piccole dimensioni, per esempio).
NOTA
“Un Content Management System, in acronimo CMS, letteralmente ‘sistema di gestione dei
contenuti’, è uno strumento software installato su un server web studiato per facilitare la
gestione dei contenuti di siti web, svincolando l’amministratore da conoscenze tecniche di
programmazione web.” (Wikipedia)
Un altro punto da tenere in considerazione è la tipologia di sito web: un blog dovrà avere una
struttura fondamentalmente diversa da quella di un sito web aziendale o di un portale di e-
commerce. Ogni sito web, ogni tipologia di sito web va studiata per cercare di capire bisogni e
desideri dell’utenza che ci visiterà, in modo da fornire contenuti in grado di sollecitare la
curiosità dei visitatori. Ultimamente, nel web si trovano sempre più siti prefabbricati costruiti su
CMS (per esempio, Joomla) o blog open source, in cui spesso il layout e lo stile si ripetono. A
nostro avviso, è vero che un CMS ci aiuta a implementare un sito web e riduce di molto i tempi
di sviluppo, ma bisogna fare attenzione al codice da esso prodotto. A volte, il codice è “sporco”
e non ottimizzato SEO, pertanto dobbiamo essere in grado di metterci mano per apportare le
modifiche richieste. In altri casi, invece, tali CMS potrebbero usare meccanismi di
sovraottimizzazione e quindi essere malvisti dai motori di ricerca. L’originalità e la capacità di
implementare strutture e layout nuovi sicuramente ci aiuteranno nel nostro processo di sviluppo
di un sito web.
Un altro fattore da tenere in considerazione nello sviluppo di un sito web è la riusabilità del
codice. Spesso i siti, soprattutto quelli di piccole dimensioni, si assomigliano. Essere in grado di
riutilizzare il codice implementato, per esempio per la gestione delle news, e utilizzarlo in altri
siti ci consentirà di ridurre il tempo di sviluppo. Anche la scelta del template è importante:
strutturare un sito web in modo tale che dei restyling grafici non implichino una riscrittura di tutte
le pagine che costituiscono il sito ci permetterà di apportare modifiche in tempi brevi e senza
impattare sulla struttura generale del progetto.
Figura 5.2 - I principali passi da seguire per strutturare un’architettura per un sito web SEO friendly.
Ovviamente, non possiamo dilungarci più di tanto su questo argomento, poiché il nostro scopo è
quello di fornire informazioni in modo tale da rendere consapevole l’utente dell’importanza che
ha un buon disegno architetturale anche in un contesto SEO.
Navigabilità
La navigazione di un sito web è rilevante per aiutare i visitatori a trovare rapidamente i contenuti
desiderati, ma non solo: può essere di aiuto ai motori di ricerca per capire quali sono i contenuti
interessanti. Generalmente, tutti i siti web hanno una home page (o root), cioè la pagina
principale di ingresso da cui si accede al sito web digitando l’URL (per esempio,
www.yourdigitalweb.com). Non è detto che gli utenti accedano al nostro sito web da questa
pagina, poiché ogni pagina correttamente indicizzata potrebbe essere fonte di nuove visite.
Tipicamente, un’organizzazione gerarchica dei contenuti e delle pagine comporta una struttura di
navigazione facilmente intuibile da parte dell’utente. Tale struttura deve essere coerente e
suddividere eventuali macroaree del sito web. Per esempio, le pagine che parlano di cucina
potrebbero essere organizzate in directory così strutturate: www.miosito.web/cucina; mentre
altre pagine che hanno come argomento principale la musica potrebbero essere strutturate in
questo modo: www.miosito.web/musica. Secondo l’information architecture (Rosenfield e
Morville, 2006), la struttura principale di un sito web è di tipo gerarchico, con un nodo padre
collegato a più nodi figli.
NOTA
Una Sitemap è una pagina che contiene la lista gerarchica di tutte le pagine del sito web.
Creare un file Sitemap in XML consente ai motori di navigare il sito web in maniera più
semplice e soprattutto di prendere in considerazione tutte le pagine.
Figura 5.4 - Esempio di struttura gerarchica interconnessa per un sito web (fonte: Datadial).
Una volta organizzata la nostra struttura, dovremo capire se sia meglio implementare la
navigabilità con sottodirectory o domini di terzo livello. La cosa importante da tenere in mente è
quella di dare un nome coerente alle cartelle e agli URL. Per esempio:
www.miosito.it/pippo/miofile.html è un URL non molto significativo, che non è di aiuto al
visitatore né tantomeno ai motori di ricerca. Invece, un URL
www.miosito.it/ricette/risotto_di_porcini.html ha un valore intrinseco e consente di percepire in
anticipo il contenuto della pagina (tratteremo nei prossimi capitoli l’argomento inerente alla
riscrittura degli URL). Le pagine, quindi, dovranno essere strutturate per fornire un colpo
d’occhio che aiuterà l’utente a capire dove si trova e se le informazioni che vuole ricercare sono
presenti. Quindi è opportuno:
• mettere in risalto l’argomento trattato dalla pagina;
• creare una gerarchia che segua una logica; la navigazione dovrebbe avvenire partendo da
un contenuto generale fino ad arrivare a informazioni sempre più specifiche;
• i tag spesso aiutano l’utente a capire gli argomenti trattati nella pagina che sta visitando;
• non fornire troppe informazioni nella stessa pagina: potrebbero confondere l’utente e farlo
desistere dalla consultazione;
• usare prevalentemente link per la navigazione; menu costituiti da immagini, JavaScript o
flash potrebbero non essere correttamente considerati dai motori di ricerca;
• la barra di navigazione (sia essa orizzontale o verticale) deve essere ben visibile e
consentire all’utente di esplorare il sito facilmente;
• implementare un breadcrumb (insieme di link) nella parte superiore o inferiore della
pagina in modo da permettere ai visitatori di navigare velocemente all’interno della
struttura del proprio sito web;
Le briciole di pane possono essere utilizzate anche con i microdati o con Schema.org:
• informazioni quali contatti, e-mail e “cambio lingua” dovrebbero essere presenti in ogni
pagina (in quanto sono le caratteristiche più ricercate dai navigatori). Tipicamente, tali
diciture potrebbero essere collocate in fondo alla pagina, o in posizioni strategiche, ma
sempre ben visibili.
Tutte le informazioni illustrate ci devono essere di aiuto per creare una struttura di navigazione
semplice ed efficace. Se troviamo difficile reperire qualche informazione all’interno del nostro
sito web, dovrebbe accendersi subito un campanello di allarme per metterci in guardia sul fatto
che molti dei potenziali utenti si troverebbero in difficoltà nel reperimento delle informazioni.
Dovremmo, perciò, immediatamente modificare la struttura di navigazione del nostro sito web.
Nella Figura 5.6 vi è un esempio di buona struttura di navigazione.
Linking interno
La struttura dei link interni di un sito può influenzare il ranking dello stesso in virtù della sua
organizzazione. Come abbiamo accennato in precedenza, la buona navigabilità di un sito si
ottiene a partire da una suddivisione dei contenuti in sistemi gerarchici di cartelle e sottocartelle.
L’importanza di una specifica pagina nell’architettura globale di un sito web può essere misurata
attraverso l’importanza e la profondità delle altre pagine del sito che si riferiscono alla pagina in
questione. Una pagina interna ben collegata ad altri documenti del sito sarà senz’altro considerata
più importante di una pagina oscurata, rimossa o isolata. Tale ordine, oltre a costituire una virtù
apprezzata dagli utenti e dagli spider, ottiene riconoscimento in termini di posizionamento.
Link popularity
La link popularity globale del sito, associabile all’algoritmo PageRank, misurava semplicemente
il peso e il numero di link. L’esempio più famoso risale alla fine del 2003, quando numerosi
blogger si misero d’accordo per linkare la home page della biografia ufficiale del presidente
degli Stati Uniti, George W. Bush, con l’anchor text miserable failure. Pur non contenendo questi
due termini in alcun punto del codice, questa pagina balzò in testa per le ricerche legate a quelle
keyword. Dall’inizio del 2007, Google ha aggiornato l’algoritmo di Googlebot per evitare gli
effetti del Googlebombing. La lunga attesa per tale riparazione viene spiegata da Google con la
volontà di risolvere il problema a livello tecnico, grazie alla scalabilità degli algoritmi, piuttosto
che manualmente. L’ottica è quantitativa, per cui un grande numero di link provenienti da siti
molto importanti bastava, di per sé, a innalzare smisuratamente il valore di PageRank di un sito.
Lo squilibrio di tale valutazione ha portato all’introduzione dell’algoritmo HillTop, che ha
trasformato la link popularity in un concetto legato all’area tematica. L’area tematica viene
misurata da Google come un gruppo di siti i cui link reciproci trattano un argomento correlato.
Link da siti della stessa area tematica portano attualmente grande valore al sito stesso, mentre è
stato svilito il peso dei link provenienti da aree che trattano altri argomenti. Naturalmente, al
fianco di questo fattore si pone il trust di ciascun sito, introdotto con l’algoritmo TrustRank, che
specifica ulteriormente il concetto della qualità dei link, vincolandola, oltre che all’area
tematica, anche alla fiducia che si riceve. Come abbiamo appreso, i link sono sempre più uno
strumento per certificare l’attendibilità del sito e sempre meno un mezzo per valutare la qualità
dello stesso, compito che ormai è demandato (giustamente) ai contenuti.
NOTA
È possibile effettuare l’inserimento, all’interno del codice HTML, di relazioni tra i contenuti
online, di modo che i collegamenti tra questi non siano più solo ipertestuali, ma anche basati
sul rapporto di senso che li lega. L’utilizzo di tali standard consente, per esempio, di
esplicitare che la relazione tra i due estremi di un link è di amicizia o di collaborazione
professionale:
Sitemap
La Sitemap è uno strumento che i webmaster possono sfruttare per migliorare la navigabilità di
un sito web. In genere consigliamo di preparare due Sitemap, una per gli utenti e una per i motori
di ricerca (in formato XML). La Sitemap per gli utenti sarà una semplice pagina che racchiude
tutta la struttura del sito web, in modo da consentire un rapido accesso a tutte le pagine di esso.
Fondamentale è mantenere aggiornata tale pagina e gli URL in essa contenuti; per tale motivo
l’utilizzo di pagine dinamiche aiuterà a creare questa pagina automaticamente e a mantenerla
aggiornata nel tempo. Nella Figura 5.7 troviamo un esempio di Sitemap utile agli utenti.
La Sitemap XML è invece uno strumento per indicare ai motori di ricerca tutte le pagine che
costituiscono il nostro sito web. È molto utile quando possiamo comunicare agli spider la
frequenza di aggiornamento delle nostre pagine web, la data dell’ultima modifica e il valore di
importanza relativamente alle altre pagine del sito (che va da 0 a 1). Lo scopo della Sitemap è
quindi quello di fornire informazioni aggiuntive al fine di favorire l’indicizzazione delle pagine
web dell’intero sito web. Nel novembre 2006 i principali motori di ricerca hanno unito le forze
per supportare un nuovo standard per Sitemap: Sitemaps 0.90.
La Sitemap deve:
• iniziare con un tag di apertura <urlset> e terminare con un tag di chiusura </urlset>;
• specificare lo spazio dei nomi (standard del protocollo) all’interno del tag <urlset>;
• includere una voce <url> per ogni URL come tag XML principale;
• includere una voce secondaria <loc> per ogni tag principale <url>.
NOTA
È possibile creare più file Sitemap, ma ciascuno di essi non può contenere più di 50.000 URL
e non può avere una dimensione superiore a 10 MB.
NOTA
Il sito ufficiale sitemaps.org contiene ulteriori informazioni su come strutturare Sitemap XML
semanticamente corrette.
Per chi avesse problemi nel creare il file Sitemap XML, esistono online diversi servizi che,
attraverso la compilazione di un opportuno form, ci consentono di generare in modo automatico
la Sitemap XML 0.90. Una volta generato l’XML sitemap.xml, non ci resterà che caricarlo sul
nostro sito web in modo da renderlo fruibile ai motori di ricerca. Tra i vari servizi che ci
consentono di generare i file XML per la Sitemap, possiamo citare xml-sitemaps.com, l’utility
più completa per la creazione e la validazione di Sitemap (ulteriori approfondimenti sono
reperibili al link http://tinyurl.com/Gsitemap-generator). Avendo a disposizione la Sitemap XML,
possiamo comunicarla ai vari motori di ricerca (si veda l’appendice B); per esempio, per Yahoo!
la sintassi è la seguente:
In modo analogo, attraverso la Search Console di Google, possiamo inserire la nostra Sitemap
affinché il motore di ricerca possa correttamente indicizzare le nostre pagine web.
NOTA
Esistono diversi formati di Sitemap utilizzabili per video, immagini, mobile, news, codice
open source per le coordinate geografiche. Potete trovare ulteriori dettagli a questo indirizzo:
http://tinyurl.com/about-sitemap
Figura 5.8 - Invio di Sitemap XML a Google attraverso Search Console.
NOTA
Se utilizziamo il campo priority, dobbiamo prestare attenzione a dare un giusto peso alle
varie pagine: è errato attribuire a tutte le pagine un’importanza elevata!
News Sitemap
Per descrivere articoli che riportano delle news potrebbe venirci in aiuto la News Sitemap, di
cui riportiamo un esempio:
Video Sitemap
Se nel nostro sito web abbiamo un certo numero di contenuti multimediali e vogliamo
correttamente indicizzarli, sarebbe opportuno creare una Video Sitemap:
NOTA
Mobile Sitemap
Come approfondiremo in seguito, è possibile specificare una Sitemap anche per i contenuti
mobile:
Potete trovare ulteriori informazioni sull’utilizzo dei file KML al seguente URL:
https://developers.google.com/kml/documentation/.
Sitemap.xml:
File kml:
Attraverso l’utilizzo di sitemap XML e file KML è quindi possibile fornire ulteriori informazioni
a Google e migliorare la propria geolocalizzazione.
Feed RSS
Un Feed RSS è un file XML appositamente strutturato, che consente agli utenti di rimanere in
contatto con le novità di uno specifico sito web. È uno strumento apprezzabile e lo riteniamo
fondamentale per i siti web che pubblicano in modo costante novità o aggiornamenti sui loro
prodotti. A differenza della newsletter, gli iscritti al Feed riceveranno la notifica appena un
nuovo contenuto verrà pubblicato sul nostro sito web. In ambito SEO è veramente importante
avere a disposizione un Feed RSS perché ci permetterà di:
• inserire il sito in aggregatori di notizie;
• mantenere un contatto continuo con i nostri visitatori;
• aderire a campagne pubblicitarie online;
• fornire i nostri Feed RSS a canali come Google News, Yahoo! e via dicendo;
• indicizzare contenuti multimediali come immagini, suoni e video.
Tutti i software per la creazione di blog e CSM incorporano in modo automatico strumenti per la
creazione di Feed RSS. Nel caso dovessimo sviluppare un sito web nostro, attraverso Asp.net
PHP o altri linguaggi di programmazione, è molto semplice implementare un Feed RSS per i
contenuti del sito stesso.
Riportiamo di seguito un esempio di struttura XML di un Feed RSS:
Esistono molti dibattiti in merito all’utilizzo del trattino alto “-” o basso “_”. L’unica cosa
che appare certa è che Google (notizia appresa dal blog ufficiale) sembra utilizzare il trattino
alto negli URL per separare due keyword, mentre quello basso viene interpretato come parte
integrante di una parola. È quindi consigliabile utilizzare i trattini (-) invece dei caratteri di
sottolineatura (_) nell’URL nel caso si vogliano separare i significati delle varie parole.
Precisiamo, però, che i motori di ricerca usano algoritmi in grado di interpretare anche
parole o frasi scritte “attaccate” come se fossero parole separate. Quindi non bisogna
fossilizzarsi troppo su tali punti. Da alcuni esperimenti effettuati su oltre una ventina di siti
web, abbiamo notato come i principali motori di ricerca siano in grado di interpretare
correttamente parole separate sia da trattini alti, sia da trattini bassi.
Tipicamente, si raccomanda di non utilizzare URL troppo lunghi e che contengano meno di quattro
parole chiave. Secondo Google, inserire le keyword nell’URL potrebbe portare un
miglioramento, ma sicuramente inserire numerose keyword non aiuterebbe. Per quanto concerne,
invece, la posizione delle keyword all’interno dell’URL, questo risulta essere un fattore
secondario.
NOTA
Anche la definizione dei nomi delle cartelle (directory) ricopre un ruolo importante: visto che
andranno a costituire una parte dell’URL, essi dovranno essere utilizzati in maniera corretta. Per
esempio, la directory news dovrebbe contenere tutte le news presenti nel sito web, la directory
prodotti potrebbe servire per organizzare il catalogo dei prodotti aziendali. Vediamo un esempio:
www.miosito.com/prodotti/carrello-elevatore.html
La directory, nel caso di questo URL, è “prodotti”, quindi possiamo capire l’importanza di
utilizzare nomi coerenti in base al contenuto di ogni cartella.
NOTA
Nella scrittura degli URL consigliamo di utilizzare sempre le minuscole. Questo perché
diversi server web potrebbero interpretare in maniera differente pagine o contenuti che
contengono lettere maiuscole e minuscole. Per esempio, alcuni server Linux potrebbero
interpretare le pagine Pagina.html e pagina.html come due entità distinte. Per questo motivo
bisogna prestare attenzione alla nomenclatura di file, cartelle e URL.
Abbiamo quindi visto come sia importante avere URL corti, che contengano keyword, ma che
siano significativi per l’utente e per i motori di ricerca. Ricordiamo, inoltre, come l’URL di un
documento o di una risorsa venga mostrato come parte del risultato di ricerca dei vari motori di
ricerca, perciò è estremamente importante creare URL SEO friendly. Nel caso si utilizzino CMS
o pagine web dinamiche (jsp, php, asp ecc.), è possibile utilizzare tecniche per la riscrittura degli
URL in modo da renderli maggiormente SEO friendly. Tramite l’utilizzo di un rewrite engine,
saremo quindi in grado di modificare i nostri URL. A differenza di un normale sito web HTML,
un sito web dinamico, come dice la parola stessa, può variare la forma e i contenuti. Questi,
infatti, sono collegati a basi di dati su cui risiedono le informazioni aggiornate periodicamente
dal webmaster o dal manutentore del sito web. Un sito web dinamico può, con il passare del
tempo, avere al suo interno numerose informazioni e pagine web che lo aiuteranno
nell’indicizzazione. Ovviamente, questa grande mole di dati prodotta grazie all’aggiornamento
del sito web deve essere gestita in maniera opportuna. Molti motori di ricerca, infatti, possono
ignorare il contenuto perché non formattato correttamente, perché presenta link scritti in maniera
non riconducibile, perché non riesce a riconoscere correttamente le pagine del sito web
dinamico; questo può diventare un grosso problema per un’azienda. Il prodotto “pistone”
potrebbe essere raggiungibile da una pagina web così strutturata:
www.sito.com/prodotto?id=1
Possiamo notare come tale pagina sia difficilmente indicizzabile e non risulti di facile
memorizzazione da parte dell’utente. Invece, un URL strutturato in questo modo:
www.sito.com/prodotti-1/pistone.html
NOTA
Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per PHP e Apache:
• http://httpd.apache.org/docs/2.0/mod/mod_rewrite.html
• http://www.andreavit.com/blog/url-rewriting-e-redirect/riscrittura-delle-url-con-
htaccess-apache-consigli-esempi-pratici-2.html
ASP.NET e ISS
• http://urlrewriter.net/: modulo per implementare URL rewriting in Asp.net;
• http://www.urlrewriting.net/: modulo completo per implementare la riscrittura degli URL;
• usare il modulo HttpModule to Perform Extension-Less URL Rewriting con IIS7;
• utilizzare ISAPI Rewrite per abilitare Extension-less URL Rewriting per IIS5 e IIS6. Il
sistema di riscrittura URL di ISAPI si avvicina molto al mod-rewrite di Apache, ma risulta
ideato in modo specifico per Microsoft’s Internet Information Server (IIS);
• implementare URL routing di asp.net 3.5 e 4.0 e Asp.net MVC.
NOTA
Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per ASP.net:
• http://msdn.microsoft.com/it-it/library/cc668201.aspx
• http://aspnet.html.it/articoli/leggi/2222/tecniche-di-url-rewriting-con-aspnet/4/
JAVA
• implementazione URL Encoding;
• utilizzo dell’oggetto di sessione;
• http://www.tuckey.org/urlrewrite/
NOTA
Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per JAVA:
• http://docstore.mik.ua/orelly/java-ent/servlet/ch07_03.htm
Procedendo sulla falsariga degli esempi proposti, possiamo scegliere nomi di file SEO friendly.
NOTA
Redirect 301
Supponiamo ora che una pagina che è stata indicizzata debba essere eliminata, perché obsoleta o
perché contiene informazioni errate. Usando la tecnica del redirect 301, potremo dire allo spider
che la pagina in questione non esiste più, ma punta fisicamente e in modo permanente verso
un’altra pagina web. Questo perché il redirect preferito dai motori di ricerca è quello chiamato
301, il quale indica al motore che l’indirizzo è stato spostato permanentemente. Esistono diversi
modi per effettuare un redirect 301 SEO friendly per vari linguaggi di programmazione.
Cercheremo, nel seguente elenco, di mostrare le principali tecniche a disposizione.
• Htaccess 301 redirect: è implementabile in siti ospitati su server Apache in cui le
richieste vengono controllate dalle regole specificate nel file .htaccess. Vediamo un
esempio:
Alla richiesta della pagina pagina_seo1.php, l’utente verrà rimandato alla pagina
NOTA
Potete trovare ulteriori informazioni per implementare tale tipologia di redirect a questo
indirizzo:
http://tinyurl.com/apache-redirect
• IIS 301 redirect: è possibile configurare opportunamente IIS per gestire la redirezione
delle pagine. Vediamo i passi per effettuare un redirect 301 di un intero sito web: dopo
aver avviato ISS, dobbiamo selezionare il server in cui è presente la risorsa e poi il sito
web da gestire. Dopo aver fatto clic con il tasto destro, scegliamo la voce Proprietà.
Selezioniamo il tab Home Directory; scegliamo Reindirizzamento a un URL e nella
casella Reindirizza a: inseriamo l’indirizzo verso cui ridirigere le richieste. Infine,
attiviamo l’opzione Reindirizzamento permanente per la risorsa necessaria per
effettuare il redirect 301.
Figura 5.11 - Esempio di configurazione ISS per redirect 301 di un intero sito web.
NOTA
Per effettuare un redirect di un singolo file dobbiamo effettuare i seguenti passaggi: avviare
ISS; dopo aver selezionato il server, spostarci fino alla pagina da gestire; facciamo clic con
il tasto destro su di essa e selezioniamo la voce Proprietà. Una volta posizionati sulla
scheda File, possiamo modificare l’impostazione in Reindirizzamento a un URL come visto
precedentemente.
• PHP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:
• ASP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:
• ASP .NET redirect 301: il seguente codice va inserito all’interno della pagina (sezione
Page_Load) in cui si vuole effettuare il redirect 301:
• JSP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:
• Ruby on Rails redirect 301: il seguente codice va inserito all’interno della pagina in cui
si vuole effettuare il redirect 301:
• Coldfusion redirect 301:
NOTA
Google e i principali motori di ricerca, tra cui Yahoo!, sono in grado di riconoscere il redirect
via meta refresh, che viene trattato specificatamente come 301 (nel caso venga indicato un valore
pari a zero) o 302 (se il ritardo è maggiore). In conclusione, il redirect via HTML, a nostro
avviso, va applicato solamente nei casi in cui non si abbiano alternative; contrariamente, è
sempre consigliabile utilizzare il redirect 301. Gary Illyes ha affermato: “301 redirects don't lose
PageRank anymore”. Questa dichiarazione è molto importante sull'utilizzo di questi redirect!
Redirect 302
Il redirect di tipo 302 è un redirect temporaneo. È consigliabile utilizzarlo in quei casi in cui si
vuole comunicare allo spider che una determinata pagina web è stata temporaneamente
rinominata o rimossa dal web, ma che sarà ripristinata entro breve. In questo modo lo spider, non
trovando la pagina, non la rimuoverà dal proprio indice, ma ne terrà in memoria una copia cache
fino a quando la pagina non verrà ripristinata.
• Redirect con frame: tipicamente viene usato nella pagina principale del dominio in cui si
inserisce un frameset che richiama l’URL della pagina da visualizzare. Anche questa
risulta essere una tecnica non apprezzata dai motori di ricerca:
NOTA
Applicando opportunamente tali passaggi, saremo in grado di trasferire il nostro dominio senza
che avvengano penalizzazioni da parte dei motori di ricerca. Per verificare tutti i link interni del
nostro sito web, possiamo sfruttare due interessanti tool:
• Pinger: è un tool per Mozilla che ci consente di verificare se i link presenti in una pagina
siano funzionanti o meno;
• Xenu: è un software da installare sul proprio PC che analizza tutti i link presenti
all’interno del dominio e verifica la presenza di eventuali collegamenti non funzionanti. È
possibile scaricare il software dal link http://home.snafu.de/tilman/xenulink.html.
NOTA
Può accadere che non tutti i vecchi URL abbiano un corrispettivo URL. Per tale motivo,
bisogna compiere delle scelte:
• effettuare un redirect verso un nuovo URL;
• eseguire un redirect verso la radice della categoria.
Figura 5.12 - Esempio di utilizzo del tool Xenu per la verifica dei link di un sito web.
Search Console (ex GWT Google Webmaster Toolkit) è uno strumento che analizzeremo
ampiamente in seguito, ma che ci può già venire utile nel caso di cambio di indirizzo di un
dominio web. Per utilizzare lo strumento in questione, è necessario essere registrati e aver
inserito opportunamente i meta tag di verifica all’interno dei siti da monitorare.
NOTA
Attenzione: "John Mueller of Google went on record that when you do 301 redirects of many
or all of your old internal pages to your home page, Google will treat those redirects as soft
404s. Which means, essentially, Google will ignore those redirects, not pass the PageRank
and signals from the old pages to the new page"
Figura 5.13 - Errori nella Search Console.
La soluzione ottimale sarebbe dunque quella di sviluppare le pagine con larghezza dinamica, ma
con una struttura minima di circa 1000 px. È importante, a nostro avviso, riservare un layout
apposito per apparati mobile, quindi far sì che il nostro sito web sia fruibile anche da cellulari,
palmari e via dicendo. Una volta implementati il layout e la grafica, resta un ultimo passo da
compiere: vedere se il nostro sito web viene visualizzato correttamente all’interno dei vari
browser. L’errore comune di molti designer e sviluppatori web è quello di fermarsi al layout
visualizzato nel proprio monitor e nel browser predefinito senza testare quanto è stato creato
anche in altre risoluzioni o su altri browser web.
Vediamo alcuni strumenti utili per verificare come viene visualizzato il nostro sito web a
risoluzioni differenti e su browser diversi:
• http://testsize.com: è un servizio online che ci permette di vedere come viene
visualizzato un sito web a risoluzioni differenti;
• http://browsersize.googlelabs.com: è un servizio messo a disposizione da Google per
testare le risoluzioni del proprio sito web.
Durante l’implementazione di un sito web spesso può diventare difficile costruire pagine web
che vadano bene per tutti gli utenti e soprattutto per tutti i browser web in circolazione. Eseguire
i cosiddetti test cross browser è un passaggio essenziale, ma il più delle volte si rivela un
compito arduo. Un primo passo verso la compatibilità consiste nell’eseguire test preliminari
attraverso opportuni software di simulazione che verificano la compatibilità del sito web
all’interno di browser differenti. Tra i principali servizi possiamo menzionare:
• http://browsershots.org: servizio online che consente di verificare se il proprio sito web
è compatibile con i principali browser in commercio;
Figura 5.15 - Esempio di utilizzo del tool browsershots.org per la verifica della compatibilità di pagine web su browser
differenti.
Attraverso i tool sopra illustrati possiamo capire se il lavoro svolto sia adeguato o se,
eventualmente, sia necessario apportare alcune modifiche alla grafica o ai componenti per
rendere il sito web compatibile con diverse risoluzioni video e su diversi browser web.
Come si vede dall’esempio, il layout basato su tabelle contiene più codice rispetto alla versione
con i DIV e CSS.
NOTA
A nostro avviso, un layout costruito utilizzando DIV + CSS potrebbe essere l’approccio
migliore (anche se in alcuni casi potrebbe richiedere maggior tempo per lo sviluppo), perché
ci consente una separazione tra disegno (DIV) e grafica (CSS) e l’utilizzo di codice “pulito”
e leggero (rispetto all’implementazione basata su tabelle).
NOTA
“Per esempio, Google propone tutti i suoi annunci tramite tabelle. Questo è pragmatismo
all’opera.” (Robin Good)
Ai motori di ricerca non importa molto di queste differenze nel codice; a loro interessa la qualità
dei contenuti. È altresì vero che un sito web “meno pesante”, che si carica più velocemente e la
cui struttura interna HTML sia facilmente navigabile da parte degli spider, aiuterà nel processo di
indicizzazione. Vediamo, quindi, i principali pro e contro nell’utilizzo delle tabelle o DIV + CSS.
Contro
• la comodità nello sviluppo viene in genere “pagata” con una notevole complessità di
codice e poca chiarezza dei contenuti;
• le tabelle annidate non sono apprezzate dai motori di ricerca;
• utilizzo di molto codice anche per elementi semplici;
• difficoltà nel gestire i tag di chiusura.
DIV + CSS
Pro
• ottima divisione tra contenuto e impostazione grafica;
• ridotto peso delle pagine, con conseguente diminuzione dei tempi di caricamento;
• possibilità di cambiare l’aspetto del sito, anche notevolmente, modificando solamente un
file.
Contro
• uso di “trucchi” CSS per poter raggiungere alcuni effetti grafici e far sì che il layout sia
cross browser (alcuni browser differenti o datati potrebbero non interpretarli
correttamente o allo stesso modo);
• conoscenza approfondita dei CSS per poter scrivere al meglio il layout;
• tipicamente, impiego di maggior tempo per implementare un layout complesso.
Ora che abbiamo ben chiaro lo scenario, possiamo scegliere la strada che riteniamo migliore in
base alla tipologia e alla complessità del sito web che implementeremo. Fondamentalmente, la
nostra scelta dovrebbe propendere maggiormente verso l’utilizzo dei DIV e CSS, in quanto il
futuro del web (come vedremo HTML 5) andrà in questa direzione.
NOTA
A livello SEO, abbiamo notato come vi siano siti web costruiti utilizzando tabelle e siti web
con layout fatto solamente di DIV e CSS, entrambi posizionati in prima pagina nella SERP
dei vari motori di ricerca. Questo ci fa capire che, per un sito web, una buona struttura
(leggera, navigabile e accessibile) è certamente importante, ma è altresì fondamentale
proporre contenuti aggiornati e freschi.
W3C e accessibilità
Abbiamo accennato all’importanza di avere un sito web accessibile non solo da un punto di vista
SEO, ma anche per accogliere utenti con caratteristiche e bisogni differenti. Ma cos’è il W3C? È
un’associazione che cerca di definire degli standard e di consentire al web di essere sfruttato e
fruibile al 100% delle sue potenzialità. Validare il codice HTML attraverso gli standard imposti
dal W3C a volte risulta davvero arduo (possiamo notare che anche i siti più importanti, come
Bing.com, presentano numerosi errori di validazione), ma può rivelarsi utile per migliorare
l’accessibilità del nostro sito web e quindi la user experience. In ambito SEO, come vedremo tra
poco, i vantaggi di avere un sito W3C validato sono pochi, ma a nostro avviso è sempre meglio
avere un sito web validato secondo gli standard per i seguenti motivi:
• i motori di ricerca possono leggere il contenuto del sito senza incorrere in errori HTML
(per esempio, tag non chiusi);
• un sito validato W3C (WAI WCAG) è conforme agli standard di accessibilità, quindi può
essere usato per le pubbliche amministrazioni;
• un sito validato W3C è sinonimo di sito ben fatto e strutturalmente valido.
Figura 5.17 - La home page di Google non rispetta gli standard W3C.
In poche parole, il W3C è per l’HTML ciò che la grammatica è per la lingua italiana. Nonostante
ciò, sul web esistono siti W3C non validi, ciò senza compromettere la loro navigabilità e senza
che gli utenti se ne accorgano. Per esempio, la home page di Google ha diversi tag HTML non
chiusi, quindi non è W3C compatibile.
I principali sostenitori del W3C affermano che il vantaggio derivante dal rendere un sito
compatibile con gli standard indicati da esso è principalmente quello di rendere il nostro sito
accessibile ai visitatori e agli spider dei motori di ricerca. È noto, d’altro canto, come sia
difficile creare un sito che sia completamente compatibile con gli standard W3C, cosa che
richiede molto tempo per analizzare il codice. Abbiamo anche visto come alcuni siti web, tra cui
Google, pur non rispettando tali standard, siano funzionanti e utilizzati da migliaia di persone. In
una recente intervista, Matt Cutts dichiara che a Google interessano i contenuti, non gli standard.
Egli afferma: “Stiamo cercando di fare sempre attenzione alla qualità. A quanto è valida una
pagina per gli utenti. In quale misura, cioè, essa sia in grado di fornire ai visitatori le
informazioni di cui hanno bisogno. Ci sono molte persone che scrivono codici HTML non validi,
commettendo molti errori di sintassi, ma che comunque producono ottimi contenuti. Dobbiamo
essere capaci di classificare questi contenuti anche se qualcuno commette errori e non è
totalmente perfetto in termini di validazione”.
La conclusione che dobbiamo trarre è che W3C fornisce delle linee guida che permetterebbero di
rendere il nostro sito web maggiormente accessibile, ma in questo scenario dobbiamo sapere che
generalmente i motori di ricerca non trarranno molti vantaggi da pagine che rispettano tali
standard. Il nostro consiglio rimane quello di scrivere un codice il più pulito e leggero possibile,
corredandolo di contenuti interessanti.
NOTA
A questo link è possibile prendere visione delle linee guida per lo sviluppo di siti web W3C
compatibili:
http://www.w3.org/TR/WCAG10/full-checklist.html
Ora non ci resta che vedere come validare le nostre pagine web. La procedura è molto semplice:
è sufficiente andare sul sito web http://validator.w3.org/ e inserire l’URL della pagina che
vogliamo validare. In caso di errori, verrà riportata la riga in cui essi compaiono, in modo tale
da individuarli ed eventualmente correggerli.
NOTA
Vi consigliamo un tool per Firefox, che consente di validare pagine web anche offline, utile
in fase di sviluppo di un sito web: HTML Validator. Nella Figura 5.18 viene mostrato il tool
in azione.
Figura 5.18 - HTML Validator in esecuzione.
SEO e WordPress
Sul web esistono molti CMS: WordPress, Magento, Joomla sono i più noti. Ora cercheremo di
analizzare brevemente le modifiche principali da apportare a WordPress per renderlo SEO
friendly.
WordPress è, assieme a Joomla, un CMS diffuso su scala mondiale, che ci consente di realizzare
in pochi istanti siti web o blog. Per questo motivo analizzeremo le principali tecniche di base per
partire con un sito WordPress ottimizzato (ovviamente molti di questi consigli potranno essere
utilizzati anche per altri CMS online).
WordPress e la sicurezza
WordPress (www.wordpress.org) è senza ombra di dubbio uno dei CMS più intuitivi e utilizzati
al mondo. Grazie alla vasta community e all’ampia scelta di plugin e template disponibili – per la
maggior parte gratuiti – è entrato di peso a far parte della vita quotidiana di chiunque si occupi di
sviluppo e gestione di progetti web.
Proprio per questa ragione è anche uno dei CMS più “presi di mira” dall’altra vasta community
presente nei meandri della rete: i famigerati Hachers. :-)
La natura “open source” di WordPress, che ne determina il punto di forza forse più assoluto, si
rivela allo stesso tempo anche un tallone d’Achille, da non sottovalutare.
La scelta di aprire il proprio codice alla vasta community della rete permette a chiunque di
contribuire alla qualità del core di WordPress. I “difetti” e i bug presenti nel codice applicativo
vengono scoperti, analizzati e infine fixati potenzialmente da chiunque contribuisca allo sviluppo
del CMS.
Tuttavia, il processo di analisi del codice applicativo può essere utilizzato allo stesso modo per
scopi non propriamente leciti.
Individuata una falla, infatti, un cosiddetto “cracker” potrebbe trovare il modo per utilizzarla a
proprio vantaggio, diffondendo malware e/o trovando “accessi dalla porta di servizio” per
compromettere i siti sviluppati con WordPress.
Un esempio recente è la falla di sicurezza scoperta il 6 maggio 2016 ai danni del noto plugin
Yoast SEO (https://www.wordfence.com/blog/2016/05/yoast-seo-vulnerability/).
Col passare del tempo, e dei vari aggiornamenti del core, i sistemi di sicurezza WordPress
continuano a migliorare e ad affinarsi, ma per andare sul sicuro e minimizzare i rischi è
consigliabile installare alcuni plugin appositi.
Ne segnalo due: Wordfence e iTheme Security (precedentemente noto come Better WP Security).
Principalmente si occupano di gestire la maggior parte delle funzioni base di sicurezza del nostro
sito.
iThemes Security si concentra, invece, su una serie di operazioni preliminari che i cracker
effettuano per irrompere nei siti WordPress. Comprende, quindi, la possibilità di scegliere un
URL per il login, impedendo, così, di accedere al sito mediante path standard come wp-admin o
wp-login.php.
Oppure blocca gli accessi dopo un numero predefinito di tentativi falliti, impedisce qualunque
accesso durante un orario stabilito, contrasta gli attacchi brute-force, invia notifiche per qualsiasi
cambiamento di file operato dal sistema e impedisce la scansione delle cartelle del sito.
Ecco infine una carrellata di altri plugin utili:
• caching: W3 Total Cache;
• link rotti: Broken Link Checker;
• backup e sicurezza: WPB2D WordPress Backup;
• sicurezza: Secure WordPress;
• authorship Markup: AuthorSure;
• Schema.org: All In One Schema.org Rich Snippets;
• redirection: segnala i 404 e permette di impostare i redirect 301.
Una volta scaricato e installato, Yoast vi inviterà a iniziare un tour guidato. In questo modo
potrete impostare i primi valori di default e comprendere il funzionamento dei vari tool
disponibili:
• Title e Meta Description (due valori importantissimi perché, oltre ad avere un peso nel
posizionamento della pagina per quanto riguarda il “tag title”, sono un vero e proprio
biglietto da visita utile per attrarre l’utente web sul proprio sito, piuttosto che su un sito
concorrente);
• Robot Metadati;
• Canonical URL;
• Breadcrumbs (semplici ma importanti informazioni che aiutano a comprendere la struttura
del sito);
• Primary Category (la possibilità di catalogare un post in più categorie indicando, però,
quella principale);
• Permalink;
• Sitemap XML (fondamentale per comunicare a Google la mappa del sito);
• RSS (permette di aggiungere contenuti come link ai feed RSS);
• Editor di facile utilizzo per il robots.txt e .htaccess.
Non voglio dimenticare di citare l’ormai mitico semaforo di Yoast, che tanto fa sorridere i SEO
con più esperienza alle spalle.
I colori del semaforo – verde, giallo o rosso – vorrebbero rappresentare il livello di qualità del
lavoro effettuato OnPage sull’articolo che si sta analizzando. È piuttosto evidente di come si tratti
di una semplice indicazione di massima, che non deve essere scambiata per un giudizio completo,
assoluto e a 360°.
La versione Premium di Yoast SEO - a pagamento - comprende anche altre funzioni come ad
esempio il Redirect Manager, che aiuta a reindirizzare vecchi URL; o il Multiple Focus
Keywords, uno strumento in grado di ottimizzare un post per due o più termini.
La Figura 5.21 mostra un esempio di utilizzo del di plugin per ottimizzare titoli e descrizioni.
NOTA
Senza addentrarci nei dettagli delle configurazioni avanzate del plug-in, possiamo dire che esso
ci consente di impostare in pochi passaggi diverse funzionalità avanzate, come la gestione della
sitemap, la gestione dell’authorship markup e l’impostazione di sottosezioni, come gli archivi e i
campi tag, che per blog appena nati potrebbero causare qualche problema di visibilità se non
gestiti in modo corretto. All’indirizzo seguente si può trovare una guida dettagliata su come
configurare il plug-in nelle sue impostazioni più avanzate:
https://yoast.com/articles/wordpress-seo/
NOTA
WordPress usa una serie di costanti per migliorare la sicurezza sotto diversi aspetti, come ad
esempio i cookie assegnati durante l’autenticazione. Queste costanti si trovano nel file wp-
config.php e, malgrado in genere siano a posto, è sempre meglio verificare e generarle
dall’URL http://api.wordpress.org/secret-key/1.1/.
SEO e Joomla
Anche Joomla, essendo un CMS molto diffuso, ha diversi livelli di personalizzazione. A livello
SEO, oltre a seguire tutte le indicazioni date in questi capitoli, abbiamo la possibilità di
installare plug-in che ci facilitano il compito di ottimizzazione. Una delle prime configurazioni da
impostare lato SEO è presente in “Impostazioni Sito”: da qui è possibile, infatti, scrivere il nome
del sito e impostare altre opzioni avanzate. Inoltre Joomla ha delle opzioni SEO native: si tratta
di parametri presenti in Sito > Configurazione Globale > Impostazioni SEO, che possiamo
attivare e che ci permettono di impostare URL SEO friendly.
Oltre alle impostazioni standard, consigliamo alcuni plug-in aggiuntivi; tra questi i principali
sono:
• Joomsef: consente di riscrivere e personalizzare gli URL e presenta una sezione specifica
denominata Manage Meta Tags attraverso la quale l’utente può impostare per ogni singolo
URL i relativi title, description, keywords;
• Mijosef: permette di generare in modo automatico i principali meta tag SEO.
NOTA
Altri plug-in molto utilizzati sono SEO Boss e SEOSimple, ottimi strumenti per
personalizzare e ottimizzare Joomla. Si ringrazia Davide Prevosto per il supporto fornito.
Struttura a silos
La home è la pagina più importante del tuo sito, è l’ingresso dove ricevi gli utenti, è la pagina che
Google vede e valuta. Organizza la home, dove presenti il tuo negozio con macro categorie, che
indicano i gruppi merceologici dei prodotti in vendita, che andranno a contenere le varie
categorie. Capita spesso di vedere menu con un numero elevato di macro categorie, che
disorientano l’utente; è importante invece la moderazione nell’inserirle: anche l’abuso di esse
genera confusione e difficoltà di navigazione. L’ideale, per un e-commerce di piccole o medie
dimensioni, è inserirne al massimo cinque o sei.
Come nominare le macro categorie?
Questo è un passaggio rilevante per un’architettura efficace sia lato utente, sia lato SEO.
Ecco perché la realizzazione di uno shop non esula da una pianificazione marketing preventiva.
Le categorie vanno nominate alla luce di uno studio delle keywords di settore. Bisogna capire
quali sono le key più ricercate e di conseguenza quelle da ottimizzare. Fatto questo lavoro, si
nominano le macro e le micro categorie.
Nell’immagine, facciamo un esempio di architettura leggera e semplice da navigare con tre macro
categorie, all’interno di queste un numero sempre non elevato di micro categorie, fino ad arrivare
in una sequenza logica, ordinata e precisa alla scheda prodotto.
Figura 5.24 - Struttura a silos ideale per un e-commerce.
La struttura, così rappresentata, è quella che consiglio per la navigabilità e l’usabilità, ideale per
la maggior parte degli e-commerce che si realizzano; chiaramente in base al numero dei prodotti
e alla grandezza dello shop, si può allungare la struttura di un passaggio ulteriore prima del
carrello.
Internal linking
Spesso, si sottovaluta dal punto di vista SEO, la parte inerente alla linking interna, dando priorità
all’ottimizzazione di title, description e H1. È lavoro che va fatto, ma la SEO, in una fase
advanced, riguarda anche link interni al sito, che devono essere distribuiti in modo omogeneo.
La linking interna in un e-shop va curata per due fattori che ci stanno a cuore: l’utente e Google.
Come dicevo, il più delle volte, noto che nell’ e-commerce non esiste alcun tipo di collegamento
tra le pagine dello shop o, laddove esista, ci sono dei collegamenti privi di senso. Questa prassi
non aiuta l’indicizzazione del sito e non ne aiuta la navigabilità.
Nel caso in cui i numeri siano troppo sproporzionati, rivediamo e miglioriamo la struttura di link.
Contenuti duplicati
La Search Console di Google è uno strumento interessante, ci dà tante informazioni, come visto
prima, e in particolare ci allerta in caso di contenuti duplicati. Un e-commerce può cadere vittima
dei contenuti duplicati: senza entrare nel merito dell’originalità dei testi del sito, la duplicazione
in genere dipende dalla paginazione e/o dai filtri di ricerca.
Ad esempio in PrestaShop, quando entriamo in una categoria, ci ritroviamo sulla destra un ordine
per: età, prezzo, colore, ecc. (vedi Figura 5.26).
Figura 5.26 - Ordinamenti E-commerce.
Queste due URL, e tutte quelle delle varianti della categoria, in realtà hanno gli stessi contenuti.
Per Google queste pagine sono duplicate. In PrestaShop questo problema si può risolvere
installando un modulo per il “tag canonical” (lo trovate in Addons-PrestaShop e costa 29,90 €):
http://addons.prestashop.com/it/url-redirect/4501-canonical-url-pro.html
Con questo modulo, in un e-shop PrestaShop, comunichiamo a Google qual è l’URL canonical,
l’URL principale a cui tutte le appendici fanno riferimento, eludendo il pericolo di contenuti
duplicati.
Sul piano tecnico, l’installazione del modulo non è complessa e prevede una piccola modifica in
HTML, che viene spiegata bene, appena si installa il modulo.
Friendly URL
A Google sono gradite le cose semplici, chiare, pulite e leggibili.
Quanto sono noiosi quegli URL, infiniti con tanti numeri e lettere? Disorientano Google per
l’indicizzazione della pagina e l’utente che si sente perso.
Con PrestaShop possiamo creare degli URL friendly, brevi, con il nome della categoria, così
Google e l’utente sono sempre informati del luogo in cui si trovano.
Come si imposta l’URL friendly?
Dal pannello diBackend andiamo in Preferenze > SEO & URL e impostiamo il Friendly URL; a
questo punto il nostro URL si presenterà così: nomesito/12-categoria.
Un URL breve, semplice, efficace, ma purtroppo non perfetto, perché compare di default un
numerino, nel nostro caso 12: è una gerarchia interna di PrestaShop, che non serve all’utente e
nemmeno a Google.
Come possiamo ovviare a questo?
PrestaShop risponde a questa mancanza con un modulo, “Advanced URL”, con il quale possiamo
eliminare questo numero: anche questo modulo si trova in Addons-Prestashop:
http://addons.prestashop.com/it/url-redirect/16928-advanced-url.html
Un piccolo consiglio, che dal punto di vista SEO non sarà determinante per scalare la SERP, ma
può essere utile, mentre sul piano dell’usabilità ci ritroviamo un URL più corto e pulito che non
guasta mai.
Abbiamo analizzato e individuato una serie di aspetti importanti per un’ottimizzazione SEO di un
e-shop in PrestaShop: l’architettura, la linking interna, il canonical, gli URL friendly, tutti il più
delle volte trascurati, ma che vanno presi in esame per un lavoro corretto e preciso, finalizzato a
realizzare un e-shop, gradito al motore di ricerca e all’utente/cliente, che vogliamo raggiunge nel
vasto mondo del web.
SEO e Magento
Magento è uno dei più famosi CMS dedicati agli e-commerce e realizzato in php. Dal 2008, anno
della sua nascita, la piattaforma realizzata da Varien sta riscuotendo un successo dopo l’altro,
vincendo numerosi e prestigiosi concorsi di rilevanza internazionale.
Sempre più negozi online stanno scegliendo Magento per sviluppare i propri siti e in molti casi si
sta rivelando una scelta vincente. Famosi brand quali Nike, Olympus, Volcom, Nicol Miller, e
tanti altri ancora, hanno deciso di affidarsi a Magento ormai da anni.
Seguire il loro esempio e decidere di aprire il proprio e-commerce su questa piattaforma è
sicuramente un primo e decisivo passo per dare uno slancio al proprio business online, ma non è
sufficiente.
Come sappiamo tutti, l’ottimizzazione SEO è una parte fondamentale di ogni sito Internet.
Permette, infatti, alla nostra pagina web di comparire tra i primi risultati delle query su Google o
su altri motori di ricerca come Bing e Yahoo!.
Raggiungere i primi posti delle SERP Google offre vantaggi importantissimi e una visibilità
capace di sbaragliare la concorrenza sul web.
Per questo l’attività SEO è una vera e propria lotta all’ultimo sangue, e per ottenere i risultati
sperati dobbiamo dotarci delle giuste “armi”.
Esistono sia estensioni gratuite, sia a pagamento. Bisogna però ricordare che un prodotto a
pagamento non è sempre un prodotto migliore. Esistono, infatti, estensioni gratuite molto utili e
che spesso sono addirittura migliori di molte altre più o meno costose.
Un esempio è sicuramente Free Magento SEO Extension, l’estensione gratuita e sviluppata dal
team Creare. Questo prodotto offre una serie di nuovi e fondamentali strumenti capaci di
combattere alcuni problemi in cui ci si può imbattere durante l’attività SEO: come duplicati di
contenuti o pagine 404.
Anche per la sua semplicità di utilizzo e gestione, Free Magento SEO Extension è una delle
estensioni più scaricate e apprezzate dall’online community fedele a Magento.
Insomma, stiamo parlando di un modulo per la SEO a 360°, considerato tra i migliori sul mercato
e che vanta feedback e review positive e affidabili.
Mirasvit ha pensato proprio a tutto, dando strumenti automatici e facili da usare a chiunque voglia
avere successo con il proprio business online.
La configurazione dell’Advanced SEO Suite è veloce. Basta seguire le indicazioni fornite al
momento dell’acquisto, o sul sito dell’azienda, per iniziare immediatamente a ottimizzare la SEO
del nostro negozio online e ottenere i risultati che ci eravamo prefissati.
Figura 5.28 - Esempio del plugin Advanced SEO Suite in Magento.
Nel prezzo del prodotto sono compresi anche l’installazione e il servizio d’assistenza, sempre
molto efficace e puntuale. Anche questo è un valore aggiunto da non sottovalutare e che può fare
la differenza nel momento di scegliere un’estensione piuttosto che un’altra.
NOTA
Abbiamo analizzato i CMS più usati, ovviamente ne esistono molti altri che non abbiamo
preso in considerazione. Ad esempio Drupal a oggi ha moltissimi plug-in presenti in
WordPress e le configurazioni sono molto simili. Ogni volta che ottimizziamo un CMS open
source i nostri consigli sono:
• metterlo in sicurezza da eventuali “attacchi”;
• controllare la generazione di URL e l’alberatura;
• verificare la presenza di pagine prive di contenuti o duplicati;
• verificare che il plugin SEO installato assolva appieno ai suoi compiti.
Si ringraziano Ivan Cutolo e Davide Prevosto per i preziosi suggerimenti sulla parte di
personalizzazione dei CMS.
Conclusioni e punti salienti del capitolo
In questo capitolo abbiamo analizzato temi molto importanti, come l’organizzazione dei contenuti
e il disegno architetturale di un sito web. Questi aspetti sono molto importanti non solo a livello
SEO, ma anche a livello di marketing generale.
Cosa ricordarsi?
• È opportuno far raggiungere le risorse desiderate agli utenti nel minor numero di clic
possibile.
• È altresì importante e cruciale organizzare i contenuti in modo organico evitando
duplicazioni o malfunzionamenti del sito stesso.
• Infine, abbiamo analizzato brevemente 4 dei CMS più usati nella realizzazione di siti web
e ci siamo soffermati su alcuni aspetti SEO basilari nelle loro configurazioni.
“La creatività è senza dubbio la risorsa umana più importante. Senza creatività non ci
sarebbe progresso e ripeteremmo sempre gli stessi schemi.”
(Edward De Bono)
Capitolo 6
Performance e ottimizzazioni di un web
project SEO
NOTA
Dal 2010 a oggi Matt Cutts e John Mueller hanno rilasciato dichiarazione su come i siti
"lenti" possono avere una perdita di visibilità in SERP. A oggi non è quindi sicuro se i siti
“veloci” siano realmente premiati da Google. Ovviamente da parte nostra crediamo sia
fondamentale avere un sito che risponda in modo “rapido” soprattutto dopo l’introduzione di
AMP e le Progressive Web App per il mobile.
Tali servizi aiuteranno a monitorare il nostro sito in modo da prevenire eventuali lackout.
NOTA
Un server web che supporta l’ultima versione del protocollo HTTP2 permetterà ai siti gestiti
di sfruttare le potenzialità del nuovo protocollo e quindi erogare risorse in modo “più rapido
e veloce”; qui potete trovare una guida introduttiva:
https://github.com/http2/http2-spec/wiki/Implementations
A questo punto, possiamo navigare tra le pagine del nostro sito web e vedere come sono i tempi
di risposta: testeremo, così, come un utente inglese visualizzerebbe il nostro sito web e come
esso risponde alle varie richieste. Esistono diversi servizi che permettono di monitorare le
prestazioni delle nostre pagine web: a tale proposito, Google mette a disposizione tutta una serie
di strumenti, disponibili al seguente link: http://code.google.com/speed/. Tra i tool a
disposizione, possiamo utilizzare Google Analyst e gli strumenti per webmaster, che consentono
di monitorare la velocità media di caricamento delle nostre pagine web, come mostra la Figura
6.2.
Figura 6.2 - Esempio di controllo della compatibilità mobile da parte del tool di Google.
NOTA
Un aspetto da tenere presente è il fatto che sia Google Analytics, sia Google Search Console
sono strumenti JavaScript-based. Questi tool registreranno solamente le visite alle pagine
provenienti da browser in cui sono stati abilitati JavaScript e i cookie. Per avere, invece, un
quadro generale del traffico dal nostro sito web, dobbiamo utilizzare un analizzatore di file
di log, come AWStats.
A oggi vi sono diversi strumenti per fare le verifiche della velocità di caricamento delle nostre
pagine web, per esempio Page Speed (http://code.google.com/speed/page-speed/), rilasciato da
Google, e YSlow (http://developer.yahoo.com/yslow/), rilasciato da Yahoo!. Entrambi sono
extension di Firefox e richiedono Firebug (http://getfirebug.com/). Una volta installati questi tool,
possiamo vedere il tempo di caricamento delle pagine e scoprire quanto “spazio” occupa ogni
singola pagina.
NOTA
Figura 6.3 - Esempio di utilizzo dei tool per verificare le prestazioni di un sito web.
NOTA
Ai fini della velocità del sito sono importanti sia i tempi di risposta del server web, sia gli
elementi stessi della pagina; per tale motivo, dovranno essere ottimizzati tutti i componenti
che la costituiscono, come immagini, CSS, JavaScript, Flash ecc.
Cerchiamo, in primo luogo, di utilizzare i CSS per definire il layout delle nostre pagine web e
inseriamoli in file esterni alla pagina web:
NOTA
È opportuno verificare sempre che le risorse "splittate" siano visibili ai bot dei motori di
ricerca (spesso si rischia che esse siano bloccate dal file robots, è opportuno controllare
sempre il contenuto con la search console di Google alla voce: “visualizza come Google”).
In questo modo, la velocità di caricamento della pagina migliorerà, poiché, per gli accessi
successivi al primo, la quantità di byte da scaricare sarà inferiore, dato che il file di stile verrà
memorizzato nella cache del browser. Inoltre, come abbiamo avuto modo di vedere in
precedenza, l’utilizzo dei CSS ci consente di ottenere un codice snello e pulito.
NOTA
È possibile ottimizzare i CSS attraverso piccoli accorgimenti, per esempio combinando più
regole:
Invece di avere:
• h1 { color: black; }
• p { color: black; }
usiamo un’unica regola:
• h1, p { color: black; }
Inoltre è possibile utilizzare il metodo CSS sprite, che permette di mostrare più immagini ai
visitatori della nostra pagina web facendone caricare solo una, velocizzando in questo modo
i tempi di caricamento della nostra pagina.
Esistono svariati tool che permettono di ottimizzare e comprimere i nostri file CSS, tra cui:
• CSS Optimizer: è un semplice tool online che processa il CSS e ne crea una versione
compressa (http://www.cssoptimiser.com);
• Clean CSS: è possibile impostare il livello di compressione desiderato e personalizzare
le diverse opzioni di compressione (http://www.cleancss.com);
• CSS Compressor: consente di definire diverse opzioni di compressione
(http://iceyboard.no-ip.org/projects/css_compressor).
Se nelle nostre pagine è presente del codice JavaScript, esso dovrebbe essere sempre inserito in
un file esterno, soprattutto nei casi in cui lo stesso codice è utilizzato in più pagine (vale il
medesimo discorso fatto per i CSS):
NOTA
Elementi da evitare sono le tabelle nidificate, perché quanto più la nidificazione sarà articolata,
tanto più il browser impiegherà tempo nella renderizzazione della pagina. Ciò comprometterà il
tempo di caricamento e la velocità della nostra pagina. Un altro elemento di cui sconsigliamo
l’utilizzo è rappresentato dai frame. Il problema sta nel fatto che i motori non riescono a
indicizzare correttamente i siti con i frame. Questo perché ogni frame è una pagina a parte, quindi
richiede maggior tempo nel caricamento e l’uso del frame set (il raccoglitore dei vari frame) ne
complica ulteriormente l’architettura e la complessità. Per questo motivo suggeriamo di non usare
tali elementi, ma di sostituirli con template adattabili al linguaggio di programmazione utilizzato.
Infine, l’ultimo consiglio che ci sentiamo di fornire, oltre a quello di ottimizzare tutti gli elementi
che compongono una pagina (immagini, pdf, JavaScript), è di rimuovere eventuali spazi bianchi o
tag HTML non strettamente necessari per il nostro sito web. Strumenti come Dreamweaver ci
aiutano in questo compito.
NOTA
Pagine troppo ricche di testo o di immagini possono risultare lente da caricare, e intimorire,
così, i visitatori. È quindi consigliato suddividere i contenuti corposi su più pagine.
È sempre consigliabile sfruttare i percorsi relativi piuttosto che quelli assoluti, in modo da non
costringere il server a ristabilire nuove connessioni. Inoltre, è sempre preferibile utilizzare file
presenti sui propri server invece di sfruttare immagini presenti su altri siti web (di cui non
avremo il controllo). Per esempio, invece di utilizzare l’URL relativo:
Un altro metodo per migliorare la velocità di caricamento delle nostre pagine web è l’utilizzo
della cache (HTTP caching), che permette un caricamento rapido delle pagine per le visite
successive alla prima. Ogni linguaggio di programmazione lato web offre strutture atte a sfruttare
la cache del browser:
• per Asp.net si veda: http://tinyurl.com/cache-microsoft;
• per PHP si veda: http://tinyurl.com/cache-apache.
NOTA
Tra le altre tecniche che possiamo utilizzare per migliorare la velocità delle nostre pagine
web troviamo Gzip, che consente di ridurre il peso di JavaScript e CSS.
Esiste, inoltre, un modulo per Apache creato da Google per caricare velocemente le pagine
web:
http://googlewebmastercentral.blogspot.com/2010/11/make-your-websites-run-faster.html
• Il nome dell’immagine, come abbiamo visto, deve essere breve e contenere una o due
parole chiave che richiamino l’argomento espresso dall’immagine stessa. Questo perché
alcuni utenti potrebbero giungere al nostro sito attraverso la ricerca effettuata su immagini,
per esempio Google Image. Avere un nome che esprima il contenuto di un’immagine o di
una foto agevola sia gli utenti, sia i motori di ricerca.
• L’attributo alt deve essere presente e deve rispecchiare anch’esso il contenuto
dell’immagine. Nel caso, per qualsiasi motivo, l’immagine non venisse caricata, il testo
contenuto nell’attributo alt permetterebbe all’utente di capire dove si trova e cosa
potrebbe incontrare proseguendo nella navigazione.
• I tag width e height devono essere sempre presenti, perché permettono al browser di
visualizzare l’immagine senza doverne calcolare gli attributi di altezza e larghezza. Inoltre,
la presenza di questi due attributi permette al browser di caricare la pagina senza aspettare
di aver effettuato il download delle immagini presenti in essa. Una piccola accortezza che
ci permetterà di guadagnare secondi preziosi e di fornire i contenuti nel minor tempo
possibile.
Questi espedienti consentono di ottenere sottili miglioramenti, apprezzabili anche in ambito SEO.
Non dobbiamo dimenticarci che anche il testo che si trova nelle vicinanze delle immagini risulta
essere un elemento molto importante. Infatti, se ben strutturato, con informazioni correlate a
quelle dell’attributo alt, rende ancora più appetibile l’immagine per i motori di ricerca. La scelta
del formato delle immagini (gif, jpg o png) è un altro aspetto cruciale che ci consentirà di
risparmiare qualche KB.
• Gif permette di ottenere prestazioni migliori per immagini con una mappa di colori
ristretta (fino a un massimo di 256 colori). Questo formato supporta la trasparenza e
piccole animazioni. È tipicamente consigliato per elementi grafici come bottoni, icone o
layout grafici.
• Jpeg è più indicato per immagini fotografiche e, grazie al suo metodo di compressione
(con perdita dell’informazione), ci permette di ottenere risultati soddisfacenti. Questo
formato non supporta la trasparenza.
• Png attua una compressione dell’immagine senza perdita di informazioni e supporta la
trasparenza e la semitrasparenza. L’unico difetto riscontrabile è che a oggi non tutti i
browser supportano la trasparenza delle png.
La scelta di un formato adeguato per le nostre immagini consentirà di ottenere immagini con
qualità superiore, ma di dimensioni ridotte, e un risparmio in byte utile per ottimizzare il
caricamento di una pagina web. Un modo per ottimizzare le immagini è quello di ridurne le
dimensioni; in che modo? Esistono diversi strumenti che ci agevolano in questo compito:
• http://www.imageoptimizer.net/Pages/Home.aspx: è un tool online che consente di ridurre
le dimensioni di immagini con estensioni gif, png e jpg;
• http://www.imgopt.com/: è un servizio offerto da Yahoo! per la compressione delle
immagini;
• http://www.prelovac.com/vladimir/wordpress-plugins/seo-friendly-images: è un tool per
ottimizzare le immagini.
NOTA
Ricordiamoci che se nel nostro sito inseriamo un’immagine con tag height e width di 50 px,
ma in realtà l’immagine ha una larghezza e un’altezza di 500 px, essa impiegherà più tempo a
caricarsi. Per tale motivo, se vogliamo inserire immagini di preview con dimensioni ridotte,
utilizziamo programmi appositi per ridurne le dimensioni.
Potrete trovare alcuni spunti interessanti per la gestione dell’hot-linking a questo link:
http://www.mauriziopetrone.com/blog/hotlink-no-backlink
Ricordiamo che nel corso degli anni sono nati nuovi formati di immagini ormai compatibili
con i browser web più diffusi. Questi formati sono l’apng (png animate) e le WebP (il 40%
più leggere delle normali jpg) o le jpg 2000. Perché non iniziamo a sfruttarle?
NOTA
SWF è il formato compilato che viene letto dai Flash Player disponibili per i vari browser
web. È possibile implementare applicazioni Flash che si integrano con l’XML.
In questo contesto troviamo, come accade in molti campi, due correnti di pensiero opposte:
• gli esperti SEO, che non amano l’utilizzo di Flash(tecnologia superata);
• i designer e i web designer, che affermano che l’utilizzo di Flash era indispensabile per
fornire un’esperienza utente e un’interattività migliori (oggi è possibile sfruttare HTML 5 e
Ajax per ottenere i medesimi risultati).
Di fronte a questo dilemma, possiamo porci nel mezzo e cercare di identificare, delle due diverse
correnti di pensiero, gli aspetti principali:
• i siti RIA, da una recente analisi, sono risultati più apprezzati dai visitatori che
tendenzialmente spendono su di essi più tempo;
• alcune animazioni possono essere fatte con altri strumenti come JavaScript o Ajax;
• i contenuti devono essere facilmente stampabili o consultabili dall’utente;
• le pagine HTML sono “più leggere” di quelle che contengono animazioni;
• dobbiamo ricordarci che il sito web deve essere fatto per il motore di ricerca, ma
soprattutto per i visitatori, i quali hanno emozioni e sensazioni che possono scaturire da
una combinazione appropriata di stili e animazioni; ciò potrebbe indurli a tornare a
visitarlo;
• la navigazione di siti interamente in Flash è difficoltosa e, anche se ben strutturata, risulta
non molto apprezzata dai navigatori web;
• in genere un utente non è disposto ad aspettare più di dieci secondi per il caricamento di
un contenuto web.
NOTA
“Stiamo lavorando inizialmente con Google e Yahoo! per migliorare in modo significativo la
ricerca dei contenuti RIA presenti sul web e abbiamo intenzione di ampliare la disponibilità di
questa funzionalità a beneficio di tutti gli editori di contenuti, sviluppatori e utenti finali”. Questo
è quanto ha affermato David Wadhwani, General Manager e Vice Presidente della Platform
Business Unit di Adobe.
“Google sta lavorando duramente per migliorare la lettura e l’interpretazione dei file SWF.
Attraverso la nostra recente collaborazione con Adobe, siamo in grado di aiutare i proprietari dei
siti web nel progettare soluzioni in Flash in grado di essere indicizzate. Migliorare il modo con
cui eseguire la scansione dei contenuti dinamici, migliorare l’esperienza di ricerca per i nostri
utenti” ha affermato Bill Coughran, Vice Presidente della sezione Engineering di Google.
Il problema fondamentale dei contenuti Flash è che essi non aderiscono al paradigma della
singola pagina per informazione, quindi è possibile che particolari stati o frame non abbiano
necessariamente un URL univoco. Senza un URL univoco, i motori di ricerca che desiderano
avere un collegamento al contenuto specifico del filmato Flash si troveranno di fronte a questo
problema. Lo stesso discorso, anche se con caratteristiche leggermente differenti, si verifica con
le pagine “Ajax-based”. Una tecnica chiamata deep linking consente agli sviluppatori Flash di
fornire URL specifici per determinati stadi dell’applicazione. Tale tecnica non è del tutto
perfetta, ma è in grado di offrire agli utenti un collegamento a un particolare contenuto del file
SWF. Nell’implementazione di applicativi Flash è quindi possibile limitare il problema
utilizzando in modo appropriato questi stratagemmi.
NOTA
Il seguente link mostra esempi di utilizzo della tecnica deep linking per Flash:
http://flash.html.it/articoli/leggi/3050/swfaddress-deep-linking-e-tasto-indietro
Sotto, riportiamo un esempio di codice HTML validato W3C per incorporare filmati Flash:
NOTA
Al posto del messaggio di errore “Fail…” è consigliabile inserire una descrizione, in modo
tale da fornire agli utenti e ai motori di ricerca informazioni aggiuntive (metodo SWFObject).
Buone pratiche per lo sviluppo di Flash SEO (Flash non si usa più!)
Esistono diversi espedienti per cercare di indicizzare al meglio anche le pagine web sviluppate
utilizzando la tecnologia Flash; vediamole:
• utilizzare file XML o file di testo esterni all’applicazione Flash potrebbe migliorarne la
leggibilità e l’indicizzazione; infatti, il formato XML offre ai motori di ricerca una
struttura semantica molto adatta all’indicizzazione dei contenuti. Separando il layer di
contenuto dal layer applicativo, si otterrà una migliore manutenzione dell’applicativo
Flash e un migliore risultato in termini di indicizzazione;
• creare URL unici per le pagine web Flash aiuterà i motori nella navigazione dei contenuti
Flash. Per creare tali link univoci, si consiglia di impiegare tecniche come SWFAddress,
SWFObject o UrlKit (http://code.google.com/p/urlkit/). Un’altra soluzione è quella di
associare una nuova pagina HTML per ogni contenuto che si vuole rendere più SEO
friendly, come mostrato nella Figura 6.5;
Figura 6.5 - Esempio di utilizzo di pagine HTML per inglobare contenuti Flash.
• utilizzare il tag NOSCRIPT HTML potrebbe essere una buona soluzione per veicolare i
motori di ricerca verso i contenuti presenti nelle pagine che utilizzano Flash. Questo tag è
molto utile, perché, nel caso di un sito sviluppato interamente in Flash, ci permette di dare
in pasto ai motori di ricerca testo e descrizioni fondamentali per una corretta
indicizzazione. L’utilizzo è molto semplice: si posiziona il tag <noscript> </noscript>
subito dopo il codice che incorpora il filmato Flash nelle nostre pagine.
Figura 6.6 - Esempio di utilizzo del tag NOSCRIPT per migliorare l’indicizzazione di pagine Flash.
All’interno di questo tag è possibile inserire testo e descrizioni che serviranno ai motori
di ricerca per capire il contenuto trattato nella pagina. Da alcuni test effettuati è stato
possibile constatare come i motori di ricerca indicizzino correttamente tali contenuti, come
mostra la Figura 6.7;
Figura 6.7 - Sito web in Flash che utilizza il tag NOSCRIPT e la sua corretta interpretazione da parte dei search engine.
Abbiamo visto alcune tra le metodologie a disposizione degli esperti SEO per migliorare
l’indicizzazione di contenuti Flash. Cercheremo ora di analizzare più nel dettaglio le due
principali tecniche che vengono utilizzate per rendere indicizzabili i contenuti Flash:
• SWFObject;
• SWFAddress.
Figura 6.8 - FEB Flash Website Framework.
Esempio 1:
Esempio 2:
NOTA
L’SWFObject offre quindi un modo diverso per includere contenuti HTML; ciò deriva dalla Web
Accessibility Initiative, la quale afferma che i contenuti multimediali dovrebbero avere un modo
alternativo di accesso alle informazioni presenti in essi.
SWF Address non è altro che una libreria (JavaScript/Actionscript) che si occupa di collegare
fra di loro sezioni interne di un filmato Flash. SWF Address ci consente di:
• aggiungere il sito web Flash ai preferiti del browser;
• inviare link via e-mail;
• ricercare contenuti specifici;
• utilizzare i bottoni di navigazione del browser;
• effettuare deep linking tra contenuti interni.
In poche parole, SWFAddress permette di creare deep link, cioè di associare un URL a una
sezione del nostro sito in Flash e di navigarlo anche con i bottoni avanti/indietro/refresh del
browser. Per esempio, supponiamo di avere un sito in Flash con tre sezioni: HOME, PRODOTTI
e CONTATTI. SWFAddress offre la possibilità di accedere alla sezione PRODOTTI con un URL
di questo tipo:
miosito.com/#/PRODOTTI/
SWFAddress consente di migliorare la navigabilità dei nostri contenuti Flash e di fornire URL
diversi da dare in pasto ai motori di ricerca. In ambito SEO, per ottenere i migliori risultati, tale
tecnica dovrebbe essere utilizzata in concomitanza con SWFObject, in modo tale da fornire URL
distinti e contenuto indicizzabile dai motori. Da non sottovalutare lo sforzo di progettazione e
implementazione necessario per applicarla e la scarsa possibilità di avere una buona link
popularity, poiché i link verso contenuti interni hanno il valore “#” come suffisso.
NOTA
Figura 6.10 - La ricerca in Google di “manuali pdf” produce numerosi risultati, determinati dalla corretta indicizzazione
dei documenti PDF.
Per creare un documento PDF, possiamo avvalerci di numerosi tool (Infix PDF Editor, Acrobat
Reader Professionale) a disposizione; ovviamente il migliore rimane quello di Acrobat
(utilizzato nel corso di questa trattazione). Attraverso questi software, saremo in grado di gestire
i meta-data del documento e di modificarli a nostro piacimento. L’ottimizzazione di un documento
PDF segue le linee SEO on page viste per le pagine web. Dobbiamo scegliere un titolo adeguato,
non creare PDF troppo pesanti (in termini di byte), completare i meta tag del documento e
utilizzare gli stili di intestazione, perché verranno riconosciuti come i tag H1, H2… di una pagina
HTML. Tutto questo perché un documento PDF ben posizionato nel web potrebbe portare nuove
visite al nostro sito web.
NOTA
È importante tenere presente come alcuni convertitori di PDF o versioni non recenti di
Photoshop non convertano il testo come “editabile”, bensì in pixel (il testo appare come
un’immagine) non indicizzabili. Per una corretta e adeguata indicizzazione, i testi presenti
all’interno di un documento PDF non devono essere rasterizzati come immagini.
• File (ottimizzare-pdf.pdf): se nel documento PDF non è stato definito il meta tag “Title”,
viene utilizzato il nome del file. Per tale motivo, è importante utilizzare nomi appropriati e
non generici.
• Title: risulta essere l’elemento cruciale per una corretta indicizzazione del documento
PDF. Tale tag viene utilizzato come titolo nei risultati della SERP.
• Author: serve a specificare l’autore del documento PDF.
• Subject: questo campo funge da Snippet del Meta Description per il nostro documento
PDF. Comprendiamo bene l’importanza di questo meta tag e di conseguenza la scelta delle
keyword e delle frasi da riporre al suo interno.
• Keywords: parole chiave che servono a identificare il documento; solitamente è
consigliato indicare non più di cinque-sette keyword per documento.
• Tra le varie opzioni a disposizione, abbiamo l’opportunità di modificare la
visualizzazione iniziale del documento PDF dalla sezione “Initial View”. Variando tali
parametri (come mostrato in Figura 6.12), saremo in grado di visualizzare in maniera più
user friendly i nostri documenti PDF.
Quelle sopra esaminate sono le tecniche base applicabili per migliorare l’indicizzazione dei
documenti nel web.
NOTA
NOTA
Silverlight, conosciuto anche con il nome in codice WPF/E, rappresenta una recente
tecnologia per lo sviluppo di nuove applicazioni web multimediali e animate tramite
l’utilizzo del Framework .NET.
Nella battaglia per aggiudicarsi una grossa fetta del mercato, questi tre grandi colossi
propongono le novità introdotte nei loro applicativi di punta per lo sviluppo sul web. Tale
battaglia verterà principalmente sulla qualità offerta da questi supporti e sull’attrazione che essi
riusciranno a esercitare sugli utenti finali. Lo scontro tra i due colossi di produzione software si
fa ormai ad armi pari: Silverlight offre un ottimo supporto alla programmazione delle RIA,
applicazioni tipiche dello sviluppo del web 2.0, soprattutto grazie alla possibilità di
interfacciarsi con script Ajax e di fare streaming video con qualità DVD. Proprio per quanto
riguarda lo streaming, è ottima la scelta di casa Microsoft di permettere la diffusione gratuita a
flussi video fino a 4 GB senza l’ausilio di costosi software come Adobe. Entrambe le piattaforme
hanno l’opportunità di lavorare con i numerosi linguaggi di programmazione server side presenti
sul mercato, come PHP, Coldfusion, .NET, Ruby on Rails, e possono essere usate anche nelle
architetture Enterprise J2EE. Si evince come Silverlight, nell’era delle applicazioni web
interattive e multimediali, stia rivestendo un ruolo di grande importanza, che deve quindi essere
considerato e analizzato anche in ambito SEO. I motori di ricerca, al momento, non riescono a
riconoscere perfettamente il contenuto di Silverlight in modo nativo. Per tale motivo, per rendere
il contenuto di Silverlight indicizzabile da parte dei motori di ricerca, è possibile avvalersi di
approcci con cui i search engine hanno già familiarità, come la combinazione di aree di contenuto
di Silverlight con i metadati HTML. L’obiettivo di tale ottimizzazione è quello di aumentare le
probabilità con cui la pagina, contenente oggetti Silverlight, viene visualizzata all’interno della
SERP. Vediamo ora in sintesi alcune tecniche di ottimizzazione di Silverlight, tratte dall’articolo
ufficiale di Microsoft scritto da Ashish Shetty:
http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/
Per tutte le altre tecniche più avanzate che richiedono una specifica conoscenza di Silverlight
rimandiamo il lettore alla consultazione dell’articolo:
http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/
NOTA
Google non può di fatto “vedere” cosa ci sia dentro un filmato, perciò si basa su titoli e altri
meta-dati per determinarne il reale contenuto.
Soffermiamoci un attimo sull’analisi del Sitemap video, in quanto è uno strumento molto efficace
per la diffusione e l’indicizzazione dei nostri filmati all’interno dei principali motori di ricerca.
Google dice:
Google Video Sitemap è un’estensione del Protocollo Sitemap che consente di pubblicare i
contenuti video online, nonché i relativi metadati, e di inviarli a Google al fine di renderli
disponibili per la ricerca nell’indice di Google Video. È possibile utilizzare una Sitemap
video per aggiungere informazioni descrittive, quali il titolo, la descrizione e la durata del
video, che agevolano la ricerca da parte degli utenti di una particolare porzione di
contenuto. Quando un utente trova il vostro video tramite Google, viene indirizzato ai
vostri ambienti ospitati per poterlo riprodurre integralmente. Quando inviate una Sitemap
video a Google, gli URL dei video inclusi saranno disponibili per la ricerca su Google
Video. I risultati di ricerca conterranno un’immagine miniatura (da voi precedentemente
fornita o generata automaticamente da Google) dei contenuti del video, oltre alle
informazioni (per esempio, il titolo) forniti nella Sitemap video. Il vostro video può inoltre
comparire in altri prodotti di ricerca di Google.
In poche parole, Sitemap video non è altro che un file XML in cui racchiudere le informazioni
inerenti a contenuti multimediali: in tal modo, si istruiscono i motori di ricerca sul contenuto dei
filmati. I tipi di video compatibili comprendono mpg, mpeg, mp4, mov, wmv, asf, avi, RA, RAM,
RM, FLV e devono essere direttamente disponibili tramite HTTP. La Figura 6.14 mostra un
esempio di Sitemap video.
Per conoscere tutti i tag disponibili e approfondire questo argomento, consigliamo la lettura
dell’articolo che trovate all’indirizzo:
https://developers.google.com/webmasters/videosearch/sitemaps
NOTA
Per chi non avesse conoscenze riguardo a XML, è possibile creare Sitemap video utilizzando
un software gratuito scaricabile da https://moz.com/community/q/video-sitemap-generator.
Una volta creata la nostra Sitemap video, non ci resterà altro che inviarla attraverso gli strumenti
per webmaster di Google o aggiungere il suo collegamento nel file robots.txt (per esempio,
aggiungendo il tag Sitemap: http://www.miosito.com/video_sitemap.xml).
Sitemap video non è l’unico strumento che abbiamo a disposizione per indicizzare i nostri
contenuti multimediali. Media RSS è un formato creato da Yahoo!, ma supportato anche da
Google e Bing, per la scoperta di contenuti multimediali come video, audio e immagini. È
un’estensione di RSS 2.0 ed è molto utile nel caso di pubblicazione di filmati in modo continuo
(la Figura 6.15 mostra un esempio di utilizzo di Media RSS).
Figura 6.15 - Esempio di Media RSS.
NOTA
Questi consigli, accompagnati da una buona campagna di marketing volta alla diffusione dei
nostri contenuti video, ci permetteranno di acquisire popolarità sul web.
NOTA
Non dimentichiamoci che nelle specifiche di HTML 5 vi sono nuove e interessanti novità
proprio per i contenuti video e i relativi standard da utilizzare.
Dobbiamo sempre ricordarci che i risultati video sono in grado di attirare l’attenzione degli
utenti scardinando il concetto di Golden Triangle: infatti un interessante studio di eye-tracking di
Dr. Pete su Google Universal Search (http://tinyurl.com/video-eye-ok) mostra come il video al
secondo posto per la parola chiave “How to make a pizza” risulti molto più visto del risultato
testuale presente al primo posto.
Per questo motivo, è fondamentale sfruttare i video per le nostre campagne di promozione online.
Figura 6.16 - Studio sull’importanza dei video nella SEO moderna (Dr. Pete).
Per questo motivo è importante compilare in fase di caricamento titolo e descrizione del nostro
video e prestare cura agli aspetti sopra elencati.
Ajax e i JavaScript: come usarli in ambito SEO?
Dal 2001 al 2008 il World Wide Web è passato attraverso una crescita spaventosa in termini di
tecnologie e metodologie utilizzate per portare questo strumento statico alla vita. All’inizio, tutte
le pagine web erano statiche: gli utenti richiedevano una risorsa (costituita da un file) e il server
gliela restituiva. Stimolato da tecnologie nuove e talvolta già presenti da tempo nei browser, il
web ha compiuto un notevole progresso, sconvolgendo il modo d’uso tradizionale che
necessitava del caricamento completo di una pagina ogni volta che si accedeva a nuove
informazioni o a una nuova parte della logica dell’applicazione. Nasce, quindi, il concetto di
“web 2.0”, cioè un diverso atteggiamento mentale sia di chi sviluppa i servizi attraverso le
tecnologie, sia di chi ne fruisce: la maggiore attenzione all’utenza innesca un meccanismo
collaborativo interno ed esterno estremamente vitale, creativo e produttivo. Ciò risulta possibile
anche grazie alla maggiore maturità dell’infrastruttura e del mercato tecnologico: maggiore
diffusione di connettività a banda larga a costi inferiori, di dispositivi digitali personali migliori
e più economici. In questo contesto, sorgono nuove tecnologie come Silverlight e Ajax
(Asynchronous JavaScript And XML), quest’ultimo sorto nel febbraio del 2005, quando James
Garrett della Adaptive Path LLC pubblicò un articolo intitolato “Ajax: A new approach to web
application”. Da quel momento nacque ufficialmente Ajax, una specifica tecnologia basata su
JavaScript, che conferisce alle nostre applicazioni web maggiore interattività, velocità e tutta
una serie di costrutti che le rendono uniche. Invece del modello classico, in cui il browser si
occupava di avviare le varie richieste al server web e di elaborare le risposte provenienti da
quest’ultimo, il modello Ajax prevede un livello intermedio chiamato Ajax Engine, che gestisce
tutte le fasi della comunicazione. A differenza del modello tradizionale, il server, che solitamente
servirebbe HTML, immagini CSS o JavaScript, viene opportunamente configurato per inviare i
dati che possono essere quindi interpretati e utilizzati dal motore Ajax. Questo processo
comporta un trasferimento minore di dati e informazioni: l’interfaccia utente viene aggiornata più
velocemente e l’utente è in grado di svolgere il proprio lavoro con maggiore efficienza (la Figura
6.17 illustra tale processo).
Figura 6.17 - Gestione richieste Ajax.
L’intento di tale tecnica è perciò quello di ottenere pagine web che rispondano in maniera più
rapida, grazie allo scambio in background di piccoli pacchetti di dati con il server, così che
l’intera pagina web non debba essere ricaricata ogni volta che l’utente effettua una modifica. Alla
base di questa tecnologia web vi è il componente denominato XMLHTTP, che detiene il compito
fisico di instaurare la comunicazione. Come è possibile notare, il processo di richiesta Ajax si
sviluppa in tre passi fondamentali. Il primo passo consiste nella creazione vera e propria
dell’istanza dell’oggetto XMLHTTP sul browser e nella sua configurazione. Il passo successivo
è quello di configurare correttamente i parametri della chiamata. La terza e ultima fase prevede
l’impostazione della funzione di Callback, il cui scopo è quello di controllare lo stato della
chiamata. Ajax non risulta essere una nuova tecnologia, bensì consiste nel riutilizzo di quelle
esistenti, permettendo di realizzare un determinato compito. Una delle peculiarità di Ajax che ne
fanno una tecnologia eccezionale è data dalla sua capacità di funzionare nella maggior parte dei
browser e di non richiedere alcun software o hardware proprietari. Il punto di forza principale
sta nel fatto che il programmatore non deve riscrivere il codice già funzionante, ma può integrarlo
ed estenderlo con questa tecnologia. Ajax risulta essere un approccio sul lato Client, perciò è
indipendente dal lato Server.
Le principali tecnologie alla base di Ajax sono:
• HTML/XHTML: linguaggi di rappresentazione del contenuto primario;
• CSS: fornisce una formattazione stilistica ai contenuti web;
• DOM (Document Object Model): aggiornamento automatico di una pagina caricata;
• XML: linguaggio standard per lo scambio di informazioni;
• XSLT: processo di trasformazione da XML in HTML;
• XMLHttp: agente di comunicazione primario;
• JavaScript: linguaggio di scripting utilizzato per programmare un motore Ajax.
NOTA
JavaScript è un linguaggio di scripting orientato agli oggetti, comunemente usato nei siti web.
Può essere adoperato in concomitanza con altre tecnologie, come Ajax e Silverlight.
Senza dilungarci troppo sugli aspetti tecnici, possiamo capire come questo linguaggio di
programmazione orientato alle applicazioni web sia fondamentale per un web interattivo.
Esistono numerosi framework che utilizzano queste tecniche: il più noto e diffuso è JQuey. In
tale scenario, anche la SEO deve approcciarsi a queste nuove strutture garantendo una buona
indicizzazione delle pagine (e dei relativi contenuti) che sfruttano tali tecnologie.
Per quanto concerne l’indicizzazione delle pagine contenenti JavaScript, i consigli sono i
seguenti:
• utilizzare file JS esterni alla pagina;
• sfruttare il tag <noscript> (come spiegato in precedenza, quando si è parlato dei contenuti
Flash) per fornire del testo alternativo ai motori di ricerca;
• caricare attraverso la funzione google.load() le librerie JavaScript o Ajax desiderate.
NOTA
Figura 6.18 - Esempio di utilizzo di Closure Compiler per comprimere file JavaScript.
Figura 6.19 - Esempio di utilizzo di YUI Compressor per comprimere file JavaScript.
Per quanto concerne l’indicizzazione di contenuti e pagine che sfruttano Ajax, sono stati compiuti
numerosi passi avanti da parte dei motori di ricerca, che si sono adoperati per fornire strumenti e
tecniche agli specialisti SEO.
Google, nel 2009, ha rilasciato una guida molto utile agli esperti SEO consultabile al seguente
indirizzo che ormai risulta superata ma che lasciamo per completezza:
https://webmasters.googleblog.com/2009/10/proposal-for-making-ajax-crawlable.html
Tra i punti salienti per ottimizzare gli applicativi in Ajax (secondo Google) ricordiamo i
seguenti.
• Dobbiamo specificare allo spider di Google che il nostro sito supporta il nuovo “schema”
di indicizzazione per Ajax. Tipicamente un URL in Ajax contiene un hash “#” che serve a
specificare i diversi stati in cui può trovarsi l’applicazione
(http://www.miosito.com/index.html#stato10).
In questo modo, un sito così strutturato viene visto dagli spider come costituito da una sola
pagina: i motori di ricerca non sono in grado di capire che diversi stati dell’applicazione
Ajax possono corrispondere a pagine con contenuti e informazioni differenti.
Google affermava tempo fa di dover aggiungere un punto esclamativo (!) subito dopo il
cancelletto, così:
http://www.miosito.com/index.html#!stato10
In tal modo, riusciamo a comunicare allo spider che siamo in grado di accettare la procedura di
indicizzazione in Ajax.
• Il crawler cambierà l’URL richiesto: nell’istante in cui lo spider di Google si accorge che
l’URL è stato modificato (come descritto nel punto precedente), riesce a indicizzare la
pagina come a sé stante.
• Modificare gli stati dell’applicazione Ajax in modo tale da fornire tag e description
diversi e contenuti appropriati.
Ovviamente si tratta di una soluzione alternativa e abbastanza articolata; per tale motivo
recentemente Google ha comunicato come non ci sia più bisogno di sfruttare gli _esca-
ped_fragment_ i contenuti in Ajax
(https://googlewebmastercentral.blogspot.it/2015/10/deprecating-our-ajax-crawling-
scheme.html). In questo scenario Google consiglia di sfruttare il concetto di Progressive
Enhancement per migliorare sia l’esperienza utente sia per facilitare a Google il compito di
rendering di siti con tali caratteristiche.
Google sitelink
Secondo la definizione presente in Google Search Console, i sitelink “sono link aggiuntivi che
Google talvolta genera dai contenuti dei siti al fine di aiutare gli utenti a navigare nel vostro
sito”. I Google sitelink sono dei piccoli link che appaiono sotto il primo risultato di Google per
una determinata serie di parole chiave e consentono all’utente di raggiungere informazioni
ricercate senza navigare nel sito stesso. La Figura 6.20 mostra un esempio di struttura generata da
Google.
NOTA
Google mostrerà i sitelink solo quando ne avrà individuati almeno tre; essi vengono assegnati
solo se pertinenti a quella determinata ricerca. Per approfondimenti vedere
https://plus.google.com/+GoogleWebmasters/posts/b4WcMeLgbAL.
Non si conosce bene la ricetta in base alla quale Google decide o meno di assegnare i sitelink,
ma è assai probabile che questi vengano generati:
• quando il sito web genera un buon traffico di utenti;
• quando Google ritiene che i link presenti nel sito risultino di utilità per l’utente;
• quando il sito è ben strutturato e navigabile;
• quando nel sito siano presenti in giusto rapporto anchor text di parole chiave inerenti ai
risultati di ricerca nella SERP;
• quando il sito in questione gode di buona popolarità e di un buon numero di link in
ingresso di qualità;
• quando il numero di clic ricevuti per una pagina è elevato;
• quando il tempo di permanenza sul sito web è sufficientemente lungo: questo significa che
quello che stiamo proponendo è di interesse per il visitatore.
Questi sono solo alcuni dei fattori che Google potrebbe tenere in considerazione per generare i
sitelink; esistono, tuttavia, eccezioni in cui tali sitelink vengono generati anche per siti web con
pochi visitatori e con una struttura di navigazione discutibile. Nel giugno 2005 Google ha
registrato il brevetto dei sitelink, che solo il 21 dicembre 2006 è stato reso pubblico sul sito dei
brevetti americani (Us Patent). È possibile consultarlo al seguente link:
http://tinyurl.com/Google-brevetto-sitelink
Gli algoritmi con cui vengono generati tali sitelink stanno evolvendo e negli ultimi mesi Google
sta testando nuove strutture per i sitelink. Il nostro consiglio è quello di seguire tutte le linee
guida per l’ottimizzazione della home page, creando una buona struttura di navigazione.
Dopodiché, solo il tempo e il riscontro delle strategie applicate ci consentiranno di capire se il
nostro sito è idoneo ad avere i sitelink.
Nell’agosto 2011, Google (http://tinyurl.com/nuovisitelink) ha migliorato e ottimizzato la
generazione dei sitelink. Ora, infatti, possono essere visualizzati fino a 12 sitelink per sito web
ed è anche possibile bloccare direttamente dagli strumenti per webmaster i sitelink non
“desiderati”. Nel 2014 altre modifiche alla grafica della SERP di Google hanno modificato il
layout dei sitelink; altre modifiche grafiche e di layout sono state introdotte nel 2016.
NOTA
Da alcuni test effettuati su una decina di siti, abbiamo potuto riscontrare che i sitelink sono
stati aggiunti (in genere dopo due-sette mesi) nei siti web che avevano le seguenti
caratteristiche:
• siti con un numero costante di visite giornaliere (maggiore nei casi rilevati a 25 visite
uniche);
• siti sia con struttura a tabelle, sia con DIV + CSS, ma con una navigabilità semplice
ottenuta principalmente con link testuali;
• siti con Sitemap e Feed RSS;
• siti aventi la barra di navigazione posta nella parte alta del sito web realizzata con link
testuali ed elenchi puntati (ul, li).
Google ha specificato più volte che questo box verrà mostrato solo per query ritenute utili e
pertinenti per gli utenti e anche per siti che non hanno “implementato” il codice specificato nelle
linee guida.
Per tentare di far apparire il box in questione, dobbiamo seguire le linee guida di Google:
https://developers.google.com/structured-data/slsb-overview
Quali sono quindi le principali caratteristiche a cui devono rispondere i siti web per poter
usufruire di questo box di ricerca?
• avere un motore di ricerca interno al sito;
• strutturare i dati delle pagine con il markup di Schema.org;
• impostare correttamente il tag rel=”canonical” in Home Page;
• avere una struttura che supporti la codifica dei caratteri UTF-8.
Com’è possibile notare, il codice, che va inserito in Homepage, è semplice e deve riprendere
l’URL di generazione prodotta dal motore interno del sito web.
Mobile SEO
L’evoluzione tecnologica degli ultimi anni ha permesso la diffusione sul mercato di dispositivi
mobile a prezzi accessibili e dotati di connettività. Risulta infatti possibile collegarsi attraverso
palmari o cellulari di ultima generazione a Internet e fruire, tramite questi strumenti, di contenuti
web anche multimediali. Addirittura, gli ultimi lettori MP3 hanno al loro interno browser in
grado di collegarsi alla rete Internet, consentendo all’utilizzatore di scaricare i brani desiderati.
iPod, iPad, iPhone sono diventati un cult per i giovani d’oggi; quasi tutti i cellulari ormai
incorporano un browser web e applicativi per connettersi con i maggiori social network. Risulta
quindi fondamentale conoscere il proprio target di utenti, ma soprattutto i dispositivi che essi
usano per visitare le nostre pagine web, in modo tale da prendere in considerazione la possibilità
di creare una versione accessibile da apparati mobile. Sotto questo aspetto, anche la SEO e il
Web Marketing hanno un ruolo cruciale. I motori di ricerca si sono adattati a questa evoluzione e
offrono la possibilità di indicizzare opportunamente siti web creati appositamente per apparati
mobile. Per esempio, Google utilizza lo user agent “Googlebot-Mobile” per identificare i siti che
offrono i loro contenuti per apparati mobili. Yahoo!-Bing e tutti i principali motori di ricerca
mondiale forniscono i loro contenuti sotto forma mobile e prevedono strumenti specifici per
identificare siti e pagine web studiati appositamente per tali scenari.
NOTA
In alcuni contesti è preferibile verificare la stringa dello user agent all’interno delle nostre
pagine web, in quanto i motori di ricerca potrebbero cambiare tale intestazione senza
preavviso. È quindi consigliabile utilizzare le ricerche DNS per verificare l’esattezza dello
user agent, come viene spiegato in questo articolo di Google:
https://webmasters.googleblog.com/2006/09/how-to-verify-googlebot.html
Nel mondo mobile troviamo diverse esigenze, dovute sia alla dimensione degli schermi dei
dispositivi, sia agli utenti che hanno aspettative e bisogni differenti rispetto a quelli “desktop”
(che utilizzano il web attraverso un normale PC). “A Large Scale Study of European Mobile
Search Behaviour” (http://dl.acm.org/citation.cfm?id=1409243) è un’interessante ricerca che
mostra l’evoluzione del mobile, fornendo importanti spunti di riflessione:
• nel 2008 la lunghezza media delle query in Europa si aggirava attorno ai 2,2 termini e in
questo scenario Google era il motore di ricerca in grado di attirare query più articolate;
• nonostante la difficoltà di digitazione, gli utenti creano query di lunghezza del tutto
comparabile a quella del web tradizionale;
• la Long Tail Keyword applicata è ancora valida e circa il 14% delle richieste viene
rielaborato per raffinare la propria ricerca.
Vediamo come funziona, in linee molto generali, il Mobile Search di Google: vengono generate
due SERP differenti, una che ingloba i risultati per i siti mobile, l’altra per gli utenti generici (che
definiremo anche “desktop”). È da evidenziare come il ranking dei siti mobile venga
implementato utilizzando un algoritmo differente, che sfrutta il “mobile search quality score”. A
questo punto le due SERP vengono mixate attraverso un processo che prende il nome di
“blended”, in modo tale da fornire un unico risultato. I risultati ottenuti vengono filtrati ed
elaborati per evitare i contenuti duplicati, e presentati all’utente finale. L’analisi di tale brevetto
può portare alla luce diversi spunti e curiosità che gli esperti SEO possono osservare per
migliorare l’indicizzazione anche per i siti mobile. Ovviamente lo sviluppo di un sito per
apparati mobile richiederà tempo, risorse tecniche e investimenti. Ma quali sono le principali
caratteristiche che deve avere un sito mobile?
NOTA
Negli header delle versioni mobile degli URL sarà necessario aggiungere il rel=”canonical”
che punta alla versione desktop dello stesso URL:
• DocType: la versione mobile del nostro sito web deve utilizzare un DocType adeguato:
• dominio differente: registrare possibilmente un sito .mobi o .mobile di terzo livello (per
esempio, mobile.ingegneridelweb.com), in modo tale da separare i contenuti e facilitarne
l’indicizzazione;
• navigabilità e velocità: la struttura delle pagine deve essere essenziale, senza effetti e con
pochissime immagini. L’utente deve trovare nel minor tempo possibile quello che sta
cercando;
• shortcut con le Access Key:
Tale link permette, indicando la lettera associata, di tornare alla pagina “SEO” utilizzando
la combinazione Alt + S per mettere il focus sul link e [Invio] per concretizzare il link.
Questo modo di operare facilita la navigazione e la consultazione delle pagine web ed è
molto apprezzato in ambito mobile;
• sitemap: è necessario predisporre una sitemap per la versione mobile. Tale sitemap è
molto simile a quella classica, ma utilizza appositi tag “mobile”; un esempio di codice è
illustrato qui sotto:
• utilizzo di codice leggero e che rispetti gli standard, tra cui XHTML di base 1.1, XHTML
MP 1.2, XHTML di base, XHTML MP, HTML e WML (http://www.w3.org/TR/mobile-
bp/).
NOTA
Uno dei problemi più sentiti per un webmaster è quindi quello di gestire tecnicamente la
possibilità di fornire contenuti differenti in base alle richieste dei dispositivi. Per questo motivo
è necessario adottare alcuni accorgimenti tecnici.
• Utilizzare fogli stile o architetture apposite, in modo tale da identificare se un visitatore ci
sta visitando da un apparato mobile, e quindi effettuare un redirect verso contenuti e
informazioni adeguate. Identificare attraverso lo user agent la richiesta di visualizzazione e
predisporre soluzioni differenti per apparati mobile diversi (che possono avere risoluzioni
o dimensioni dello schermo variabili). È altresì possibile identificare lo user agent del
motore di ricerca in modo tale da redirigerlo verso contenuti opportuni. La Figura 6.25
mostra un esempio pratico di tale tecnica.
NOTA
Il redirect alla versione mobile potrebbe costituire cloaking? Riportiamo quanto affermato da
Matt Cutts (http://tinyurl.com/redirect-mobile): “Avere uno script che reindirizza
automaticamente gli utenti mobile alla versione mobile del proprio sito non costituisce
cloaking. Questo perché il cloaking altro non è che il tentativo di mostrare contenuti diversi
all’utente e a Googlebot. Ma lo spider di Google si comporta esattamente come un comune
utente. Il Googlebot è pertanto ‘insensibile’ a questo tipo di redirect. In linea di massima,
fintanto che Googlebot viene ‘trattato’ come fosse un comune utente, non vi è alcun rischio di
essere penalizzati”.
• Una soluzione differente sarebbe quella di fornire lo stesso URL per versioni desktop e
mobile, cambiando però il loro formato in base allo user agent. In altre parole, sia gli
utenti mobili, sia quelli desktop accedono allo stesso URL (in questo caso non viene
effettuato nessun redirect), ma il contenuto della pagina si adatta in base allo user agent. In
questo contesto, se il nostro sito web non viene configurato correttamente, potrebbe essere
considerato cloaking. Per cloaking si intendono quelle tecniche atte a separare i contenuti
forniti a Googlebot rispetto a quelli visualizzati dagli utenti normal, in modo tale da avere
un vantaggio in termini di posizionamento. Come si è detto precedentemente, Google
utilizza “Googlebot” per la navigazione normale e “Googlebot-Mobile” per le ricerche
mobile. Per rimanere entro le nostre linee guida fornite da Google, si dovrebbe procedere
in questo modo:
– l’utente desktop deve vedere il medesimo contenuto proposto a Googlebot;
– l’utente mobile deve vedere il medesimo contenuto proposto a Googlebot-Mobile;
– il contenuto proposto all’utente mobile e desktop potrebbe anche essere differente.
Figura 6.26 - Schema di gestione di medesimi URL, ma con contenuti e forme differenti per versione mobile e desktop.
Esempio di modelli mobili corretti.
NOTA
Tale ragionamento è stato fatto per Google, ma funziona in maniera similare anche per gli
altri motori di ricerca. Ricordiamo, inoltre, che è stata rilasciata la piattaforma JQuery
Mobile pensata proprio per tali apparati (http://jquerymobile.com).
Quindi, dal punto di vista dello sviluppo, esistono a oggi fondamentalmente tre tipologie di
macro-soluzioni che raggruppano quelle sopra descritte e che possiamo adottare nello sviluppo
di un sito web mobile friendly:
• responsive design;
• dynamic serving;
• sito mobile custom.
Il modello responsivo è quello più amato dai web designer, in quanto consente con modifiche ai
CSS di rendere adattabile e modulabile la grafica in base al dispositivo su cui è visualizzato il
sito web. Un sito con responsive design ha quindi tipicamente un unico template HTML gestito da
un unico file CSS, e soprattutto un’unica ottimizzazione SEO.
La tecnica del dynamic serving consiste nell’intercettare la tipologia del dispositivo e, in base a
questo parametro, fornire attraverso un unico indirizzo un template appropriato alla risoluzione
del device che sta effettuando la richiesta. In questo contesto avremo differenti template e CSS in
base ai dispositivi per cui vogliamo adattare il nostro sito web.
Un’altra alternativa è quella di avere una versione mobile separata dal resto del sito web, che,
oltre a essere molto dispendiosa a livello tecnico, lato SEO deve avere delle accortezze per
evitare che il sito web sia correttamente interpretato come dedicato ai mobile e non considerato
contenuto duplicato.
NOTA
Dopo aver implementato il nostro sito web, l’ultimo passo, come abbiamo precedentemente
illustrato, è quello di testarlo sugli apparati mobile. Per fare questo, è necessario disporre di
emulatori che simulino il software e la tecnologia presenti sul dispositivo cellulare su cui si
vuole effettuare il test. Vediamo quali sono, a nostro avviso, i migliori strumenti a disposizione:
• User Agent Switcher (https://addons.mozilla.org/en-US/firefox/addon/59): consente di
modificare lo user agent per vedere come si comporta il nostro sito web. È un plug-in per
Mozilla Firefox;
• Mowser (http://mowser.com/): è un servizio gratuito che permette di verificare come il
nostro sito web venga visualizzato da un qualsiasi apparato mobile;
• Google Mobilizer: è un servizio gratuito di Google che consente di verificare la
visualizzazione del nostro sito web su apparati mobile; è sufficiente inserire l’URL del
sito web o della pagina per vedere come sarà la visualizzazione su dispositivi cellulari.
Figura 6.28 - Esempio di visualizzazione di un sito web con Google Mobilizer.
Abbiamo quindi preso in considerazione gli strumenti online che riteniamo costituiscano le basi
per effettuare ottimi test sui nostri siti web mobile. Ovviamente, sul mercato esistono numerosi
software, anche professionali, atti a effettuare tali compiti e che mettono a disposizione
funzionalità avanzate. Il nostro consiglio, in un momento di forte cambiamento tecnologico, è
quello di prendere realmente in considerazione la possibilità di implementare una versione
mobile del proprio sito web, al fine di consentire la fruibilità dei servizi da più apparati e
soprattutto di invogliare nuovi “clienti” o “visitatori” a visitare il nostro portale.
NOTA
Il 26 febbraio 2015, sul Webmaster Central Blog, Google ha ufficializzato quanto aveva già
detto in sordina a novembre 2014: l’essere mobile-friendly sarà un fattore di posizionamento;
Google, per facilitare la comprensione di questo argomento da parte dei webmaster, ha
pubblicato una mini guida a supporto: http://bit.ly/remigi-mobile.
Google ha attuato dal 2015 la cosiddetta rivoluzione mobile o Mobilegeddon. I siti che non
saranno compatibili con le sue direttive avranno un ranking inferiore nei risultati di ricerca
mobile.
In pratica, una pagina web è idonea all’etichetta “mobile-friendly” sole se soddisfa i seguenti
criteri:
• non ha contenuti Flash;
• utilizza testo che è leggibile anche senza zoom;
• evita scroll orizzontali nella modalità mobile;
• collegamenti ipertestuali e menu facilmente accessibili e che non disturbino la
navigazione.
Per verificare se il tuo sito è Mobile Friendly secondo le direttive di Google, ti basterà utilizzare
il seguente tool:
https://www.google.com/webmasters/tools/mobile-friendly/
Questi sono ulteriori segnali che ci fanno capire come nella progettazione di un sito web l’aspetto
“mobile” non è da sottovalutare e sarà sempre più importante nei prossimi anni.
NOTA
Queste nuove pagine avranno vita propria e quindi dovranno essere create e gestite in modo
scrupoloso. Ovviamente dovremmo poi sfruttare il canonical o alternate per evitarne la
duplicazione dei contenuti. Google ha già annunciato che il formato AMP sarà fruttato anche
in altri servizi come ad esempio Google News.
Il progetto si basa su AMP HTML, framework open source ideato e progettato basandosi su
protocolli e tecnologie esistenti e che consente di realizzare pagine più leggere in grado di essere
erogate in poco tempo.
Grazie alla collaborazione con altri player del mercato tra cui Twitter, Pinterest, WordPress.com,
Chartbeat, Parse.ly, Adobe Analytics e LinkedIn ed altri editori nazionali ed europei, è stato
possibile sperimentare questa funzionalità ormai diventata una realtà all’interno delle SERP
mobile.
Grazie a tale novità, gli editori e in generale tutti i webmaster potranno realizzare contenuti ricchi
di elementi multimediali, come immagini, video, mappe, condivisibili sfruttando il sistema di
cache di Google.
Per quanto riguarda la pubblicità, Google AMP supporta formati diversi di advertising e quindi
gli editori non si dovranno preoccupare di questa problematica.
Recentemente Google ha dichiarato il RollUP di Amp sulle SERP tradizionali. Un primo passo è
avvenuto Il 23 agosto 2016 in cui Google ha rimosso l’etichetta mobile-friendly dalle SERP;
successivamente Il 20 settembre 2016 Google ha annunciato il rollup dei risultati AMP in SERP.
Questa novità ci fà capire come AMP e il mobile siano una priorità e non dovremmo
sottovalutare questa tecnologia nelle nostre strategie.
NOTA
Con queste accortezze avremo creato una pagina AMP. Detto questo, Google ci suggerisce alcune
accortezze da prendere in considerazione ovvero:
• in tutte le pagine non AMP è fondamentale inserire un riferimento alla versione AMP della
pagina per consentire a in modo che Google e altre piattaforme di rilevarla:
• nella pagina AMP va specificato come abbiamo già detto la pagina canonical (o HTML o
se stessa):
NOTA
Anche le AMP autonome vengono indicizzate, a condizione che possano essere rilevate dal
motore di ricerca, per questo motivo è necessario che dispongano di link ad altre pagine
indicizzate o che siano specificate nella Sitemap.
La seguente immagine illustra i passi appena descritti (recentemente è stato rilasciato un plug-in
per Chrome e Mozilla che permette di validare in modo semplice le pagine AMP; il plugin si
chiama "amp-validator"):
Figura 6.31 - Esempio di pagina AMP.
Alla fine possiamo visionare lo stato delle nostre AMP page direttamente dalla search console di
Google.
NOTA
Insomma sembra tutto molto bello in teoria, ma in pratica? Le PWA sono un costrutto che
permetterà di migliorare l’esperienza utente, in quanto Google si è accorto che lato mobile molti
siti e app non sono al passo con i tempi. Tutto questo comporta una miriade di standard e linee
guida da seguire.
Per alcuni approfondimenti tecnici vi consiglio la lettura del post ufficiale di Google di inizio
2016 https://developers.google.com/web/progressive-web-apps/.
Tra le varie opzioni da considerare per l’ottimizzazione on page nello sviluppo di app troviamo:
• App Title: il titolo dell’app deve essere conciso, persuasivo e contenere delle keyword;
• App Description: la descrizione deve essere coinvolgente e contenere parole chiave utili
alla ricerca dell’app;
• App Logo: il logo di un’app deve attirare l’attenzione dell’utente e rispettare alcuni criteri
che facilitano il posizionamento dell’app, come non contenere parole, essere leggero e
rispecchiare le caratteristiche dell’app;
• App Screenshot: gli screenshot di un’app devono essere diversificati e devono essere in
grado di attirare l’attenzione dell’utente finale;
• Category: le categorie degli store sono molte e differenti, ed è quindi fondamentale
scegliere quella che rispecchia appieno la caratteristica della nostra app;
• App YouTube Demo: questa è una caratteristica dedicata al Play Store, che permette di
caricare un video di YouTube che mostra l’utilizzo della vostra app;
• Leverage Google Plus: tutte le app sullo store di Google hanno un plug-in per Google +.
Più saranno i G+ ottenuti, più la vostra app potrebbe guadagnare posizionamento nello
store.
NOTA
Google ha affermato chiaramente che qualsiasi “uso ripetitivo e/o irrilevante di parole
chiave nel titolo dell’app e nella descrizione, in grado di creare un’esperienza utente
sgradevole, può causare una sospensione dell’app all’interno dello store”.
Ora che abbiamo visto i principali fattori interni soffermiamoci un attimo per capire le possibili
differenze tra i vari store e principalmente Google Play e Apple Store. Cerchiamo di riassumere:
• il nome nell’applicazione per Apple Store deve essere di circa 25 caratteri mentre 30 per
Google Play, e potrebbe essere utilizzato nell’URL dell’app;
• tipicamente la descrizione viene utilizzata per i primi 167 su Google Play (valore che
potrebbe cambiare);
• parole chiave vengono utilizzate da IOS, che sfrutta i primi 100 caratteri prendendo
solamente i termini singoli (al momento plurali e singolari sono keyword differenti);
• come abbiamo visto, l'icona ha un ruolo fondamentale anche per intercettare l’interesse
dell’utente;
• lo screenshot è importante per dare un’anteprima agli utenti di quello che sarà l’utilizzo
dell’app;
• la categoria è fondamentale in quanto il 64% degli utenti scarica un’app direttamente dagli
app store.
Non ci crederete, ma anche per il posizionamento delle app esistono i fattori ASO off page:
• App ratings: la valutazione data dagli utenti all’app;
• App reviews: le recensioni scritte in modo naturale dagli utenti che hanno provato e
testato l’app;
• totale dei download: questo influisce sulla psiche dell’utente. Più alti saranno i download
della vostra applicazione, maggiore è la probabilità che altri utenti scarichino la
medesima app;
• Link Building: per le app di Google, il Play Store Google ha accesso agli indici di ricerca
di Google. Questo significa che i link da siti web popolari e autorevoli sarà certamente di
aiuto nel ranking della vostra app mobile.
NOTA
Ovviamente alcune delle caratteristiche appena elencate possono adattarsi meglio o all’app store
di Apple o al Play Store di Google. Prima di concludere, vogliamo elencare alcuni tool per
controllare e migliorare la ASO di un’app:
• Flurry: per aumentare la popolarità della vostra app;
• Swrve: supporto avanzato agli sviluppatori;
• App Annie: facilita il monitoraggio dei download e altre caratteristiche dell’app mobile.
Figura 6.34 - Alcuni dei principali fattori di Ranking Mobile (in continua evoluzione).
NOTA
Tra gli altri tool che consigliamo per l’ottimizzazione delle APP segnaliamo:
• Sensor Tower (sensortower.com)
• MobileDev HQ (mobiledevhq.com)
• SearchMan (searchman.com)
• Apptweak (apptweak.com)
• Straply (straply.com)
• AppCode.es (appcodes.com)
• Appstatics (appstatics.com)
• MobileAction (mobileaction.co)
App Indexing
Abbiamo visto come Google, ma non solo, stia puntando molto sul mobile seguendo l’andamento
e l’evoluzione tecnologica. Google App Indexing è la capacità da parte di Google di indicizzare i
contenuti delle app e mostrarli nei risultati di ricerca. Google App Indexing è stato lanciato nel
mese di ottobre 2013 per una serie limitata di editori. Successivamente è stato ampliato nel
giugno 2014; nel mese ottobre 2015 Google ha annunciato il supporto per l’indicizzazione delle
app all’interno di Safari e queste funzionalità permette di offrire agli utenti il contenuto di
applicazioni non installate sul dispositivo.
Grazie all’avvento dell’App Index cambia anche il modo di sviluppare le app e di svolgere
attività SEO su di esse; infatti potremmo modificare il codice dell’applicazione per renderlo più
efficace in quanto Google ora è in grado di leggere l’intero contenuto dell’app, indicizzarlo e
renderlo visibile nelle SERP.
Infatti, con questa nuova funzionalità i motori di ricerca non leggono più solo una parte del codice
dell’app come titolo e descrizione, ma sono in grado di leggere l’intero contenuto
dell’applicazione e per questo motivo dovrà essere nostro compito ottimizzarlo per facilitarne il
posizionamento e la visibilità. Tra le ultime novità di Google App Indexing troviamo inoltre la
possibilità di provare molte app (pulsante Try now) direttamente in SERP (Google App
Streaming) senza installarla per avere una visione in anteprima del suo utilizzo.
Anche gli altri motori di ricerca e siti web si sono attrezzati di conseguenza infatti troviamo:
• Bing App Linking: molto simile all’indexing di Google: https://msdn.microsoft.com/en-
us/library/dn614167.aspx;
• Apple App Search & Universal Links:
https://developer.apple.com/library/content/documentation/General/Conceptual/AppSear
ch/UniversalLinks.html.
Figura 6.37 - App Index e Google.
Come iniziare a sfruttare questa opportunità? Google ha reso disponibile una guida disponibile al
seguente url https://developers.google.com/app-indexing/.
Senza entrare troppo nei dettagli tecnici che potete trovare nella guida ufficiale, vediamo gli step
principali (che sono differenti in base ad app iOS o Android):
• aggiornare il Manifest dell’applicazione:
• includiamo le chiamate API app inde:
NOTA
Per chi volesse approfondire questo argomento oltre alla guida ufficiale di Google, al
seguente link, è possibile visionare una guida completa: http://searchengine-land.com/app-
indexing-new-frontier-seo-google-search-deep-linking-226517.
Cosa ricordarsi?
• Controlla le performance del tuo sito web.
• Migliora e ottimizza i tempi di caricamento.
• Ottimizza i PDF.
• Sfrutta le AMP.
• Rendi il tuo sito mobile friendly.
• Rimani aggiornato sulle novità di Google e Apple in ambito APP e mobile.
“L’uomo è una creatura che non vive di solo pane, ma principalmente di slogan.”
(Robert Louis Stevenson)
NOTA
Il 13 Ottobre 2016, Gary Illyes ha pubblicamente annunciato che Google sta passando ad un
"mobile first index". In tal modo Google dovrebbe preferire l'indice mobile a discapito di
quello "desktop". Questo passaggio per i siti responsivi dovrebbe avvenire in modo indolore.
Il mobile è un tema molto caldo e in questo capitolo abbiamo cercato di darvi degli spunti
utili per affrontare questa nuova sfida SEO.
Focalizziamoci sui concetti base:
• Rimane un unico indice di Google, UNO!
• Google in caso di versione mobile e versione desktop valuta la versione mobile.
• Google accetta di buon grado le strutture di layout come accordion/tabbed content…
i contenuti non prontamente visibili NON saranno più dequalificati.
• NON toccate le combinazioni canonical-alternate.
Capitolo 7
Siti multilingua per la SEO e il SEM
Tutti questi fattori dovranno prevedere azioni di Web Marketing ben definite, che vanno da scelte
di comunicazione e gestione dei contenuti diversificate, alla gestione del brand aziendale e delle
politiche di prezzo adattabili alle diverse realtà, fino a toccare i costi di trasporto e logistica. Un
altro aspetto da non sottovalutare è l’organizzazione delle informazioni e dei contenuti lato web
in modo da garantirne un’ottimizzazione per un corretto posizionamento all’interno dei motori di
ricerca. Le informazioni dovranno essere, quindi, localizzate, in base alle scelte aziendali, per
lingua o nazione e perciò proposte in una forma e in un contesto che risultino di interesse per il
visitatore.
Per tale motivo, la scelta e lo studio delle parole chiave devono essere rivisti e studiati per
riflettere lo scopo del sito stesso. Utenti di diverse nazioni, ma che utilizzano la medesima lingua,
potrebbero ricercare in modo dissimile lo stesso vocabolo, poiché hanno usanze e bisogni
differenti. Lo studio SEO per la ricerca delle parole chiave va quindi predisposto in tale ottica.
In alcuni casi, come stiamo notando, le esigenze delle aziende e del mercato in cui esse operano
conducono alla necessità di creare contenuti e supporti non più distinti solamente per lingua, ma
anche per nazione.
La globalizzazione e la localizzazione del visitatore diventa, quindi, un punto fondamentale: un
utente americano potrebbe accedere alla pagina di un determinato sito web in lingua inglese ma
riferita al mercato europeo, con prezzi e brand differenti. In tal modo, l’utente potrebbe trovarsi
“spaesato” e lasciare dopo poco tempo il sito web. I visitatori che accedono a un sito e trovano i
contenuti nella loro lingua nazionale sono fino a quattro volte più propensi a comprare e a
dedicare del tempo a visitarne le pagine.
In questo scenario sarebbe preferibile usare indirizzi IP localizzati in base alla nazione corretta,
sia per migliorarne le performance, sia per rendere efficace la localizzazione del sito web stesso.
Per esempio, il dominio ingegneridelweb.es dovrebbe appartenere a un provider spagnolo con
relativo indirizzo IP corrispondente. Un problema molto pressante che può sorgere nel caso di un
sito web multilingua, ma con differenziazione per nazioni, è quello del contenuto duplicato.
Inevitabilmente, alcune schede tecniche e alcuni contenuti della stessa lingua potrebbero essere
utilizzati per versioni diverse del medesimo sito web in base alla nazione. In questo caso
potrebbe essere utile apportare piccole modifiche al contenuto e variare il titolo originale delle
pagine ed eventualmente alcune keyword di riferimento. Tutti questi problemi richiedono una
grande attenzione sia dal lato marketing, sia per quanto concerne aspetti SEO e di miglioramento
del posizionamento. Esistono altresì differenze nella psicologia dei diversi popoli che portano
alla necessità di avere non solo pagine e strutture diverse, ma anche strategie SEO adattabili al
contesto. Per esempio, un buon titolo (title di pagina) per gli utenti italiani potrebbe essere un
disastro per quelli russi. Se poi andiamo nel dettaglio, possiamo incontrare casi particolari, come
le nazioni multilingua. Prendiamo l’esempio della Spagna, Paese in cui le lingue ufficiali
riconosciute sono quattro: spagnolo, catalano, galiziano e basco. Se fossimo un’azienda spagnola
e volessimo comunicare e avere visibilità in maniera ottimale in Catalogna, potremmo registrare
il dominio miodominio.cat, oltre a miodominio.es, pubblicando i contenuti opportunamente
contestualizzati nella lingua del dominio o utilizzando i terzi livelli per ogni versione linguistica
nazionale. Tutti questi fattori ci portano a pensare come l’influenza della lingua e della
nazionalità rappresenti un aspetto fondamentale e sempre più presente anche all’interno dei
motori di ricerca. Basti pensare alle query di ricerca all’interno di Google fatte in lingue diverse
dall’inglese: esse risultavano essere solamente il 30% nel 2002, mentre oggi sono oltre il 50%
(dall’analisi di Google Trends). Questo ci fa capire l’importanza di geolocalizzare! Da una
recente analisi statistica (fonte: dynamical.biz) dei comportamenti degli utenti europei, è emerso
come gli acquirenti online preferiscano “riempire i loro carrelli virtuali” in fasce diverse della
giornata:
• l’utente spagnolo tra le 12 e le 13;
• gli utenti tedeschi e italiani tra le 14 e le 16;
• l’utente danese tra le 17 e le 18;
• l’utente francese tra le 18 e le 22;
• l’utente inglese intorno alle 20;
• l’utente svedese intorno alle 21.
Dobbiamo anche notare (come precedentemente accennato) come un contesto nazionale possa
influenzare la nostra strategia di comunicazione. Per esempio, negli Stati europei del
Mediterraneo, Internet è sempre più usata come fattore di comunicazione, di scambio e social
network; nei Paesi nordici si fa invece affidamento su Internet per un utilizzo più pragmatico e
per scopi funzionali. Riguardo ai siti multilingua e al loro posizionamento, potrebbe essere
scritto un trattato di centinaia di pagine, ma, come ben sappiamo, i motori di ricerca sono in
rapida evoluzione e in questo campo le varie tattiche attuate potrebbero essere suscettibili di
cambiamenti radicali nel prossimo futuro. Le politiche SEO da adottare vanno quindi studiate e
commisurate prestando molta attenzione a tutti i fattori appena illustrati.
NOTA
Utilizzare TLD differenti per gestire la diversificazione delle utenze in base alla nazione e alla
lingua è una strategia che consigliamo per siti di grosse dimensioni. Comporta, infatti, un grande
dispendio di risorse e accorgimenti tecnici. Questo perché sia i cookie, sia le session, strumenti
mediante i quali è possibile mantenere in memoria alcune informazioni dei visitatori, sono
strettamente legati a un singolo dominio. Ai fini della sicurezza e della privacy, i browser non
trasmettono i cookie da un dominio diverso da quello che li ha impostati.
NOTA
La gestione di un account su più domini diventa quindi più difficile rispetto a una soluzione
unificata all’interno di un unico dominio.
Per evitare questi ostacoli, è necessario optare per accorgimenti tecnici di progettazione e
sviluppo atti a garantire il single sign-on se vi è la necessità di una gestione delle autenticazioni
unificate per più domini. Il problema si avverte anche in caso di preesistenza dei dati, cioè
quando si vogliono memorizzare i dati in una banca dati unica. Serviranno, quindi, un sistema
centralizzato e opportuni accorgimenti tecnici e di sviluppo (per esempio, webservice) per
gestire tali problematiche. Il tutto si traduce in un aumento della complessità totale della struttura
e dei costi di implementazione, che solo grosse aziende, in base al loro target di mercato, sono
disposte a sostenere.
NOTA
Riepilogando: i Top Level Domain sono utili per gestire siti multilingua organizzando i contenuti
geografici di nazioni differenti:
• miosito.com per gli Stati Uniti;
• miosito.fr per la Francia;
• miosito.de per la Germania;
• miosito.it per l’Italia.
Vantaggi:
• ogni sito è a sé stante ed è facile impostare parametri quali lingua, valuta, disponibilità di
prodotti, e definire, per esempio, i costi di trasporto;
• sono identificativi di uno specifico mercato di riferimento;
• attraverso gli strumenti a disposizione degli esperti SEO sono facilmente monitorabili;
• se registrati su hosting nazionali, si potrebbero avere miglioramenti di velocità e di
prestazioni (per esempio: sito spagnolo se hostato su un provider spagnolo);
• facilmente indicizzabili e contestualizzabili dai motori di ricerca.
Svantaggi:
• se una lingua è parlata in diversi Paesi, i link in entrata potrebbero essere distribuiti su più
domini;
• se più lingue sono utilizzate in un Paese, queste dovranno essere gestite utilizzando
sottodomini o cartelle;
• risulta costoso avere diversi domini;
• sono richieste competenze e risorse tecniche specifiche;
• sono complicati da gestire e da coordinare.
NOTA
Per quanto concerne l’aspetto SEO, si è vista una notevole proliferazione di domini di terzo
livello costruiti con il solo scopo di migliorarne l’indicizzazione in base a opportune keyword. In
merito non esistono particolari controindicazioni o penalizzazioni; se è fatta in maniera
scrupolosa, l’attività di organizzazione in terzi livelli può dare buoni risultati.
Riepilogando: i sottodomini sono considerati dai motori di ricerca come entità “apparentemente”
diverse rispetto al dominio principale. Non ereditano il posizionamento del dominio di
appartenenza, ma scelte errate possono influire più o meno direttamente sul dominio principale.
Per gestire siti con lingue diverse, possiamo strutturare i domini, per esempio, in questo modo:
• es.miosito.com
• it.miosito.com
Potrebbe essere necessario avere più suddivisioni, con l’uso di sottocartelle in caso di gestione
di situazioni particolari, come, per esempio, Paesi in cui si parlano più lingue o Stati diversi che
parlano la stessa lingua.
NOTA
Vantaggi:
• possibilità di strutturare keyword per rafforzare il nome del dominio (per esempio,
seo.ingegneridelweb.com);
• essendo entità a sé stanti, sono facilmente monitorabili.
Svantaggi:
• generano un segnale URL debole rispetto ai risultati di ricerca di primo livello;
• la configurazione di impostazioni personalizzabili, come la valuta o la nazionalità,
potrebbe richiedere maggiori dettagli e approfondimenti tecnici.
NOTA
Useremo i termini cartelle, sottocartelle o directory per identificare una particolare struttura
ad albero per la gestione di un sito web strutturata in questo modo:
miosito.com/cartella/
A differenza di un sottodominio, che ha una vita e una gestione del posizionamento a sé stanti, le
directory possono avere un impatto positivo o negativo sulla classifica SEO del sito principale.
Se, per esempio, utilizziamo testo duplicato all’interno delle nostre sottocartelle, la
penalizzazione si riflette in modo automatico verso il sito principale. È quindi necessario
prestare attenzione durante l’utilizzo di sottocartelle.
Riepilogando: l’utilizzo di una sottocartella (sottodirectory, directory o folder) è un’operazione
tecnicamente semplice e indolore a livello della struttura architetturale di un sito web. Potremmo,
infatti, organizzare i contenuti per lingua utilizzando questa struttura:
• miosito.com/it/ per l’Italia;
• miosito.com/fr/ per la Francia;
• miosito.com/de/ per la Germania.
Nei casi particolari in cui una stessa lingua può essere parlata da più nazioni, l’organizzazione
delle cartelle potrebbe assumere la seguente forma:
• miosito.com/es/ per la Spagna;
• miosito.com/es-ar/ per l’Argentina;
• miosito.com/es-mx/ per il Messico.
Un’altra situazione che potrebbe verificarsi è quella di una stessa nazione che utilizza lingue
diverse (come la Svizzera o la Spagna). La nostra struttura a cartelle potrebbe diventare così:
• miosito.com/es/ spagnolo;
• miosito.com/es-ca/ catalano.
NOTA
È importante, nella nomenclatura delle sottodirectory, utilizzare ISO 639-1 con codici di due
lettere; per esempio, è corretto utilizzare /it/, mentre non è appropriato utilizzare /ita/ o
/Italia/.
Vantaggi:
• nessun costo di registrazione;
• possibilità di aggregazione di link: tutti i backlink vanno allo stesso dominio;
• facilità di gestione e di implementazione.
Svantaggi:
• la targeting geolocation può essere considerata ambigua (su uno stesso dominio abbiamo
più lingue);
• potrebbe essere necessaria una suddivisione ulteriore per nazionalità;
• può risultare difficile tenere traccia delle statistiche all’interno delle directory per più
lingue;
• modifiche in negativo o in positivo influenzano l’intero dominio.
NOTA
È anche possibile specificare la lingua di una determinata pagina attraverso i parametri URL.
Google, in alcuni casi, fa uso di tale tecnica, per esempio viene usata la sintassi hl=<codice>
per cambiare la lingua di una pagina. Anche Bing permette agli utenti di cambiare il Paese e
la lingua attraverso un apposito menu sfruttando i parametri URL. A nostro avviso, tale
tecnica non è consigliabile, soprattutto se un sito è alla ricerca di traffico proveniente dai
motori di ricerca, in quanto gli URL complessi non sono graditi né dai motori di ricerca né
dagli utenti finali.
Figura 7.2 - Google: pregi e difetti delle tecniche da utilizzare per i siti multilingua.
NOTA
Content language
È corretto utilizzare il content language con l’indicazione del Paese di riferimento:
anche se sarebbe più corretto inserire il seguente tag:
accompagnato dalla dichiarazione del Content Type all’interno della <head> per specificare, per
esempio, la codifica ISO-8859-1:
NOTA
Gli header HTTP (Content-Language) e gli attributi dei tag HTML (lang) sono nati con lo
scopo di specificare la lingua di un documento web. I motori di ricerca li utilizzano poco,
dato che si devono appoggiare a strumenti linguistici più sofisticati, come l’analisi n-gramma,
per capire il linguaggio umano dei contenuti web.
NOTA
Questo ci fa comprendere l’importanza di una corretta traduzione dei contenuti del nostro sito
web, in base al targeting degli utenti, alla lingua e alla nazionalità.
Gestione della duplicazione dei contenuti
È noto come non sia una buona norma mischiare contenuti di lingue diverse all’interno della
medesima pagina. Come abbiamo già accennato in precedenza, è importante gestire in modo
corretto i contenuti tradotti per diverse lingue e nazioni onde evitare spiacevoli penalizzazioni da
parte dei motori di ricerca. La penalizzazione derivante dalla duplicazione di contenuti consiste
nel fatto che Google (così come altri motori di ricerca) potrebbe indicizzare solo una parte delle
pagine aventi il contenuto replicato. Ciò potrebbe capitare per la descrizione di un prodotto nella
stessa lingua, ma presente su pagine realizzate per nazionalità differenti. In altri casi, questo
potrebbe essere non rilevante e i motori di ricerca indicizzeranno correttamente le pagine che
riterranno rilevanti, anche se presentano contenuti in parte duplicati. Il nostro consiglio è quello
di cercare di prestare attenzione e di fornire contenuti idonei e magari leggermente differenti per
nazione.
rel=”alternate” hreflang=”x”
Google ci permette di sfruttare i tag rel=”alternate” hreflang=”x” in contesti multilingua in modo
da visualizzare la lingua corretta o l’URL locale per gli utenti che effettuano specifiche ricerche.
In quali contesti possiamo sfruttare questi tag? Google ce lo dice chiaramente.
• in scenari in cui viene tradotto soltanto il modello della pagina, ad esempio la barra di
navigazione e il piè di pagina, e vengono mantenuti i contenuti principali in una sola
lingua. Si tratta di una soluzione comune per le pagine con contenuti generati dagli utenti,
ad esempio un post di un forum;
• in situazioni in cui le pagine hanno contenuti molto simili in un’unica lingua, ma con
piccole varianti locali. Ad esempio, dei contenuti in inglese destinati ai lettori di Stati
Uniti, Gran Bretagna e Irlanda;
• in siti web i cui contenuti sono completamente tradotti. Ad esempio, per ogni pagina vi
sono sia la versione in tedesco sia quella in inglese.
Supponiamo, quindi, che la società TravelINC fornisca contenuti rivolti a utenti negli Stati Uniti,
in Gran Bretagna e in Germania. Gli URL seguenti hanno sostanzialmente gli stessi contenuti, ma
con varianti locali:
• http://www.travelinc.com/: home page in lingua inglese. Contiene informazioni sui costi
delle spedizioni internazionali che partono dagli Stati Uniti;
• http://en-us.travelinc.com/: in lingua inglese; i prezzi vengono indicati in dollari
americani;
• http://de.travelinc.com/: versione dei contenuti in tedesco.
In questo contesto possiamo sfruttare il tag “alternate”, inserendolo in ogni pagina indicata nella
sezione HEAD, come mostrato di seguito:
Ricordiamo che è possibile utilizzare hreflang anche nelle intestazioni HTTP (ad esempio
possiamo sfruttarle nel caso di PDF):
Maggiori dettagli sono presenti su http://tinyurl.com/google-alternate.
Gli URL negli hreflang devono essere ovviamente quelli canonici, altrimenti il tag hreflang
potrebbe essere ignorato da Google e da altri motori di ricerca.
Infine, il valore “x-default” è riservato viene utilizzato per indicare i selettori/reindirizzatori non
sono specifici di una lingua o di un’area geografica, ad esempio se l’homepage fa un redirect
automatico in base alla lingua del browser. Ecco un esempio del suo utilizzo:
Per verificare di aver eseguito le operazioni in modo corretto, possiamo verificare il tutto nella
Search Console di Google.
Figura 7.4 - Esempio di Sitemap multilingua.
NOTA
Ribadiamo che qualsiasi attività di link earning deve essere messa in atto al fine di ottenere
link naturali e non artificiali. Anche per il SEO multilingua, dopo gli ultimi aggiornamenti di
Google Penguin, è fondamentale ottenere link in ingresso con anchor text pulite (a nome di
dominio o di brand), magari suddivise per nazionalità. Google vuole che i link siano naturali
e spontanei, ma questo lo abbiamo già ribadito più e più volte!
Un’altra tecnica molto utile per l’indicizzazione delle pagine nelle diverse lingue è il cross-
linking, ovvero l’inserimento di link in una pagina che punta ad altre pagine aventi il medesimo
contenuto, ma in lingua diversa. Gli utenti che giungono su una pagina a loro non gradita sono in
grado di cambiare lingua. I motori di ricerca saranno facilitati, con questo stratagemma, a seguire
i link, quindi ci sarà maggiore probabilità che indicizzino tutti i contenuti nelle varie lingue.
Targeting geografico
È possibile sfruttare lo strumento di targeting geografico (nella Search Console di Google) per
indicare a Google che il nostro sito è rivolto a un Paese specifico. Questo strumento va utilizzato
solamente se il nostro sito ha un dominio di primo livello generico gTLD (generic Top-Level
Domain). Non va usato se il nostro sito è rivolto a Paesi diversi. Per esempio, sarebbe sensato
impostare l’Italia come target per un sito sui ristoranti di Genova, ma non avrebbe senso
impostare lo stesso target per un sito rivolto a persone di lingua francese in Francia, Italia e
Germania.
NOTA
Questa tecnica può essere rischiosa se non si hanno strumenti aggiornati o se si utilizzano
localizzazioni approssimative. Per siti di medie dimensioni è consigliabile l’utilizzo
dell’identificazione della lingua del browser web dell’utente.
Vale la pena di notare che gli indirizzi IP non sono perfetti al 100% per determinare la “posizione
esatta di una persona”: essi, infatti, dipendono dall’Internet Service Provider (ISP) e con
l’utilizzo di alcune tecniche, come i proxy, possono essere facilmente manipolati. Tuttavia, il
rilevamento IP dovrebbe essere utilizzato solo per i nuovi visitatori, memorizzando le
informazioni dell’utente. È altresì importante dare la possibilità all’utente di aggiornare il
proprio target geografico.
Se sottodomini o sottocartelle sono utilizzati nella struttura del sito, impiegare gli strumenti per i
webmaster per impostare la località preferita.
Google ha ribadito che il redirect in questa situazione dovrebbe essere un 302 e andrebbe
specificato, come abbiamo visto, nell’hreflang l’attributo x-default.
Quelli esaminati finora sono metodi molto delicati, che, se non usati correttamente, possono
generare penalizzazioni da parte dei motori di ricerca. Se ritenete opportuno applicarli, il nostro
suggerimento è quello di seguire gli spunti forniti in questo capitolo e di mettere in atto tutti gli
accorgimenti per ottenere i risultati desiderati.
NOTA
Qui troverete ulteriori informazioni sulle linee guida di Google per i siti multilingua:
http://bit.ly/seo-multilingua
Detto questo, prima di concludere, voglio mostrarvi qualche tips e accortezza da tenere in
considerazione nell’implementazione SEO per progetti internazionali.
• Per prima cosa ricordati di avere un tag di ritorno negli hreflang.
• Non effettuare redirect strani che potrebbero ingannare o bloccare il crawler.
• Specifica sempre la lingua di destinazione e offri all’utente la possibilità di cambiarla.
• Personalizza i menù e le immagini in base alla nazione e cultura specifica.
La seguente immagine mostra una corretta configurazione da prendere come spunto per progetti
SEO internazionali.
Figura 7.5 - Esempi di tag html per gestire correttamente siti multilingua lato SEO.
Quando ci si accinge a scrivere sul web, non bisogna seguire le stesse modalità adottate nella
redazione di un testo su carta: sul computer, infatti, a differenza di un libro, ciò che si interpone
tra gli occhi del lettore e i caratteri battuti sul foglio elettronico è lo schermo, che, a causa della
luminosità e degli effetti di luce, può rendere la lettura non piacevole e talvolta fastidiosa.
Inoltre, diversamente da un manuale o da un articolo cartaceo, il visitatore, sul web, tende a
effettuare una lettura molto rapida, saltando vocaboli o righe e focalizzando l’attenzione su parole
che egli ritiene utili o curiose per i suoi fini di ricerca. Lo scrittore web attento deve pertanto
tenere in considerazione questi fattori come premesse, come punti fermi per poi adottare uno stile
di scrittura che conferisca vantaggi (di tempo, di precisione delle informazioni, di chiarezza, di
semplicità, di completezza) al suo interlocutore, ma anche a se stesso, soprattutto nel caso di
un’impresa che presenta la propria mission e i propri prodotti, facendo del sito web aziendale il
punto di forza per attirare nuovi clienti e fidelizzare quelli esistenti.
Risulta allora fondamentale, per l’autore, conoscere e applicare quelle che potrebbero essere
definite delle vere e proprie regole di scrittura sul web, o, se si preferisce evitare il termine
“regole” (che può creare una sensazione negativa di costrizione e forzatura), degli accorgimenti
pratici vivamente consigliati a chiunque decida di inserire contenuti di carattere informativo sul
web. Tali indicazioni sono fornite dal SEO Copywriting, vale a dire uno strumento
assolutamente valido ed efficace che ingloba tecniche e direttive di scrittura sul web: SEO,
anteposto al vocabolo Copywriting, oltre a designare il concetto di Search Engine
Optimization, vuole evidenziare la possibilità, se si seguono le indicazioni impartite, di
ottimizzare i contenuti, i testi, le immagini, i file che si vogliono pubblicare su Internet, attraverso
l’inserimento delle keyword. Tutto ciò contribuisce alla logica SEO: la conseguenza immediata
dell’adozione di un sistema di scrittura efficace e persuasivo, che evidenzia le parole chiave e
offre al lettore risposte immediate, è sicuramente il miglioramento del posizionamento del
proprio sito web.
In questo capitolo sono quindi descritte quelle regole di scrittura cui si è accennato poco prima,
che si auspica il lettore di questo libro consideri come paradigma di riferimento, d’ora in poi,
per i suoi scritti sul web.
Il contenuto
Dal punto di vista formale/stilistico, è auspicabile che il testo sia suddiviso in paragrafi ed
elenchi (eventualmente anche composto da sottotitoli e sottoparagrafi): l’occhio umano riesce, in
tal modo, a visualizzare ordine e chiarezza. Sempre a tale scopo, è utile impiegare certi caratteri
precisi di scrittura di colore nero (automatico), come il “Times New Roman”, il “Verdana”,
l’”Arial”, il “Georgia”, il “Trebuchet MS” e il “Tahoma”, sullo sfondo bianco. Inoltre è meglio,
per evidenziare parole, frasi o concetti, servirsi del grassetto o di colori diversi, evitando,
invece, il sottolineato (salvo nel caso del link) e le lettere maiuscole, e diminuendo l’uso del
corsivo, poiché sono metodi di scrittura non immediatamente visibili. Ancora, è bene che:
• il testo sia corto e riassuntivo, nel senso che deve toccare tutti i dettagli dell’argomento in
questione, senza, però, cadere in giri di parole o inutili digressioni “fuori tema”;
• siano presenti spazi, sia bianchi (per esempio, tra un paragrafo e un altro), sia creati dalla
punteggiatura (di essa si dirà meglio in seguito);
• se si desidera implementare immagini, esse devono essere presenti in numero ridotto, di
piccole dimensioni e poste ai lati, sopra o sotto il testo, altrimenti potrebbero fuorviare
l’attenzione del lettore: le figure hanno la funzione di aiutare a capire quanto spiegato o di
invogliare l’interlocutore a proseguire la lettura, ma non devono risultare l’unico elemento
attrattivo dell’esposizione;
• insieme alle immagini è opportuno inserire le relative didascalie, che consentono non solo
di spiegare il contenuto della figura (che quasi sempre è comprensibile da sé), ma anche di
chiarire il motivo per il quale si include proprio quell’immagine in quel punto specifico
del testo.
Dal punto di vista intrinseco (per non usare il termine “contenutistico”, dato che il soggetto di cui
si sta parlando è, appunto, il contenuto del testo), gli scritti sul web devono essere caratterizzati
da:
• sintesi;
• specificità delle argomentazioni;
• chiarezza;
• semplicità;
• concisione ed essenzialità;
• gradevolezza grafica;
• correttezza della lingua.
La lingua e lo stile
Il linguaggio del web segue le stesse regole di quello “su carta”, pertanto valgono appieno i
principi dettati dalla lingua italiana. Per consolidare tali nozioni, conviene stilare un elenco delle
maggiori problematiche linguistiche riscontrabili fra gli utenti:
• il punto si usa per chiudere definitivamente un argomento; in genere, per terminare il tema
trattato e iniziarne uno nuovo, creando opportuni paragrafi, si va a capo. Il punto si
posiziona alla fine di periodi brevi e semplici. Una nota di riguardo merita il titolo: al
termine del titolo il punto non è concesso;
• la virgola indica una pausa minore rispetto al punto; solitamente si usa per legare due
proposizioni (senza usare la congiunzione “e” o “o”), per separare fra loro gli elementi di
una lista “disposta lungo il testo” (non a elenco), per mettere in risalto un’espressione.
Anche la virgola, come il punto, ha la funzione di permettere pause, consentendo una
lettura agevole e scorrevole;
• il punto e virgola deve essere usato con moderazione, poiché indica una pausa di intensità
minore del punto ma maggiore della virgola; quasi sempre si usa nei punti elenco al
termine di ogni frase o parola;
• i punti di sospensione sono e rimangono sempre tre; se si adoperano all’interno del testo e
non alla fine, essi vanno situati attaccati alla fine della parola che li precede e separati da
uno spazio dalla parola che li segue (per esempio, “il marketing è… strategico”);
• il trattino separatore va collocato adiacente a entrambi i vocaboli tra i quali è inserito
(senza spazi); se esso si trova all’interno del testo per indicare una digressione o un
inciso, in sostituzione alla virgola, per esempio, deve essere preceduto e seguito da uno
spazio (“la descrizione è – per così dire – inadeguata ai contenuti”);
• la lettera maiuscola si utilizza nei casi di designazioni di enti, ministeri e simili (per
esempio, “Ministero della salute”) e nel caso di acronimi, come “SEO” (“Search Engine
Optimization”), “SAA” (“Systems Application Architecture”), “ICF” (“Internet
Connection Firewall”);
• l’apostrofo si usa, per esempio, davanti agli acronimi e ai numeri scritti in lettere (se i
numeri sono scritti in cifre, non devono essere preceduti dall’apostrofo); sul web è
preferibile, a differenza di quanto accade a livello cartaceo, rappresentare i numeri in
cifre, perché più chiari e immediati, tranne nel caso in cui il numero sia molto grande (“50
milioni”). Anche i secoli e i decenni vanno scritti in lettere (“nel diciassettesimo
secolo”);
• i punti elenco possono essere costituiti in diversi modi:
– punto e virgola alla fine di ogni riga, punto al termine dell’ultimo elemento
dell’elenco, lettera minuscola iniziale della prima parola della prima riga;
– punto alla fine di ogni riga, lettera maiuscola iniziale di ogni parola di ogni riga;
– nessuna punteggiatura, lettere iniziali minuscole.
In generale, lo stile di scrittura sul web deve essere, come più volte ripetuto, chiaro e mirato a
ciò che l’interlocutore si aspetta di trovare: prima di scrivere, quindi, bisogna avere ben presenti
le informazioni che il lettore vuole trovarsi davanti; bisogna “mettersi nei panni del lettore”,
fornendogli indicazioni complete ed esaustive che racchiudano risposte immediate alle sue
esigenze. Per tale motivo, può rivelarsi utile tracciare una sorta di mappa, di schema
organizzativo dei contenuti che si vogliono presentare: per esempio, può essere estremamente
vantaggioso iniziare, dopo la stesura del titolo e di eventuali sottotitoli, da indicazioni generali,
per poi passare, attraverso sottoparagrafi, a indicazioni specifiche, arricchite di esempi e di
immagini, nonché di collegamenti ipertestuali. I link, infatti, oltre a conferire veridicità e
affidabilità alle argomentazioni esposte, suscitano curiosità ed esortano il lettore a cliccarvi
sopra e a procedere nell’esplorazione dei contenuti.