Sei sulla pagina 1di 706

SEO

E SEM
Guida avanzata al Web Marketing
La Search Engine Optimization (SEO), in italiano ottimizzazione per i motori di ricerca, è
l’insieme delle tecniche grazie alle quali un sito web appare tra i primi risultati mostrati da un
motore di ricerca. È quindi un fattore chiave di successo per qualsiasi attività sul web, dal blog
personale al sito di e-commerce. L’arte del posizionamento nei motori di ricerca non è una
scienza esatta, perché non si conoscono i principi e gli algoritmi alla base del funzionamento di
Google & C.: solo l’esperienza sul campo, i test e lo studio dei brevetti rilasciati possono
arricchire il bagaglio di conoscenze di un buon esperto SEO. Grazie all’esperienza dell’autore e
alla collaborazione di specialisti italiani e internazionali, questo libro illustra le tecniche più
efficaci e aggiornate per migliorare il posizionamento dei siti web, affiancando il tutto a nozioni
di SEM (Search Engine Marketing), SMO (Social Media Optimization) e ASO (App Store
Optimization), nonché a cauti assaggi di un argomento scottante come la Black Hat SEO. Questa
nuova edizione introduce, inoltre, diverse novità, tra cui:
• Aggiornamento con le ultime novità di Google: Search Console, AMP, Google Rich Cards.
• Un riassunto a punti per ogni capitolo, per focalizzare l’attenzione sugli aspetti cruciali.
• Un intero capitolo dedicato a casi pratici, per vedere come un professionista SEO opera
realmente.

Elementi aggiuntivi a supporto del libro disponibili online:


http://www.libro-seo.it

Gli autori
Marco Maltraversi, già autore delle precedenti edizioni di questo libro e di due volumi sull’uso
avanzato di Windows 7 e Windows 8.1, è laureato magistrale in Ingegneria Informatica, SEO
Specialist e docente in master universitari in Web Communication. Collabora con diverse web
agency italiane e straniere come consulente in ambito SEO e IT management. È fondatore di
YourDigitalWeb (www.yourdigitalweb.com) e ideatore dei corsi formativi in campo SEO e
digital come SEOThatWorks (www.seothatworks.it) e Marketing Business Summit
(www.mbsummit.it).
Valentina Turchetti, Web Content Manager, aiuta le aziende e i professionisti a sfruttare i social
media e i contenuti online per farsi conoscere e promuoversi efficacemente sul Web,
trasformando la comunicazione digitale in una concreta opportunità di Business
(www.seobuzz.it).
MARCO MALTRAVERSI
Con la collaborazione di Valentina Turchetti
SEO E SEM
Guida avanzata al Web Marketing
SEO e SEM | Guida avanzata al Web Marketing
IV edizione

Autore : Marco Maltraversi


Con la collaborazione di: Valentina Turchetti

Collana: Modelli di Business

Editor in Chief: Marco Aleotti


Progetto grafico : Roberta Venturieri
Copertina: Gaetano Altamura

© 2016 Edizioni Lswr* – Tutti i diritti riservati


ISBN: 978-88-6895-345-4

I diritti di traduzione, di memorizzazione elettronica, di riproduzione e adattamento totale o parziale con qualsiasi mezzo
(compresi i microfilm e le copie fotostatiche), sono riservati per tutti i Paesi. Le fotocopie per uso personale del lettore
possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art.
68, commi 4 e 5, della legge 22 aprile 1941 n. 633.
Le fotocopie effettuate per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da
quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e
Autorizzazioni per le Riproduzioni Editoriali, Corso di Porta Romana 108, 20122 Milano, e-mail
autorizzazioni@clearedi.org e sito web www.clearedi.org. La presente pubblicazione contiene le opinioni dell’autore e ha
lo scopo di fornire informazioni precise e accurate. L’elaborazione dei testi, anche se curata con scrupolosa attenzione,
non può comportare specifiche responsabilità in capo all’autore e/o all’editore per eventuali errori o inesattezze.
L’Editore ha compiuto ogni sforzo per ottenere e citare le fonti esatte delle illustrazioni. Qualora in qualche caso non fosse
riuscito a reperire gli aventi diritto è a disposizione per rimediare a eventuali involontarie omissioni o errori nei riferimenti
citati.
Tutti i marchi registrati citati appartengono ai legittimi proprietari.

Via G. Spadolini, 7
20141 Milano (MI)
Tel. 02 881841
www.edizionilswr.it

(*) Edizioni Lswr è un marchio di La Tribuna Srl. La Tribuna Srl fa parte di .


Sommario

Introduzione
Cosa non troverai nel libro
Materiale online
Gli autori
Il rapporto fra SEO e Web Marketing
Ringraziamenti

Capitolo 1 – I motori di ricerca e le loro funzionalità


Introduzione
I dati del web
SEO e Web Marketing
Che cos’è la SEO?
Il marketing nel web esiste?
Le origini dei motori di ricerca
Che cos’è un motore di ricerca?
Motori di ricerca e directory: le differenze
Influenza dei motori di ricerca nella vita di tutti i giorni
I componenti principali di un motore di ricerca
I principali fattori che influenzano la visibilità di un sito web
Il futuro dei motori di ricerca
Google Caffeine, la mutazione
Instant Preview, My Answers (ex Search, plus Your World), Knowledge Graph e le
novità di Google
Google Panda, Penguin Update, Google Hummingbird, Ex Google +1, RankBrain e
la rivoluzione dell’algoritmo
Le evoluzioni degli altri search engine
I principali motori di ricerca
Conclusioni e punti salienti del capitolo

Capitolo 2 – Strategia, pianificazione e Web Marketing: l’efficacia del SEM


Che cos’è il SEM?
SEM: dove e quando?
Principali metriche SEO e SEM
Web Marketing
Web Marketing strategico: i fattori di successo
Branding o direct response?
Marketing Virale
Content Marketing: comunicare senza voler vendere
Visibilità naturale e visibilità a pagamento
Un semplice modello SEO e SEM
Analisi di mercato e Web Analytics
Strategia e pianificazione
Analisi interna
Analisi esterna
Campagna SEM
Analisi ed elaborazione dei risultati
SEO e Inbound Marketing
Perché stiamo facendo SEO?
SEO per Brand
SEO per E-commerce
SEO per la Lead Generation
SEO per la reputazione online
SEO per Affiliate Marketing
Conclusioni e punti salienti del capitolo

Capitolo 3 – SEO gentile: l’inizio dell’ottimizzazione on page


Che cos’è l’analisi interna?
La scelta del nome del dominio
I nuovi TLD di ICANN
Come deve essere un buon nome di dominio
Aspetti SEO nella scelta del nome del dominio
Tool a supporto nella scelta di un dominio
Esempi pratici nella scelta di un nome di dominio
Influenza dell’IP nella scelta del dominio
EMD UPDATE
Google: come valuta i nomi di dominio dopo l’EMD UPDATE?
Mirrors Host Name
HTTPS e SEO: Why ?
HTTP versione 2.0
Scelta delle keyword
Tecniche euristiche per l’individuazione delle keyword
Metodi e modelli di ricerca delle keyword
Short tail e long tail keyword
Tool per la scelta delle keyword
L’indice di efficienza delle keyword: KEI
Esempio pratico per il calcolo del KAI
Keyword density, uno dei falsi miti della SEO
Keyword pattern
Keyword frequency
Keyword proximity
Keyword prominence
Nuovi approcci per la ricerca delle Keyword e dei Topic
Conclusioni e punti salienti del capitolo

Capitolo 4 – Linee guida per lo sviluppo di siti web SEO friendly


I tag HTML delle pagine web
L’importanza del tag title
Il titolo perfetto
Il meta tag description
Il meta tag keywords
Il meta tag language
Il meta tag robots
Crawl Budget: CBO
Analisi dei log per la SEO
Lo spazio dei meta tag
Heading tag
I collegamenti: anchor text
Il grassetto e i tag di enfatizzazione
Attributo ALT nelle immagini
HTML 5 e SEO
Il Web Semantico
Google e le novità del Web Semantico
I microformati
I Microdati e Schema.org
Rich Cards
Open Graph
Authorship Markup (Deprecato?)
I nuovi tag rel=”next” e rel=”prev”
Testiamo brevemente i fattori on page
Conclusioni e punti salienti del capitolo

Capitolo 5 – Architettura di un web project SEO


Architettura di un sito web
Disegno architetturale di un sito web
Navigabilità
Gestione dei link
Sitemap
Keyhole Markup Language: KML
Feed RSS
Organizzazione e scrittura degli URL
Scegliere il nome dei file
Gestione pagine di errore e redirect
La risoluzione grafica di un sito web è utile per la SEO?
DIV e CSS o tabelle?
W3C e accessibilità
SEO e WordPress
SEO e Joomla
SEO per PrestaShop
SEO e Magento
Conclusioni e punti salienti del capitolo

Capitolo 6 – Performance e ottimizzazioni di un web project SEO


Velocizzare il caricamento delle pagine web
Misurare la disponibilità e la velocità dell’hosting
Misurare le prestazioni del sito web
Alleggerire le pagine web
Ottimizzazione delle immagini per la SEO
Flash e SEO: un tecnologia superata e deprecata
Ottimizzazione dei PDF
Silverlight per la SEO
SEO e contenuti video
Ajax e i JavaScript: come usarli in ambito SEO?
Google sitelink
Mobile SEO
Strumenti per la SEO Mobile
Mobile Site Speed e compatibilità mobile
Accelerated Mobile Pages - AMP
Progressive Web App - PWA
ASO: App Store Optimization
App Indexing
Pop UP e Push Notification
Conclusioni e punti salienti del capitolo

Capitolo 7 – Siti multilingua per la SEO e il SEM


L’importanza dei siti multilingua
TLD, sottodomini o cartelle?
Esempi pratici per i siti multilingua
Gestione della duplicazione dei contenuti
Sitemap per siti multilingua
Geo Targeting con IP e redirect
Il target per IP è SEO friendly?
Il reindirizzamento dei motori di ricerca utilizzando uno user agent
Redirect in base alla lingua del browser?
Conclusioni e punti salienti del capitolo
Capitolo 8 – Copywriting e tecniche di persuasione sul web
Prima di scrivere: a cosa prestare attenzione
Chi è il destinatario del mio messaggio?
Che cosa voglio scrivere?
Perché scrivo riguardo a una determinata tematica? Quale scopo/fine voglio
conseguire?
Come posso scrivere il messaggio nel modo più efficace possibile?
L’impostazione dei contenuti
Il titolo
Il contenuto
La lingua e lo stile
Il corretto uso dei link
SEO: l’importanza di fare la giusta scelta lessicologica
La rilevanza delle keyword
La fidelizzazione degli utenti
Scrivere sul sito web aziendale
Scrivere sul blog
La persuasione sul web
Principio della reciprocità
Principio dell’impegno e della coerenza
Principio della testimonianza sociale
Principio della simpatia
Principio dell’autorità
Principio della scarsità
Qualità e lunghezza dei contenuti nella SEO
Quanto deve essere lungo un testo? L’opinione di Google
Conclusioni e punti salienti del capitolo

Capitolo 9 – Strategie off page: link building e visibilità online


Analisi dei competitors: si continua…
RPA - Popolarità, reputazione e autorevolezza, i tre fattori di successo
Topical link
Backlink da domini con TLD .edu e .gov?
Età dei backlink
Link: posizione relativa nella pagina HTML
Cross-Linking
Caratteristica dei link e i link di qualità
L’avvento del nofollow nella SEO moderna
Influenza dei nofollow sul ranking di Google
Link Building e visibilità online: Link Earning?
Tecniche di Link Building deprecate
Scambio naturale di link
Acquisto di link: una tecnica da evitare
Inserimento nelle directory
Promozione nei forum
Network di siti: una tecnica molto rischiosa
Article Marketing
La nuova strada per la Link Building moderna: i link devono essere naturali!
Comunicati stampa online
Promozione nei blog
Promozioni multimediali e multicanalità
Social network
Social bookmarking e Social news
Promozioni nei siti di annunci
Promozione su eBay e portali dedicati
Link Baiting e azioni virali
Conclusioni e punti salienti del capitolo

Capitolo 10 – Mondo Google e i servizi web dei Search Engine


Google Local Search e Venice Update
Google Pigeon
Google Maps e il nuovo Google Map Maker
Google Places
Google My Business
Pagina Google + Local
Google Hotel Finder
Google Flight Search
Search Field Trial
Google Destinations
Google Voice Search e Spoken Answers
Ok Google
Google News
Requisiti tecnici per l’inclusione in Google News
Google Blog (ormai morto)
Google Libri
Google Merchant Center o Google Shopping
Google ALLO
Shop the Look
Consumer Surveys
Novità e brevetti Google
Ultimi aggiornamenti di Google
Google Panda e i Phantom Update
Payday Loan Update
Page Layout Algorithm o Top Heavy Update
Penguin Update
Storia di Google Penguin a oggi
Google Freshness Update
Google Pirate Update
Not Provided e Meta Tag Referrer
My Answers (ex Google Search, Plus Your World)
Knowledge Graph e Knowledge Vault
Google Colibri: Hummingbird Update
Rank Brain
Gli altri motori di ricerca
Conclusioni e punti salienti del capitolo

Capitolo 11 – SEM e SMO: l’evoluzione del posizionamento


Campagne SEM
Gli obiettivi
Search Engine Marketing
Search Engine Advertising
Gli obiettivi
Scegliere gli obiettivi corretti
Qualità vs quantità
I fondamenti del SEA
Le landing page
I vantaggi del SEA
Google AdWords
Metodi di bidding: CPC, CPM, CPA
Il Quality Score
Le parole chiave
Gli annunci
Le conversioni
Metodo #1: Storico di fatturato
Metodo #2: Acquisto del risultato
Struttura e organizzazione di una campagna
Campagne
Gruppi di annuncio
Parole chiave
Selezione delle parole chiave
Analisi e selezione delle parole chiave
Creare la campagna
Aprire un account
Creazione della prima campagna
Opzioni avanzate
Ottimizzare la campagna
La Rete Display di Adwords e altri temi
Le campagne potenziate
Google AdWords Editor
Come gestire una campagna SEM
Google AdSense
SMO (Social Media Optimization) e SMM (Social Media Marketing)
Gestire i social network
Scegliere il nome
Coordinare il profilo
Organizzare e trovare i contatti
Personal Branding
Misurare la reputazione nei social network
LinkedIn
Xing
Twitter
Facebook
Personalizziamo il nostro URL
Ottimizzare il profilo
Le pagine di Facebook
Gruppi
Facebook e i motori di ricerca e ADS
Google Plus
Pagine Business Google Plus e aspetti SEO
MySpace
YouTube
Flickr
SlideShare
FriendFeed
Wikipedia
Pinterest
Foursquare
Instagram
Social bookmarking
Cosa vuol dire folksonomy?
Technorati
Del.icio.us
StumbleUpon
Diigo
Social news
Digg
Reddit
Newsvine
Scoop.it!
I migliori social news italiani
Altri social network
Hi5
DeviantArt
Yelp
Scribd
Epinions
Hubpages
Viadeo
Conclusioni e punti salienti del capitolo

Capitolo 12 – SEO: come gestire le penalizzazioni


Tipi di penalizzazioni per Google: manuali o algoritmiche?
Link spamdexing
Shadow domain
Cloaking
Keyword stuffing
Doorway Page
Testo nascosto
Testo duplicato: misure contro Google Panda
Individuare e gestire i contenuti duplicati
Le principali pratiche da evitare
Evitare le tabelle nidificate se non strettamente necessarie
Limitare l’uso di frame
Gestire correttamente i redirect automatici
Limitare l’utilizzo del visibility:hidden
Anche i motori di ricerca possono sbagliare
Le penalizzazioni e i filtri di Google
Filtro -6 -30 -60 -80 -950
Filtro Boilerplate
Filtro sui tag
Filtro sulla navigabilità del sito web
Google Sandbox
Filtro Bombing
Filtro Bowling
L’ex filtro per i risultati supplementari
Over Optimization Penalty: filtro per sovraottimizzazione
Filtro contro link farm ed eccesso di backlink
Filtro di co-citazione dei backlink
Filtro sul tempo di caricamento della pagina
Google Pirate Update
Google Top Heavy Update
EMD Update
Fluttuazioni casuali
Google Panda e Penguin Update
Penalizzazione per gli altri motori di ricerca
Lo spam per Yahoo!
Lo spam per Bing
Gestire e recuperare una possibile penalizzazione (filtro)
Conclusioni e punti salienti del capitolo

Capitolo 13 – Black Hat SEO e Tool SEO


Black Hat SEO
Social news explosion: una tecnica gray piuttosto diffusa
Promuoversi con Yahoo! Answers
Trovare informazioni nascoste con Google
Commenti Black Hat
Commenti nei blog senza àncora
Brand jacking
Falsificare il PageRank
Post diffusion
Automatizzare le operazioni
.EDU Website
PBN (Private Blog Network)
Strumenti automatizzati per la Link Building
La Negative SEO, il lato oscuro dell’ottimizzazione
La ragione d’essere della SEO negativa
Le tecniche base di chi fa SEO negativa
La SEO negativa conviene?
Tool e strumenti SEO
Search Console (ex GWT Google Webmaster Tools)
Google Alert
Google Analytics
Strumenti Webmaster Bing
Monitorare la posizione delle keyword
Tool per l’analisi dei link
Software online per l’analisi dei backlink
Software per desktop per l’analisi dei backlink
Tool SEO Generici
SEO ZOOM: una suite italiana
SemRush
ScreamingFrog
Visual SEO
Altri strumenti e API per analisi SEO
Conclusioni e punti salienti del capitolo

Capitolo 14 – Esempi e casi studio di alcuni progetti SEO


Calcolare il ritorno dell’investimento di una ricerca su Google
Caso di studio, e-commerce di articoli sanitari
Appendice: perché condividere con il cliente le informazioni extra SEO
L’assassino non è sempre il pinguino
Primi approcci
Prima analisi del malato
Cosa fa il cliente e cosa ha perso esattamente?
Io dico che la colpa è del Panda
Quali conseguenze traiamo da questa case history?
La SEO per vivere i propri sogni
Caso studio: E-commerce di etichette adesive
Cos’è My Nametags?
Che lavoro è stato fatto?
Guadagnare con un blog e le affiliazioni
Introduzione alle affiliazioni online
Credenze sulle affiliazioni e i programmi di affiliazione
Come guadagnare con le affiliazioni
Guadagnare con le affiliazioni di infoprodotti?
Guadagnare con Facebook e le affiliazioni
Case history: guadagnare con i template WordPress
Da 0 € a 16.000 € con un sito partendo da 0 in un mese
Audit SEO: il caso Chicco
La SEO Magica: il caso sconosciuto
Conclusioni e punti salienti del capitolo

Appendice A – Funzionalità e nomenclature


Query per motori di ricerca?
I principali operatori di ricerca per Google
I principali operatori di ricerca per Yahoo!
I principali operatori di ricerca per Bing

Appendice B – I principali motori di ricerca


Le principali directory
I principali siti di article marketing e di comunicati stampa

Bibliografia
Ringraziamenti speciali
Sitografia
Introduzione

La Search Engine Optimization (SEO) è spesso considerata la parte più tecnica del Web
Marketing, poiché fornisce un valido aiuto nella promozione dei siti e, al tempo stesso, richiede
una conoscenza specifica degli strumenti di sviluppo web. L’arte del posizionamento nei motori
di ricerca non è una scienza esatta perché non si conoscono i principi e gli algoritmi che sono
alla base dei principali Search Engine: solo l’esperienza sul campo, i test e lo studio dei brevetti
rilasciati possono arricchire il bagaglio di conoscenza di un buon esperto SEO. Lo scopo di
questo libro, nella sua quarta edizione, è quello di illustrare le tecniche più efficaci e aggiornate
per migliorare il posizionamento di un sito web, affiancando il tutto a nozioni di SEM (Search
Engine Marketing), SMO (Social Media Optimization) e ASO (App Store Optimization), nonché
a cauti assaggi di un argomento scottante come il Black Hat SEO. Grazie all’esperienza sul
campo dell’autore e alla collaborazione di esperti sia italiani (come Andrea Vit, Gianluca
Fiorelli, Davide Pozzi, Benedetto Motisi, Simone Righini, Mauro Ginelli, Valerio Novelli,
Gaetano Romeo, Paolo Dello Vicario, Maurizio Ceravolo, Ivano Di Biasi, Riccardo Mares e
Andrea Zonzin) sia internazionali (come l’organizzazione SEO Certification.org, Mark Porter,
Scott Hendison, Garret French, Bill Slawski, presidente di SEO by the Sea), si è realizzata questa
guida completa e aggiornata, che racchiude tutte le linee guida essenziali per rendere un sito web
più appetibile agli occhi dei motori di ricerca. Un libro adatto veramente a tutti, dai curiosi alle
agenzie di marketing, agli esperti in campo SEO.

Cosa non troverai nel libro


In questo libro non troverai trucchi o tecniche segrete per “fregare i motori di ricerca” o
posizionarti in 60 secondi. Molto spesso, soprattutto se parliamo di visibilità organica (SEO) c’è
molta disinformazione e si pensa che esistano trucchi o metodi infallibili per ottenere più visite in
poco tempo. Questo non è vero e purtroppo la SEO non è una scienza esatta; anche quello che
troverai scritto in questo libro dovrà essere testato e applicato in modo differente in base ai
contesti e alla tipologia di sito che vorrai posizionare.

Materiale online
All’indirizzo web www.libro-seo.it è possibile reperire i materiali aggiuntivi del libro e tutta
una serie di informazioni e notizie utili per rimanere sempre aggiornati con il mondo SEO e SEM.
Chi fosse interessato a seguire corsi SEO professionali può trovare informazioni e date dei corsi
su www.libro-seo.it/corsoseo - www.corso-seo.it www.seothatworks.it e www.mbsummit.it.

Gli autori
Marco Maltraversi è laureato magistrale in Ingegneria Informatica, SEO Specialist e docente in
Master universitari in Web Communication. Collabora con diverse agenzie web italiane ed estere
come consulente SEO e Web Marketing Strategist. È possibile contattarlo direttamente al suo sito
www.yourdigitalweb.com o attraverso i blog:
• www.libro-seo.it
• www.corso-seo.it
• www.mbsummit.it

Con la collaborazione di:

Valentina Turchetti, esperta di Social Media Marketing e Comunicazione Online, collabora con
aziende e web agency per lo studio e l’implementazione di strategie efficaci di comunicazione e
promozione sul web. La potete contattare attraverso il suo blog, www.seobuzz.it, o tramite il suo
profilo LinkedIn: https://www.linkedin.com/in/valentinaturchetti.

Il rapporto fra SEO e Web Marketing


Dico subito che non è facile dare una definizione precisa né della parola SEO, né del Web
Marketing.
A mio modesto parere, se partiamo puramente dall’acronimo, la Search Engine Optimization è
l’insieme di tutte le attività atte a migliorare il posizionamento la visibilità di una pagina un
contenuto su Google sui motori di ricerca.
Perché ho cancellato “posizionamento” in favore di “visibilità”? Perché oggi, a parità di
posizione sui motori, si può essere molto più visibili di altri (e quindi ottenere più click sul
risultato) utilizzando (per esempio) i RICH SNIPPET, nonché un buon title e una buona
description. Per non parlare della visibilità ottenibile grazie al proprio brand (non spaventarti di
questi strani termini, li sviscereremo approfonditamente all’interno del libro).
Perché ho cancellato “pagina” in favore di “contenuto”? Perché oggi si posizionano sui motori
non solo le pagine, ma anche contenuti di ogni genere (uno su tutti, i video). Ci sono settori dove
è necessario lavorare su più fronti per occupare più posti nelle SERP.
Perché ho cancellato “Google” in favore di “motori di ricerca”? Perché Google è il numero 1 in
moltissimi paesi del mondo, ma non ovunque (vedi Cina e Russia, che sono due enormi mercati
emergenti). Quindi è importante conoscere molto bene il proprio pubblico, i luoghi virtuali che
frequenta e il proprio mercato di riferimento.
E cosa intendo, invece, col termine “Web Marketing”? Innanzitutto, partiamo togliendo il prefisso
“web”: utilizzando una definizione un po’ accademica, possiamo vedere il marketing come un
processo finalizzato a favorire l’incontro fra domanda e offerta di beni o servizi.
Vista da questa prospettiva, sotto il cappello del marketing potrebbe dunque esserci anche la
pubblicità, le public relation e tutte le componenti necessarie a raggiungere lo scopo prefissato
dall’azienda. Ovviamente anche la SEO fa parte di queste componenti.
E sai perché mi piace la SEO, più di tutti gli altri strumenti? Perché la SEO è il mezzo che ti
permette di essere trovato da chi cerca qualcosa di specifico. Spesso da chi vuole acquistare un
prodotto o un servizio.
Con la pubblicità sei tu che vai a cercare il compratore, che cerchi in qualche modo di
convincerlo a comprare da te, spesso interrompendolo, infastidendolo. I banner, come forse
saprai, sono sempre meno visti e sempre meno cliccati. Siamo ormai affetti da “cecità da banner”
(banner blindness), e spesso installiamo sui nostri PC, tablet e smartphone degli strumenti per
non vedere del tutto la pubblicità (come AdBlock e altri tool simili).
Quando invece qualcuno ti cerca, grazie a un motore come Google, sei tu che hai il coltello dalla
parte del manico. Non devi elemosinare la sua attenzione e i suoi soldi, perché è lui che vuole
proprio quello che tu stai offrendo: questo concetto si chiama Inbound Marketing, termine che
oggi va tanto di moda e che in estrema sintesi vuol dire proprio essere trovati, anziché andare a
cercare.
Quello che ti insegnerà questo libro è proprio il miglior modo di essere trovato su Internet. Tra le
altre cose, imparerai a presentarti più in alto sui motori di ricerca, o comunque meglio dei tuoi
competitor. E anche a mostrare meglio i tuoi contenuti, ciò che hai da proporre o da vendere.
Perché, come dico sempre, dobbiamo immaginare il nostro sito come un imbuto (tecnicamente, un
funnel), dove da una parte entrano gli utenti, e dall’altra escono le “conversioni” (ovvero le
azioni che vogliamo che l’utente faccia: una richiesta di contatto, una compilazione di un modulo,
una vendita).
La SEO è dunque accogliere l’utente - in arrivo dai motori di ricerca - con tutti gli onori del
caso, farlo accomodare sulla nostra pagina, e fornirgli la miglior risposta possibile alla sua
richiesta. E, ovviamente, fare in modo che compia l’azione che abbiamo in mente.

Davide “Tagliaerbe” Pozzi

Ringraziamenti
Desidero ringraziare la casa editrice Edizioni LSWR per la fiducia accordatami, che ha
permesso di realizzare questo libro, e in particolare Marco Aleotti e Fabrizio Comolli, il cui
entusiasmo e la cui cortesia hanno reso piacevole un lavoro difficile e impegnativo. Non posso,
ovviamente, tralasciare genitori e parenti, amici e colleghi per l’incoraggiamento e il supporto
morale. Una menzione speciale va a Massimo Fattoretto, Maurizio Ceravolo, Riccardo Mares,
Andrea Zonzin, Paolo dello Vicario, Andrea Venturi, Claudio Marchetti, Ivano Di Biasi, Valerio
Novelli, Gaetano Romeo, Simone Righini, Mauro Ginelli, Mattia Soragni, Omar Campanella,
Benedetto Motisi, Ivan Cutolo e Davide Prevosto, e a tutti coloro che ci hanno fornito preziosi
consigli e che ci hanno permesso di condividere materiali e informazioni utili per rendere
veramente completo questo libro. Infine, ringrazio tutte le fantastiche persone che, in un modo o
nell’altro, hanno collaborato con noi per arrivare alla conclusione di questo progetto.
Marco Maltraversi
CORSI SEO
CORSI SOCIAL MEDIA
CORSI WEB MARKETING

Sconto immediato sul biglietto non in early booking da 10€ fino a 100€ fornendo
codice del libro + codice sconto “libroseo2016”

I corsi che aderiscono all’offerta sono:


www.corso-seo.it
www.seothatworks.it
www.mbsummit.it

e i corsi di
www.seobuzz.it

Prova SEOZoom, il SEO software made in Italy!

SEOZoom è il partner ideale per tutti i professionisti del web che si occupano di Search
Marketing: all’interno della piattaforma sono disponibili strumenti per l’analisi dei
domini e delle parole chiave fino a funzionalità specifiche per chi si occupa di content
marketing e keyword research.

Si tratta di uno strumento ideale per tutti i professionisti del settore digitale grazie al
supporto nello sviluppo di strategie SEO e Web Marketing attraverso alcuni strumenti
dedicati, come ad esempio, lo studio e l’analisi della concorrenza.

Grazie a SEOZoom è possibile velocizzare tutti i processi e le attività giornaliere per


chi si occupa di progetti di Search Marketing complessi ed inoltre analizzare le
performance dei progetti da inserire all’interno della piattaforma.
Queste sono soltanto alcune delle funzionalità che ritroverai in SEOZoom: monitoraggio
delle parole chiave, analisi qualitativa del profilo backlink, SEO Audit ed analisi SEO
onpage, assistente editoriale avanzato per scrivere i tuoi testi ottimizzati per i motori di
ricerca, individuazione di nuove keyword per i tuoi contenuti, analisi della concorrenza,
investimenti in advertising, strumenti di outreach e digitai PR.

Vuoi provare gratuitamente SEOZoom?

Registrati all’indirizzo https://suite.seozoom.it/signup ed inserisci questo codice nel


campo coupon:

In questo modo attiverai una demo di 15 giorni per provare tutte le funzionalita presenti
in SEOZoom.

Per informazioni:
https://www.seozoom.it
info@seozoom.it
Inizia subito ad ottimizzare il tuo sito
Con greatcontent hai accesso ad un team di autori professionisti per la scrittura di
schede prodotto, descrizioni di categoria, recensioni e articoli di blog.
La nostra esperienza pluriennale con Zalando, Lastminute.com, PagineGialle e molti
altri ci ha permesso di sviluppare una piattaforma ottimale per la progettazione,
supervisione e l’esporto di contenuti di alta qualità.

Come funziona
Inserisci una richiesta selezionando la tipologia di testo e il livello di qualità
desiderato. La nostra piattaforma è configurata per trovare l’autore più adatto per
ciascun testo. Consegniamo solo contenuti unici che contengono le keywords e la
formattazione richieste nelle principali lingue europee, con la consulenza della nostra
redazione.

Coupon da 20€
Crea un account gratuito all’indirizzo http://www.greatcontent.it/seosem20 e riceverai
un coupon da 20€ per richieste superiori ai 100€ di spesa!

Contatti
Giuseppe Colucci
www.greatcontent.it
gc@greatcontent.com
02 947 503 38
Capitolo 1
I motori di ricerca e le loro funzionalità

In questo capitolo introdurremo i principali concetti utili a capire sia il funzionamento di un


motore di ricerca, sia le tecniche che un esperto SEO può mettere in atto. La Search Engine
Optimization (SEO) è spesso considerata la parte più tecnica del Web Marketing, poiché
fornisce un valido aiuto nella promozione dei siti e, al tempo stesso, richiede una conoscenza
tecnica degli strumenti di sviluppo web (come, per esempio, HTML, CSS o linguaggi dinamici
come PHP o ASP.Net). In generale, la SEO può essere definita come l’attività di ottimizzazione
delle pagine web o di interi siti, con lo scopo di renderli più search engine friendly, attribuendo
loro una posizione più elevata nei risultati di ricerca (SERP). Ovviamente, per ottenere maggiori
riscontri sia di visite, sia di popolarità nel web, è necessario affiancare l’attività SEO a
campagne di Internet e Web Marketing opportune (che saranno affrontate nei prossimi capitoli).
Per capire le varie fasi che comandano le attività volte a migliorare la posizione di un sito web
all’interno dei motori di ricerca, dobbiamo prima comprendere le logiche che stanno alla base
del funzionamento dei motori di ricerca. Di seguito affronteremo tali argomenti, cercando di non
soffermarci troppo sugli aspetti tecnici, ma concentrando l’attenzione su casi reali ed esempi
concreti.

Introduzione
Il web è in continua evoluzione e, con esso, tutte le tecnologie direttamente collegate. Trovare le
informazioni in modo rapido ed efficace è un requisito fondamentale, sia per ottimizzare il
proprio tempo, sia per ridurre i costi. Le informazioni che circolano sulla rete si espandono
vertiginosamente e assumono forme e contenuti diversi (documenti, video, link, streaming, flussi
audio); per questo i motori di ricerca rivestono, sempre più, un ruolo cruciale. I delicati
meccanismi che regolano il funzionamento di un motore di ricerca permettono agli utenti di
ricevere, in base alle loro ricerche, risultati utili e coerenti. L’utente struttura una query (elenco
di parole da ricercare) da dare in pasto al motore di ricerca; quest’ultimo la elabora e fornisce,
attraverso opportune logiche, una serie di informazioni più o meno rilevanti. L’insieme di tutte le
pagine restituite come risultato di una determinata ricerca va sotto il nome di SERP (Search
Engine Results Page). Il successo di un motore di ricerca dipende principalmente dalla
rilevanza dei risultati di ricerca forniti. Per addentrarci in questo mondo così articolato,
analizzeremo e spiegheremo alcuni dati statistici per capire il meccanismo dei motori di ricerca.

I dati del web


La statistica, l’analisi e le ricerche di mercato sono fondamentali nel Web Marketing per
individuare usi e costumi dei navigatori. Per la SEO (Search Engine Optimization) questi dati
risultano vitali per capire le evoluzioni tecnologiche e comprendere come un utente medio utilizzi
il WWW. Per tale motivo, passeremo brevemente in rassegna alcuni dati presi da fonti autorevoli
(come Nielsen/NetRating, Sems.it, Com Score Network).
Per esempio, si è dimostrato che:
• circa l’85% delle persone che navigano in Internet usa i motori di ricerca per ottenere
informazioni utili dal web;
• circa l’87% delle ricerche effettuate soddisfa, almeno in parte, l’utilizzatore, che trova
coerenti o interessanti le informazioni ottenute;
• circa il 44% delle persone che navigano in Internet ritiene fondamentale l’utilizzo dei
motori di ricerca per ottimizzare il proprio tempo lavorativo e il business.

Figura 1.1 - Analisi di mercato sull’andamento degli acquisti online in Italia (sems.it).

È quindi indubbio che i motori di ricerca costituiscano il principale punto di accesso a Internet.
Dalle statistiche effettuate da Com Score Networks sul traffico generato tra i primi 25 motori di
ricerca, si evince che:
• il 49% delle ricerche viene effettuato dal posto di lavoro;
• il 44% dal computer di casa;
• il 7% da università/scuole/enti di formazione.

Una recente ricerca di WebTrends su un campione di circa 300 PMI, di cui 50 italiane, ha
rilevato, invece, che:
• il 79% delle imprese analizza il traffico Internet;
• ma solo il 30% riesce ad agire appropriatamente in base ai dati ottenuti;
• in particolare, solo il 50% cattura e analizza i dati generati da Internet;
• in Italia il 74% dei consumatori si fida dei consigli degli amici, il 64% dei commenti della
rete, il 45% dell’adv televisivo;
• in Europa vola il keyword advertising, che ha toccato quota 36% di credibilità (fonte
Nelsen 2016).

NOTA

Non bisogna sottovalutare un settore in enorme crescita, cioè il Web Mobile. Le ricerche
effettuate da dispositivi mobili (che vanno da cellulari a palmari) sono aumentate
vertiginosamente e hanno superato le ricerche desktop. Stati Uniti, Italia e Gran Bretagna
sono i Paesi leader per quanto concerne la diffusione del Web Mobile.

Dall’analisi di questi dati possiamo capire come risulti fondamentale conoscere e studiare i
meccanismi interni che regolano il funzionamento di un motore di ricerca e le tipologie di query
eseguite dai navigatori web. Ciò significa comprendere le logiche e le dinamiche proprie
dell’Information Retrieval (IR) e applicarle al contesto dei motori di ricerca. L’IR può essere
concepito come l’insieme delle tecniche utilizzate per il recupero mirato dell’informazione. È
stata una disciplina scientifica in auge per 50 anni, fino all’avvento del World Wide Web: la sua
logica permetteva di trovare i documenti rilevanti per l’utente partendo da una data collezione
statica di documenti (Corpus).
A differenza dell’IR, le ricerche nel web riguardano in generale risultati (non solo documenti)
che sono rilevanti per l’utente. Per tale motivo è necessario analizzare e adattare il modello
all’evoluzione tecnologica in corso. I problemi che possono verificarsi sono i seguenti:
• mis-conception = certe informazioni che si pensava fossero necessarie in realtà non sono
utili per la ricerca;
• mis-translation = la traduzione in forma verbale non rispecchia le informazioni
desiderate;
• mis-formulation = le query non rispecchiano le informazioni desiderate;
• polysemy = una parola ha più di un significato;
• synonimy = alcuni concetti possono essere espressi utilizzando parole diverse.

Adattando l’IR al concetto di ricerche nel web, si nota come vi siano alcuni problemi di fondo,
primi fra tutti la diversità dei dati da trattare e da catalogare, l’espansione vertiginosa delle
informazioni e la trasformazione del web da collezione di documenti testuali a database
multimediale, in cui si ha una convergenza di tutti i media tradizionali. Tali ostacoli hanno fatto sì
che l’IR si evolvesse di pari passo con l’evoluzione del web, perciò, se le tecniche di retrieval
classico continuassero a essere necessarie per la ricerca sul web, da sole non risulterebbero più
sufficienti e rilevanti.
Come si può notare dalla Figura 1.2, i passaggi per formulare un risultato coerente sono diversi,
così come i possibili problemi che si possono verificare. Durante la formulazione di una query di
ricerca, l’utente desidera trovare le indicazioni più rilevanti il prima possibile. Possiamo quindi
dare una classificazione delle query nel web, tra cui individuiamo tre macrocategorie:
• query navigazionali (25%): il bisogno immediato è quello di raggiungere un certo sito.
Per esempio: Fiat, Barilla;
• query informative (40%): l’intenzione è quella di acquisire informazioni che si presume
siano presenti in una o più pagine web. L’obiettivo è quello di imparare qualcosa dalla
lettura o dalla visualizzazione di contenuti sul web, come testi, immagini, video. Per
esempio: Robot mobili, il web 2.0;
• query transazionali (35%): l’intenzione è quella di svolgere alcune operazioni (acquisti,
fruizione di servizi, acquisizione di file) con la mediazione del web. L’utente è alla ricerca
principalmente di una risorsa disponibile tramite le pagine web. Per esempio: Scarica
programmi gratis.

Figura 1.2 - Esempio di struttura di funzionamento di un motore di ricerca e problemi nell’interpretazione delle query.

Molte ricerche possono rientrare in più di una categoria in base alle esigenze di ricerca. Gli
utenti tipicamente costruiscono query poco precise e hanno necessità e aspettative diverse.
L’analisi dei dati ha rilevato che:
• l’85% degli utenti guarda solo la prima pagina dei risultati della ricerca;
• il 78% degli utenti non raffina le query dopo la prima ricerca;
• vi è la tendenza a spostarsi da una pagina all’altra seguendo dei link, piuttosto che a
ripartire da un’altra pagina o a ripetere la ricerca.

NOTA

Per questo motivo sono fondamentali un corretto posizionamento del sito web nelle prime
postazioni e una corretta analisi delle query, che potrebbero portare nuove visite al nostro
sito web.

Tali dati ci fanno riflettere sull’importanza che oggi riveste il Web Marketing: conoscere gli
utenti, quello che cercano e capire i loro interessi è fondamentale per costruire il proprio
business, avvalendosi di uno strumento che ormai è diventato indispensabile per la vita di molte
persone, il WWW. Ovviamente non è sufficiente avere la patente e una macchina per arrivare
primi al Gran Premio, ma occorrono molteplici fattori, accorgimenti tecnici e astuzie, che solo un
bravo professionista SEO riesce a mettere in pratica. La “battaglia” non viene vinta al termine di
una gara, ma solo a fine stagione, quando si vedono maturare i frutti e la costanza permette di
mantenere i risultati ottenuti.

SEO e Web Marketing


Che cos’è la SEO?
SEO è l’acronimo di Search Engine Optimization: è quella attività che si interpone tra lo
sviluppatore web e l’esperto di Web Marketing, che si occupa dell’analisi e dello studio del sito
web in modo da migliorarne il posizionamento all’interno dei motori di ricerca. In questo libro
analizzeremo gli aspetti tecnici, pratici e teorici che un professionista nel settore web deve
cercare di applicare per ottimizzare non solo il posizionamento della propria attività agli occhi
dei motori di ricerca, ma anche per migliorare la propria reputazione e rafforzare la presenza nel
web.

Il marketing nel web esiste?


Certo, il Search Engine Marketing (SEM), conosciuto anche come Search Marketing, è proprio
quella branca del Web Marketing che si applica ai motori di ricerca, ovvero comprende tutte le
attività atte a generare traffico qualificato verso un determinato sito web (nell’accezione più
estesa del termine può comprendere anche il SEO). Le attività di tale settore sono rivolte
tendenzialmente all’acquisto di spazi pubblicitari o all’adozione di campagne Pay Per Click
(PPC) e devono essere eseguite in sinergia con lo specifico piano SEO adottato (SEM = SEO +
SEA).

NOTA

Grazie all’evoluzione dei Social Network, sono nate diverse discipline, tutte legate da un
unico filo conduttore: la visibilità nel web. Una di queste è la SMO (Social Media
Optimization), cioè l’insieme di metodologie atte ad attrarre i visitatori verso un sito
utilizzando i Social Media.

Le origini dei motori di ricerca


Internet è ormai diventata uno strumento fondamentale nella vita quotidiana di molte persone;
viene utilizzata per i motivi più svariati, che vanno dal ludico al business. Una grossa quantità del
business mondiale passa attraverso questo strumento: saperlo maneggiare adeguatamente e
adoperarsi per sfruttarne appieno le potenzialità può portare notevoli vantaggi economici. Per
queste ragioni sono sorti i motori di ricerca, che consentono all’utente di ottenere le informazioni
desiderate in pochi istanti. Capire le logiche di funzionamento di un motore di ricerca è un
prerequisito fondamentale per chi vuole immergersi nel mondo SEO.

Che cos’è un motore di ricerca?


Un motore di ricerca è un sistema automatizzato che riesce ad analizzare un’enorme quantità di
dati restituendoli come un elenco ordinato di contenuti. Queste informazioni vengono classificate
in base a complessi algoritmi che ne indicano l’importanza per una determinata combinazione di
chiavi di ricerca (keyword). In parole povere, un motore di ricerca non è altro che un sistema
che, in maniera del tutto automatica, reperisce le informazioni e le organizza attraverso opportuni
indici. L’utente che lo interrogherà fornendogli un input in ingresso (keyword) riceverà come
output l’elenco delle informazioni ritenute più rilevanti dal motore stesso. In genere attraverso la
rete, interrogando opportunamente un motore di ricerca, siamo in grado di individuare e ottenere
le notizie che stiamo cercando. I dati presenti su Internet, infatti, sono in continua crescita: siti,
blog e pagine dei social network si moltiplicano a macchia d’olio. Una recente ricerca eseguita
dall’agenzia di ricerche e statistiche internazionali Netcraft (http://news.netcraft.com) ha stabilito
che i siti presenti nel web nel mese di giugno 2016 erano 1.045.534.808 (nel giugno 2010 erano
205.714.253).
Figura 1.3 - Dati da Netcraft.com sui siti attivi sul web fino a giugno 2016.

Questi dati ci fanno capire come sia importante e allo stesso tempo difficile per aziende, società
e professionisti rendersi distinguibili nel web. Non è più importante essere presenti nello
spazio Internet, è invece fondamentale essere visibili.
I primi motori di ricerca iniziarono a comparire intorno alla metà degli anni Novanta, quando le
informazioni nella rete cominciarono a essere complesse e milioni di file e documenti si
riversarono nel web: per l’utente avere a disposizione uno strumento di document retrieval
risultava fondamentale per ottimizzare tempo e risorse.
ALIWEB (Archie Like Indexing for the Web) può essere ufficialmente considerato il primo
motore di ricerca del web, in quanto solo Matthew Gray aveva introdotto il primo spider nel web
pochi mesi prima, ma senza avere un gran successo. ALIWEB fu annunciato nel novembre del
1993 e precedette di alcuni mesi WebCrawler, il primo motore di ricerca in grado di indicizzare
intere pagine web. In quegli anni nacquero interessanti progetti, come Excite, Yahoo! (David Filo
e Jarry Yan), Lycos, Altavista e Inktomi.

NOTA

Lycos consentiva di effettuare ricerche per parole contigue e ordinava i risultati per
pertinenza. Inizialmente contava 50.000 pagine indicizzate; nel giro di due anni arrivò a
contenerne oltre 60 milioni.

Dopodiché si susseguirono diversi motori di ricerca, fino all’avvento di Google, ai giorni nostri,
che divenne leader mondiale incontrastato in questo settore. Larry Page e Sergey Brin fondarono
Google nel settembre del 1998: seguendo un progetto arduo e difficile, riuscirono a creare un
motore di ricerca che in pochi anni divenne il primo a livello mondiale.

NOTA

Non dimentichiamoci, in ordine cronologico, delle scelte strategiche fatte da Microsoft nella
creazione del motore di ricerca Bing, che di fatto va a sostituire il vecchio MSN Live Search.

Un motore di ricerca, come detto precedentemente, funziona da “scanner” delle pagine web
presenti nella rete; in modo automatico le categorizza e le propone all’utente come risultato di
una determinata query. I motori di ricerca possono essere classificati in tre macrocategorie:
• motori di ricerca di prima generazione: analisi dei dati presenti nella pagina; erano i
tempi di Altavista, Infoseek ed Excite. Questi motori di ricerca, sorti nella prima metà
degli anni Novanta, utilizzavano il semplice criterio delle keyword (parole chiave),
inserite nelle pagine HTML attraverso i meta tag. Tale sistema permetteva di collegare le
parole ricercate a pagine web, i cui meta tag segnalavano la presenza dei contenuti
richiesti. Infine, veniva stilata dal motore una lista di riferimenti ordinati secondo
pertinenza e rilevanza;
• motori di ricerca di seconda generazione: analisi di dati specifici del web (link, anchor-
text, click-through data). Tali motori di ricerca, grazie alla loro particolare struttura e
all’enorme capacità di elaborazione di cui sono in possesso, sono diventati
imprescindibili nello scenario attuale di Internet: pensiamo a come il concetto stesso di
ipertesto sarebbe limitato senza uno strumento che ci colleghi ai contenuti mediante
un’espressione, una stringa di testo. Inoltre, i motori ci aiutano a introdurre la questione
della visibilità in rete, che sta alla base della SEO e che è il vero propulsore del nuovo e
straordinario sviluppo della rete stessa dal punto di vista commerciale;
• motori di ricerca di terza generazione: tentativo di dare risposta ai “bisogni che stanno
dietro alle query” attraverso l’analisi semantica dei dati:
– integrazione di risorse multiple;
– aiuto all’utente (spell checking, query refinement ecc.);
– determinazione del contesto spaziale (dove è l’utente, dove è ciò che l’utente cerca) e
del query stream (traccia delle query precedenti).

Abbiamo precedentemente affermato che per indicizzazione si intende l’inserimento di un sito


web nel database di un motore di ricerca. Esistono, quindi, diversi meccanismi di indicizzazione
che servono a comprendere la suddivisione delle tre generazioni di motori di ricerca sopra
illustrate:
• Core sites: l’insieme dei siti che hanno argomenti omogenei, presenti nell’indice di un
motore di ricerca, rappresenta il “core”, il nucleo. Durante il processo di indicizzazione di
un sito web, questo verrà confrontato con il “core” dei siti aventi il medesimo argomento.
Tipicamente, il Core sites è una lista a numero chiuso, perciò ogni nuova inclusione
comporta l’esclusione di un elemento dallo stesso;
• Page Vector: i motori di terza generazione esaminano tutte le pagine presenti nel “core” e
calcolano un Page Vector. In pratica, viene attribuito un voto a ogni pagina presente nel
loro indice;
• Term Vector: una volta analizzate le caratteristiche della pagina, il motore di ricerca le
assegna un Term Vector, che viene poi comparato con il Page Vector assegnato al “core”.
Il risultato di questo confronto determina la posizione del sito nell’indice. Il sito aumenta
di rilevanza quanto più il valore del Term Vector è prossimo a quello del Page Vector.

Molti motori di prima generazione hanno avuto un salto generazionale, cercando di adattarsi alle
richieste del web e proponendosi come motori 3G (di terza generazione): in questo scenario
troviamo Google, il motore di ricerca più utilizzato al mondo (per questo motivo sarà preso in
considerazione per la maggior parte della trattazione di questo libro). La prerogativa che ha
premiato Google, innalzandolo in pochi anni a leader mondiale, consiste nella sua rivoluzionaria
idea di inserire negli algoritmi di ricerca i link tra siti web come variabili di calcolo della
rilevanza. In realtà, sono diversi i fattori che concorrono con differenti percentuali all’algoritmo
(circa 200), ma il valore aggiunto consiste nel considerare i collegamenti tra siti come elementi
matematici. Naturalmente, gli aspetti che hanno concorso al successo di Google sono molteplici,
a partire da una progettazione user-friendly, per passare a un continuo aggiornamento, in
particolar modo per ciò che riguarda l’algoritmo di ricerca e le parti che lo compongono.
Tornando al vero punto di svolta di Google, esso è universalmente conosciuto col nome di
PageRank, altro gioco di parole tra il cognome di uno degli autori e la prerogativa di questo
algoritmo di assegnare un valore (rank) a ogni pagina web (page). L’algoritmo PageRank risulta
tuttora uno tra gli elementi più importanti per la classificazione delle pagine web, anche se
esistono ipotesi e pareri contrastanti su “come” esso venga utilizzato all’interno del calcolo che
dà origine al posizionamento delle pagine.
Il valore del PageRank per ogni singola pagina è pubblico. Come vedremo nei prossimi
paragrafi, Google fornisce i suoi risultati a molti motori di ricerca partner: non a caso, la maggior
parte degli specialisti SEO consiglia di prendere come punto di riferimento Google. Questo,
però, è vero solo in parte: considerare anche altri motori di ricerca, come Yahoo!, Bing o
AskJeeves, è importante per migliorare l’indicizzazione del sito web. Per esempio, potremmo
essere posizionati più facilmente su questi motori di ricerca ottenendo un buon riscontro di visite.
Inoltre, non è da trascurare la popolarità di alcuni motori di ricerca come Baidu per la Cina,
Seznam per la Slovacchia o Rambler e Yandex per la Russia. Come si evince dalla Figura 1.4,
Google rimane per ora il re incontrastato.
Figura 1.4 - Utilizzo dei principali motori di ricerca (fonte: StatCounter).
NOTA

La percentuale di italiani che utilizzano Google come motore di ricerca preferito è in


continuo aumento: oggi sono circa il 91%; di questi, il 68% lo ritiene in grado di offrire i
risultati di ricerca migliori in assoluto.

Motori di ricerca e directory: le differenze


Il motore di ricerca, come abbiamo spiegato in precedenza, è un programma automatico che
effettua ricerche su uno o più database aventi anche dislocazioni geografiche differenti, contenenti
milioni di pagine web. Elabora i dati in base a opportuni algoritmi matematici ed è
completamente automatizzato. È da sottolineare il fatto che i motori di ricerca utilizzano
opportuni strumenti, definiti anche Crawler, Spider o Robots, il cui compito è quello di sondare
il web per raccogliere e archiviare informazioni e contenuti presenti all’interno dei siti. In questo
contesto è evidente che la qualità del motore di ricerca sarà data dalla velocità dello spider nello
scandire il web, dalla potenzialità dell’algoritmo di catalogare i risultati e dalla bontà delle
informazioni che verranno fornite agli utenti.
A differenza dei motori di ricerca, le Directory organizzano i dati in strutture ad albero,
tipicamente costituite da nodi padre e figli. All’interno di queste strutture i siti vengono inseriti
manualmente: sarà compito del gestore verificare l’attinenza della segnalazione e approvare o
meno l’inserimento del sito nella directory. Possiamo da subito notare e capire come le directory
necessitino di un intervento umano costante e continuo per rimanere aggiornate.

NOTA

Una delle principali e più conosciute directory è, per esempio, dmoz.org.

Influenza dei motori di ricerca nella vita di tutti i giorni


I motori di ricerca hanno instaurato con gli utenti un rapporto sempre più consolidato nel tempo,
sia per le opportunità che vengono fornite, sia per la rapidità con cui è possibile trovare le
informazioni. Capire come un potenziale cliente interagisca con il web e con gli strumenti di
ricerca a disposizione è fondamentale per studiare i fattori che ne influenzano le scelte. Gli
investimenti in Search Engine Marketing (SEM) sono, pertanto, in continuo aumento: i
navigatori ritengono che i motori di ricerca siano gli strumenti più efficaci e utili per orientarsi
nel web. Molte delle scelte e delle decisioni di un soggetto passano tra le mani dei motori di
ricerca: è il caso, per esempio, degli acquisti online, poiché viene effettuata una ricerca sul web
per capire caratteristiche e funzionalità del prodotto e, in base alle informazioni ottenute,
l’attenzione cadrà su un determinato articolo piuttosto che su un altro. Un’innovazione curiosa,
che sta cambiando anche il modo di porsi nel web, è rappresentata dai commenti e dalle opinioni.
Può accadere, infatti, che aziende considerate leader nel proprio settore vengano declassate a
causa di un commento o di una nota negativa lasciata da un visitatore nel web. Questo accade
soprattutto nell’ambito del turismo, in cui hotel o tour operator rivali lasciano commenti negativi
in merito a strutture alberghiere dei competitor, cercando di dissuadere gli utenti dal recarvisi. A
chi non è capitato di ricercare un hotel su Internet e di andare nella sezione dei commenti per
vedere se la struttura è pulita, se il cibo è buono e così via? Per l’appunto, i commenti e le
opinioni altrui trovate sulla rete influenzano un determinato comportamento del visitatore.
L’ambito della reputazione aziendale online sta subendo profondi cambiamenti proprio grazie
all’influenza dei blog e dei social network, in grado di orientare e guidare idee e opinioni nella
rete.
Dai dati mostrati in Figura 1.5 possiamo constatare che la maggior parte degli italiani online
utilizza sempre i motori di ricerca prima di un acquisto, preferendoli rispetto ad altri canali.
Questi dati non si discostano molto se confrontati con tutte le ricerche mondiali. Per tale motivo, i
motori di ricerca, che diventeranno sempre più settoriali, possono condizionare più o meno
direttamente un’attività quotidiana o un acquisto: saperne cogliere gli aspetti e le peculiarità che
ne derivano sarà il primo passo per una corretta campagna SEO.
Figura 1.5 - Il grafico rappresenta l’utilizzo dei mezzi scelti durante l’acquisto di beni o servizi.

I componenti principali di un motore di ricerca


Cerchiamo di capire i principi che stanno alla base del funzionamento di un motore di ricerca.
Non entreremo nello specifico, ma illustreremo solamente le nozioni fondamentali utili per
applicare le politiche SEO atte a migliorare la posizione del nostro sito web.
Figura 1.6 - La struttura alla base del funzionamento di Google. Immagine ufficiale dall’Università di Stanford.

NOTA

I più curiosi potranno approfondire questi concetti alla pagina web:


http://infolab.stanford.edu/~backrub/google.html
Un motore di ricerca è composto da diversi elementi, ma i pilastri su cui si basa sono
fondamentalmente cinque:
• Scheduler: la sua funzione è quella di pianificare quando i crawler dovranno prendere in
carico il download di una risorsa presente nell’URL che gli è stata affidata;
• spider (anche detto crawler o robot): costruisce il Corpus (una raccolta statica di
documenti), collezionando i dati in modo ricorsivo (per ogni URL noto analizza la pagina
e cerca URL presenti in essa). Il lavoro principale di questo componente è quello di
scandire un elenco di pagine web (database degli URL) e, usufruendo di tecniche
specifiche di catalogazione, raccogliere le informazioni e memorizzarle in opportuni
repository;

NOTA

È bene precisare che spesso si utilizza lo stesso termine per identificare spider, crawler e
robot. In realtà questi componenti, anche se simili, possono svolgere azioni leggermente
differenti e potrebbero essere considerati in modo diverso. Un’altra cosa da non
sottovalutare è il fatto che il compito del crawler è quello di effettuare il download di risorse
web e cercare all’interno di esse eventuali link.

• indexer: processa i dati generati dallo spider, generando indici e metadati che facilitano la
fase di ricerca (effettuata dal query processor). L’indexer svolge diverse funzioni, tra cui
quella di catalogare e contenere le informazioni sui siti web, che vengono successivamente
interpretate attraverso algoritmi e modelli statistici durante la fase di analisi e scansione
dell’indice;
• parser: estrae la risorsa memorizzata nel repository e ne legge i contenuti, suddividendoli
in base alla tipologia. Se la risorsa contiene link ipertestuali, questi ultimi verranno
aggiunti al database di URL e memorizzati nel link graph. Durante questa fase, grazie a un
sistema di metadati, i dati contenuti nell’indice vengono etichettati con ulteriori
informazioni (lingua, genere, tasso di aggiornamento e così via). Tali metadati risultano
decisivi per consentire al motore di ricerca di offrire elementi più rilevanti;
• query processor, anche definito Search engine software: accetta richieste e fornisce
risposte (può riformulare le query per correggere eventuali errori o per fornire un insieme
di risposte eterogenee quando la ricerca non sembra andare a buon fine; classifica i
risultati in base al grado di matching con la query, ma anche a un ranking ottenuto facendo
link analysis).

L’architettura dei moderni motori di ricerca è in continua evoluzione per cercare di venire
incontro alle nuove richieste degli utenti, cioè contenuti sempre più diversificati, multimedialità e
interattività. Bisogna sapere che in questo scenario le variabili in gioco aumentano e cambiano
repentinamente, perciò è necessario essere aggiornati e attenti alle mutazioni del mercato.
Non dobbiamo dimenticare che i motori di ricerca sono anche e soprattutto potenti media il cui
obiettivo principale rimane quello di produrre ricavi. Per quanto i risultati di un motore di
ricerca possano sembrare autorevoli e obiettivi, la loro organizzazione risente della natura
commerciale dell’azienda che lo ha creato e lo mantiene in vita. Vi sarà capitato, per esempio, di
trovare tra i risultati della vostra ricerca anche un video di YouTube; questi video, portando
ricavi a Google, tipicamente ricevono un “bonus” in posizionamento che non risulta evidente agli
utenti meno attenti (l’azienda creatrice di YouTube è stata acquistata da Google nel 2006). Il
motore di ricerca di solito viene ritenuto imparziale, tuttavia risente di un certo conflitto
d’interessi che a oggi non è ancora stato risolto. I contenuti ospitati da aziende di proprietà del
motore di ricerca possono avere un bonus nel posizionamento. La piattaforma Blogger (acquistata
da Google nel 2003), per esempio, ha vari milioni di siti indicizzati all’interno di Google.
Per aumentare il margine dei ricavi, l’azienda Google ha due possibilità: aumentare il numero e
la qualità dei clic sui propri annunci pubblicitari o ridurre il costo del motore di ricerca.
Possiamo renderci conto, quindi, di come sia importante per un sito web essere “economico” nei
confronti di Google. Ad esempio, un sito che sia online da cinque anni tende a essere già
“conosciuto” da Google, che farà passare il suo spider solo per gli aggiornamenti delle novità
piuttosto che per scovare pagine nuove. Un sito pubblicato stamattina dovrà essere scovato da
Google e il valore del sito dovrà essere calcolato per la prima volta. Un sito web più “snello”,
cioè senza HTML inutile, sarà preferibile per il motore di ricerca, che potrà estrarre i testi con
facilità, e così via.

NOTA

Su http://bit.ly/come-funziona-google è possibile trovare interessanti risorse sul


funzionamento di Google.

I principali fattori che influenzano la visibilità di un sito web


Il posizionamento delle pagine web è influenzato da una serie di fattori, alcuni noti, altri mai
svelati dai principali motori di ricerca.

NOTA

L’indicizzazione è l’azione di descrizione o identificazione di un documento nei termini del


suo contenuto concettuale (ISO 5963).

Nessuno è in grado di conoscere con esattezza le sofisticate leggi matematiche che regolano il
funzionamento di Google o di altri motori; si può solamente ipotizzare con test o esperimenti sul
campo il comportamento che può avere un motore di ricerca in risposta a determinati input. I
principali fattori che influenzano il posizionamento si dividono in due branche principali: i fattori
interni alla pagina (on page factors) e i fattori esterni alla pagina (off page factors).

NOTA

Analizzeremo i vari fattori rimandando l’utente ai prossimi capitoli per un ampio


approfondimento in materia.

I principali on page factors comprendono, per esempio:


• tag title;
• meta tag;
• heading tag;
• tag di enfatizzazione;
• link, alt attribute, URL;
• struttura dei contenuti;
• struttura della pagina;
• microformati, microdati, RDF e il Web Semantico;
• anchor text;
• ottimizzazioni di immagini e contenuti multimediali.

L’ottimizzazione di questi parametri è un buon inizio nel lavoro finalizzato alla visibilità di un
sito web. Vediamo come sfruttare questi fattori:
• localizzazione delle keyword: il Search Engine Algorithm localizza le keyword presenti
nella pagina partendo dai tag HTML, nell’headline o nei primi paragrafi (le keyword
posizionate nell’headline o nei primi paragrafi risultano molto importanti per la
localizzazione);
• frequenza: è molto importante inserire le keyword in zone della pagina visibili, ma non
esagerare nella “quantità”. I motori di ricerca in passato misuravano la frequenza della
keyword commisurandola e rapportandola al contesto della pagina per determinare il
PageRank. Anche il concetto delle co-citazioni è molto importante in quest’ottica;
• aggiungere funzionalità in base a specifici fattori: differenti motori di ricerca possono
indicizzare in modo diverso e con frequenza differente i contenuti presenti all’interno di un
sito web. È quindi necessario che un webmaster sappia con quale frequenza gli spider
“aggiornano” lo stato del sito web, così da ottimizzare le singole pagine sviluppate ed
evitare di classificare la pagina come spamming (l’argomento spam per i motori di ricerca
sarà trattato nei prossimi capitoli);
• i Microformati e i Microdati: il Web Semantico (Microformati e Microdati) sta
gradualmente cambiando il web e il modo in cui è possibile reperire le informazioni
online. Standardizzando gruppi di dati, strutture, informazioni, business card, liste, i
Microformati e i Microdati stanno creano un nuovo e più strutturato approccio orientato a
Internet, il primo passo verso un Web Semantico più interattivo. Per tale motivo, questi
aspetti dovranno essere presi in considerazione durante il nostro processo di sviluppo
SEO (http://microformats.org e http://schema.org).

Gli off page factors comprendono (ovviamente è un primo elenco di base che avremo modo di
approfondire):
• link popularity;
• link building;
• author rank;
• tecniche di Social Media Marketing e Social Media Optimizazion;
• promozione su altri media, come radio, tv o riviste;
• inserimento in directory di qualità (tecnica ormai da considerarsi obsoleta), comunicati
stampa, article marketing, guest post (basandosi sulle regole di Google per evitare
penalizzazioni).

Sarebbe “troppo semplice” se i motori di ricerca si basassero esclusivamente sugli on page


factors; per tale motivo, gli spider si sono evoluti e tengono in considerazione non solo i fattori
che dipendono da come è stata creata e strutturata la pagina, ma anche i fattori “aleatori”, che
possono variare in base alla tipologia di sito e alla sua popolarità (che può dipendere anche
dalla ricchezza dei contenuti). Fanno parte degli off page factors tutti quei “fattori” che non
possono essere influenzati in modo diretto dai webmaster:
• link analysis: Jon Kleinberg, Sergey Brin e Larry Page (gli ultimi due sono gli ideatori di
Google) sono stati i pionieri dell’analisi dei link per il potenziamento dei motori di
ricerca. Il concetto chiave è il seguente: un autore che mette nelle proprie pagine web
collegamenti ad altre pagine implicitamente “approva” queste ultime. Dal “giudizio”
collettivo di diversi autori, un motore di ricerca può estrarre dal web il contenuto di
maggiore importanza.
• link popularity: usata come fattore fondamentale nel PageRank di Google, la link
popularity è l’arma più potente di tutti i motori di ricerca nell’arsenale di ranking dei siti
indicizzati. Essenzialmente, più siti hanno un link al tuo, più i motori ti considerano
importante e più possibilità hai di competere per le posizioni in testa ai risultati. Le
tecniche di ottimizzazione on page non garantiranno un posizionamento significativo, se
non si è aiutati da una buona link popularity. Ovviamente questo va contestualizzato anche
in base agli ultimi algoritmi di Google Panda e Google Penguin per combattere la lotta
contro lo spam e non solo.

Esistono altri fattori che influenzano direttamente e indirettamente questa struttura:


• la data di pubblicazione dell’articolo o del contenuto del sito (link frequency):
ovviamente un sito aggiornato con contenuti freschi e nuovi risulterà, sia agli occhi dei
visitatori, sia ai motori di ricerca, più interessante e gli verrà attribuita maggiore
importanza. A ogni link viene associato un time stamp (identificativo con data e ora di
pubblicazione): la freschezza del link rappresenta un elemento di valutazione per il
posizionamento;
• wide Side Factor: sono tutti quei fattori in grado di dare un “premio” ai siti web che, tra
le altre cose:
– hanno nomi di dominio di un certo tipo (attenzione all’EMD Update di Google);
– hanno maggiore anzianità;
– hanno una localizzazione del server (ccTLD e localizzazione del server);
– hanno una velocità di risposta soddisfacente;
– hanno avuto una “vita tranquilla”, ovvero non hanno eseguito tattiche spam o non
risiedono in server con in atto tecniche spam;
– hanno una continuità semantica tra i vari contenuti. Questo dipende, ovviamente,
dall’estensione del sito e dalla tipologia di contenuti al suo interno.

Tutti questi fattori, assieme a quelli di off site, concorrono all’autorevolezza di un sito web agli
occhi di Google e dei principali motori di ricerca.
Uno dei principali limiti dei motori di ricerca è la difficoltà di mettere in relazione contenuti non
direttamente connessi, ma che hanno affinità. L’utilizzo di tecniche come la retroazione di
pseudopertinenza permette di superare alcuni di questi ostacoli, usufruendo della ridondanza del
linguaggio naturale per migliorare e arricchire la formulazione dell’interrogazione dell’utente.
Inoltre, l’adozione di linguaggi per la descrizione semantica dei dati presenti sul web consente ai
motori di ricerca di attrezzarsi adeguatamente per rispondere meglio ai bisogni dei navigatori.
Dobbiamo, infatti, ricordare come Google, tra le varie tecniche di catalogazione e indicizzazione
dei contenuti web, adoperi l’algorimo conosciuto col nome PageRank. L’algoritmo PageRank
risulta tutt’ora uno tra gli elementi più importanti per la classificazione delle pagine web. Sin dal
momento della sua introduzione, esso fece sentire il suo peso, in particolare nella lotta allo spam,
che ebbe da quel momento maggiori difficoltà operative, essendo diventato a quel punto inutile il
suo annidamento nel codice sorgente di un sito. I meta tag videro da quel momento diminuire la
loro importanza, mentre ne acquistarono moltissima i link verso il sito, dato il loro contributo di
autorevolezza e rilevanza.
L’algoritmo ideato da Brin e Page consente di ottenere una classifica delle pagine indipendente
dalle query. La classificazione si attua periodicamente.
Il PageRank (punteggio, grado della pagina) è dato dalla seguente formula:

Si assume che la pagina A sia puntata dalle pagine P1…Pn.


• sia d (damping factor) la probabilità che un “random surfer” si stanchi della pagina che sta
visitando e salti a un’altra pagina a caso (normalmente d = 0,85);
• PR(A) è il valore di PageRank della pagina A che vogliamo calcolare;
• n è il numero di pagine che contengono almeno un link verso A. Pk rappresenta ognuna di
tali pagine;
• PR[Pk] sono i valori di PageRank di ogni pagina Pk;
• C[Pk] è il numero complessivo di link contenuti nella pagina che offre il link.

Si può verificare che il valore medio dei PR è sempre 1.


Le query degli utenti ottengono come risultato un sottoinsieme dell’intero insieme di pagine,
ordinato in base al PR. Questo sistema di calcolo attribuisce a ogni singola pagina del web
indicizzato un valore che va da –1 a 10. Google combina i valori di PageRank con quelli di
rilevanza al fine di ordinare le pagine restituite in risposta a un’interrogazione. Il PageRank può
essere quindi considerato una versione più raffinata e complessa della link popularity. Quale
influenza ha oggi il PageRank per la SEO?
Per rispondere a questa domanda, possiamo riprendere quanto scritto da Susan Moskwa sul blog
ufficiale di Google:

Credo che nessuno punti al PageRank alto come a un obiettivo finale. Il PageRank
rappresenta solo quello che noi vogliamo davvero: fare più soldi, attirare più lettori,
generare più contatti, fare più iscrizioni alla newsletter. Guardare al PageRank come a una
metrica di successo ha senso solo nel momento in cui più esso è alto e meglio il mio sito è
posizionato, più traffico riceve, e più persone fanno quello che voglio che facciano sulle
mie pagine. Perché preoccuparsi di un numero che è lontano dai tuoi obiettivi reali, quando
invece ci sono cose che puoi misurare e che sono legate a ciò che vuoi davvero
raggiungere? Trovare le metriche direttamente collegate ai tuoi obiettivi di business ti
permetterà di lavorare su di essi e quindi di raggiungere il tuo scopo.

In poche parole, Google ci dice chiaramente di non soffermarci troppo sul PageRank, ma di
prendere in considerazione anche altre metriche, quali:
• il tasso di conversione dei clienti/visitatori;
• la frequenza di rimbalzo;
• la percentuale di clic (CTR) sui nostri annunci/banner.

NOTA

Già nel 2009 erano state rilasciate dichiarazioni chiare in merito: “La parte più famosa del
nostro algoritmo di ranking è il PageRank, un algoritmo sviluppato da Larry Page e Sergey
Brin, fondatori di Google. Il PageRank è ancora in uso oggi, ma ora è una parte di un sistema
molto più grande e complesso”. Il PageRank a oggi non viene più aggiornato da Google
(barretta verde nel browser per intenderci).

Il PageRank è stato per anni un punto di riferimento per molti webmaster, ma oggi è necessario
prestare attenzione ad altre metriche, come già accennato. Se avviamo 10.000 visitatori
giornalieri nel nostro sito di e-commerce con un alto PageRank, ma solamente due utenti effettivi
hanno compiuto acquisti, allora dobbiamo preoccuparci: cosa non va nel nostro sito web? Se il
nostro scopo è fare business online, dobbiamo avere un piano di marketing adeguato e sfruttare e
analizzare metriche quali il tempo di permanenza sul sito web, l’andamento delle visite, o il
CTR. Il PageRank rimarrà solamente un numero, una metrica di riferimento che dovrà essere il
punto iniziale (e non finale) di una nostra campagna SEO e di Web Marketing (contando che la
barretta che segna il Page Rank non viene più aggiornata da Parte di Google!).

NOTA

Oltre a risolvere problemi di calcolo, i motori di ricerca devono fornire risultati pertinenti
con la query formulata. Lo spam, cioè il tentativo di influenzare i risultati dei motori di
ricerca, è un fenomeno presente e tenuto in considerazione dai motori di ricerca. Vedremo
questo aspetto nei successivi capitoli del libro.

Per combattere lo spam è stato inventato il TrustRank, un algoritmo brevettato originariamente


da Yahoo!, ma poi acquisito da Google, in parte basato sulla valutazione dei siti effettuata da
esseri umani.
La funzione del TrustRank è quella di aiutare a migliorare la classificazione di una pagina o di un
sito web.
Il processo per definire se una pagina può essere considerata spam può essere sintetizzato in tre
passi:
• l’algoritmo prima seleziona un gruppo di pagine delle quali non è chiaro lo spam status
(definite “seed”). Queste pagine possono essere sospette o non ben definite;
• un esperto umano esamina le pagine e comunica all’algoritmo quali possono essere
definite spam (bad pages) e quali no (good pages);
• l’algoritmo identifica le altre pagine sulla base della classificazione umana iniziale.

NOTA

TrustRank costituisce una piccola sconfitta di Google contro lo spam: è la prima incoerente
concessione all’intervento umano di un motore di ricerca che, per ammissione dei suoi
inventori, ha sempre puntato su procedure automatizzate.

Questa risulta essere la formula base del TrustRank:


• TR(A) è il TrustRank della pagina A;
• TR[T] è il TrustRank delle pagine Ti che linkano alla pagina A;
• C[docN] è il numero di link verso altri siti (outbound) contenuti dalle pagine Ti;
• d è il damping factor o fattore di attenuazione uniforme;
• F è il valore della fiducia, assegnato manualmente nella fase precedente: 1 nel caso di siti
“buoni” e 0 in caso di spam.

NOTA

Esistono altri strumenti per misurare la popolarità di un sito web, tra cui Alexa Rank, un
rilevatore di autorevolezza che stima circa 10 milioni di siti internet nel mondo. Se un sito ha
valore “1”, significa che esso ha il massimo grado di autorevolezza e popolarità. La
classifica si basa sui dati storici di traffico aggregato di tre mesi, forniti dagli utenti che
hanno installato la Toolbar Alexa, e sui dati ottenuti da altre fonti diverse di traffico
(http://www.alexa.com).

Gli attuali trend, come il social networking, la content production e curation e tutti i segnali
sociali, obbligano Google ad aggiornare costantemente i propri algoritmi per strutturare e
migliorare il proprio indice al fine di offrire all’utente risultati sempre più ottimali e in linea con
le sue aspettative. Abbiamo già illustrato come il PageRank risulti ormai un concetto “superato”,
che molto probabilmente verrà integrato, aggiornato e ampliato attraverso l’Author Rank.
L’Author Rank non è ancora un vero algoritmo: a oggi siamo a conoscenza solo dell’esistenza del
brevetto “Google Agent Rank” depositato nel settembre 2011 (http://tinyurl.com/rank-autore). Il
concetto è semplice: l’identità e la reputazione degli utenti che hanno prodotto e veicolato un
determinato contenuto potrebbero essere utilizzati da Google per influenzare la valutazione dei
risultati di ricerca nel momento in cui essi verranno indicizzati. L’identità potrà essere accertata
per mezzo di una firma digitale (il rel author) che aiuta Google a far capire chi è l’autore, in
quale nicchia è attivo e chi sono i suoi follower. Infatti Google utilizzava rel=”author” e Google
+ per legare l’identità dell’autore ai suoi contenuti: in questo modo era possibile linkare utenti e
creatori di contenuti di cui ci fidiamo e che hanno una buona reputazione all’interno del mondo
web. Il 28 agosto 2014, John Mueller annuncia la morte dell’authorship, ma a oggi non è chiaro
se in futuro potrà essere sfruttato. L’Author Rank invece è un progetto che sembra ancora essere
vivo in quanto permetterà a Google (ad esempio attraverso Schema.org) di identificare gli autori
che costruiranno il link graph delle pagine web.
Insomma, l’Author Rank potrebbe rivelarsi una delle novità più interessanti nel mondo del web e
anche altri segnali ci fanno ipotizzare che Google abbia serie intenzioni di andare in tale
direzione. In un recente brevetto (http://tinyurl.com/rank-commenti) rilasciato da Google, infatti,
si accenna al fatto che un articolo commentato da utenti con una certa reputazione potrebbe
posizionarsi meglio nella SERP. Ovviamente sono tutti tips, che però dovremmo prendere in
considerazione per migliorare la nostra Brand Reputation e, di conseguenza, la visibilità sul web.
Figura 1.7 - Logica Author Rank.

AskJeeves/Teoma ha adottato nel passato (e continua in parte a usare) l’algoritmo HITS


(Hyperlink-Induced Topic Search; J. Kleinberg 1998), che definisce un sottoinsieme di pagine
per ogni query e, tra queste, identifica le pagine autorevoli. Quindi la popolarità di una pagina
aumenta al crescere del numero dei suoi in-link e le pagine popolari hanno più probabilità di
contenere informazioni rilevanti rispetto alle pagine non popolari. Vi sono state, poi, evoluzioni
di questo algoritmo, come Direct Hit e l’algoritmo di HillTop, usato da Google. HillTop assegna
ai link un valore maggiore o minore a seconda dell’argomento trattato dalla pagina da cui
proviene il link. I link in ingresso derivanti da risorse pertinenti, per tema, avranno un valore
positivo; quelli provenienti da pagine non correlate avranno valore minimo.
NOTA

L’algoritmo HillTop, nato nel 2001, porta la firma di Krishna Bharat e rappresenta il
tentativo più serio di immettere variabili tematiche nel calcolo del ranking di Google.

È importante sottolineare che, per quanto l’algoritmo HillTop introduca una componente, per così
dire, semantica nel calcolo del valore delle pagine web, nel senso che considera l’attinenza
tematica come una variabile importante della risposta alle query, esso rimane in continuità con
PageRank, in quanto è anch’esso un algoritmo basato sull’analisi dei link. La differenza tra i due
consiste semmai nel tipo di autorevolezza derivata dall’analisi, basata sugli inbound link in
PageRank e sul contenuto in HillTop.
Queste digressioni ci servono per comprendere come l’arte della SEO si debba appoggiare non
solo all’ottimizzazione della specifica pagina HTML, ma a tutta una serie di fattori esterni che ne
influenzano il corretto posizionamento.

NOTA

Per maggiori approfondimenti sugli algoritmi illustrati:


http://tinyurl.com/TrustRankPDF e: http://dbpubs.stanford.edu

NOTA

Non bisogna dimenticare Jagger Update, un aggiornamento suddiviso in due parti (Jagger part
I e Jagger part II), nato con lo scopo, da parte di Google, di combattere la lotta allo “spam
content” e alla manipolazione dei risultati. Le principali novità riguardano la penalizzazione,
da parte del motore di ricerca, di tecniche considerate scorrette, atte a innalzare il PageRank.

Il futuro dei motori di ricerca


L’evoluzione tecnologica porterà l’ingresso di nuovi dati e di nuovi fattori; i social network, ad
esempio, stanno assumendo un ruolo sempre più importante: allora perché non prendere in
considerazione, nelle ricerche, anche i dati presenti su di essi? Esistono già motori di ricerca
specializzati che offrono servizi mirati a determinate branche di dati o di settori. Con il
trascorrere del tempo si avrà sempre di più la necessità di trovare le informazioni corrette in
minor tempo ricercandole tra un’infinità di dati: serviranno, allora, motori specifici per
argomenti o categorie in grado di agire e portare risultati raffinati e migliori. A oggi abbiamo
interessanti novità nell’ambito dei motori di ricerca, come il Clustering, fondato nel 2000 da
alcuni ricercatori dell’Università di Pittsburgh.
Il sistema più famoso fu Vivìsimo, che si autodefinisce “clustering engine”, perché alla base del
suo funzionamento c’è il principio che racchiude tentativi, esperimenti e speranze di poter
sviluppare dei motori di ricerca intelligenti. Tale principio prende appunto il nome di clustering
e consiste nel processo di raggruppamento delle pagine e dei documenti trovati nel web secondo
categorie (cluster) semantiche. Vivìsimo, “motore per il raggruppamento dei documenti”, è il
pioniere del clustering, nonché uno strumento che aggrega le risorse della rete su un determinato
argomento, rendendole fruibili attraverso cartelle tematiche create in tempo reale.
Sviluppato da Vivìsimo e lanciato nel 2004, merita una menzione anche Clusty (clusty.com ora
chiamato yippy), http://yippy.com/, metamotore il cui nome sottolinea, ancora una volta, la
funzione di raggruppamento dei risultati di ricerca. Clusty si comporta come un normale
metamotore, indicizzando nella parte centrale della pagina i risultati fornitigli dai database, e a
sua volta interroga e, come osserviamo sulla parte sinistra della schermata, clusterizza tali
risultati in base all’argomento, proponendo alcune categorie di prossimità concettuale alla query.
Risulta, pertanto, ovvio sottolineare come tale strumento possa rivelarsi fondamentale nel caso in
cui l’utente non abbia ben chiaro il focus della propria ricerca o lo voglia ulteriormente
specificare.

Figura 1.8 - Il motore di ricerca Clusty/yippy in azione.

Questi motori di ricerca mettono in luce un nuovo approccio focalizzato su una selezione
dell’informazione per concetti e categorie, avvicinandosi all’ottica semantica. Tale svolta, unita
alla possibilità di una maggiore personalizzazione dei contenuti proposti all’utente, raggiungibile
grazie all’aumento dell’interattività e alla conseguente creazione di profili di utenza, apre il
dibattito sul tema dell’intelligenza artificiale applicata ai motori di ricerca. In questa direzione si
è mosso anche un sistema prototipale (che però sembra essere ormai in dismissione) denominato
CREDO (Conceptual REorganization of DOcument). Basato sui reticoli concettuali, esso
produce cluster facilmente gestibili e comprensibili rispetto a quelli generati con i normali
metodi statistici. Lo scenario che si profila pare muoversi nella direzione di un mix nell’utilizzo
delle tecniche finora analizzate, volto a sfruttarne le prerogative di successo e a eliminarne i
punti deboli. Nello specifico, l’elevata automazione degli algoritmi dei motori di ricerca assicura
una rapidità e una reiterazione di indicizzazione irraggiungibili, ma pecca di scarsa elasticità. Le
directory presentano una struttura ordinata e consentono una progressiva scrematura del rumore
(l’informazione inutile); inoltre, come nel caso di dmoz (una delle più importanti directory), si
realizza quella classificazione qualitativa dei risultati che al momento soltanto l’essere umano è
in grado di fornire. Tuttavia, la loro grossa lacuna strutturale consiste nei tempi di censimento del
web estremamente lenti, aspetto che impedisce di tenere il passo con l’espansione del web
stesso, nonostante i sempre maggiori sforzi di collaboratori e volontari. Il clustering, dal canto
suo, pur proponendo una buona mediazione tra le due possibilità sopra elencate, non sempre offre
un grado di rilevanza accettabile rispetto all’informazione cercata, e non sempre i cluster sono gli
strumenti più adatti per approfondire la ricerca. Non è raro scoprire che alcune delle pagine web
presentate sono in realtà irrilevanti, se non addirittura fuorvianti. Un discorso a parte meritano i
metamotori, il cui sviluppo è trasversale rispetto agli elementi trattati finora. I metamotori sono
portali che non hanno un proprio database e aggregano i risultati dei motori di ricerca principali
servendosi degli archivi di questi ultimi. In realtà la loro efficacia è molto discutibile. In questo
settore, caratterizzato da trasformazioni rapide, è difficile ipotizzare con certezza quale sia il
futuro dei motori di ricerca; di certo è plausibile aspettarsi un raffinamento degli algoritmi verso
risultati più precisi. La verticalizzazione dei settori sarà decisiva per incrementare la prestazione
e la qualità dei risultati. Per esempio, la personalizzazione dei risultati è un argomento alla base
dell’accesso intelligente alle risorse: in questo contesto Direct Hit fu uno dei primi motori di
ricerca a fornire risultati personalizzati in base all’utente. Le nuove strade si concentreranno
verso il Web Semantico, cioè particolari strutture dati in grado di fornire un valore aggiunto ai
contenuti. Lo strumento utilizzato a questo scopo si chiama XML, acronimo di Extensible Markup
Language. Si tratta di un metalinguaggio che consente di attribuire una struttura ai documenti e di
inserire informazioni sui propri contenuti. Grazie a questo standard, già utilizzato in ambito web
(per esempio, per l’utilizzo dei Feed RSS), è possibile garantire informazioni semanticamente
corrette e strutturate ai motori di ricerca, che saranno poi in grado di interpretarle correttamente e
quindi di fornire query più raffinate. Un motore di ricerca semantico tenta quindi di dare un senso
ai risultati della ricerca in base al contesto in cui l’analisi viene effettuata.
I principali motori di ricerca semantica sono:
• Cognition: era un motore di ricerca semantico basato su una mappa semantica costruita
negli ultimi 25 anni. Purtroppo questo progetto è stato abbandonato;
• DeepDyve: era un motore di ricerca che consentiva di accedere ai contenuti del “Deep
Web”, cioè la parte di Internet che non è indicizzata dai motori di ricerca tradizionali
(come banche dati o riviste);
• SenseBot (http://www.sensebot.net): è un motore di ricerca semantico (in versione beta),
che genera una sintesi del testo di più pagine web in base al tema della query di ricerca.
Esso utilizza text mining e comment summarization per estrarre il senso di pagine web e
presentarle all’utente in maniera coerente;
• Hakia (recentemente dismesso): era un motore di ricerca general purpose basato sul web
semantico e sul natural language processing (NLP). Hakia è un'idea dello scienziato Riza
Berkan, che ha contribuito attivamente, assieme ad altri personaggi illustri, a sviluppare
l'algoritmo SemanticRank;
• iStella: è un nuovo motore italiano con diverse funzionalità interessanti e con un trend di
crescita davvero promettente;
• Volunia: è un nuovo motore di ricerca di terza generazione tutto italiano ideato da
Massimo Marchiori. Il suo core raggruppa sia funzionalità social sia peculiarità derivanti
dal web semantico. Purtroppo pare che il progetto abbia terminato la sua vita e sia
definitivamente stato abbandonato.
• EVI (https://www.evi.com/): True Knowledge motore di ricerca semantico di Cambridge
fondato da William Tunstall-Pedoe
• Yummly (http://www.yummly.com/): Motore di ricerca mobile semantico dedicato al
mondo dello shopping e delle ricette
• Swoogle (http://swoogle.umbc.edu/) Motore di ricerca semantico storico.

NOTA

Pare che alcuni ingegneri di Facebook, guidati dell’ex Googler Lars Rasmussen, stiano
silenziosamente lavorando su un motore di ricerca che, sperimentalmente, sarà interno a
Facebook, ma che potrebbe essere ampliato all’intero web.

NOTA

Tra gli altri principali motori di ricerca semantici possiamo menzionare:


www.wolframalpha.com
www.factbites.com
http://swoogle.umbc.edu
www.lexxe.com

I motori di ricerca, quindi, adottano e adotteranno strumenti e mezzi sempre più sofisticati:
tecniche di apprendimento automatico, utilizzate soprattutto in ambito ingegneristico, potranno
essere sfruttate per creare un’“intelligenza” e una memoria storica nel fornire informazioni
sempre più mirate.
Molti search engine hanno sviluppato una serie di opzioni per personalizzare la ricerca attraverso
“agenti intelligenti”, che identificano il profilo dell’utente sulla base dell’analisi delle preferenze
e degli interessi espressi durante le precedenti navigazioni: i risultati delle ricerche successive si
adegueranno al profilo costruito. Quelli che abbiamo appena definito agenti intelligenti sono, in
realtà, gli stessi algoritmi che rendono possibile il data mining. Tale processo consiste
nell’estrazione di conoscenza, sotto forma di informazioni strutturate e tra loro collegate, che
avviene interrogando banche dati di grandi dimensioni. Lo scopo è quello di rendere disponibili
schemi o relazioni tra dati che esistono già, ma che rimarrebbero invisibili, o comunque nascosti.
Infine, troviamo la possibilità di riconoscere e individuare sempre più in dettaglio i contenuti
multimediali. Saper riconoscere, attraverso OCR, testi di immagini, contenuti di video o flussi
multimediali permetterebbe una migliore organizzazione degli indici e quindi risultati di ricerca
più raffinati. La visualizzazione e il perfezionamento dei risultati rappresentano gli aspetti
vincenti di un processo evolutivo indispensabile; non a caso, Google ultimamente ha dichiarato la
possibilità di indicizzazione dei contenuti testuali o XML dei filmati Flash. Anche la ricerca
sull’elaborazione dei contenuti audio, video e stream multicanale deve ancora evolversi del tutto:
per esempio, blinkx (www.Blinkx.com) e eHow (http://www.ehow.com/) sono motori di ricerca
multimediali basati sul web 2.0 che stanno crescendo e progredendo. In un settore caratterizzato
da mutamenti e trasformazioni rapide, è prevedibile l’avvento di innovazioni che seguiranno il
naturale evolversi delle tecnologie. Per tale motivo, un esperto SEO e di Web Marketing deve
rimanere sempre in stretto contatto con le innovazioni che riguarderanno più o meno direttamente
il mondo dei motori di ricerca.

NOTA

In questo scenario troviamo anche i motori di ricerca visuali, che mostrano visivamente
mappe ricche di contenuti, per fornire a colpo d’occhio le relazioni risultanti dalle query di
ricerca.

Google Caffeine, la mutazione


Finora abbiamo presentato una panoramica sui motori di ricerca. Da questa analisi è emerso
come Google risulti essere il motore di ricerca più utilizzato a livello mondiale: ecco perché è
d’obbligo soffermarci ulteriormente su di esso.
Ultimamente Google ha comunicato diverse novità all’interno dei suoi algoritmi di
indicizzazione: la più curiosa è rappresentata dal nuovo sistema di indicizzazione denominato
Caffeine. Questo progetto consiste in una tecnologia che crea l’indice delle informazioni messe a
disposizione dagli utenti attraverso il motore di ricerca. Caffeine fornirà risultati per il 50% più
“freschi” e aggiornati rispetto al passato. Perché è stata necessaria la costruzione di un nuovo
sistema di indicizzazione? La risposta si può trovare, come abbiamo già spiegato
precedentemente, nell’evoluzione del web e nelle informazioni che circolano su esso. Infatti, a
mano a mano che nascono nuovi blog, siti web e pagine, i contenuti audio, video e multimediali
che si diffondono in rete sono più numerosi: le aspettative degli utenti durante la fase di ricerca
sono superiori a quelle di una volta.
Per stare al passo con l’evoluzione del web e per soddisfare le crescenti aspettative degli utenti,
è stato così costruito e implementato questo nuovo algoritmo di indicizzazione, Caffeine. La
Figura 1.9 mostra l’idea di innovazione introdotta da Caffeine rispetto al vecchio metodo di
indicizzazione utilizzato da Google.
Figura 1.9 - Differenza concettuale tra il nuovo e il vecchio sistema di indicizzazione di Google (immagine ufficiale di
Google).

Il vecchio indice di Google è costituito da diversi strati, alcuni dei quali sono stati aggiornati a
un ritmo più veloce rispetto agli altri; per esempio, lo strato principale si potrebbe aggiornare
ogni due settimane. Per aggiornare uno strato, potrebbe essere necessario analizzare tutto il web,
il che comporterebbe un notevole ritardo tra il momento in cui abbiamo trovato una pagina o
un’informazione e il momento in cui essa risulta realmente disponibile.
La logica che sta dietro il nuovo sistema di indicizzazione permette di analizzare il web in
piccole sezioni e di aggiornare continuamente l’indice di Google. In tal modo, appena vengono
trovate nuove informazioni o notizie, esse possono essere indicizzate più facilmente e soprattutto
più rapidamente.

NOTA

Potete rimanere aggiornati sulle mutazioni di Google seguendo il canale YouTube:


www.youtube.com/user/GoogleWebmasterHelp

Secondo le affermazioni di Google, Caffeine sarebbe in grado di indicizzare le pagine web su


larga scala: si sostiene che in ogni secondo Caffeine sarebbe in grado di processare centinaia di
migliaia di pagine in parallelo. Allo stato attuale, i dati raccolti da Caffeine occupano 100
milioni di Gigabyte di memoria in un unico database con una velocità di aggiornamento di
centinaia di migliaia di Gigabyte al giorno. Abilitare i computer per capire la lingua rimane uno
dei problemi più difficili in intelligenza artificiale. L’obiettivo di un search engine è quello di
restituire i migliori risultati per la ricerca, ragion per cui la comprensione della lingua riveste un
ruolo assolutamente fondamentale, soprattutto per quanto concerne i sinonimi. Google, come altri
motori, si sta evolvendo per cercare di fornire soluzioni con risultati che si avvicinino sempre di
più ai desideri degli utenti. Per questo, durante l’elaborazione della query, vengono considerati
anche i sinonimi, attraverso sofisticati algoritmi algebrici e matematici. Tali mutamenti rendono
più difficile l’attività SEO, dato che vengono sempre più prese in considerazione variabili
aleatorie non direttamente legate alla struttura del sito web. Ciò non deve comunque spaventarci,
perché, con il passare del tempo, gli algoritmi miglioreranno e si evolveranno in maniera
esponenziale, e con essi anche le nostre capacità di individuazione delle tecniche per ottenere
una migliore e corretta indicizzazione delle pagine web e dei contenuti. Un recente studio
effettuato da ricercatori di Google (Anne Aula, Rehan M. Khan e Zhiwei Guan) spiega proprio
come il cambiamento delle abitudini di ricerca renda più arduo il compito dei motori di ricerca
nel fornire risposte esatte.

NOTA

Questo è il link della pubblicazione:


tinyurl.com/Abitudini-ricerca

Si può quindi constatare come Google sia in grado di identificare le situazioni in cui qualcuno
potrebbe faticare a trovare qualcosa e, in tal caso, il motore di ricerca potrebbe tentare di offrire
utili suggerimenti. Numerosi sono i brevetti resi pubblici da Google (patft.uspto.gov): i soggetti
più attenti e curiosi potrebbero ricavare valide informazioni da essi per migliorare le proprie
pratiche SEO.
Dal mio punto di vista, è importante ricordare Caffeine (anche se è stato rilasciato nel 2010),
perché è uno dei primi celebri cambi di algoritmo ad aver avuto un nome pubblico, che ha poi
funzionato anche come leva di marketing. I SEO di tutto il mondo conoscono i nomi degli
aggiornamenti (Penguin, Panda, Hummingbird ecc.), che restano così impressi nella mente degli
addetti ai lavori, anche se poi il loro funzionamento può non essere trasparente. Un elenco
aggiornato con le modifiche pubbliche agli algoritmi di Google si può trovare all’indirizzo
http://bit.ly/algoritmi-pubblici.

NOTA

Le penalizzazioni inflitte dai motori di ricerca e la definizione di cosa sia considerato spam
saranno tematiche ampiamente affrontate nei prossimi capitoli.

Instant Preview, My Answers (ex Search, plus Your World),


Knowledge Graph e le novità di Google
Abbiamo già accennato all’evoluzione dei motori di ricerca: in questo scenario Google ha
introdotto interessanti novità. Partiamo dal Real Time Search, algoritmo che consente di trovare
contenuti freschi provenienti da social network e blog. È una novità interessante soprattutto in
ambito SEO. In questo modo gli utenti possono trovare informazioni utili in base alla query
ricercata correlandole alle conversazioni e alle informazioni racchiuse nei principali social
network. Dylan Casey, product manager di Google Search, ha spiegato l’utilità del real time con
queste parole: “Per spiegare l’utilità del tempo reale mi piace raccontare un aneddoto: l’altro
giorno mi sono svegliato e ho scoperto che a casa mia mancava l’elettricità. Volevo sapere se si
trattava di un problema mio o di un guasto generalizzato. Con una ricerca tradizionale non avrei
potuto scoprirlo. Con il tempo reale e la geolocalizzazione, invece, ho individuato subito delle
conversazioni in corso in quel momento sui social network tra persone che abitano nei paraggi. E
così ho saputo che il blackout era dovuto alla caduta di un piccolo aereo a Palo Alto”. In questo
contesto troviamo Google Social Search, una funzionalità ancora in via di sviluppo e che è
cambiata molto negli ultimi anni che permette che permette di fornire risultati mirati prelevati dai
social network seguiti (https://developers.google.com/search/docs/data-types/social-profile-
links).
Gli attori che entrano in gioco sono:
• Google Profiles;
• Google Social Circle.

Il funzionamento è semplice: è necessario loggarsi in Google con il proprio profilo (Google


Profiles) e collegarvi gli account dei social network a cui si è iscritti ed eventuali feed che si
seguono in Google Reader. In questo modo si crea il Social Circle, ovvero l’insieme dei risultati
sociali prelevati dagli utenti che si seguono. Al momento della ricerca ci verranno mostrati in
modo opportuno i risultati prodotti da questo mix derivato dal “cerchio sociale”. In tal modo
condividiamo un link attraverso i nostri account sociali (ciò potrà essere mostrato nelle ricerche
degli utenti collegati al Social Circle). Nel marzo 2011 (e nel gennaio 2012 con Search, plus
Your World, ora inglobato in My Answers, in ordine cronologico) Google ha aggiornato gli
algoritmi di Social Search: con la nuova versione i risultati sociali verranno amalgamati con
quelli provenienti dalle ricerche “naturali”, conferendo maggior peso ai contenuti condivisi.
Inoltre, il Social Search è perfettamente integrato con Google+ e con le sue nuove pagine
business. A questo proposito, il comunicato ufficiale dal blog italiano di Google recita:

Oggi facciamo un ulteriore passo in avanti, dandovi la possibilità di visualizzare ancora


più informazioni relative alle persone che vi interessano, che le postino su YouTube, su
Flickr, sul loro blog o su un sito web. I risultati social saranno ora visibili insieme agli
altri risultati in base alla rilevanza e non più unicamente nella sezione collocata nella
parte inferiore, come è avvenuto finora. Questo significa che potrete visualizzare ancora
più informazioni provenienti dalla vostra cerchia di web-amici e colleghi, con le note sotto
i risultati che hanno condiviso o creato.

Tra le caratteristiche più interessanti, possiamo notare:


• collegamento facilitato tra gli account di Google;
• possibilità di visionare, tra i risultati di ricerca, foto e note per una specifica fonte ripresa
da Google Social Search;
• possibilità di vedere in tempo reale i link condivisi dalle persone connesse alla nostra rete
(Social Circle).

Figura 1.10 - Esempio di ricerca con Social Search.

Proprio in merito alla ricerca sociale e al Semantic Web, Google ha annunciato My Answers,
reso disponibile anche in Italia nel dicembre 2013, che integra la Social Search e Google
Now. My Answers introduce diverse funzioni:
• risultati personali: grazie ai collegamenti di Google+, è possibile ottenere informazioni
dettagliate partendo dai post e dalle foto della nostra cerchia di collegamenti;
• profili nella ricerca: attraverso le nuove funzionalità di Google sarà possibile trovare una
persona partendo dalla nostra rete di contatti di Google+;
• persone e pagine Google+: se cerchiamo un particolare argomento, potrebbero apparire
nel lato destro dei risultati di ricerca le persone che su Google+ stanno discutendo su
questo specifico tema. Ciò dovrebbe aiutare a scoprire nuove comunità e persone che
discutono dei temi di nostro interesse.

My Answers (ex Google Search, plus Your World) permette di ottenere risultati di ricerca
determinati non più soltanto dalla pertinenza del contenuto, ma anche dal grado di trust, autorità e
connessioni sociali con le persone che fanno parte della nostra cerchia su Google+ (come
illustrato nella Figura 1.11).
Figura 1.11 - Esempio di SERP con Google Search.

L’evoluzione del Social Search dimostra che l’influenza dei social network cambierà anche le
ricerche e il modo di reperire le informazioni: le connessioni sociali porteranno a generare
risultati globali, quindi anche la SEO si evolverà per permetterci di ottenere risultati di qualità
sempre maggiore (come illustrato durante la trattazione di questo libro).
Proseguendo, troviamo Google Instant: mentre digitiamo, una funzionalità di ricerca fornisce
frasi e parole correlate, che ci permettono di definire meglio ciò che vogliamo trovare
(recentemente disponibile anche per il mondo Mobile). Infine, tra le ultime novità annoveriamo
Knowledge Graph, una nuova caratteristica di ricerca introdotta da Google.
Alla base vi è l’idea di rendere il motore di ricerca un elemento più vicino agli interessi degli
utenti, che permetta di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive,
città, edifici, personaggi storici, opere d’arte, introducendo concetti sempre più vicini al Web
Semantico.
Le features più importanti di questo nuovo “algoritmo” ci permetteranno di riconoscere differenze
tra le diverse accezioni di un termine di ricerca, fornire un riassunto personalizzato per
comprendere la bontà dei risultati prodotti da una determinata query e procurare informazioni
aggiuntive su persone e personaggi. Tutte queste innovazioni cambieranno il modo di utilizzare il
web e per tale motivo anche la SEO si dovrà adattare a tali mutamenti.
Figura 1.12 - Google Knowledge Graph.

Google Panda, Penguin Update, Google Hummingbird, Ex


Google +1, RankBrain e la rivoluzione dell’algoritmo
In questi ultimi anni, Google sta apportando numerose modifiche ai suoi algoritmi, come abbiamo
avuto già modo di osservare, sia per combattere contro lo spam, e quindi fornire risultati
qualitativamente migliori, sia per non perdere terreno nei confronti dei principali social network.
In questo contesto troviamo Google Panda (Big Panda, annunciato il 24 febbraio 2011), in onore
di uno degli ingegneri che hanno collaborato a questo progetto, che ha come scopo principale
quello di penalizzare siti di dubbia utilità o di spam. L’aggiornamento messo in atto dal colosso
Google andrà a influire per circa il 15% sul volume complessivo delle ricerche e permetterà di
ridurre le classifiche per i siti di bassa qualità, quelli, cioè, a basso valore aggiunto per gli utenti
(per esempio, quelli che copiano i contenuti da altri siti).
Nello stesso tempo, Google Panda fornirà un miglior posizionamento per i siti di alta qualità,
cioè per le pagine caratterizzate da contenuti originali e di informazione. Alcune delle accortezze
da mettere in atto per “contrastare” tale aggiornamento, che saranno ampiamente approfondite nei
successivi capitoli, sono le seguenti:
• creare sempre contenuti freschi e interessanti;
• curare la forma e la sintassi;
• evitare di copiare contenuti o articoli;
• cercare di limitare la pubblicità o i banner nelle proprie pagine;
• applicare le normali pratiche White SEO.
Insomma, creare contenuti validi e che siano di utilità per i vostri visitatori sarà un primo passo
per evitare di incappare in probabili penalizzazioni introdotte da questo aggiornamento.

NOTA

Google Panda è stato ufficialmente rilasciato in Italia il 12 agosto 2012 e ha colpito


principalmente siti di grosse dimensioni con contenuti duplicati (tipicamente aggregatori di
notizie) e che facevano un uso massiccio di pubblicità (più ADV rispetto ai contenuti).

Dai laboratori di Google è uscito Penguin Update (24 aprile 2012), un nuovo algoritmo entrato
di recente in azione; esso “penalizza” i siti web che sfruttano tecniche definite “web spamming”.
In particolare, le tecniche ritenute dannose dall’algoritmo sono il keyword stuffing e il link
spamming (a settembre 2016 Google Penguin è diventato "Real Time").
Google non si è limitato ad apportare modifiche per combattere lo spam, ma ha introdotto novità
in stile “social” per contrastare il successo di social network come Facebook e Twitter e
combattere l’insuccesso di Google Buzz (ex social network di Google). Tra queste abbiamo già
citato My Answers (ex Google Search, plus Your World) e Google Social Search, che si sta
evolvendo sempre più. Google+1 (sia come social network sia come “ex pulsante di gradimento”
– ex perché non funziona più questa caratteristica sulle SERP) offriva la possibilità agli utenti di
votare sia pagine web presenti nei risultati di ricerca, sia annunci AdWords. In questo modo, le
persone collegate alla nostra rete sociale potranno vedere le nostre preferenze.
Tra le ultime novità in casa Google troviamo, inoltre, Hummingbird, il nuovo algoritmo di
ricerca che Google sta utilizzando dalla fine dell’agosto 2013, il cui nome deriva dalla sua
precisione e velocità. Hummingbird agisce sulle query conversazionali e ha effetti su circa il
90% di tutte le ricerche in Google. In particolare, Google ha affermato che Hummingbird presta
maggiore attenzione a ogni singola parola della query, assicurandosi che l’intera query venga
presa in considerazione. Lo scopo principale è quello di far emergere pagine che rispondano
all’intero significato della query, rispetto a pagine che rispondono solo ad alcuni termini.
Google lavora da anni per migliorare l’aspetto semantico e, con l’introduzione del Knowledge
Graph, la “mappa della conoscenza”, il cambiamento risulta davvero importante e significativo.
Assieme a Hummingbird rappresenta una svolta epocale per il motore di ricerca più
utilizzato al mondo. Infine troviamo RankBrain, il nuovo sistema di intelligenza artificiale e di
apprendimento automatico che viene sfruttato da Google per migliorare i risultati della ricerca.
Avremo comunque modo di approfondire gli aggiornamenti di Google nei prossimi capitoli.

NOTA

Per essere sempre aggiornati sulle ultime modifiche dell’algoritmo di Google, vi consigliamo
di visionare il link http://moz.com/google-algorithm-change.
Le evoluzioni degli altri search engine
L’evoluzione e i cambiamenti che influenzano il web sono repentini e continui. Per questo non
solo Google, ma anche gli altri motori di ricerca si evolvono e aggiornano di continuo i loro
algoritmi per produrre risultati coerenti e per inseguire gli enormi cambiamenti prodotti dal web
moderno.
Tra i più rilevanti possiamo citare:
• il recente accordo tra Facebook e Bing: utilizzando Facebook Search, è possibile
visualizzare risultati esterni powered by Bing. Inoltre, il motore di ricerca di Microsoft
sfrutterà i Like di Facebook per mostrare alcune informazioni aggiuntive all’interno delle
proprie SERP;

Figura 1.13 - L’evoluzione di Google e delle sue funzionalità.

• il lancio di Bing Social, con cui sarà possibile effettuare ricerche fra gli status updates di
Facebook e Twitter. Tale ricerca non si limiterà alle fan page, ma si estenderà anche ai
profili degli utenti Facebook che hanno deciso di rendere pubblica la propria bacheca.
Arriva Bing Network, un aggiornamento della piattaforma per la pubblicità, e Bing si
evolve per stare al passo con le evoluzioni tecnologiche con molti release e cambi di
algoritmo e una webmaster console sempre più ricca.
• Yahoo! annuncia nuove e interessanti evoluzioni, che produrranno risultati di ricerca
provenienti da video, news e social network;
• Search Alliance Yahoo! e Microsoft: recentemente per gli Stati Uniti e il Canada è stata
completata la transizione delle tecnologie Yahoo! verso le piattaforme Microsoft, sia per i
posizionamenti organici, sia per quelli a pagamento. Una parte significativa di questa
transizione ha comportato lo spostamento di tutti gli inserzionisti di Yahoo! Search
Marketing con un account in Nord America verso la piattaforma Microsoft Advertising
adCenter per la gestione delle campagne di Search Advertising;
• Yandex, motore di ricerca russo, aggiorna i propri algoritmi ed è in grado di leggere le
pagine fan e gli aggiornamenti provenienti da Facebook; Yandex, in base a recenti
dichiarazioni (dicembre 2013), escluderà i backlinks dai fattori di posizionamento di un
sito nei risultati; il 2 febbraio 2016 a Yandex ha annunciato il lancio del suo nuovo
algoritmo, Vladivostok, il cui funzionamento ha avuto effetto immediato sulle SERP;
• Ask.com, famoso motore di ricerca, ha visto la sua quota di mercato diminuire
drasticamente. Il presidente Doug Leeds ha affermato che ASK potrà offrire risultati di
ricerca a uno dei suoi concorrenti. Il sito web di proprietà di IAC è ancora una delle
destinazioni preferite del web, ma purtroppo esso non ha chance contro i principali
concorrenti, che stanno costantemente lanciando nuove funzionalità, come abbiamo appena
visto (http://tinyurl.com/ask-problemi).

Le novità non si fermano a quelle sopra elencate; ve ne sono molte altre in continua evoluzione. A
chi volesse restare in contatto con il mondo SEO e dei Search Engine consigliamo di visitare il
sito web ufficiale del libro www.libro-seo.it, in cui riporteremo aggiornamenti e interessanti
novità.

I principali motori di ricerca


I motori di ricerca hanno spesso basi di dati comuni o condivise per questioni di marketing o di
diritti. Molti motori di ricerca, infatti, si appoggiano a Google o ad altri competitor per i loro
servizi. Se nei risultati SERP compare:
• “Enhanced by Google”: significa che vengono forniti risultati proprietari miscelati con
quelli di Google;
• “Powered by Google”: significa che vengono forniti i risultati di Google.

Diamo ora un breve sguardo ai principali motori di ricerca:


• Google: è il più importante motore di ricerca; ogni giorno su di esso vengono effettuate
circa 250 milioni di ricerche. Come riferito poc’anzi, è nato nel 1998 dall’idea di due
giovani studenti universitari e nel giugno del 2000 contava già un database con circa 560
milioni di pagine. La sua peculiarità è rappresentata dalla rapidità di individuazione della
risorsa e dall’indicizzazione di numerosi file, tra cui pdf, doc e altri. Le directory di
Google sono composte da una lista di Open Directory Project (ODP e DMOZ);
• Yahoo!: è uno dei più famosi e noti portali a livello mondiale. Nacque come directory sul
web e divenne crawler motore di ricerca nel 2002; dal 2012 Yahoo! utilizza i dati forniti
da Bing di Microsoft;
• Overture fu il primo a introdurre la tecnica del PPC (Pay Per Click); ufficialmente, il
nome Overture in Europa è stato sostituito da Yahoo! Search Marketing. Comunque,
Overture Services Srl rimane il nome dell’entità legale, mentre Yahoo! Search Marketing è
il nome commerciale con cui essa opera;
• Ask Jeeves/Teoma: ha la capacità di rispondere a domande formulate in linguaggio
naturale, come se dall’altra parte del sistema ci fosse una persona. I risultati elaborati da
Ask Jeeves risultano provenire da almeno quattro database distinti, che comprendono le
risposte degli editori alle domande, i link sponsorizzati, i link a pagamento del Google
AdWords, i risultati del motore di ricerca Teoma (di proprietà dello stesso Ask Jeeves);
• Bing (Msn): è il motore di ricerca ufficiale sviluppato da Microsoft. Riscuote un discreto
successo ed è il diretto inseguitore di Google nei Paesi occidentali;
• AltaVista: un motore di ricerca creato dalla Digital per promuovere i prodotti
dell’azienda; dopo diverse acquisizioni, ha lentamente perso la sua popolarità. Riceve link
sponsorizzati da Overture, mentre ottiene i risultati della propria directory da LookSmart;
• AOL: fornisce link sponsorizzati attraverso Google Adwords; si basa principalmente sui
risultati di Google, anche se essi non risultano perfettamente allineati. La directory interna
viene fornita da ODP;
• HotBot: i risultati prodotti da questo motore di ricerca sono suddivisi principalmente in
tre categorie: top 10 risultati, Directory e General Web Result;
• Lycos: offre i risultati attraverso Lycos network, mentre la directory è gestita attraverso
Open Directory project e i link sponsorizzati provengono da Overture. Il 16 febbraio 2009
Lycos Italia ha chiuso quasi tutti i servizi, tra cui la mail, con questo annuncio: “Cari utenti
e cari potenziali utenti LYCOS, come già annunciato nelle settimane scorse sulla stampa e
sul nostro sito Internet, il 15.02.2009 abbiamo cessato la maggior parte delle nostre
attività e dei servizi relativi al nostro portale”;
• IWon: effettua il missaggio dei risultati attraverso diversi fornitori. Negli ultimi anni i
risultati sono passati da powered by Google a powered by ASK, mentre la directory di
shopping è gestita in collaborazione con dealtime.com e mindspark.com;
• Excite: Excite viene fondata nel 1994 da un gruppo di studenti della Stanford University.
A oggi esistono due diverse realtà che utilizzano il logo Excite. Negli USA il sito fa
ancora capo a IWon. Le attività europee, invece, sono passate di mano nel 2005, quando
Excite è stata acquisita da Ask.com. Nel 2007 il network europeo di Excite viene
acquisito dalla società GoAdv, che inizia il rilancio del marchio in tutta Europa.

Con particolare riferimento all’Italia, ricordiamo i motori di ricerca Arianna (oggi powered by
Google), Virgilio, i già citati iStella e Volunia, e Quag.
NOTA

Secondo una ricerca condotta dal Financial Times, sono cinque i motori di ricerca che
detengono quote di mercato importanti al di fuori del mercato occidentale:
• Seznam, per la Repubblica Ceca, con il 65%;
• Baidu, in Cina, con circa il 60%;
• Naver, per la Corea del Sud, con circa il 60%;
• Yahoo!, Giappone, con circa il 50%;
• Yandex, Russia, con il 46%.
Questi motori hanno alcuni elementi in comune: quattro di loro utilizzano alfabeti non latini,
quattro sono in Asia e uno in Europa orientale. Quindi, se dovessimo occuparci di campagne
SEO in questi Paesi, dovremmo prendere in seria considerazione i motori di ricerca sopra
menzionati.

Sul web esistono svariati motori di ricerca: per molti di essi risulta impossibile mantenere
aggiornati i database in maniera continua e periodica; un numero ingente di search engine fornisce
come visualizzazioni i risultati prodotti da alcuni dei principali motori di ricerca attraverso
SERP. Ogniqualvolta un utente effettua una ricerca con un motore, infatti, ottiene come risposta un
elenco ordinato. Differenti motori di ricerca potranno quindi produrre risultati diversi in base
alla stessa chiave di ricerca, mentre le directory possono ottenere importanti relazioni fornite
anche da terze parti. È allora fondamentale capire queste relazioni per aumentare il proprio
PageRank e ottimizzare nel miglior modo possibile il proprio sito web o quello dei propri
clienti.
La Figura 1.14 (che deve essere considerata solo indicativa, poiché gli accordi di marketing tra
le varie società possono mutare anche rapidamente) rappresenta le relazioni che intercorrono tra
i principali motori di ricerca.
Figura 1.14 - Le principali relazioni tra i vari motori di ricerca (potrebbero variare).

Nella Figura 1.15 (anche questa fotografa una realtà in rapido mutamento) si può notare come
Google e Yahoo! forniscano i loro risultati ad altri motori di ricerca.
Figura 1.15 - I risultati forniti da Google e Yahoo! (Potrebbero variare nel tempo)

Tali analisi ci servono per capire fino in fondo l’importanza di una corretta ottimizzazione del
sito web, in modo tale che un corretto e buon posizionamento si possa propagare in maniera del
tutto naturale anche all’interno di vari motori di ricerca.

NOTA

L’inserimento di un sito web all’interno di un motore di ricerca può avvenire in maniera


automatica grazie al passaggio dello spider. Per facilitare il processo di indicizzazione
possiamo fornire manualmente, o attraverso software automatizzati, l’URL del nostro sito
web ai vari motori. Per esempio, è facile inserire il nostro sito in Google compilando il
modulo presente all’indirizzo: http://www.google.com/addurl/?continue=/addurl
Dobbiamo fare una precisazione: la submission non garantisce, di per sé, il posizionamento. È
una tecnica che, pur essendo utile, serve solamente ad avvisare il motore di ricerca che “ci siamo
anche noi”. Esistono tutt’ora molte aziende che vendono la submission come servizio a
pagamento.
La Figura 1.16, molto ironica, serve a far capire che l’effettuazione di una submission, senza aver
strutturato un sito SEO ben fatto, non condurrà ad alcun risultato.

Figura 1.16 - Lo spider di Google (googlebot) non indicizzerà il nostro sito se questo non è stato implementato seguendo le
normali tecniche SEO.

Nell’Appendice B potrete trovare una tabella con i principali motori di ricerca che si rivelerà
molto utile per la vostra campagna SEO.
Conclusioni e punti salienti del capitolo
In questo capitolo abbiamo cercato di fare chiarezza su cosa sia un motore di ricerca, su come
funzioni (a grandi linee senza entrare nei dettagli) e come sia importante nella vita di tutti i giorni.

Cosa ricordarsi?
• Google ha molti algoritmi e rilascia periodici aggiornamenti, se vogliamo farei i “bravi
SEO” dobbiamo essere costantemente aggiornati e avere un occhio critico;
• in alcuni mercati non regna solo Google, prendiamo in considerazione altri Search Engine;
• la SEO non è una scienza esatta, va interpretata, capita e amata!

“Lo scienziato non è l’uomo che fornisce le vere risposte; è quello che pone le vere
domande.”

(Claude Lévi-Strauss)
Capitolo 2
Strategia, pianificazione e Web Marketing:
l’efficacia del SEM

Che cos’è il SEM?


Dopo aver compreso in cosa consiste la SEO (“Search Engine Optimization”) e perché è
importante applicarla alla sfera dei siti web, ci sembra opportuno introdurre ciò che potremmo
definire una conseguenza naturale della SEO: il SEM. La dicitura SEM designa il Search Engine
Marketing, ossia un ramo del marketing online che, riferito ai motori di ricerca, consente di
creare e indirizzare un certo numero di utenti verso il sito web. Va da sé, quindi, che si tratta di
una vera e propria forma di marketing, di pubblicità e di promotion sul web: attraverso il SEM si
può migliorare nettamente la visibilità di un sito. Così come il marketing tradizionale si incentra
sull’attività di promozione dei prodotti o servizi di un’azienda, nonché sullo sviluppo, il
monitoraggio e la fidelizzazione della clientela, allo stesso modo il Web Marketing, mediante il
“Search Engine Marketing”, fornisce la possibilità al gestore di un sito web di generare un via-
vai di utenti interessati a scoprire quel determinato sito. Ecco perché, nella nostra ottica,
l’affiancamento di SEO e SEM risulta vincente per ogni attività.

SEM: dove e quando?


Il Search Engine Marketing è quell’attività di marketing online che mira a generare una
convergenza di utenti realmente interessati al sito web su cui navigano: è scontato che la chiave
vincente è il godimento di un buon posizionamento attraverso la SEO e, appunto, un
miglioramento significativo della visibilità del sito web nei motori di ricerca grazie al SEM. La
finalità del SEM, quindi, è quella di condurre gli individui veramente motivati a un determinato
sito web. Lo possiamo considerare come una sorta di meccanismo di ottimizzazione off page
(relativo a scambio di link, promozioni e via dicendo). L’obiettivo principale non è quello di
indirizzare verso il sito web un traffico generico, bensì di portarvi traffico qualificato, cioè
visitatori realmente interessati a quei prodotti e servizi. Esistono diversi espedienti a cui è
possibile ricorrere per sfruttare appieno le potenzialità del SEM, apportando notorietà al proprio
sito: essi sono illustrati nei sottoparagrafi successivi.

Principali metriche SEO e SEM


Nel corso del libro utilizzeremo alcuni termini specifici per indicare metriche di riferimento in
base ad azioni SEO e SEM. Per tale motivo, cercheremo brevemente di raggruppare le principali
terminologie in questo paragrafo:
• Indicizzazione = rappresenta il numero delle pagine presenti negli indici di ricerca
(SERP) dei principali motori di ricerca;
• Link popularity e Backlink = serve a specificare il numero dei link che referenziano il
proprio sito web o una singola pagina;
• Impression = numero di volte che una pagina, un annuncio o un link vengono visualizzati;
• Click-Through Rate (CTR) = è il rapporto espresso in percentuale tra il numero di
impressioni (visualizzazioni su una pagina) di un banner o di un link e il numero effettivo
di clic effettuati su di esso;
• Conversion Rate (tasso di conversione) = è la percentuale di visitatori unici che hanno
effettuato l’operazione desiderata visitando un sito web o una pagina specifica;
• PageRank, Alexa Rank (e altri Rank) = sono indicatori creati per valutare la qualità di
un sito web (PageRank è riferito al motore di ricerca Google, per esempio);
• ROI (Return On Investment) = è il guadagno ricavato a seguito di un determinato
investimento di business;
• CPO (Cost Per Order) = metrica utilizzata per negozi di e-commerce;
• CPA (Cost Per Action) = serve a misurare azioni quali iscrizioni a network, newsletter e
via dicendo;
• eCPM (Cost Per Mille) = è dato dalla formula (Ricavi / Impressioni) * 1000. Tale
indicatore è utilizzato al fine di calcolare il costo relativo di una campagna pubblicitaria
veicolata da un media specifico;
• EPC (Earning Per Click) = Ricavi / N° Clic. Serve a indicare quanto un affiliato
guadagnerebbe se venisse pagato per clic;
• Landing Page = è la pagina che il visitatore raggiunge dopo aver cliccato su un banner
pubblicitario o su un link. Tipicamente, tale pagina ha una grafica che richiama la
pubblicità di origine ed è ottimizzata per specifiche parole chiave e per attrarre e
incuriosire il visitatore;
• PPC (Pay Per Click) = rappresenta un indice utilizzato nei circuiti di pubblicità online
come Google AdWords;
• KPI (Key Performance Indicators o KPI) = è un indice che monitora l’andamento di un
processo aziendale. I KPI aiutano, quindi, a definire e misurare i miglioramenti compiuti
per raggiungere gli obiettivi prefissati.

Web Marketing
Quando ci si imbatte nel termine Web Marketing (Internet Marketing), bisogna pensare a una
serie di azioni di marketing online, sul web, attuate da un’impresa che vuole analizzare il mercato
per poi instaurare relazioni di business con gli utenti. Avvalendosi di un potente strumento, quale
è Internet, l’azienda mira a stabilire piani di promozione (si pensi, per esempio, ai sempre più
diffusi banner) atti a captare nuovi potenziali consumatori, ma anche a fidelizzare quelli già
esistenti, dopo aver perlustrato il proprio settore di mercato e aver individuato concorrenti, target
di riferimento e possibili future aree commerciali da presidiare. È comunque buona norma
affiancare al Web Marketing quello classico, tradizionale: questi due rami del marketing
dovrebbero viaggiare di pari passo, nel senso che l’azienda, se dotata di budget adeguato,
trarrebbe un vantaggio economico e di posizionamento sul mercato notevole grazie alla
combinazione di entrambi. Ciò non sempre risulta essere un procedimento semplice e immediato,
poiché diversi sono gli elementi che caratterizzano il Web Marketing, da un lato, e il marketing
tradizionale, dall’altro. Mentre il primo, infatti, adotta una politica promozionale incentrata sulla
personalizzazione, costruita ad hoc, ovvero in relazione ai bisogni degli utenti, il secondo
presenta un’ottica di promotion indistinta, uguale per tutti i visitatori; di conseguenza, il prezzo
dei prodotti o servizi è determinato dalla clientela, nel caso del marketing online, e dall’azienda
stessa nel caso del marketing classico. Un altro fattore distintivo risiede nel fatto che nell’attività
promozionale sul web, a differenza di quella tradizionale, i navigatori sono raggiunti in via
diretta, attraverso un computer e il collegamento a Internet. Non bisogna tralasciare un ulteriore
aspetto fondamentale: la tipologia di promozione. Se il Web Marketing vanta una strategia pull,
dove è l’utente medesimo, soggetto attivo, a essere attratto dalla pubblicità online (come banner o
link), il marketing tradizionale è caratterizzato da una strategia push, dove l’utente, soggetto
passivo, è, oseremmo affermare, costretto ad assorbire ogni forma pubblicitaria di massa (esempi
validi possono essere la televisione e la stampa). L’evoluzione di Internet e del web è frenetica,
nuovi canali di comunicazione nascono e possono essere quindi utilizzati per attività di
promozioni online. Network online, tv digitali, social media, Streaming on the Web sono alcuni
esempi, a questo proposito, in cui è possibile imbattersi durante una campagna di marketing
online. In tale contesto si posiziona il Cluetrain Manifesto, nato nel 1999, un programma
composto da 95 punti, che ha spinto molti dirigenti aziendali a rivedere i canoni dei loro modelli
di e-business. Si tratta di un manifesto per la comunicazione di impresa nel mondo online: il
Cluetrain Manifesto cerca di uniformare il linguaggio e le tecniche di marketing da sviluppare in
un contesto web. Tra i punti salienti di questo nuovo linguaggio, che tenta di trasformare le
esigenze e i bisogni delle aziende che si affacciano al mondo online, troviamo i seguenti:
• il mercato online conosce molto spesso i prodotti meglio delle aziende che li producono.
Con Internet non ci sono segreti;
• se una cosa è buona o cattiva, i clienti comunque lo dicono a tutti;
• le aziende devono scendere dalla loro torre d’avorio e parlare con la gente con cui
vogliono entrare in contatto;
• le Pubbliche Relazioni non si relazionano con il pubblico. Le aziende hanno una paura
tremenda dei loro mercati;
• le aziende dovrebbero rilassarsi e prendersi meno sul serio. Hanno bisogno di un po’ di
senso dell’umorismo.

Questa lunga serie di linee guida, che hanno già più di dieci anni di vita, è ancora molto valida e
deve far riflettere le aziende sui mutamenti che dovranno apportare per rendere forti le loro
campagne di Web Marketing in un mondo, quello di Internet, in continua evoluzione. Occorre
cercare di ideare e concepire prodotti e servizi che entusiasmino gli acquirenti affinché essi ne
parlino spontaneamente. È quindi plausibile pensare il futuro del Web Marketing come una serie
di prodotti o servizi al cui interno sia racchiusa l’idea di marketing.
Figura 2.1 - Gerarchia nell'Online Marketing

Web Marketing strategico: i fattori di successo


Tenendo sempre presenti i presupposti appena descritti, è ora opportuno osservare l’impronta di
un valido ed efficace piano di Web Marketing. I passi principali da compiere per attuare una
strategia vincente di Web Marketing possono essere così elaborati:
• determinazione degli obiettivi e definizione di una strategia: prima di procedere alla
redazione di un qualsiasi studio aziendale, è assolutamente necessario prefiggersi
determinati scopi o obiettivi, al fine di avere le idee chiare e aumentare le probabilità di
raggiungere le finalità preposte, seguendo uno schema logico preciso;
• osservazione attenta e minuziosa della domanda del mercato e della concorrenza, sia
attuale, sia soprattutto potenziale, vale a dire di quei concorrenti che, nel momento in cui
ci si appresta a elaborare il piano di marketing, non sono ancora tali, ma potrebbero
diventarlo nel breve/medio termine;
• una volta captati i bisogni della clientela, è doveroso procedere a una loro segmentazione
sulla base delle relative differenti necessità, in modo tale da soddisfarli e
contemporaneamente apportare vantaggio competitivo all’impresa. Solitamente si
considerano fattori demografici (per esempio, la nazionalità del cliente), geografici (Stato,
regione, Paese e così via), sociali, economici e attitudinali (il comportamento e
l’atteggiamento dell’utente nei confronti di una determinata marca, del prezzo, del rapporto
value for money (qualità/prezzo), la politica promozionale, l’assistenza;
• decisione strategica del target: bisogna, a questo punto, individuare il segmento del
mercato verso il quale orientarsi. Un consiglio potrebbe essere quello di valutare due
alternative: o puntare su una segmentazione, per così dire, “personalizzata”, accurata,
offrendo prodotti/servizi rivolti a una determinata sfera di consumatori, o mirare a una
segmentazione “neutra”, nel senso di rivolgersi alla clientela con maggiore attenzione al
rapporto value for money, proponendo prodotti/servizi di base, privi di dettagli o di
marca;
• stima del potenziale di vendita e di eventuali rischi a essa connessi, nonché le operazioni
di calcolo di costi e ricavi;
• posizionamento del prodotto/servizio: compito dell’impresa è ora la scelta di un sito
adeguato a presentare la produzione e la commercializzazione dei beni aziendali: esso
deve, tra le altre cose, essere coerente con l’immagine dell’azienda e con i
prodotti/servizi offerti, potersi distinguere dai siti web della concorrenza, apparire
funzionale e di immediata intuizione alla clientela.

Figura 2.2 - Esempio di piano ciclico di Web Marketing.


L’attuazione consapevole del piano di Web Marketing è fondamentale per raggiungere un ROI e
un tasso di conversione soddisfacenti. Il ROI (Return On Investment) denota l’indice in grado di
calcolare quanto, del budget investito in pubblicità, ha fruttato in termini di reddito: in altre
parole, il ROI consente di capire quanto utile o quante vendite si sono ricavate dalla campagna
pubblicitaria attuata. Per ottenere risultati positivi, quindi, è opportuno seguire in modo astuto e
coerente un’adeguata pianificazione di Web Marketing. Lo stesso discorso vale se ci si pone
come obiettivo l’ottenimento di un buon tasso di conversione, ossia l’indice che mette in luce la
differenza fra il numero di visitatori che osservano le pagine di un sito web per poi chiuderle e
disinteressarsene e il numero di visitatori che, invece, dopo aver visionato il sito web,
approfondiscono la ricerca rimanendo sul sito. A tale proposito, potrebbe rivelarsi interessante
organizzare la landing page (o pagina di destinazione, che si apre quando l’utente, per esempio,
clicca su un banner) in maniera strategica. Trattandosi della pagina che si apre immediatamente
quando un utente clicca su un banner o comunque su un messaggio pubblicitario, essa dovrebbe
sempre essere caratterizzata da alcuni elementi:
• catturare l’attenzione da subito mediante l’utilizzo di un titolo accattivante;
• mantenere viva l’attenzione del lettore attraverso una grafica sorprendente e un linguaggio
chiaro, preciso e semplice;
• contenere testi concisi, essenziali ed esaustivi allo stesso tempo; meglio evitare passaggi
lunghi, sofisticati e soprattutto dispersivi, perché l’utente tenderebbe a distrarsi e a
chiudere la pagina.

Tutte le azioni appena viste servono a creare un valore aggiunto per l’azienda che cerca di
proporre i propri servizi sul web. Inoltre, tra le varie strategie emergenti, possiamo annoverare:
• inserimento di video o streaming su canali web online, per esempio YouTube;
• presenza dell’azienda e dei prodotti nei principali social network e acquisti di spazi
pubblicitari su di essi (per esempio, Facebook);
• Cloud Computing, E-mail Marketing, Viral Marketing e Mobile Marketing.

Quelle elencate sono solo una minima parte delle azioni che possono essere intraprese durante
una strategia e pianificazione di un processo di Web Marketing. Bisogna sempre ricordarsi che il
cliente (sia esso un singolo individuo, un’associazione o un’azienda) è un patrimonio
inestimabile per l’azienda. La fidelizzazione dell’utente è uno dei passi da monitorare sempre
(newsletter, feed rss): un cliente insoddisfatto tipicamente tramanda la notizia ad altre otto-dieci
persone. Un cliente soddisfatto potrà portare feedback utili al nostro piano di marketing; per tale
motivo dobbiamo puntare su:
• pubblicità online;
• pubblicità offline;
• multicanalità;
• pubbliche relazioni (fiere, eventi, convegni);
• E-mail Marketing;
• Direct Marketing;
• web analytics (analisi delle utenze).
Non dobbiamo, inoltre, dimenticarci che il Web Marketing moderno e le strategie di SEM
dovranno sfruttare anche i social media come nuovo canale comunicativo. Per questo motivo è
necessario seguire buone regole e netiquette durante la comunicazione sul web, tra cui:
• ascoltare prima di parlare;
• fornire valore aggiunto;
• non spammare;
• non essere permalosi;
• rispondere e condividere contenuti interessanti;
• essere collaborativi.

Figura 2.3 - L’importanza del cliente nel Web Marketing (fonte: eCircle).

Ovviamente, non esistono assiomi che indichino quale sia la via corretta da seguire; ogni caso va
trattato separatamente e contestualizzato, ma questa è la giusta base da cui partire per cercare di
organizzare una buona campagna di Web Marketing.

NOTA

Il Web Marketing moderno deve essere capace di adattarsi ai continui mutamenti. Per
esempio, un sito web dovrebbe essere fruibile da cellulari e palmari, le applicazioni per PC
dovrebbero essere “tradotte” per altre piattaforme e sistemi operativi come Android e via
dicendo. La pubblicità non deve essere fine a se stessa, ma deve creare un valore aggiunto
per l’azienda e soprattutto per i clienti.
Branding o direct response?
Quando applichiamo le nostre risorse al Web Marketing, la prima azione da effettuare potrebbe
essere la ricerca dell’aumento di visibilità del marchio aziendale (brand awareness), in modo
tale da suscitare curiosità e riconoscibilità da parte dei potenziali clienti. Lo scopo che ci si pone
è quello di attribuire al brand un’associazione così forte e immediata nella mente del
consumatore, tale per cui ogni volta che egli vede quel marchio, lo associa istantaneamente a un
certo oggetto e/o a un certo livello di qualità. Tale meccanismo comporta un processo medio-
lungo: la “brand association” implica uno studio prestabilito e la messa in atto di determinati
fattori, perciò i risultati emergono in un lasso temporale abbastanza lungo. Viceversa, per cercare
di ottenere un riscontro immediato di visite e quindi anche di possibili clienti, si cerca di attuare
una campagna di direct response. L’obiettivo è quello di invogliare l’utente a cliccare su banner o
link per condurlo verso il nostro sito web. Il fine ultimo è l’ottenimento di visite immediate in
poco tempo per cercare di instaurare fin da subito un contatto diretto con l’utenza. Il Click-
Through Rate è una misurazione adatta per questo tipo di campagna, perché si correla
direttamente all’obiettivo.

Figura 2.4 - Branding e Direct Response a confronto.


NOTA

Il Click-Through Rate, o CTR, è un tasso che misura l’efficacia di una campagna


pubblicitaria online. Per esempio, se un banner viene visualizzato dieci volte e cinque
persone fanno clic su di esso, il CTR risulterà del 50%.

Come dimostra una recente ricerca condotta da SEMPO (State of Search Marketing 2014), il
brand impact risulta essere una metrica poco utilizzata. Da ciò deriva la difficoltà di tracciare la
campagna di brand attraverso l’utilizzo dei motori di ricerca.

NOTA

Microsoft Advertising recentemente ha chiesto alla comunità “pubblicitaria” di adottare il


Dwell Rate come unità di riferimento per la misurazione di campagne di digital branding e di
riservare l’impiego di Click-Through Rate (CTR) e page impression alle sole campagne
direct response. Per maggiori informazioni:
http://tinyurl.com/microsoft-brand

Marketing Virale
Il primo e immediato esempio di utilizzo del SEM, mediante tecniche di Social Media
Marketing (marketing che, sfruttando il canale dei media, diffonde materiale curioso tra i
visitatori, incrementando quindi la visibilità di un sito), è sicuramente il cosiddetto Marketing
Virale. Si tratta di una sorta di passaparola, poiché gli utenti, di loro spontanea volontà, si
trasmettono documenti, foto, video o quant’altro ritengano divertente: detto diversamente, essi
sono mossi da un interesse comune, che diffondono tra loro servendosi del web (si pensi, per
esempio, ai video condivisi su YouTube). Conseguentemente, ciò che è ritenuto originale o
curioso si propaga in rete in tempi molto brevi e apporta un numero sempre più consistente di
individui al sito web contenente l’oggetto di interesse. Un altro fattore vantaggioso è l’E-mail
Marketing: attraverso la posta elettronica si possono promuovere e pubblicizzare testi, video,
prodotti/servizi in ambito sia commerciale sia ludico. È una tipologia di marketing assolutamente
valida, poiché permette di monitorare e fidelizzare la clientela o gli utenti interessati ai contenuti
di un sito web: affinché questo sistema risulti efficace, è necessario considerare la redemption,
vale a dire sapere chi, tra i vari destinatari di posta elettronica, ha ricevuto la mail e l’ha scartata
a priori, chi l’ha ricevuta e l’ha letta, ma si è poi dimostrato disinteressato, e chi l’ha ricevuta,
l’ha letta e si è incuriosito. A differenza della posta ordinaria, l’E-mail Marketing è meno
costoso, è diretto e immediato e consente di catalogare i destinatari realmente interessati a ciò
che si propone sul web mediante le cosiddette “conferme di ricezione”, che permettono al gestore
del sito di rilevare il numero di aperture delle mail piuttosto che gli esiti positivi o negativi. Un
ulteriore impiego del SEM si esplicita nel social bookmarking, dove sono catalogati ed
etichettati contenuti vari condivisibili dagli utenti, e nell’Article Marketing, a scopo
promozionale, effettuato tramite la diffusione di articoli. Vanno ricordati anche i sempre più
famosi social network, leader fra tutti Facebook: come si evince dal vocabolo “network”, sono
proprio queste reti che consentono intrecci e propagazione di notizie, eventi e materiali curiosi
gestiti dagli utenti. Ultimi, ma non meno importanti, i Consumer Generated Media (CGM)
inglobano opinioni, consigli e suggerimenti degli utenti, riferiti, in particolare, a prodotti/servizi
(si pensi a blog o forum): per l’amministratore del sito si rivela di estrema importanza
monitorare i CGM, così da poter progettare o modificare adeguatamente aspetti del proprio sito
web.
Si è quindi potuto constatare quanto possa essere utile e opportuno applicare il SEM; tuttavia,
bisogna precisare che le campagne di Search Engine Marketing richiedono spesso un notevole
investimento di denaro, pertanto non sempre esso può essere preso in considerazione: infatti, se,
per esempio, volessimo pubblicizzare il nostro sito web su Virgilio, dovremmo versare una certa
somma affinché esso possa comparire in forma pubblicitaria nella sezione desiderata.

Content Marketing: comunicare senza voler vendere


Ma cos’è il Content Marketing? Secondo Joe Pulizzi, un fondatore del movimento di Content
Marketing: “Il Content Marketing è l’arte di comunicare con i propri clienti esistenti e potenziali,
senza vendere nulla! È marketing senza interruzioni! Invece di cercare disperatamente di piazzare
i vostri prodotti e servizi, voi decidete di fornire informazioni che soddisfano e danno valore al
vostro interlocutore. L’essenza di strategie di Content Marketing sta nella convinzione che se noi,
come azienda, diamo valore consistente, continuativo e informativo ai nostri interlocutori, loro ci
premieranno sia in termini di business che di fedeltà”. In questo contesto riscontriamo nuovi e
vecchi fattori, che si amalgamano dando vita a una nuova strategia comunicativa. Non serve solo
ascoltare l’utente, ma è opportuno anche proporre idee e concetti liberi senza mascherarli dietro
attività “a scopo di lucro”. All’interno del Content Marketing, come ci suggerisce il nome
stesso, troviamo tre fattori fondamentali: contenuti originali, ottimizzazione nei motori di ricerca
(SEO) e social media. La gente deve trovare il nostro sito web (SEO), deve essere informata,
istruita e coinvolta (contenuti) e deve avere la possibilità di esprimere la propria opinione
(social media). L’evoluzione del web non smetterà mai di crescere; per questo motivo la sola
SEO o il solo SEM non sono ormai più sufficienti per creare valore aggiunto. Per tale motivo,
questa nuova strategia di comunicazione che si avvale di diversi strumenti messi assieme (che
saranno ampiamente illustrati all’interno di questo libro) potrebbe essere la formula vincente per
le strategie di Internet Marketing del futuro.

Visibilità naturale e visibilità a pagamento


Molto spesso si fa confusione tra la possibilità di posizionare in modo naturale un sito web
(SEO) e la capacità di attuare azioni a pagamento per aumentarne la visibilità (SEA, Search
Engine Advertising). Cerchiamo di chiarire questo scenario (si veda la Figura 2.1).
NOTA

Dobbiamo precisare che durante la trattazione di questo libro si è preferito utilizzare una
netta distinzione tra i termini SEO (utilizzato per indicare il posizionamento organico nei
motori di ricerca) e SEM (Search Engine Marketing al cui interno troviamo aspetti SEO e
SEA) per evitare fraintendimenti. Nell’ambito del Search Marketing, molto spesso
l’acronimo SEM viene anche utilizzato per indicare tutte le azioni di visibilità sul web, che
comprendono, tra le altre cose, azioni SEO e SEA (si veda la Figura 2.1).

Un esperto SEO, per il lavoro che compie, proporrà al proprio cliente una parcella. Le azioni che
egli intraprenderà saranno molteplici e tipicamente non dovrebbero richiedere investimenti di
denaro: potremmo ipotizzare che dovranno essere fatti interventi di modifica delle pagine,
inserimento in canali (gratuiti) e altre azioni che generalmente non comportano il pagamento di
alcuna cifra. Proprio per questo, la SEO sta avendo molto successo: grazie all’impegno, allo
studio e alla tenacia, è possibile ottenere ottimi risultati solo con un investimento in termini di
tempo (anche se il tempo è denaro). Questa visibilità “naturale” è fondamentale per posizionare
correttamente un sito web o una pagina online, poiché, come abbiamo accennato e come vedremo,
la struttura del sito, le tecniche SEO adottate e tutti i fattori on page e off page sono importanti
per una corretta indicizzazione. Nel contempo, per rafforzare la propria posizione sul web, è
possibile operare azioni a pagamento, come per esempio l’acquisto di link (non ben visto da
Google), l’apertura di spazi pubblicitari su siti rilevanti o l’adesione a campagne di Pay Per
Click come Google AdWords. Queste azioni di Search Engine Marketing, abbinate a strategie di
Web Marketing, possono essere molto efficaci, ma hanno costi a volte molto elevati, motivo per
cui non tutte le aziende sono in grado di sostenerli. Inoltre, dobbiamo soffermarci su un punto
significativo: molto spesso l’azione a pagamento ha risultati brillanti nel periodo in cui viene
intrapresa, ma, appena termina la visibilità, scompare. Per questo è fondamentale avere una forte
sinergia tra visibilità naturale e a pagamento, in modo da fondere i profitti e ottenere risultati
duraturi nel tempo.
Figura 2.5 - Esempio di visibilità naturale e a pagamento.

NOTA

Una recente ricerca di Rand Fishkin di SEOmoz ha constatato come nel 2016 negli Stati Uniti
siano stati investiti circa 2,5 miliardi di dollari in attività SEO e 22 miliardi di dollari nel
Pay Per Click. Analizzando i dati, si è notato che i risultati organici hanno raccolto circa il
79% dei clic contro il 21% prodotto dagli annunci a pagamento presenti sulle SERP. Questo
dimostra l’importanza delle campagne SEO e soprattutto indica come una sinergia tra SEO e
SEM possa condurre a risultati concreti e vincenti.

Un semplice modello SEO e SEM


Abbiamo individuato, pur non dilungandoci molto, le principali caratteristiche che deve avere un
progetto di Web Marketing SEM abbinato a strategie SEO. Cerchiamo ora di presentare un
modello semplificato in cui raggruppare tutte le principali azioni da compiere per avere sotto
controllo la nostra campagna di posizionamento.

Analisi di mercato e Web Analytics


La prima azione da fare è quella di analizzare il mercato e gli eventuali competitors, e vedere le
possibili soluzioni da adottare. Già in questa fase è opportuno adottare strumenti per il
monitoraggio delle azioni intraprese, come, per esempio, la Web Analytics per la raccolta dei
dati dei visitatori. Al fine di capire quale sarà il possibile target delle nostre utenze, risultano
necessari i KPI (Key Performance Indicators), che ci permettono di individuare il successo di
un’iniziativa sul web indipendentemente da quello che può essere il nostro business. I KPI si
devono basare su alcuni punti strategici, che comprendono aspetti sia tecnologici sia di business.
Inoltre, l’analisi dei dati è vantaggiosa per capire quali azioni intraprese hanno avuto successo e
su quali settori è opportuno puntare per migliorare il business nel web. L’analisi di mercato
online deve essere affiancata alle strategie di mercato tradizionali: tipicamente, i competitors si
conoscono; bisogna quindi capire come essi si muovono nel web, quali attività intraprendono,
quali mercati toccano, oltre a diversi aspetti strategici.

NOTA

Quasi sempre i competitors online hanno un corrispettivo a livello fisico.

Il principale problema legato all’analisi di mercato e ai competitors nel web consiste nel doversi
confrontare superando i confini territoriali del mercato. Dobbiamo tenere conto di competitors
dislocati in uno scenario virtualmente senza confini. Cerchiamo quindi di sintetizzare gli elementi
che dobbiamo considerare in un’analisi di mercato online:
• individuazione dei concorrenti online;
• analisi delle attività e degli strumenti utilizzati dai nostri competitors;
• analisi del comportamento del target di riferimento online;
• impostazione di strumenti per la Web Analytics (per esempio, Google Analytics);
• web trend e segmentazione del mercato di riferimento (Partitioning);
• definizione dei fattori di differenziazione rispetto alla concorrenza (Marketing mix).

Queste sono le principali attività che consigliamo di attuare per generare una corretta analisi di
mercato rivolta al web.

NOTA

Durante questa fase potremmo già individuare alcune keyword da utilizzare nelle nostre
campagne SEO.

Strategia e pianificazione
Come in tutte le attività, organizzare le idee e impostare una strategia è un punto cruciale per
cercare di ottenere i risultati desiderati. Anche in ambito SEO definire una strategia da seguire ci
permetterà di capire su quali aspetti puntare e soprattutto di individuare nel tempo le giuste
modifiche da apportare. Dobbiamo sempre ricordarci che i motori di ricerca evolvono, quindi
anche le tattiche e i piani devono essere modulati per essere flessibili e adattarsi a eventuali
cambiamenti. Iniziare ad attuare tecniche e azioni SEO senza una giusta pianificazione, oltre a
farci perdere tempo, potrebbe far svanire nel nulla azioni di successo. Ipotizziamo, infatti, di
avere messo in atto in una certa data una strategia, in un’altra data un’altra strategia SEO e così
via. Una di queste strategie ha prodotto i suoi frutti veicolando sul sito web ottimizzato un gran
numero di visitatori, ma emerge un problema: non sappiamo quale delle tecniche abbia prodotto
tali risultati. Da qui possiamo comprendere l’importanza di una pianificazione e di una strategia
corrette. La prima azione da seguire è l’individuazione del numero di interventi che dovremmo
apportare per la nostra campagna SEO. Se siamo professionisti SEO, ciò è fondamentale per
capire il numero di ore da dedicare al progetto e fornire al cliente un preventivo di budget
coerente. Per essere precisi, ci dobbiamo porre queste domande:
• è un sito nuovo o già presente? Come ben sappiamo, per posizionare un sito web ci
vogliono tempo e pazienza, e così anche per vedere i primi risultati; se un sito è già online
ed è stato precedentemente indicizzato, la nostra azione SEO potrebbe richiedere minor
tempo. Usiamo sempre il condizionale perché ogni progetto è differente, non è un assioma
assoluto;
• l’età del dominio? Sapere da quanti anni è online un dominio ci permette di individuare
quanti link di ritorno il sito ha ricevuto;
• il sito web da indicizzare deve essere multilingua? Ovviamente, se dobbiamo posizionare
un sito realizzato in più lingue, il tempo che impiegheremo per attuare le nostre strategie
sarà maggiore;
• che sito è? È fondamentale capire che tipo di sito web dobbiamo ottimizzare (o
eventualmente anche realizzare). È un blog? Un sito web personale? Un portale? Un e-
commerce? Tutte queste informazioni sono necessarie per comprendere gli strumenti da
adottare, eventuali tecnologie di programmazione da preferire rispetto ad altre e se
eventualmente è possibile sfruttare CMS o software open source.

Raccolti tali dati preliminari, possiamo farci una prima idea del tipo di lavoro che dovremmo
intraprendere. Questo, però, non è sufficiente: un altro passo consiste nell’individuare gli
obiettivi da raggiungere e le azioni da intraprendere per cercare di metterli in atto. Per esempio,
potrebbe essere comoda la creazione di una tabella in cui riportare l’azione eseguita, l’obiettivo
da perseguire e i risultati raggiunti. Attraverso questa operazione banale, possiamo monitorare le
azioni intraprese, scoprire quali azioni hanno avuto successo e quali invece non hanno prodotto
risultati. In tal modo, si migliora la strategia e ci si concentra sui punti carenti per cercare di
migliorarli.
Tabella 2.1 - Esempio di tabella azioni-obiettivi-risultati.
Figura 2.6 - Esempio di modello SEO e SEM.

Una volta compresa l’importanza di avere una nostra tabella in cui annotare le azioni che
intendiamo intraprendere e gli obiettivi prefissati, dobbiamo cercare di capire in modo più
preciso l’intervallo temporale in cui operare tali modifiche e ipotizzare un intervallo in cui esse
potranno portare i loro frutti. Infatti, bisogna essere sempre chiari con i clienti e far comprendere
loro che i tempi di realizzazione di un progetto SEO si basano su stime e deduzioni empiriche,
perciò i risultati si otterranno nel tempo. A questo punto abbiamo già tutta una serie di
informazioni che ci consentiranno di sviluppare un piano strategico del nostro progetto SEO. È
qui che nasce la sinergia tra SEO e Web Marketing: a nostro avviso, questi due concetti
dovrebbero essere sempre considerati e amalgamati (come già ampiamente illustrato), per far sì
che il progetto sia robusto e migliori nel tempo. Per il successo di una campagna SEO è
fondamentale conoscere il target dei navigatori e i loro bisogni, effettuando un’analisi di mercato
opportuna. Nel frattempo, per rafforzare le operazioni SEO attuate, potrebbe risultare
interessante intraprendere azioni di marketing sul web o SEM (Search Engine Marketing), come
pubblicità su siti web o campagne PPC (Pay Per Click). Possiamo notare, quindi, che, per essere
operativi a 360°, dobbiamo lavorare in sinergia con questi strumenti e avere ben chiara fin
dall’inizio la strategia da attuare, rimanendo coscienti del fatto che essa potrà essere modificata e
modellata in base alle azioni che svolgeremo.

Analisi interna
La successiva fase da prendere in considerazione nel modello SEO e SEM consiste nel
miglioramento dell’indicizzazione di un sito web o di una pagina agendo su fattori concreti, come
banner, codice HTML e modifiche al layout o alla struttura del sito. Queste ottimizzazioni on
page consentono di creare una sinergia con i motori di ricerca e di rendere i contenuti più
appetibili. Infatti, una buona struttura di navigazione, un corretto uso di link, un’organizzazione
appropriata dei nomi di file e un utilizzo di URL dinamici rappresentano elementi che potranno
giocare a nostro favore nel processo di indicizzazione di un sito web. Essi saranno ampiamente
analizzati nei prossimi capitoli e andranno a costituire un mattoncino importante nella nostra
strategia SEO.

Analisi esterna
Abbiamo già osservato l’analisi esterna (off page optimization), ma nei prossimi capitoli
studieremo le azioni da mettere in pratica per attuarla. Questa fase è importante perché ci
permette di creare quel valore aggiunto che autorizzerà il sito web che stiamo promuovendo a
mantenere un’indicizzazione duratura nel tempo. Molto spesso l’ottimizzazione interna è
sottovalutata dagli specialisti del settore, in quanto richiede molto tempo e spesso è difficile
individuare i canali o le metodologie da applicare per ottenere riscontri tangibili dell’operato
svolto.
La Link Popularity, cioè la popolarità di un sito web data dalla qualità e dalla quantità dei link
esterni che puntano al nostro sito web, e la Link Building, o meglio Link Earning, sono i due
principali fattori che agiscono direttamente sui fattori off page (bisogna prestare molta attenzione
dopo l’aggiornamento di Google Penguin anche nel mercato italiano). Il lavoro dell’esperto SEO
è quello di cercare di proporre notizie nuove, ottenere feedback da clienti e pubblicizzare il sito
web su forum, blog o social network. È un lavoro arduo e faticoso, che tuttavia con il tempo si
dimostrerà fruttuoso, soprattutto in termini di visibilità.

Campagna SEM
Abbiamo trattato in modo conciso ed efficace il Web Marketing e il SEM. Questa fase del
modello SEO deve essere eseguita per completare l’ottimizzazione esterna. Maggiori sono i
canali su cui puntiamo, maggiori saranno le probabilità di ottenere un feedback positivo. Essere
attivi nei social network, creare campagne di E-mail Marketing e Mobile Phone Marketing sono
tutte attività che completano il processo di visibilità aziendale. In questo contesto, troviamo il
Social Media Marketing (SMM) e la Social Media Optimization (SMO), settori potenzialmente
strategici per la pubblicità di siti web. Il compito della Social Media Optimization consiste
nell’elaborazione e nella pubblicazione di contenuti specifici, facendo uso di keyword. Si tratta
di materiale rivolto a un pubblico veramente interessato e coinvolto nella ricerca e/o lettura dei
contenuti in oggetto.

NOTA

Una delle tecniche più utilizzate nel SEA è il keyword advertising. Google AdWords è uno
degli strumenti più utilizzati in questo campo e consente di inserire i propri annunci per
determinate keyword nei risultati di ricerca di Google come link sponsorizzati. Non
dobbiamo confonderci con Google AdSense, che funziona esattamente in modo contrario: il
webmaster inserisce annunci del programma Google AdWords sul proprio sito web
(rispettando un rigido contratto) e, in base ai clic effettuati su tali annunci, può ottenere un
certo ricavo.

Analisi ed elaborazione dei risultati


Ecco la fase conclusiva, ma non per questo meno importante. Dobbiamo riuscire ad analizzare i
dati ottenuti e monitorare le azioni messe in atto per capire dove abbiamo raggiunto l’obiettivo e
dove no. In tal modo, possiamo procedere riapplicando il modello SEO e SEM per verificare
mancanze o solamente per migliorare un risultato ottenuto. L’analisi dei visitatori, il tempo di
permanenza sul sito, i referenti e la nazionalità sono fattori derivati dall’azione di web analysis
applicata nel primo punto del modello e arrivata ora alla sua fase ultima. Analogamente, se sono
state intraprese azioni di marketing di qualunque tipo, esse devono essere opportunamente
monitorate per ottenere i feedback sul lavoro effettuato. Per esempio, se abbiamo partecipato a
scambio banner, dobbiamo sapere quanti clic abbiamo ricevuto e in quale arco temporale; in
modo simile, ciò va eseguito per tutti gli scenari applicativi messi in atto. Questi dati ci faranno
capire la bontà delle azioni attuate e le eventuali contromisure da applicare. Soprattutto nei siti di
e-commerce dove il lead o la vendita di un prodotto o servizio sono i pilastri del business, è
fondamentale avere una figura dedicata all’analisi dei dati per capire, per esempio:
• perché un utente abbandona il sito (tasso di abbandono);
• perché un pulsante di un colore converte di più rispetto a un altro;
• quale è il comportamento di “navigazione” dell’utente;
• dopo quanti clic avviene la vendita;
• quanto influisce il tempo di caricamento di una pagina nel processo di acquisto.

Questi sono solo alcuni punti cruciali per comprendere il comportamento dell’utente e migliorare
l’esperienza utente. Il data analyst ricopre quindi un ruolo fondamentale nel processo di
marketing online (Ricordiamoci sempre che nella definizione classica SEM = SEO + SEA come
mostra la figura 2.1).

SEO e Inbound Marketing


Il marketing si è evoluto, così come l’arte di fare SEO. I nuovi principi del posizionamento nei
motori di ricerca non si basano più sul posizionamento “secco” di una keyword nella SERP,
bensì su una serie di azioni atte ad aumentare la visibilità e la reputazione del brand o del
prodotto. In questo scenario entra in gioco l’Inbound Marketing, il cui obiettivo è fare in modo
che sia l’utente a cercare l’azienda. Le nuove tecnologie hanno reso le tecniche invadenti del
marketing tradizionale (denominato Outbound Marketing) meno efficaci e più costose. Invece di
infastidire le persone con annunci televisivi, si possono creare video che potenziali clienti
vogliono vedere. Invece di acquistare spazi pubblicitari sulle pubblicazioni cartacee, si può
creare un blog che i potenziali clienti sottoscrivono (Feed RSS) e seguono.
L’Inbound Marketing cerca quindi di costruire delle relazioni tra l’azienda e i potenziali clienti
attirandoli con contenuti di valore, impegnandosi con loro sui Social Media al fine di convertirli
in opportunità di vendita, dopo che, nel tempo, hanno imparato a conoscere i prodotti e i servizi
dell’azienda stessa riconoscendola come una fonte attendibile.
La Figura 2.7 rappresenta un insieme di possibili azioni racchiuse nell’Inbound Marketing
moderno.

Figura 2.7 - Inbound Marketing (SEOMoz).


Con un impegno costante in Inbound Marketing, è quindi possibile migliorare sia il tasso di
conversione dei contatti sia la fidelizzazione dei clienti, perché i clienti fedeli sono più propensi
a raccomandare i prodotti e i servizi della vostra azienda rinnovando i loro abbonamenti o
acquistando aggiornamenti o nuovi prodotti. Sarà questa la nuova era del SEO moderno?
Probabilmente sì, perchè racchiude al suo interno tutte le peculiarità e le caratteristiche che
permettono di migliorare la visibilità e la reputazione sul web a 360°.

Perché stiamo facendo SEO?


Dalla prima edizione del libro a oggi sono passati quasi cinque anni e il mondo della SEO è
cambiato tantissimo. La problematica maggiore per chi lavora in questo settore è
l’aggiornamento. Molto spesso prendiamo come metro di riferimento Google, ma anche altri
player sono entrati in gioco e devono essere considerati. L’utente ha modificato le sue abitudini,
la visibilità è data da un connubio di tecnicismi, marketing e una sinergia tra gli algoritmi dei
motori di ricerca. Troppo spesso sentiamo dire che il contenuto è il pilastro fondamentale della
SEO e che un nuovo segnale di ranking è la scoperta del momento. Lavorare nel marketing, e in
particolar modo nella SEO, vuol dire provare, analizzare e sviluppare una strategia che porti i
risultati attesi. Non è quindi più possibile valutare la qualità dei contenuti senza considerare le
aspettative degli utenti. Per questo motivo ci stiamo sempre di più spostando verso un concetto di
SEO come Search Experience Optimization.
Per agire in questa direzione dobbiamo porci delle domande in base al nostro obiettivo:
• a che pubblico ci stiamo rivolgendo?
• quali potrebbero essere le principali fonti di traffico?
• cosa potrebbero cercare gli utenti sul nostro sito?
• la UX quanto conta ai fini della generazione del lead?
• stiamo facendo SEO a che fine?
• i nostri concorrenti come si comportano sul web?

È davvero importante avere una strategia e porre l’utente al centro del nostro processo di
ottimizzazione. In questa fase è altresì opportuno evitare di commettere errori che potrebbero
rallentare i nostri processi di visibilità sul web. Uno dei principali difetti dei SEO è l’ego, che
offusca la mente e soprattutto la capacità di ragionare in team. Non è detto che le pratiche o i
tecnicismi applicati in un settore producano gli stessi effetti in un altro settore; e non è
assolutamente da prendere per oro colato quello che viene scritto nei libri o nei blog di settore,
ma va sempre contestualizzato e dimostrato sul campo.
Nel caso specifico supponiamo che io vi dica che, visti i nuovi algoritmi sulla semantica di
Google, è opportuno scrivere testi più lunghi di 600 parole con un tasso di dicotomia del 2% e
una frequenza di correlazione tra le parole chiave del 15%. Bene, anche se è una cosa puramente
inventata magari per qualche contesto e in qualche scenario potrebbe essere la “magia” del
momento, ma dobbiamo evitare di continuare a pensare che c’è il trucco dietro ogni azione SEO.
Gli algoritmi dei motori di ricerca funzionano analizzando pattern, per questo motivo chi opera
nel settore deve adattare le proprie conoscenze e capacità in modo differente in base al contesto.
Ora che il concetto è chiaro, ovvero che nella SEO non esistono trucchi, possiamo soffermarci su
come fare SEO.

SEO per Brand


Sei un’azienda e vuoi fare SEO per migliorare la percezione che hanno gli utenti di te e dei tuoi
prodotti? In questo caso la sinergia tra SEO e social media è fondamentale, bisogna analizzare i
forum, i blog per capire chi e come parla di te o del tuo brand. Come mostra la figura 2.8, la
percezione di un brand all’interno dei motori di ricerca è fondamentale anche ai fini
dell’acquisto. Se il brand compare nei primi risultati di ricerca, si hanno incrementi fino al 20%
nelle interazioni con gli utenti.

Figura 2.8 - SEO e brand.

Fondamentalmente se si lavora per grossi brand l’attività SEO è completamente differente


rispetto a quella da applicare per piccole realità. Supponiamo di dover lavorare per barilla.it:
sarebbe opportuno concentrarsi su ottimizzazioni tecniche e di usabilità del sito lasciando in
secondo piano attività di link earning ad esempio. Dovremmo invece porre l’attenzione nella
produzione di contenuti a tema e di qualità in grado di migliorare la percezione del brand e
l’engagement. Questi sono solo esempi per farvi capire come l’attività di un SEO sia articolata e
debba prendere in considerazione aspetti sia tecnici che di usabilità e marketing.
SEO per E-commerce
Una delle attività più delicate a livello SEO è quando dobbiamo lavorare su e-commerce. Questo
perché dobbiamo prima di tutto segmentare l’audience e capire chi sono i nostri potenziali clienti
e capire come potrebbero cercare i nostri prodotti. Un altro passo fondamentale è creare un sito
web che risponda alle esigenze dell’utente ovvero sia di facile navigazione, riporti le
caratteristiche dei prodotti e porti alla vendita ma sia altresì di facile comprensione per i motori
di ricerca che utilizzano strutture semantiche come Schema.org ad esempio. Inoltre le campagne
PPC dovrebbero essere in sinergia con le attività SEO al fine di ottenere il massimo da entrambe.
Gli utenti sono sempre più abituati a siti come Amazon, Ebay, Expedia in cui hanno una
personalizzazione del sito stesso e dell’esperienza… Quindi perché non riprodurre questi aspetti
anche nei nostri siti di e-commerce? Se un utente ci ha già visitato o ha già fatto un acquisto
mostriamo una pagina personalizzata magari con le offerte correlate, inviamo email di re-
marketing ad hoc e coccoliamo l’utente. Ovviamente sono solo spunti che però potrebbero fare la
differenza nel processo di acquisto online.

SEO per la Lead Generation


Se vendiamo servizi o prodotti e il nostro scopo è avere un contatto (nome, cognome, email ecc)
profilato di un utente interessato, allora stiamo parlando di lead generation. Gli sforzi di
un’attività di lead generation sono quelli di individuare utenti interessati e fare in modo di avere
un primo contatto. Tipicamente le attività SEO in questo settore sono varie e spaziano da
un’attenta analisi e profilazione delle keyword fino allo studio di landing page (pagine di
conversione) performanti e utili allo scopo. Concetti come tecniche di vendita e persuasione
online non possono mancare. Supponiamo di dover avere contatti per iscrizioni a un corso a
Cagliari. Ovviamente la ricerca delle keyword e dell’utenza dovrà avvenire in modo geo-
localizzato, altresì la landing page dovrà essere percepita per fornire tutte le informazioni che un
utente interessato vorrebbe avere. Dovremo invece ragionare in modo differente se vogliamo
ottenere contatti e vendite per un corso online, la cui audience non è più limitata a una località ma
può essere estesa a tutto il territorio nazionale.
Figura 2.9 - Esempio di landing page per campagne di lead generation.

SEO per la reputazione online


Abbiamo visto come sia importante essere nelle prime pagine dei risultati di ricerca anche a
livello di branding. Sempre di più sono le richieste per “ripulire le SERP” da risultati
indesiderati o compromettenti. In questo contesto i metodi SEO variano e possono spaziare dallo
sviluppo di blog o siti web correlati fino alla creazione e gestione di profili social indicizzabili
nelle SERP. Ovviamente è una delle pratiche a mio avviso più delicate per chi lavora nella SEO
anche perché l’algoritmo di Google del Query Deserves Diversity (differenza nei risultati della
SERP in base alla query cercata) renderà le cose più complicate.
Bisogna inoltre ricordare come la Corte di giustizia dell’Unione europea il 13 Maggio 2014 ha
obbligato Google a pubblicare un modulo che permette di richiedere la rimozione dei risultati di
ricerca ai sensi della legislazione europea per la protezione dei dati personali. Si tratta di una
richiesta da fare dal link https://support.google.com/legal/contact/ con lo scopo di eliminare i
risultati che includono il nome dell’utente e che puntano a contenuti ritenuti da questo “inadeguati,
irrilevanti o non più rilevanti, o eccessivi in relazione agli scopi per cui sono stati pubblicati”.

SEO per Affiliate Marketing


Un altro contesto in cui la SEO è molto apprezzata è il settore dell’Affiliate Marketing, vale a
dire la promozione di prodotti o servizi allo scopo di ottenere una percentuale sulle vendite.
Esistono numerose piattaforme di Affiliate, le più conosciute sono quelle di Google AdSense e
l’affiliazione di Amazon. Questo è il ramo dove i SEO tipicamente “si fanno le ossa” e
sperimentano tecniche e procedure per posizionare sempre più keyword atte allo scopo finale:
guadagnare. Qui le attività sono diverse e possono variare dalla creazione di contenuti inserendo
opportuni banner alla creazione di portali in cui vengono recensiti prodotti. Più il sito avrà trust,
più si posizionerà nei motori di ricerca, più alte saranno le possibilità di guadagno.

Figura 2.10 - Esempio di sito di Affiliate Marketing.

NOTA

Ovviamente esistono moltissime altre attività e scenari in cui applicare la SEO come ad
esempio il recupero di filtri o penalizzazioni di Google, l’ottimizzazione di progetti esistenti
e molto altro…

Conclusioni e punti salienti del capitolo


In questo capitolo abbiamo visto come pianificare un’attività di Marketing Online e le diverse
tipologie e strategie da applicare in progetti SEO e di visibilità online.
Cosa ricordarsi?
• La SEO non è magia e non esistono trucchi.
• Chi fa SEO deve sperimentare e applicare i tecnicismi in modo differente in base al
contesto.
• Organizza e pianifica la tua strategia.
• Segmenta il mercato.
• Ragiona come un utente e non come un motore di ricerca.
• Pensa fuori dagli schemi.

“La difficoltà non sta nel credere alle nuove idee, ma nel fuggire dalle vecchie.”
(J.M. Keynes)
Capitolo 3
SEO gentile: l’inizio dell’ottimizzazione on
page

Che cos’è l’analisi interna?


Abbiamo avuto modo di capire come funzionano i motori di ricerca e abbiamo analizzato le
strategie e i piani di Web Marketing che potremmo adottare durante la nostra campagna SEO. In
questo capitolo ci soffermeremo sulle pratiche principali da adottare per migliorare la struttura
interna di un sito web o di una pagina, in modo tale da renderla più appetibile agli occhi dei
motori di ricerca. Per analisi interna si intendono tutte le azioni che possiamo definire web site
optimization, atte a modificare elementi che vanno a costituire la struttura globale del sito web.
Gli on page factors (che fanno parte dell’analisi interna delle pagine), come abbiamo avuto
modo di vedere nel Capitolo 1, sono tutti quei fattori che possono influenzare in un certo modo il
posizionamento di un sito web, pertanto vanno curati e presi in considerazione. L’analisi interna
prevede che l’utente (l’esperto SEO o il webmaster) metta mano al sorgente delle pagine web per
ottimizzarlo (inserendo opportuni tag, comprimendo immagini, scegliendo contenuti adeguati e
così via), in funzione dei risultati che vuole ottenere nel breve o nel lungo termine. Con il tempo,
infatti, questi accorgimenti (che dovranno essere sempre monitorati) creeranno un valore
aggiunto, in quanto un buon sito web sarà sicuramente premiato dai motori di ricerca in termini di
visibilità.

NOTA

È bene ricordare che l’ottimizzazione on page è solamente uno degli elementi vincenti in
grado di determinare un buon posizionamento del sito web: fondamentale risulta essere, per
esempio, anche una mirata attività promozionale.
Figura 3.1 - Elenco di alcuni costrutti on page per la SEO da prendere in considerazione.

La scelta del nome del dominio


Uno dei primi e fondamentali passi da fare, dopo aver pianificato la strategia di Web Marketing e
le azioni SEO da adottare, consiste nella scelta del nome del dominio e del provider che ospiterà
il nostro sito web. Facciamo un passo indietro: cos’è e com’è formato un nome di dominio (o
Domain Name)? Il sistema DNS (Domain Name System) si basa su una struttura per la
risoluzione di nomi di host in indirizzi IP e viceversa, in cui sono definiti dei domini di livello
superiore (detti TLD, Top Level Domain), collegati a un nodo radice rappresentato da un punto.
Il nome di dominio, com’è mostrato in Figura 3.2, è quindi rappresentato dall’estensione TLD
(che può indicare un’area geografica oppure il tipo di categoria: per esempio, .it sta per Italia,
.com per commerciale, .org per organizzazioni non commerciali) e dal nome dell’host. Nel nostro
esempio, yourdigitalweb.com identifica il nome del dominio.
Figura 3.2 - Struttura di un URL.

NOTA

Il www (World Wide Web) davanti al nome del dominio viene tipicamente utilizzato per
distinguerlo da altri servizi; generalmente lo si può anche omettere.

I domini si suddividono in quattro livelli: yourdigitalweb.com è un dominio di secondo livello;


il primo livello è l’estensione, rappresentata, nel nostro caso, dal .com. Il terzo livello, o
sottodominio, è un nome a dominio con un separatore di livello in più, per esempio
seo.yourdigitalweb.com.

Figura 3.3 - Struttura di un nome di dominio di terzo livello.

La scelta del dominio è un passo fondamentale, perciò va analizzata con cura. Per prima cosa
bisogna ricordarsi che il nome del sito web identificherà la nostra attività; per tale motivo, non
dobbiamo mai dimenticarci alcune fondamentali regole che dovranno essere amalgamate
opportunamente con la SEO. Vi siete mai chiesti perché una società possa essere disposta a
pagare milioni di dollari per acquistare un particolare nome di dominio?
Domini come business.com, casino.com e via dicendo sono stati venduti per cifre astronomiche.
Ciò perché sia il brand, sia le keyword erano parti integranti e ben amalgamate all’interno di
questi nomi di dominio. Altre società hanno invece puntato sulla forza del marchio e sulla facilità
di memorizzazione del loro nome, come eBay, Amazon e Twitter. Vediamo, quindi, quali sono i
passi salienti per scegliere correttamente il nome del nostro dominio.

NOTA

Il Cybersquatting è quella tecnica (proibita) che consiste nell’occupazione di nomi di domini


famosi o collegati a star, cantanti, aziende, per poi rivenderli in cambio di denaro. Sul sito
dell’ICANN è possibile ottenere l’elenco dei maintainer che aderiscono spontaneamente alle
regole per accedere alla procedura arbitrale per la riassegnazione di un dominio. In Italia
sono noti i casi a favore di marchi o celebrità che hanno visto registrato a loro nome il
dominio (il caso più famoso è quello del dominio armani.it).

I nuovi TLD di ICANN


Il 20 giugno 2011, ICANN (Internet Corporation for Assigned Names and Numbers) ha dato il via
a un processo che permette di avere estensioni di dominio, i famosi TLD, personalizzabili con
parole chiave libere e brand aziendali.
Per esempio, è possibile registrare siti web come:
• www.iphone.apple;
• www.windows8.microsoft;
• www.portatili.dell;
• www.android.google.

Davvero una bella rivoluzione, che porterà vantaggi e visibilità a livello di marchio.
Il processo di registrazione è articolato in tre fasi e permetterà a ICANN di effettuare tutte le
verifiche del caso e di attribuire o meno la paternità a un TLD che si andrà a richiedere. I costi
per il riconoscimento e l’assegnazione dei nuovi TLD personalizzati si aggirano intorno ai $
185.000: è quindi plausibile che solo i grandi brand e colossi internazionali potranno sostenere
tali spese.

A livello SEO si avranno delle implicazioni?


Google è in continua evoluzione e, soprattutto nell’ultimo periodo, sta cercando di dare meno
peso ai nomi di dominio. È altresì vero che, nonostante ciò, il nome di dominio con keyword nel
TLD potrebbe favorire l’anchor juice nel processo di link building e avere ripercussioni nel
posizionamento organico. Inoltre rumours sul web affermano che Google e i principali motori di
ricerca potrebbero avere un occhio di riguardo (come è gia avvenuto per i domini .edu) per le
nuove estensioni personalizzate, in quanto utilizzabili solo da grandi aziende o personaggi famosi
e ipoteticamente aventi standard qualitativi (privi di spam, contenuti duplicati ecc.) superiori alla
media.
A nostro avviso, questa simpatica rivoluzione dell’assegnazione dei Top Level Domain
interesserà maggiormente il brand e il posizionamento strategico e di marketing aziendale, mentre
per il momento avrà scarse e lievi ripercussioni sulla SEO tradizionale, anche tenendo conto
delle recenti dichiarazioni di Google sulla nuova Ricerca Semantica.

Come deve essere un buon nome di dominio

Figura 3.4 - Come deve essere un buon nome di dominio.

Il nome del dominio deve essere relativamente breve


I nomi brevi sono facili da ricordare e permettono una migliore visibilità su tutti i mezzi di
comunicazione offline, come loghi o brand aziendali. Alcune aziende si ostinano a registrare
domini di oltre 30 caratteri, utilizzando il nome completo della società. Questo è poco saggio. I
nomi di dominio troppo lunghi non possono essere inseriti nei moduli, sui cartelloni pubblicitari
o negli annunci PPC (a pagamento) e sono maggiormente soggetti a errori ortografici. Se un nome
di dominio richiede una notevole attenzione per la sua corretta digitazione, a causa di parole
facilmente confondibili, fin dall’inizio possiamo perdere una parte importante del nostro valore
di marketing.
Un buon nome di dominio deve essere indimenticabile
Normalmente, il nome di dominio è più efficace se è composto da una, massimo due parole
chiave. I nomi generici, come per esempio Art.com e Garden.com, sono facilmente
memorizzabili. Una possibile tecnica per scegliere un nome di dominio curioso potrebbe essere
quella di utilizzare strane combinazioni di parole specifiche: FogDob, CaldoFreddo, HotMoney
e così via. Pronunciare il nome di dominio ad alta voce può aiutare a sceglierne uno interessante
che si fissi facilmente nella mente di chi lo visita.

NOTA

Prima di registrare un dominio, è consigliabile chiedere anche il parere di amici, parenti o


dei clienti stessi, i quali ci possono fornire feedback utili e importanti.

Un nome di dominio non deve essere facilmente confuso con gli altri
È fondamentale che il nome del nostro dominio sia unico e non confondibile con siti di altre
aziende o, ancora peggio, di competitors. Se al telefono dobbiamo pronunciare a un cliente o a un
fornitore il nome del nostro sito web, dobbiamo essere sicuri che egli lo scriva correttamente.
Per tale motivo, non bisogna dimenticarsi di scegliere un nome facilmente pronunciabile. In
questo contesto è bene prestare attenzione a non violare copyright o brevetti: è consigliabile
visitare il sito della sezione marchi e brevetti dello Stato in cui andremo a effettuare la
registrazione.

NOTA

Molte aziende, non trovando il dominio libero, tendono a adottare la soluzione consistente
nell’invertire l’ordine delle parole che compongono il nome: se il dominio
www.felicesono.it risulta essere già occupato, l’azienda sarebbe tentata di registrare il sito
www.sonofelice.it. Va da sé che anche in tale situazione il rischio di confusione, da parte
dell’utente, tra i nomi di dominio è notevole.

Un nome di dominio deve rispecchiare il nome dell’esercizio commerciale o il


relativo core business
Ovviamente è preferibile che il nome del sito web rifletta in modo spontaneo il marchio/brand o
la tipologia di attività. In tal modo, un potenziale cliente potrebbe trovarci sul web
semplicemente scrivendo il nostro URL nella barra degli indirizzi. Per esempio, Barilla è un
marchio conosciuto in tutto il mondo: all’utente verrebbe spontaneo digitare nel browser
www.barilla.it senza conoscere a priori il nome esatto del sito web. L’analisi del mercato e della
competitività sono aspetti da non sottovalutare e da prendere in considerazione fin da subito (in
seguito saranno illustrati alcuni tool inerenti alla competitività e alla scelta delle keyword utili
anche per l’analisi del nome di dominio).

NOTA

Nel caso in cui il dominio con riferimento esplicito all’azienda o al marchio che vogliamo
registrare non sia disponibile, non bisogna disperarsi. È necessario ingegnarsi per trovare
nomi funzionali, nomi che descrivano l’unicità dell’azienda o nomi che esprimano emozioni o
mission. Possiamo utilizzare la tecnica backordering, chiedendo al nostro maintainer/register
(chi ci fornisce l’hosting web) di avvisarci nel momento in cui il nome di dominio che
vorremmo registrare risulterà nuovamente disponibile. Vi segnaliamo due società che
effettuano questo tipo di servizi:
http://domainmart.com

e:
https://www.snapnames.com

Il nome del dominio deve riflettere il mercato di riferimento aziendale


La scelta del nome del dominio dipende soprattutto dalle attività che si vogliono effettuare
attraverso il web. Vogliamo vendere qualcosa? In quale area geografica si colloca il nostro core
business? Rispondendo a queste semplici domande, possiamo chiarire i dubbi e indirizzarci sulla
scelta dell’estensione di dominio di primo livello da registrare per il sito web. È bene precisare
che l’estensione ritenuta migliore è .com, anche se esistono TLD alternativi (per esempio, quelli
nazionali in base ai mercati geografici di riferimento) che sono preferibili in alcuni contesti. In
linea di principio, anche le estensioni .edu o .gov potrebbero essere ritenute valide, sempre in
base al contesto della nostra attività. Solitamente estensioni come .org o .net possono non essere
viste di buon occhio dai clienti, soprattutto se il nostro sito web rispecchia una realtà aziendale. I
domini .org e .net rappresentano le comunità Internet, in generale domini in cui scambiarsi
opinioni, pareri o informazioni, quindi, se siamo un’azienda, sarebbe meglio evitarli.

NOTA

Esistono due estensioni, .mobi e .tel, specifiche per i servizi di telefonia mobile.

Un intrigante TLD potrebbe essere il .biz (Business), il primo ambiente su scala mondiale
dedicato esclusivamente alla comunità imprenditoriale, anche se va menzionato il fatto che si
tratta della seconda estensione più utilizzata dagli spammer mondiali (secondo quanto
testimoniato dalla ricerca “Spam Double-Funnel: Connecting Web Spammers with Advertisers”).
In merito a quanto affermato in questo paragrafo, non essendoci documenti ufficiali (da parte di
Google o di altri motori di ricerca), non possiamo fornire certezze, ma solo basarci su
documentazioni ed esperimenti personali. Siamo, tuttavia, molto propensi a sbilanciarci
nell’affermare che i domini .it per l’Italia e .com per l’estero siano da considerarsi come le
estensioni preferibili durante la fase di registrazione di un dominio.

NOTA

Per approfondire questi concetti vogliamo segnalare un brevetto rilasciato da Google:


Google Patent 20050071741, Information Retrieval Based on Historical Data. In esso
vengono analizzate le qualità nei risultati (che vanno a influire come punteggio per il
PageRank), calcolate in base a informazioni storiche delle pagine web.

È quindi fondamentale prendere in considerazione i TLD del nostro Paese, per esempio .it per
l’Italia, .de per la Germania e anche .eu o .asia se la nostra azienda si muove all’interno delle
macroaree del continente. Un ultimo prezioso suggerimento concerne la possibilità di registrare
lo stesso dominio con diverse estensioni (come www.sonofelice.it, www.sonofelice.com,
www.sonofelice.org, www.sonofelice.net), al fine di evitare che qualcun altro possa, in futuro,
accaparrarsi il vostro nome di dominio.

NOTA

Non è particolarmente consigliato, a nostro avviso, scegliere un nome di dominio di tipo


geografico e poi utilizzarlo con contenuti scritti in una lingua diversa da quella del Paese di
riferimento. L’hosting e i contenuti geolocalizzati sono elementi importanti; per ulteriori
approfondimenti rimandiamo il lettore ai successivi capitoli, in cui prenderemo in
considerazione gli aspetti legati ai siti multilingua.
NOTA

Da una ricerca è emerso come i domini con estensione .info siano i più utilizzati per azioni di
spam, con ben il 68%, seguiti dai domini .biz con il 53%, .net con il 12% e .com con l’11%.
Secondo il nostro punto di vista, quindi, non risulta consigliabile appoggiare un sito
aziendale o istituzionale su domini con tali estensioni (in quanto potrebbe subire
penalizzazioni), se non con lo scopo di evitare “l’occupazione del brand” da parte dei nostri
competitors. Un caso reale di penalizzazione inerente a quanto appena illustrato può essere
trovata al seguente link: http://tinyurl.com/penalizzazione-dominio. Va però precisato che
questa dovrebbe essere una fase di transizione, poiché penalizzare tutti i domini .info (o .biz)
solo perché alcuni di questi vengono utilizzati per commettere abusi è, ovviamente, una
misura troppo restrittiva e non crediamo che questo sia l’obiettivo dei principali motori di
ricerca.

Aspetti SEO nella scelta del nome del dominio


Quando si sceglie un nome di dominio per scopi SEO, ci sono diversi fattori da esaminare.
Cercheremo di illustrare le soluzioni migliori per la scelta di un nome di dominio che rispecchi
la realtà aziendale, ma che, allo stesso tempo, sia facilmente indicizzabile all’interno dei motori
di ricerca. In genere, i motori di ricerca tendono a dare peso alle parole chiave presenti
all’interno del nome di dominio: ciò aumenta l’importanza della scelta di un buon nome. Quando
si opta per un nome di dominio per scopi SEO, bisogna considerare alcuni aspetti, trattati di
seguito.

La Marca e il Brand
Le ultime tendenze SEO e del web 2.0 tendono a utilizzare trattini di separazione per individuare
un buon dominio web. Infatti, i motori di ricerca sembrano interpretare i trattini (-) come spazi,
quindi la combinazione di parole chiave direttamente nel dominio rafforzerà la propria presenza
all’interno della SERP. Per esempio, registrare il sito energia-solare.com potrebbe essere utile
nell’utilizzo delle keyword “energia” e “solare”. Ma queste che valore hanno per il nostro
branding? Generalmente poco. Infatti, un dominio in cui sono presenti trattini è difficile da
pronunciare e soprattutto da ricordare; potrebbe, inoltre, risultare troppo generico e mancare di
credibilità agli occhi dei clienti. Fortunatamente, c’è una via di mezzo tra il brand e la strategia
di SEO. Il nostro consiglio è quello di individuare un buon nome di dominio che rappresenti la
nostra società o il nostro sito web o blog; se riusciremo ad aumentare il suo trust, i nomi di
dominio con trattini o underscore risulteranno inutili forzature.
NOTA

È necessario evitare la duplicazione dei contenuti su domini differenti; potremmo essere


fortemente penalizzati dai motori di ricerca.

Rankability
Questo termine consiste nella combinazione delle strategie SEO, branding e marketing. Una
tecnica ritenuta molto utile (ma non molto praticata) è quella di combinare un termine generico +
una parola chiave. È sufficiente scegliere una determinata parola chiave, aggiungendo un
elemento distintivo dopo di essa (SEOBook, AutoSI, TendeRavelli e via dicendo). Questa
combinazione di termini racchiude un valore SEO intrinseco, perché le persone sono costrette a
usare le parole chiave direttamente nel link. Inoltre, i motori di ricerca utilizzano quasi sempre i
valori della parola chiave all’interno del nome di dominio per scopi di classificazione. Infine, un
tale nome conserva un elemento di branding unico e facilmente distinguibile.

Individuare le parole chiave


La prima volta che si inizia la ricerca del nome di dominio, è consigliabile avere in mente
almeno cinque vocaboli che descrivano al meglio il dominio che si sta cercando. Una volta
redatta questa lista, è possibile iniziare con coppie di keyword e aggiungere a mano a mano
prefissi e suffissi di dominio per individuare buone idee. Per esempio, se vogliamo lanciare sul
mercato un sito di installazione di pannelli fotovoltaici, possiamo iniziare a individuare le parole
“pannelli fotovoltaici”, “energie rinnovabili”, “energia solare”, “energia elettrica”, “celle
energetiche”. Combinando questi termini e intrecciandoli con il nome societario, riusciremo
sicuramente a trovare un ottimo nome di dominio (SolarEnergy.com può essere un buon inizio).

Anzianità di un dominio
La SEO, come abbiamo più volte ripetuto, è una scienza astratta che si basa su test, prove e
deduzioni. Da sempre è stato affermato dai maggiori guru in ambito SEO che l’anzianità di un
dominio rappresenta un aspetto rilevante tra i fattori che determinano il posizionamento di un sito
web. Matt Cutts in una recente intervista (http://tinyurl.com/rank-dominio) ha cercato di fare
chiarezza su questo aspetto, e la sua dichiarazione è stata resa nota dopo che alcune aziende di
web hosting avevano diffuso la notizia che, se veniva registrato un dominio per un lasso di tempo
superiore a tre anni, esso era agevolato nel processo di indicizzazione; tale notizia è stata subito
smentita da Google e dai principali motori di ricerca. Quello che Matt Cutts afferma è che il fatto
di registrare un dominio fino al 2020 non implica che Google dia maggior peso a esso, perché
non è possibile ipotizzare se il sito verterà sempre sui medesimi contenuti, se le informazioni
fornite saranno di qualità e via dicendo. Inoltre, se un sito è stato registrato dieci anni fa ma è
sempre rimasto inutilizzato, come potrà avere maggiore influenza rispetto a un sito web
“giovane”, che vanta numerose visite e contenuti di qualità? Esistono sì brevetti da parte di
Google da cui si evince la possibilità di utilizzare i dati storici di un sito per determinarne il
posizionamento, ma questo non vuol dire che siano usati e che influiscano direttamente sul
posizionamento di un sito web. Il suggerimento è di non preoccuparsi tanto per il numero di anni
per i quali il dominio è stato registrato, ma di creare contenuti nuovi, freschi e di qualità. A
nostro avviso, l’anzianità di un sito web ha la sua importanza per quello che concerne la storia
passata: infatti, se abbiamo un portale che tratta di cucina registrato nel 2001 ma con contenuti
aggiornati e un buon numero di backlink, è ovvio che esso avrà, in termini di posizionamento e
trust, dei vantaggi rispetto a un nuovo sito di cucina nato nel 2016. Questo per tutta una serie di
fattori che potrebbero andare ben oltre l’anzianità, come la storia e i contenuti. L’età di un sito
potrebbe essere, quindi, un elemento da tenere in considerazione solamente se il sito stesso ha,
alle spalle, una storia di contenuti, di qualità e di autorevolezza.

NOTA

Per maggiori approfondimenti, consigliamo la lettura di questo articolo:


http://bit.ly/anzianita-dominio

Tool a supporto nella scelta di un dominio


Vediamo ora alcuni strumenti che possono aiutare nel processo di scelta del nome di un dominio.
Nell’elenco seguente abbiamo cercato di individuare quelli che si ritiene siano i migliori:
• DomainFellow.com (www.domainfellow.com) consente di iniziare con una parola chiave
e di aggiungere prefissi o suffissi. Per ogni combinazione è possibile vedere quali domini
sono disponibili o quali sono attualmente utilizzati;
• Instantdomainsearch (https://instantdomainsearch.com/) permette di selezionare un nome
di dominio libero semplicemente digitandolo nella barra di ricerca di questo tool;
• NameBoy (www.nameboy.com) è uno dei servizi più datati. È necessario inserire una
keyword primaria e una secondaria. In modo del tutto automatico e con alcuni controlli
aggiuntivi, si possono ottenere suggerimenti interessanti per la registrazione del proprio
nome di dominio;
Figura 3.5 - Esempio di utilizzo di un tool di suggerimento di nomi di dominio.

• DomainNameSoup.com (www.domainnamesoup.com) permette di mixare e abbinare le


parole con i nomi di dominio;
• Godaddy (http://www.godaddy.com) è uno degli Hosting più famosi al mondo e fornisce
un ottimo tool per cercare nuovi nomi di dominio.

NOTA

Vogliamo segnalarvi questi due tool, che permettono di verificare in tempo reale la
disponibilità di un dominio:
http://ajaxwhois.org
e:
http://www.domjax.com

Esempi pratici nella scelta di un nome di dominio


Il nome del dominio è importante per il posizionamento? Esistono diverse scuole di pensiero e
molti dibattiti su form e blog di tutto il mondo: alcuni sostengono che i motori di ricerca non
conferiscano realmente peso alle parole chiave presenti nel nome del dominio, altri consigliano
un utilizzo massivo di parole chiave. Dopo l’annuncio di Google dell’EMD update (che
illustreremo a breve), sarà necessario procedere con cautela nella scelta dei nomi di dominio.
Il nostro consiglio è quello di seguire le indicazioni fornite precedentemente, scegliendo un nome
di dominio che rispecchi la realtà aziendale, che sia corto, facile da pronunciare e facilmente
memorizzabile. Un altro step, molto abusato dai SEO negli anni, consiste nella registrazione di
nomi di domini a chiave esatta, come, per esempio, pannellisolari.it o prestiti.it. Queste
operazioni venivano messe in atto in quanto Google dava “una spinta in più” sulla SERP ai siti
con tale struttura, anche se avevano poco trust. Per di più, con l’aggiornamento dell’EMD update,
questa tecnica oggi potrebbe portare più problemi che benefici, quindi è opportuno valutare
attentamente tale metodologia nella scelta del nome di dominio.
Registrare più nomi di dominio risulta significativo per il posizionamento? Questa tecnica, che va
sotto il nome di Domain Grabbing, è spesso utilizzata, e in alcuni casi anche abusata, da esperti
nel campo SEO. In genere, si registrano più domini che vengono reindirizzati verso il dominio
principale. Ha senso registrare il nostro dominio con estensioni TLD diverse per evitare che i
competitors possano acquistare quello spazio che potrebbe essere interessante per il nostro
business. Perde, invece, di significato registrare domini con redirect se tali domini non vengono
poi inclusi nelle nostre strategie SEO.
Registrare un dominio di terzo livello influisce sul posizionamento? I sottodomini sono soggetti
alle medesime regole di posizionamento di un normale dominio. Risultano molto utili nel caso in
cui il sito che vogliamo posizionare contenga diverse categorie che trattino di argomenti
differenti o contenuti come blog, forum o e-commerce aziendali. I sottodomini possono essere
anche utilizzati per la localizzazione linguistica dei visitatori (per esempio:
uk.ingegneridelweb.com). Per i motori di ricerca, ciascun sottodominio è un sito a sé stante,
quindi necessiterà di tutte le strategie di posizionamento utilizzate per il dominio principale.
Potrebbe essere vantaggioso registrare sottodomini corti che contengano una keyword facilmente
identificabile dall’utente, come seo.ingegneridelweb.com. In definitiva, i sottodomini sono
importanti per un buon posizionamento SEO e possono risultare favorevoli per organizzare in
modo gerarchico le diverse categorie all’interno del sito web. Vediamo ora alcuni esempi pratici.
• La nostra azienda opera nel settore delle moto, si trova a Parma e, oltre a vendere moto e
abbigliamento motociclistico, produce componenti da gara. Un efficace nome di dominio
potrebbe essere ParmaMoto.it, poiché identifica la collocazione geografica dell’azienda
e riflette la mission aziendale.
• Lo studio notarile Carnevali vuole essere pubblicizzato sul web. Per prima cosa sarebbe
utile registrare il dominio Carnevali.it, anche se il dominio in sé non conferisce alcuna
indicazione dell’attività svolta. Registrare StudioNotarileCarnevali.it, anche se lungo,
sarebbe una buona cosa, visto che comunque contiene tre parole difficilmente confondibili
e soprattutto permette al visitatore di individuare il business dell’azienda. Separare
quest’ultimo nome di dominio con dei trattini potrebbe aiutare i motori di ricerca a
individuare keyword all’interno del nome del dominio stesso, come studio-notarile-
carnevali.it. Tuttavia, è facile rendersi conto che un nome così strutturato potrebbe sì
essere utile per il posizionamento, ma sarebbe difficile da pronunciare o da far capire alla
propria clientela: oggi, inoltre, Google e i principali motori di ricerca utilizzano tecniche
semantiche per l’individuazione di parole o frasi, perciò l’uso dei trattini può risultare
superfluo.
• Consideriamo il caso di un professionista del design che voglia aprire un proprio blog.
Associando keyword alla parola “design”, possiamo trovare svariate combinazioni di
domini, quali: DesignIn.it, ioDesign.it, SocialDesign.it e BlogDesign.it.

Influenza dell’IP nella scelta del dominio


Un sito web è identificabile in modo univoco da un indirizzo IP e da un indirizzo alfanumerico,
l’URL. Grazie al Domain Name System (DNS), avviene l’associazione dell’indirizzo IP (che non
è facilmente memorizzabile) a una sequenza di caratteri alfanumerici. Molti non lo sanno, ma
l’indirizzo IP influisce sul posizionamento di un sito web all’interno dei motori di ricerca:
perché? Supponiamo che il sito web risieda su un dominio condiviso da altri siti web: l’IP
sarebbe unico. Se sullo stesso IP sono presenti siti web e uno o più di essi sono inseriti nelle
black list (liste nere dei siti bannati), allora anche il nostro sito potrebbe risultare bannato o
subire penalizzazioni (anche se è un evento molto raro). Prima di iniziare la registrazione di un
dominio, dobbiamo quindi scegliere opportunamente il provider che ospiterà il nostro sito web e
individuare tra le offerte a disposizione un giusto compromesso tra performance e costo.

NOTA

A supporto di quanto appena spiegato, vogliamo ricordare quanto illustrato da Matt Cutts in
un suo post del 2008: “A top-level domain (TLD registry) will offer domains for under $ 4.
The result will be another TLD blighted by spammy domain registrations”
(http://www.mattcutts.com/blog/my-2008-predictions/). Esistono altresì diversi servizi che
permettono di scegliere un hosting affidabile: tra questi vi vogliamo segnalare
http://www.myserverweb.it.

Il secondo passo consiste nel decidere se il nostro sito web avrà un indirizzo IP condiviso o
dedicato. Cosa cambia? Tipicamente, vi sono notevoli differenze a livello sia di costo, sia di
performance. Se utilizziamo un indirizzo IP condiviso, le risorse del server su cui risiederà
saranno ovviamente ripartite fra i siti che sono presenti su di esso. Inoltre, dobbiamo verificare
che sul medesimo indirizzo IP non risiedano siti bannati o bloccati e considerare il fatto che un
sito web hostato su un indirizzo IP condiviso potrebbe rallentare le operazioni di scansione da
parte dello spider del motore di ricerca, che potrebbe impiegare più tempo per raggiungere e
scansionare il sito web. Questo problema non è presente su un sito avente IP statico, in quanto lo
spider raggiungerà direttamente il sito web.
NOTA

Un indirizzo IP dedicato avrà, è vero, costi maggiori, ma se il sito web otterrà un grande
afflusso di visitatori e sarà ottimizzato SEO, è fondamentale che risieda su un server dedicato
(o virtuale) avente un’opportuna banda e un indirizzo IP dedicato, e che il sito stesso sia stato
concepito per supportare forti picchi di carico di visitatori. I motori di ricerca, infatti, sono
sempre più attenti al tempo di caricamento delle pagine web, parametro determinato in parte
anche dalle performance del server e da come è stata realizzata la pagina stessa.

Se abbiamo registrato un dominio, possiamo utilizzare un tool gratuito che ci consente di sapere
quali sono i siti hostati sul medesimo IP:
http://www.yougetsignal.com/tools/web-sites-on-web-server/
Questo strumento ci segnala tutti i siti hostati con il medesimo IP, quindi possiamo controllare il
numero di siti web presenti.

Figura 3.6 - Siti ospitati sul medesimo hosting condiviso di ingegneridelweb.com.

Per essere sicuri di non avere cattivi vicini, questo strumento fa al caso nostro. Inserendo
l’indirizzo IP del sito web, esso verifica che tale indirizzo non sia presente nelle principali black
list. Il link di questo utile strumento è:
http://whatismyipaddress.com/blacklist-check
Esistono, inoltre, alcuni tool di test per i DNS in grado di rilevare eventuali criticità legate a
un’errata configurazione dei Domain Name System. Tra i più completi possiamo segnalarvi:
• Intodns (http://www.intodns.com): strumento che ci permette di avere a colpo d’occhio
una visione d’insieme di eventuali anomalie di configurazione dei nostri DNS;
• Robtex (http://www.robtex.net): una serie di utility per verificare lo stato dei DNS per i
nostri siti web;
• Dnscheck (http://dnscheck.pingdom.com): un altro tool per effettuare test sui server DNS.

Figura 3.7 - DNS, esempio di utilizzo di IntoDNS.

IP C-Block
La classe di indirizzi C è quella che va da 192.0.1.1 a 223.255.254.254. Un IP di Classe C può
appartenere a un segmento di IP identico a quello di un altro provider: in questo modo potrebbero
esserci più siti con lo stesso range IP. La cosa più brutta per un qualsiasi webmaster è svegliarsi
una mattina e trovare una situazione in cui l’affluenza di utenti verso il suo sito web è scesa
dell’80% durante la notte. Uno dei principali motivi che possono causare un crollo improvviso
delle visite è il collegamento simultaneo di diversi siti web aventi lo stesso blocco di indirizzi IP
di classe C. I motori di ricerca utilizzano algoritmi complessi per verificare la vera popolarità o
il posizionamento di un sito web e potrebbero insospettirsi su questi link “fasulli”, etichettandoli,
in un primo momento, come inutili, fino addirittura a bandire il sito web dai principali motori di
ricerca. Un modo con cui i search engine tentano di controllare se i siti web collegati sono di
proprietà del medesimo webmaster consiste nella verifica dell’utilizzo o meno della stessa
classe C-Block di indirizzi IP.
Per evitare questo evento potenzialmente disastroso è possibile utilizzare il tool gratuito IP
Report (http://www.ip-report.com/index.php).

NOTA

Un parametro da tenere in considerazione quando si acquista uno spazio web è la banda


disponibile dedicata mensilmente. La banda è data dalla seguente formula:
Banda mensile = Dimensione media delle pagine * pagine viste al giorno * 30.
Per esempio, se la dimensione media delle pagine che compongono il sito è di 50 KB e
mediamente vengono visualizzate circa 1000 pagine al giorno, il trasferimento dei dati
mensili sarà:
50 KB * 1000 * 30 = 1,5 GB al mese
Il calcolo sopra riportato è solo una stima e potrebbe facilmente variare di +/- 50%, ma
fornisce un’idea approssimativa del consumo ipotetico di banda mensile del sito web. La
maggior parte degli hosting conferisce almeno 10 GB di trasferimento ogni mese.

Non bisogna, quindi, sottovalutare la velocità di caricamento delle nostre pagine web e la banda
dell’hosting. Matt Cutts (ingegnere e portavoce di Google) ha affermato che la velocità di un sito
potrebbe diventare uno dei molteplici fattori che vanno a influenzare il ranking del sito web.
Questi aspetti saranno ampiamente discussi nel Capitolo 4.

EMD UPDATE
L’EMD, abbreviativo di Exact-Match Domain, è un dominio che contiene esattamente la parola
chiave principale che vogliamo posizionare in SERP. Google è da sempre molto attento allo
“spam” o alle tecniche ingannevoli ideate da webmaster per migliorare il posizionamento SEO.
Una di queste consiste nel registrare nomi di dominio con all’interno la keyword esatta, come,
per esempio, www.auto-usate.it o www.prestiti-facili.com e via dicendo. Nel settembre 2012
Matt Cutts ha postato i seguenti tweet:
Figura 3.8 - EMD Update, dichiarazioni di Matt Cutts e John Mueller.

Questo vuol significare che i domini in lingua inglese strutturati in modo tale da avere la
medesima keyword al loro interno potrebbero essere “penalizzati” se di bassa qualità o se i loro
contenuti non fossero strettamente correlati alla keyword utilizzata nel nome di dominio. John
Mueller ha ribadito che avere keyword nel dominio non è né un vantaggio né uno svantaggio.

Google: come valuta i nomi di dominio dopo l’EMD UPDATE?


La SEO è una disciplina davvero interessante, ma a volte, come nel caso della valutazione nella
scelta di un nome di dominio, viene lasciata molta “libertà di pensiero” e sul web possono
susseguirsi pareri anche molto diversi tra loro. Per esempio, c’è chi afferma che registrare un
nome di dominio o di domini con redirect 301 possa influire ancora molto (anche nel 2017) sul
posizionamento organico. Anche se questa affermazione può essere più o meno smentita dalle
dichiarazioni rilasciate da Google, va comunque presa in considerazione attraverso dei test.
Abbiamo, quindi, provato a fare un esperimento, registrando domini con keyword specifiche per
verificare il reale vantaggio o meno nel posizionamento organico: qual è stato il risultato?
Per keyword poco competitive, i domini che preferiamo definire “con keyword forzate” perché
privi di brand si posizionano meglio rispetto ai domini “con nomi standard”.
I domini con “keyword forzate” sembrano essere maggiormente soggetti a fluttuazioni di
posizionamento e perdono di importanza in scenari molto competitivi.
NOTA

Ovviamente, come abbiamo più volte ribadito, è sempre preferibile registrare un nome di
dominio che abbia un valore e un’associazione con il brand aziendale. Il test è stato fatto per
cercare di avere risposte concrete nella scelta di un nome di dominio.

Bene, a questo punto abbiamo un’analisi completa sulle scelte che possiamo fare nella
registrazione di un nuovo dominio (o di eventuali domini di redirect o sottodomini). Ora
passiamo all’analisi della filosofia di pensiero di Google riguardo a tale tema.
Google ha affermato:

Abbiamo guardato la classifica e il peso che diamo ai domini con parole chiave. Alcune
persone si sono lamentate del fatto che stiamo dando troppo peso alle parole chiave in
domini. Agendo in tale direzione, abbiamo pensato di regolare questo MIX. Abbiamo
ruotato la manopola del nostro algoritmo verso il basso…

Ciò è in palese contraddizione con quanto abbiamo appena illustrato all’inizio di questo
paragrafo: è proprio qui che vogliamo arrivare! Solo attraverso test, prove e ricerche, infatti, è
possibile verificare quanto di vero ci sia dietro una dichiarazione (anche se ufficiale di Google)
e quanto in realtà questa venga applicata. È necessario prestare maggiore attenzione alla scelta
del nome di dominio, perché, anche se non nel breve periodo, Google darà meno importanza, a
parità di altri N fattori, ai nomi di dominio che facciano un uso forzato di keyword. Ecco cosa
possiamo fare per registrare un nome di dominio ad hoc per la SEO odierna:
• limitare la registrazione di nomi di dominio con i trattini “-”;
• usare un dominio geolocalizzato (ad esempio, .it, .es);
• evitare nomi di dominio che contengano più di quattro parole;
• utilizzare un nome di dominio composto da brand + parola chiave;
• evitare nomi di dominio composti solo da keyword, ove possibile.
Figura 3.9 - Esempio di nome di dominio a chiave esatta posizionato in Google.

Ovviamente si avranno sempre casi limite, in cui il vostro nome di dominio sarà uguale al vostro
brand e conterrà già keyword simili a domini EMD (ad esempio, servizipmi srl o autousate snc);
in questo contesto avere un sito web con contenuti utili e originali ci permetterà di evitare
eventuali penalizzazioni derivanti da tali aggiornamenti algoritmici di Google.
Per concludere, prendiamo in considerazione un recente brevetto rilasciato da Google: Systems
and methods for detecting commercial queries: Invented by Amit Singhal, Matt Cutts, and
Jun Wu. Senza dilungarci troppo sull’analisi del brevetto, possiamo concludere che Google:
• preferisce nomi di dominio senza trattini o con al massimo uno o due separatori (“-“);
• preferisce nomi di dominio che contengano “query non commerciali”.

Infine, da un’analisi delle keyword presenti nel nome del dominio, possiamo dedurre che esse
hanno, secondo tale brevetto, ancora una certa importanza se collocate nel giusto contesto. Il
brevetto è del 2003, quindi non possiamo sapere se sia mai stato usato, se sia attualmente in uso e
se sarà utilizzato in futuro, ma queste indicazioni possono essere preziose per cercare di
individuare un nome di dominio corretto per la nostra attività o brand.

Mirrors Host Name


SEO non vuol dire solo ottimizzazione o diffusione di link o contenuti, ma anche piccoli
accorgimenti tecnici da apportare al nostro sito web. In questo scenario possiamo individuare
l’Hostname Mirror, cioè la possibilità che il nostro sito web sia raggiunto sia inserendo il
prefisso www. sia omettendolo (per esempio, www.miosito.com e miosito.com).
Hostname Mirrors, se non gestito opportunamente, potrebbe rivelarsi un problema, non solo per
la possibilità di avere contenuti duplicati, ma anche nell’indicizzazione, in quanto lo spider
impiegherebbe il doppio del tempo per scandire le pagine; ciò perché dovrebbe scorrere tutte le
pagine del nostro dominio con il www. e, successivamente, quelle senza il www. Se non è molto
chiaro quanto abbiamo appena illustrato, possiamo fare un esempio pratico: il sito del New York
Times fino a qualche anno fa era soggetto a questo problema.
Se visitavamo il sito “http://newyorktimes.com/”, infatti, esso aveva un PageRank 7, mentre,
visitando il sito web http://www.nytimes.com/, aveva un PageRank 9.
Il problema fu risolto effettuando un redirect permanente (301) dalla versione senza www. a
quella con il www.; a oggi, andando su http://www.newyorktimes.com/, il PageRank è fermo a 9
e la situazione si è stabilizzata.
Recentemente Google ha rilasciato un brevetto, ormai vecchio di sette anni, consultabile al
seguente indirizzo web: http://tinyurl.com/mirrorhostname: Detecting mirrors on the web (US
Patent 8.055.626).
Il brevetto descrive i problemi derivanti dall’avere un sito accessibile con due nomi host diversi,
in particolare dal lato SEO.
Esso mette in luce aspetti interessanti:

Se abbiamo host multipli che fanno riferimento al medesimo contenuto, potrebbero sorgere
problemi, in quanto il motore di ricerca tenterà di indicizzare i contenuti associati ai nomi
di host multipli. Se, ad esempio, un motore di ricerca non riconosce correttamente i due
nomi di host, che si riferiscono allo stesso contenuto, esso eseguirà la scansione delle
pagine da entrambi i nomi host.
Questa situazione porterà a un uso maggiore della larghezza di banda e a un doppio carico
di lavoro per lo spider del motore di ricerca. Inoltre, i due hostname fanno riferimento al
medesimo contenuto, il che può causare problemi di duplicazione dei contenuti e,
conseguentemente, una declassificazione nei risultati di ricerca.
Utilizzando tecniche di posizionamento, una pagina web sarà tanto più “in alto” nella
SERP se è puntata da un gran numero di altre pagine (se ha tanti link in ingresso).
Pertanto, se i due nomi di host si riferiscono al medesimo contenuto, essi saranno trattati
separatamente ai fini della classifica e potranno ricevere la metà dei link in ingresso.

Come possiamo apportare le modifiche corrette al nostro sito web per risolvere questo
problema? Indicando un unico Canonical HostName. È molto semplice: per esempio, in PHP, se
vogliamo fare un redirect da non www. a www., il codice da inserire in .htaccess è il seguente:

o in IIS7 o IIS6:

NOTA

Nel caso di utilizzo di IIS 7, è possibile impostare l’URL rewrite inserendo il canonical
domain name nel campo di configurazione.

Ovviamente quelle qui proposte sono solo alcune delle soluzioni tecniche che si possono
utilizzare. In tal modo risolveremo il problema consistente nell’avere due versioni del medesimo
sito online e miglioreremo nettamente il tempo che lo spider impiegherà per visionare il nostro
sito web.

HTTPS e SEO: Why ?


Il protocollo HTTPS (HTTP Secure) è l’applicazione del protocollo SSL/TLS in congiunzione al
protocollo HTTP con lo scopo di prevenire attacchi del tipo man-in-the-middle e rendere quindi
più sicure le comunicazioni online.
Questo permette di identificare in modo sicuro il sito web e il server su cui è ospitato,
garantendo inoltre una crittografia bidirezionale dei dati.
Senza addentrarci nello specifico del funzionamento di questo protocollo di comunicazione
tipicamente usato nelle transazioni online, vediamo come mai entra a far parte della “sfera SEO”.
“HTTPS as a ranking signal”: questa (http://bit.ly/https-ranking) è l’affermazione comparsa sul
blog per webmaster di Google che ha fatto preoccupare i SEO di tutto il mondo.

“Abbiamo visto dei risultati positivi, e quindi stiamo iniziando a utilizzare HTTPS come un
segnale di ranking. Per ora è un segnale molto leggero – interessa meno dell’1% delle
ricerche globali, pertanto pesa meno rispetto ad altri segnali, come i contenuti di alta
qualità – e daremo tempo ai webmaster per passare a HTTPS. Ma, col tempo, potremmo
decidere di rafforzare questo segnale, perché vorremmo incoraggiare tutti i proprietari di
siti web a passare da HTTP a HTTPS, per fare in modo che tutti sul web siano sicuri.”

Questa una piccola sintesi di quanto affermato da Google.


Nell’arco del tempo si sono poi susseguite diverse precisazioni da parte di Google. John Mueller
ha annunciato che, quanto affermato, è riferito a un piccolo segnale di posizionamento,
affermazione poi confermata da Gary Illyes, che ha ribadito come il protocollo HTTPS sia
importante per Google e abbiano piani per migliorare e renderlo più forte all’interno delle
ricerche.
Per chiarire il concetto, Gary ha affermato che attualmente Google utilizza HTTPS come un tie
breaker: ovvero se abbiamo due siti praticamente identici, Google “utilizza” HTTPS per
decidere quale tra i due siti far comparire prima nelle SERP.
Probabilmente questo non avrebbe fatto molta differenza per la maggior parte dei siti presenti in
SERP, ma per i siti che si trovano nei risultati di ricerca molto competitivi l’HTTPS potrebbe
dare un piccolo vantaggio.
Proprio a dicembre 2015 arriva un altro comunicato di Google in cui afferma come le pagine
HTTPS verranno indicizzate di default http://bit.ly/https-index-google. Tutti questi segnali ci
fanno capire come sfruttare l’HTTPS in alcuni settori sia fondamentale per migliorare o
consolidare la propria presenza sul web.
Alcuni consigli per passare a HTTPS in modo coerente:
• se il sito è già online, controllare che il redirect di ogni url sia operativo;
• verificare che il certificato sia compatibile e riconosciuto da ogni browser;
• se abbiamo fatto l’upload del file disawow nella Search Console di Google, è necessario
aggiornarlo (vedremo in seguito di cosa si tratta);
• si consiglia di implementare HTTPS sui siti di e-commerce o dove avvengono transizioni
da mettere in “sicurezza”.

In definitiva, l’HTTPS sarà sì un segnale di ranking, ma non dobbiamo illuderci che se lo


implementiamo, questo ci aumenterà la visibilità in modo automatico. In base all’ambito
operativo potrebbe essere utile sfruttarlo per ragioni che in alcuni casi vanno oltre la SEO.

HTTP versione 2.0


HTTP/2 è un nuovo protocollo per il web retro-compatibile con HTTP, che sarà supportato nella
maggioranza dei browser. La rivoluzione di HTTP/2 si basa sulla possibilità di compressione dei
dati header dello stack HTTP, permettendo ai client un caricamento parallelo e più veloce delle
risorse web anche con connessioni “lente”.
Ma quali sono le migliorie di HTTP/2?
• Single Connection: viene utilizzata una sola connessione per caricare un sito web
riducendo il numero di richieste multiple TCP;
• Multiplexing: è possibile avere richieste multiple nello stesso tempo nella stessa
connessione;
• Server Push: ulteriori risorse possono essere “spedite” al client per utilizzi futuri;
• Prioritization: le richieste vengono assegnate a diversi livelli di dipendenza che il server
può sfruttare per fornire informazioni in modo più rapido;
• Binary: HTTP/2 è più facile da analizzare per un server, risulta compatto e con meno
probabilità di errore;
• Header Compression: HTTP/2 sfrutta la compressione HPACK.

Esistono tool per provare il nuovo protocollo:


• https://http2.akamai.com/demo
• http://www.http2demo.io/
• http://http2.loadimpact.com/entry/

Ma lato SEO cosa cambierà?


Nulla, ovvero se implementeremo e sfrutteremo questo nuovo protocollo potremmo erogare più
velocemente le risorse, a patto che il browser del client supporti HTTP/2. Ovviamente
GoogleBot supporta questo nuovo protocollo e sappiamo bene che la “velocità” è importante,
anche se qui stiamo parlando di un protocollo di trasmissione. Questo non vuol dire che non
dobbiamo “velocizzare” le nostre pagine web, lato SEO è importante sfruttare la cache,
comprimere le immagini e così via.
HTTP/2 sarà probabilmente uno standard nel 2017 e dobbiamo essere pronti al fine di sfruttare i
benefici che questo nuovo protocollo ci rende disponibili.

Scelta delle keyword


Dopo aver scelto il nome del dominio, siamo pronti per partire. Come primo step dovremo
cercare di individuare alcune keyword che identifichino la nostra attività, il nostro sito web. Le
parole chiave sono frasi, vocaboli significativi utilizzati affinché il nostro sito web venga trovato
dagli utenti. Le keyword che andremo a considerare dovranno essere utilizzate all’interno del
testo, nei meta tag opportuni e nelle campagne di promozione off page. L’importanza strategica
della scelta di una keyword è un punto cruciale, per cui non dobbiamo abbatterci se questa fase
richiederà molto tempo. Una ricerca condotta dalla società Enquiro ha mostrato come i primi tre
risultati prodotti da una ricerca siano quelli che attraggono maggiormente i visitatori (i motori di
ricerca fanno comparire annunci sponsorizzati anche in quella zona). La Figura 3.10 risulta da
una tecnica d’analisi piuttosto nota, definita “eye-tracking”, ovvero il monitoraggio dello
spostamento delle pupille sullo schermo.
Figura 3.10 - Il triangolo d’oro: l’area con maggiore concentrazione di clic rappresenta la zona più calda, che forma,
appunto, un triangolo.

Ciò significa, in buona sostanza, che gli utenti che interrogano i motori di ricerca pongono
maggiore attenzione ai primi risultati, non procedendo oltre la seconda o terza pagina di ricerca,
se le informazioni ottenute in prima battuta risultano valide. Da una serie di analisi e di dati, si è
inoltre visto che gli utenti tendono ultimamente a creare frasi elaborate, a volte anche abbastanza
lunghe, nella costruzione delle loro query di ricerca. Questo consente ai risultati di essere scelti
all’interno di uno scenario vasto e aperto, che potrebbe essere costituito da milioni di possibili
frasi e combinazioni differenti. Tali analisi ci fanno capire l’importanza della scelta delle parole
chiave e come queste possano influenzare il nostro posizionamento.
NOTA

Nel 2007 Google ha annunciato il lancio di Universal Search, cioè la possibilità di


interrogare tutti i motori verticali di Google (tra cui Web, News, Images, Local Search, Blog
Search, Books e Video), fornendo i risultati all’interno di un’unica pagina. A tale proposito,
vogliamo segnalarvi l’importante ricerca che mostra il concetto del triangolo d’oro
influenzato da universal search:
http://tinyurl.com/triangolo-oro

Tecniche euristiche per l’individuazione delle keyword


Durante la scelta delle keyword, per cercare di mantenere o di collocare il sito web in una
posizione strategica nei motori di ricerca, un valido aiuto può essere costituito dalle tecniche
euristiche. Si tratta di teorie che consentono di trovare una soluzione, una linea guida al
problema, fornendo un metodo opportuno per cercare di raggiungere un determinato obiettivo in
maniera rapida. Il termine “euristico” (dal greco heuriskein, “trovare”, “scoprire”) richiama
anche un metodo usato dall’intelligenza artificiale per risolvere quesiti e problemi rivolti
all’interpretazione del linguaggio naturale umano (LSI). Possiamo quindi considerare il metodo
euristico come una soluzione rapida, anche se spesso non ottimale, a determinati problemi di
entità complessa. Molte tecniche e approcci euristici sono utilizzati dai motori di ricerca per
cercare di fornire soluzioni coerenti in base a specifiche richieste da parte degli utenti: un
crawler espanderà o meno un ramo di ricerca mentre scandisce un sito web, ragionando in
termini euristici e cercando di capire quale sia la via ottimale.
Tali tecniche possono essere di aiuto nella ricerca delle keyword, ma in che modo? Tipicamente,
la scelta delle keyword viene svolta dalle aziende senza seguire una logica precisa: si pensa a
quali sono i termini o le parole che potrebbero essere inerenti all’attività senza approfondire
ulteriormente il problema. Questo approccio potrebbe rivelarsi insufficiente, in quanto gli utenti
potrebbero ricercare il nostro prodotto, la nostra attività, il nostro brand utilizzando
combinazioni di parole che noi non avremmo mai potuto immaginare. Le keyword, quindi, fanno
parte di un concetto euristico perché hanno alla base i presupposti alla soluzione di un problema
nato dalla domanda che è insita nella query. Ecco, quindi, che si rivela necessaria una
pianificazione adeguata nella scelta delle keyword:
• dobbiamo individuare i bisogni dei nostri utenti;
• dobbiamo conoscere le diverse tipologie di parole chiave che abbiamo a disposizione;
• è necessario pensare a frasi e a combinazioni di keyword con cui un utente ci potrebbe
cercare;
• è buona norma scegliere le keyword da utilizzare in campagne a pagamento (come, per
esempio, Google AdWords: Keyword Planner);
• dobbiamo produrre un elenco di termini e di sinonimi associati al nostro brand. Ci può
essere utile prendere in considerazione aziende leader in determinati settori;
• possiamo avvalerci di strumenti a supporto della ricerca delle keyword, tenendo sempre
ben presente che un utente ci potrà trovare sul web attraverso combinazioni di parole assai
differenti.

NOTA

Le keyword che sceglieremo non andranno a popolare solamente i meta tag nell’HTML delle
pagine, ma serviranno anche per creare contenuti ad hoc, strutturare URL, creare titoli
accattivanti nelle pagine e così via.

Metodi e modelli di ricerca delle keyword


La ricerca delle keyword è una delle parti più importanti del processo di strutturazione di una
campagna SEO, è l’analisi iniziale che permette di conoscere meglio il mercato in cui ci stiamo
muovendo, dal punto di vista della search.
Le keyword, o parole chiave, nel senso più ampio del termine, sono le parole con le quali gli
utenti cercano sul web, tramite Google e gli altri motori di ricerca. Cerchiamo ora di individuare
alcuni modelli in grado di aiutarci in questo compito, che è il più arduo per chi opera in questo
settore.

Modello classico
Nel modello classico di SEO si tratta di capire quali possano essere le combinazioni di parole
chiave che rispondono al meglio (e con maggior probabilità) ai bisogni degli utenti, in modo da
indirizzare i propri sforzi in ambito SEO verso di esse.
Se volessi promuovere una pizzeria nella zona di Roma Nord, le possibili key da scegliere
potrebbero essere: “Pizzeria Roma Nord” o “Ristorante Roma Nord”. Google fornirebbe, per
quelle parole, una determinata SERP (Search Engine Results Page), formata da tutti i risultati che
soddisfano la richiesta di una pizzeria nella zona di Roma Nord. Un bravo SEO, quindi,
dovrebbe capire quali possano essere le keyword correlate alla tematica trattata dal sito da
ottimizzare, e strutturare quest’ultimo in modo da poter soddisfare le richieste formulate con
quelle keyword.
Esistono alcuni interessanti strumenti che aiutano in questo compito (come il Keyword Planner
di Google, oppure il tool di Wordtracker).
Il processo può essere schematizzato nel modo seguente:
1. Analisi dell’argomento trattato dal sito: qual è la tematica che sto affrontando? Chi sono i
possibili utenti che vorrebbero arrivare su questo sito?
2. Analisi qualitativa delle parole chiave: per quali parole chiave cercherei questo sito? Su
quali argomenti potrei scrivere nuovi contenuti e, se dovessi cercare quegli argomenti, con
quali parole lo farei? Quali sono le parole chiave che mi aspetto siano più cercate?
3. Analisi quantitativa delle parole chiave tramite AdWords Keyword Planner, Wordtracker
o altri strumenti online; si ottengono i volumi di traffico delle parole chiave pensate e si
cercano nuove idee. Si tabula poi tutto in un foglio Excel e si riordina.
4. Estensione dei concetti a partire dalle parole chiave selezionate; se ne cercano altre, che
potranno fare da linee guida per la stesura di nuovi contenuti.
5. Tracciamento e analisi: il processo di selezione delle parole chiave continua nel tempo;
vengono via via selezionate le più performanti e scartate le meno importanti, raffinando ed
espandendo continuamente i risultati.

Questo approccio classico ci permette di avere una visione d’insieme delle possibili keyword da
analizzare e sfruttare nel nostro percorso di posizionamento e visibilità di un progetto web.

Nuovo approccio all’analisi delle keyword


Siamo sicuri che una stessa parola o frase nasconda sempre lo stesso bisogno? O forse quello che
esprimiamo con quella parola è solo una piccolissima parte di un concetto più grande? Già da
tempo Google cerca di analizzare lo User Intent (l’intento dell’utente) che si nasconde dietro
una ricerca, suddividendo storicamente le parole chiave in tre macrocategorie:
• informazionali: “voglio saperne di più”;
• navigazionali: “so già cosa cerco, voglio arrivare sul sito che ne parla”;
• transazionali: “so già cosa cerco e mi sono documentato, voglio comprare quel prodotto”.

Ad esempio, la ricerca Apple, in Italia (tralasciando la disambiguazione in inglese con “Mela”),


può descrivere tre bisogni:
• informazionale: “voglio saperne di più sui prodotti Apple”;
• navigazionale: “voglio arrivare sul sito ufficiale”;
• transazionale: “voglio comprare un iMac”.

Questo approccio di determinazione dell’intento dell’utente può essere, però, espanso


ulteriormente, anche grazie alle nuove tecnologie e al nuovo modo di accedere al web e di
effettuare ricerche. Se un tempo capire quale poteva essere il reale bisogno dell’utente era
un’utopia, oggi non lo è più.
Il nuovo modello vede le query scomposte in due parti:

query = parte implicita + parte esplicita

La parte esplicita è la vera e propria domanda (o insieme di parole chiave) che digitiamo nel box
di ricerca. La parte implicita è la parte non espressa, che il motore di ricerca può evincere in
altri modi.
Immaginiamo, ad esempio, di essere a Roma e di cercare “Metro Roma” con il nostro
smartphone, mentre camminiamo.
Probabilmente, una ricerca di questo tipo è stata effettuata per cercare il sito con gli orari della
metro, o per trovare la stazione metro più vicina alla propria posizione… sicuramente si esclude
un bisogno di informazioni generali sulla metro!
La parte esplicita della query è “Metro Roma”, la parte implicita è il fatto di avere cercato
“Metro Roma” mediante uno smartphone, mentre si cammina.
I parametri che determinano una query implicita potrebbero essere molteplici: si va dall’analisi
della periferica in uso, alla posizione, fino ad arrivare agli interessi espressi sui Social Network,
o all’orario in cui si formula la query. Google ha recentemente acquisito Behavio, una società
che si occupa di sviluppare un framework che prevede i bisogni dell’utente, in base all’analisi
degli stati correnti e passati dei sensori del suo smartphone.
Tom Anthony, in un suo post su Moz, ci propone di smettere di pensare alle keyword e di iniziare
a occuparci dei contesti in cui le query vengono formulate; nel concetto di “contesto” vanno a
finire cose come la ricerca personalizzata di Google, la geolocalizzazione delle ricerche,
l’analisi degli stati dello smartphone, l’analisi degli interessi su Facebook.
Ogni frase assume un diverso significato in base a chi la dice e a quando la dice, come nella vita
reale. Questo non significa che le keyword non siano importanti, ma vanno considerate come una
parte di un concetto più grande, che deve includere anche l’analisi dei possibili bisogni al
contorno.
Il SEO del futuro usa le keyword come base di partenza per un’analisi del mercato e dei bisogni
dell’utente a tutto tondo. Il concetto di keyword diventa, così, la base misurabile e quantificabile
di un concetto più ampio e difficile da gestire, ma che, se condotto bene, può veramente essere la
chiave di volta per la gestione di progetti complessi.
Una buona metodica può essere quella di iniziare a includere, nelle nostre analisi delle keyword,
anche una suddivisione della stessa keyword in più possibili contesti; per ogni contesto potrà
essere strutturata una specifica landing page ad hoc, oppure si potrà lavorare a una singola
landing page che però tenga conto di ogni contesto; a guadagnarne saranno gli utenti, i motori di
ricerca e il vostro sito.

Keyword competition
I vostri concorrenti che si approcciano al WWW dovranno affrontare il vostro stesso problema
nella ricerca delle keyword: un’opzione intelligente è quella di analizzare le loro strategie per
capire e imparare da esse il modo migliore per individuare keyword efficaci e competitive. Per
fare questo possiamo procedere come segue:
• analizzare il loro sito web e scoprire le parole chiave utilizzate. È possibile esaminare il
codice HTML selezionando “sorgente” opzione presente nella barra del menu del
proprio browser. Attraverso il codice sorgente della pagina possiamo individuare le
parole chiave, il titolo, le descrizioni e i meta tag;
• studiare i primi risultati della SERP di ricerca all’interno dei principali motori di ricerca
(ci possiamo avvalere, per compiere tale azione, anche di tool come SemRush);
• scoprire articoli da loro recensiti e pubblicati per individuare termini che potrebbero
essere utili al posizionamento;
• vedere i commenti di utenti, della critica e dei media per capire se le loro azioni di
marketing e di ricerca delle keyword hanno prodotto risultati soddisfacenti.

Se saremo in grado di aggiungere un adeguato mix di idee nostre a queste informazioni, potremo
disporre di un insieme meravigliosamente robusto di parole chiave da utilizzare come punto di
partenza. Questo aspetto, focalizzato sullo scenario della scelta delle keyword, è importante, in
quanto, come abbiamo visto, è più facile posizionare una keyword meno competitiva.
Quest’ultima, tuttavia, veicolerà comunque nuovi visitatori verso il sito web? La keyword
difficulty in ambito SEO è la difficoltà di posizionare una specifica keyword all’interno dei
primi risultati della SERP. Per prima cosa, è utile impiegare i comandi allintitle, allinurl e
allinanchor per individuare i concorrenti e la competitività per una determinata parola chiave (in
appendice è mostrato l’utilizzo di questi comandi).

Figura 3.11 - Utilizzo di SemRush per analizzare le keyword posizionate su Google presenti nelle pagine dei competitors.

Fatto ciò, dovremo analizzare il numero complessivo di risultati prodotti per una specifica parola
chiave, la loro posizione nella SERP e i meta tag keyword, title e description di eventuali
competitors. Attraverso la nostra creatività e prendendo in considerazione anche gli spunti sulla
ricerca euristica delle keyword analizzate nel precedente paragrafo, scopriremo termini
interessanti per la nostra attività e in linea con le nostre aree di mercato. Una volta completati i
passi descritti, avremo in mano un ricco insieme di termini importanti. Lo step successivo è
quello di ampliare tali condizioni utilizzando strumenti di ricerca di parole chiave, come
vedremo nei successivi paragrafi. Per facilitare tali operazioni, vi anticipiamo alcuni tool:
• http://www.compete.com è uno strumento che ci favorisce nella ricerca dei nostri
principali competitors;
• http://www.semrush.com è uno dei tool SEO più completi per analizzare il traffico
organico e il posizionamento nella SERP di Google dei propri competitors/clienti;
• SEO Digger (http://seodigger.com): ci fornisce una visione complessiva delle keyword
usate e un’analisi preliminare sui principali competitors presenti sul web;
• http://www.seomoz.org/keyword-difficulty/ è uno strumento fondamentale per individuare
le keyword con maggiore possibilità di posizionamento. Peccato che la funzione “gratuita”
sia spesso disabilitata a causa dell’elevato traffico sul sito web;
• Kgen e SEO for Firefox (http://tools.seobook.com/firefox/seo-for-firefox.html) sono due
plug-in scaricabili dalla rete e utilizzabili all’interno di Firefox per analizzare le keyword
utilizzate dai competitors.

NOTA

Tra gli altri tool che ci aiutano a scoprire i nostri competitors, possiamo menzionare:
SpyFu (http://spyfu.com)
Nichewatch (www.nichewatch.com)

Una volta individuata la competitività di una determinata keyword, possediamo informazioni in


più da sfruttare per posizionare correttamente il nostro sito web (o quello di un cliente)
all’interno dei motori di ricerca. Va inoltre ricordato che la competitività di una keyword può
variare da un motore di ricerca a un altro: è bene, quindi, non analizzare solo Google (anche se è
il leader), ma prendere in considerazione tutti i principali motori di ricerca (Bing, Yahoo! ecc.).

NOTA

A supporto di quanto appena illustrato, vogliamo segnalarvi due interessanti articoli:


http://www.mauriziopetrone.com/blog/selezione-keyword-scientifica
http://www.wordstream.com/articles/ultimate-guide-to-keyword-competition

Keyword popularity
I visitatori sono alla ricerca di informazioni: ricercano keyword differenti per recuperare le
informazioni di loro interesse. Pertanto è importante per la SEO selezionare le parole chiave più
popolari fra i target dei visitatori per quel determinato sito web. Per esempio, se qualcuno vuole
effettuare una ricerca per l’industria automobilistica, svolgerà più ricerche con keyword
differenti: automobilistica, industria automobilistica, quattro ruote, due ruote ecc. Tutte queste
keyword, però, non attireranno probabilmente molto traffico: si tratta di keyword non “attraenti”
per il nostro target di utenti. Un buon professionista SEO deve studiare attentamente il target che
potrà avere il sito e i contenuti del medesimo, scegliendo in modo adeguato e consapevole le
keyword per ogni singola pagina. È utile, inoltre, conoscere la “provenienza” dei propri
visitatori, cioè individuare la pertinenza di marketing del proprio sito web. Se dobbiamo
posizionare un’azienda che fornisce servizi per la telefonia, utilizzare la parola chiave “telecom”
ci potrebbe portare molte visite, ma, nonostante ciò, molti dei visitatori non ritorneranno a
trovarci perché non saranno soddisfatti delle informazioni non coerenti rispetto a quanto
ricercato. La pertinenza e un marketing mirato sono fondamentali per il successo di una campagna
SEO, soprattutto nella fase di scelta delle keyword e dei contenuti per il sito web.

Short tail e long tail keyword


L’obiettivo non è utilizzare keyword perché potrebbe essere cosa gradita ai motori di ricerca, ma
creare contenuti, pagine web che rispondano ai bisogni finali dell’utente. È proprio in questo
contesto che dobbiamo cercare di identificare le parole chiave più adatte al nostro scopo finale.

NOTA

Utilizzeremo il temine “tasso di conversione” (ROI) per indicare il valore percentuale di


utenti che riusciamo ad attrarre verso il sito web attraverso un’opportuna strategia SEO o
SEM. Per avere una definizione più accurata e ampia del termine, si veda
http://it.wikipedia.org/wiki/Return_on_investment.

Focalizzare i passaggi da eseguire durante la ricerca delle parole chiave è fondamentale per
ottenere dei risultati; vediamoli di seguito:
• ricerchiamo le parole chiave utilizzate dai nostri concorrenti e cerchiamo di individuare
quelle che possono essere più appetibili per la nostra audience;
• proseguiamo con una sessione di brainstorming per elencare e individuare tutte le parole e
le possibili frasi che gli utenti potrebbero utilizzare per trovarci;
• se il nostro sito è già avviato, è fondamentale prendere in considerazione i dati statistici e
analizzare i file di log al fine di individuare le parole chiave su cui puntare;
• l’elenco delle parole chiave ottenute dovrà essere suddiviso per scoprire le parole chiave:
– Generiche (Short Tail):
• frasi brevi o parole singole;
• basso tasso di conversione tra ricerche, numero di visite prodotte e permanenza sul
sito;
• possibilità di ottenere un discreto traffico.
– Specifiche/focalizzate:
• tipicamente frasi corte e settoriali;
• focalizzate sul target dell’attività;
• solitamente portano traffico ridotto ma “di qualità” (possibilità che gli utenti si
soffermino di più sulle nostre pagine web).
– The Long Tail:
• frasi lunghe e mirate;
• utilizzando frasi di questo tipo, è possibile interagire direttamente con nicchie di
mercato specifiche;
• traffico ridotto ma specifico per un determinato target.
NOTA

In ambito SEO si identificano come Short Tail Keyword parole chiave brevi composte da
uno o due termini al massimo, come “carne”. Le Long Tail Keyword sono invece quelle
parole chiave costituite da più termini, come “carne di manzo fresca” o “carne macinata di
suino”.

La teoria della coda lunga è stata introdotta nel 2004 da Chris Anderson e afferma che le
ricerche effettuate in Internet in assenza di uno specifico limite di offerta tendono a essere
infinitamente lunghe. Questa teoria focalizza l’attenzione sulla possibilità che molte persone
siano disposte ad acquistare oggetti poco conosciuti all’interno della rete, a scapito di quella
branca di persone che tende a comprare solamente i prodotti commerciali di marche conosciute.
In parole povere, in molti casi, gli eventi poco frequenti o di bassa ampiezza (la coda lunga)
possono, cumulativamente, superare in numero o in importanza la porzione iniziale della curva. In
pratica, possiamo applicare questo concetto a YouTube: migliaia di video sconosciuti possono
pesare di più, in termini di rilevanza, di qualche video conosciuto (come video musicali o spot
televisivi). Lo stesso discorso vale per iTunes, il quale contiene milioni di canzoni differenti. La
finalità è quella di vendere poche canzoni, anche sconosciute, a un ampio numero di utenti,
massimizzando così le vendite. Il precursore di questa teoria, prima dell’avvento di Internet, è
stato il principio di Pareto (conosciuto anche come legge 80/20), massicciamente utilizzato in
economia.
Il grafico di Pareto, identificabile con un istogramma, è utile per stabilire quali sono i maggiori
fattori che hanno influenza su un dato fenomeno: in questo contesto solo i prodotti più popolari
otterranno un riscontro in termini di vendite. Grazie all’avvento del WWW e alla diminuzione dei
costi di magazzino e distribuzione, per alcuni settori viene a cadere in parte tale concetto e si
afferma sempre di più la teoria di Chris Anderson, secondo la quale i prodotti meno popolari e
non di nicchia possono produrre, se considerati collettivamente, un numero più elevato di vendite
rispetto a prodotti con maggiore popolarità.
Cercheremo di applicare questa nozione nel processo di ricerca delle keyword. Se analizziamo
la Figura 3.12, possiamo notare come i pochi utenti che approdano al nostro sito utilizzino per lo
più keyword specifiche e ottimizzate, mentre la parte destra (che rappresenta la coda lunga) è
costituita da una varietà di keyword che possono assumere una rilevanza sempre maggiore, ed è
proprio a queste che dovremo prestare maggiore attenzione.
Figura 3.12 - Grafico rappresentante l’andamento delle keyword secondo la teoria della coda lunga.

Le “Long Tail Keyword” generano solitamente bassi volumi di accessi verso il nostro sito perché
hanno una competitività minore. Prese complessivamente, queste keyword possono fruttare un
numero di accessi molto rilevante.
Questi dati sono confermati anche dal fatto che, tipicamente, ogni mese circa il 15% delle
ricerche effettuate su Google è assolutamente nuovo: ciò significa che gli utenti utilizzano
combinazioni di keyword “non adoperate” dalla maggior parte dei siti web. Ecco l’importanza
della teoria della coda lunga applicata all’ambito della ricerca delle keyword. È ora necessario
che ci soffermiamo ad analizzare le parole chiave che saranno utili al nostro scopo, ma che non
abbiamo finora preso in considerazione.

NOTA

È importante osservare come le keyword della coda lunga posseggano una percentuale di
conversione maggiore rispetto ai termini più generici, come si evince dal grafico. Infatti, una
persona che cerca la parola “Ristorante” avrà meno possibilità di raggiungerci di una che
utilizza termini di ricerca più specifici, come “Ristorante in centro Parma”. Dobbiamo, però,
tenere ben presente che quelle illustrate sono regole generiche. Non è sempre detto che Short
Tail sia uguale a basso tasso di conversione, soprattutto nel caso di campagne PPC strutturate
o quando si ha a che fare con brand forti.
Esiste anche un apposito servizio che consente di individuare le Long Tail Keyword. È
sufficiente accedere al sito www.hittail.com e, dopo la registrazione, ci verrà fornito uno script
da inserire all’interno delle nostre pagine web. Fatto ciò, il servizio inizierà a raccogliere i dati e
ci fornirà importanti informazioni sulle keyword utilizzate per accedere al sito e su quelle che
potrebbero essere interessanti per gli utenti. La Figura 3.13 mostra una delle schermate di analisi
delle keyword fornite da HitTail.com.

Figura 3.13 - Analisi delle Long Tail Keyword per il sito www.ingegneridelweb.com fornite dal servizio HitTail.com.

NOTA

Potremmo avvalerci anche di un altro tool, come per esempio Google Analytics
(www.google.com/analytics), per monitorare le parole chiave di accesso.

Tool per la scelta delle keyword


Abbiamo visto che scegliere la keyword corretta è un bisogno fondamentale per chi desidera
accrescere strategicamente la propria visibilità e raggiungere il maggior numero di visitatori
all’interno delle SERP. Ogni query digitata può produrre un elevato numero di siti web come
risultato, quindi più in alto riusciremo a comparire, più probabilità avremo di attrarre visitatori
verso il nostro sito web. La visibilità basata sulla keyword è fondamentale: trovare un buon
compromesso tra keyword specifiche e keyword troppo generiche è la strada giusta da
percorrere. Ovviamente, cercare di individuare le keyword in cui vi è poca competizione ci
consentirà di ottenere risultati in modo più rapido ed efficace.

NOTA

Il Keyword Sniping è una tecnica SEO che si basa proprio su questo concetto: arrivare nelle
prime posizioni della SERP con una keyword poco cercata e utilizzata è più facile che non
con una keyword con alti volumi di ricerca.

A volte il “mercato delle keyword” per gli stessi competitors risulta saturo ed è perciò opportuno
individuare in modo consapevole parole chiave risultanti da una lista di termini logici e di frasi
che sono in relazione con i nostri prodotti o la nostra realtà aziendale. Questa scelta dovrebbe
essere fatta da persone differenti, in modo tale da coprire la totalità dei bisogni. In questa lotta
ardua esistono numerosi strumenti online da scaricare gratis (o quasi), che ci facilitano nel
compito di individuazione di keyword appropriate. Si tratta di tool più o meno utili, ma a nostro
avviso rappresentano uno strumento fondamentale che ogni esperto SEO dovrebbe adottare nelle
proprie campagne di ottimizzazione. Vediamo un elenco dei principali tool a supporto per la
ricerca delle keyword (non ci soffermeremo a spiegare ogni tool, in quanto il loro utilizzo è
veramente semplice e intuitivo).
• AdWords Keyword Planner (https://adwords.google.com/KeywordPlanner): è uno
strumento utile, che ci suggerisce delle parole chiave e la concorrenza che esiste su di
esse. L’unica cosa a cui dobbiamo prestare attenzione è il fatto che, in realtà, i dati forniti
sono presi prevalentemente da un’analisi degli inserzionisti di Google AdWords. Ci
fornisce risultati approssimativi, ma è sufficientemente preciso per dare un’idea indicativa
delle keyword scelte.
Figura 3.14 - Esempio di utilizzo di Keyword Planner per le parole chiave di Google.

• Google Trends (http://www.google.com/trends): è utile per individuare le parole chiave


che saranno maggiormente utilizzate all’interno di un determinato arco temporale.
All’interno di Google Trends è stato inserito Google Insights for Search, uno strumento
che ci permette di analizzare i trend delle ricerche online effettuate su Google. Tramite
questo tool possiamo:
– individuare le chiavi di ricerca più usate per area geografica o per intervallo di tempo;
– confrontare la popolarità di keyword diverse all’interno di un determinato intervallo
di tempo;
– visualizzare le keyword più utilizzate per un determinato argomento;
– visualizzare le nuove chiavi di ricerca emergenti e trovare i termini più popolari in
base a un determinato Paese.

NOTA

Google stava sperimentando alcuni strumenti interessanti, come Google Sets, che consentiva
di raggruppare parole chiave aventi una correlazione semantica. Con nostro dispiacere, però,
il colosso di Mountain View ha chiuso Google Labs, il settore dal quale erano nati servizi
rivoluzionari come Gmail, Maps e Docs: la nuova filosofia aziendale prevede di concentrarsi
sui prodotti più che sulla sperimentazione.
Figura 3.15 - Esempio di utilizzo del tool Google Trends per la ricerca delle keyword.

Figura 3.16 - Esempio di utilizzo di alcune funzionalità di ricerca avanzata fornite da Google.

• Google Instant (l’evoluzione di Google Suggestion): è un nuovo strumento online che


semplifica la ricerca. In tempo reale (da Google è sufficiente digitare la parola ricercata e
Google Instant si attiva in automatico) ci propone una serie di keyword di ricerca (da un
menu a discesa) in base a quello che stiamo cercando, facilitando notevolmente il nostro
compito. Questa evoluzione potrebbe introdurre nuove e interessanti tecniche SEO di
indicizzazione. Analoghe tecnologie sono utilizzate anche da altri motori di ricerca
(Provate questo tools www.merlinox.com/suggest/).

Figura 3.17 - Esempio di utilizzo di Google Instant: vengono visualizzati automaticamente i risultati di una ricerca che
inizia con le lettere digitate.

• Ricerche Correlate (EX Google Wonder Wheel): è una delle funzionalità grafiche che
sono state recentemente “tolte” da Google; la possiamo ritrovare nelle ricerche correlate
in forma testuale.
• Wordtracker: è stato il primo software online per la ricerca delle parole chiave ed è
considerato il miglior suggeritore di parole chiave nel mondo. Wordtracker è stato
introdotto nel 1999 da Andy e Mike Mindel e ha lo scopo di aiutare i proprietari dei siti
web e dei motori di ricerca a identificare parole chiave e frasi che sono rilevanti per i
loro clienti e che possono produrre un determinato risultato, data una determinata query di
ricerca. Wordtracker offre un database di oltre 300 milioni di query di ricerca all’URL
www.wordtracker.com (è disponibile il servizio a pagamento). Esiste una funzionalità
gratuita fruibile dal link http://freekeywords.wordtracker.com.

NOTA

Grazie a un tool sperimentale ideato da Wordtracker, è possibile inserire una determinata


parola chiave e scoprire le domande che un utente potrebbe inserire nel motore di ricerca per
individuarla. A nostro avviso, risulta essere un tool molto interessante, anche se al momento
funziona solo per la lingua inglese .

• SEO Book Keyword Suggestion Tool (http://tools.seobook.com/keyword-


tools/seobook/): questo strumento è alimentato da Wordtracker e consente di ottenere una
panoramica completa sulle statistiche dei differenti volumi di ricerca per Google, Yahoo!,
Bing. Richiede la registrazione per poter accedere al servizio gratuito.
• Semrush (http://www.semrush.com): è un tool molto utile per la ricerca di parole chiave;
fornisce dettagli sul volume di traffico e sulla competizione tra keyword. Il suo utilizzo
risulta essere semplice e intuitivo.
• Trellian keyword discovery fornisce due strumenti: uno a pagamento e uno gratuito. Lo
strumento a pagamento fruibile dal sito web http://www.keyworddiscovery.com/ consente
numerose peculiarità e funzionalità avanzate. La sezione gratuita può invece generare al
massimo 100 parole chiave di ricerca ed è in grado di raccogliere i dati da più di 200
motori di ricerca mondiali (http://www.keyworddiscovery.com/search.html).
• KGEN (https://addons.mozilla.org/en-US/firefox/addon/4788): è un’estensione per
Firefox che consente di vedere quali parole chiave sono presenti sulle pagine web visitate.
Questo plug-in recupera tutte le parole di una pagina e consente di sapere quante volte
esse vi appaiono. È utile per individuare le keyword di siti dei nostri competitors.
• Strumento per la ricerca delle keyword di Microsoft
(http://www.bing.com/toolbox/keywords): è una delle funzionalità recentemente introdotte
da Bing e fruibile dal pannello di controllo degli strumenti per webmaster. È uno
strumento alternativo che ci consente di avere un’idea delle keyword da utilizzare nel
nostro progetto.
• Wordpot (www.keywordstudio.com): uno strumento ideale per gestire grossi volumi di
keyword e analizzare le keyword più promettenti.
• NicheBOT Classic (http://nichebotclassic.com): è sufficiente inserire una frase o una
parola chiave per ottenere la lista delle prime 50 parole chiave più popolari associate a
essa.
• MetaGlossary (www.metaglossary.com): è in grado di estrarre con precisione i
significati di termini o frasi specifiche. Può essere utilizzato per scoprire nuove e
interessanti varianti con cui un utente potrebbe ricercare una determinata parola chiave.
Figura 3.18 - Lo strumento di ricerca delle keyword di Microsoft.

• Goodkeywords (http://www.goodkeywords.com/good-keywords): è un semplice tool


gratuito per la gestione e l’ottimizzazione delle keyword.
• Topworld Tool (http://www.abakus-internet-marketing.de/tools/topword.htm): è un
servizio online gratuito che analizza una pagina web e produce una serie di informazioni
inerenti alla pagina stessa, tra cui i meta tag title e description. È uno strumento utile per
verificare l’ottimizzazione delle proprie pagine web e per l’analisi dei concorrenti.

NOTA

Per la ricerca di parole chiave possiamo, inoltre, avvalerci di strumenti come dizionari
online o tool per la ricerca di sinonimi. Tra essi annoveriamo:
http://www.synonym.com
http://www.dictionary.com
http://www.sapere.it/sapere/dizionari.html

• Übersuggest (http://ubersuggest.org/): è uno strumento che, sfruttando il motore di


“Google Suggest”, fornisce un elenco di parole correlate tra loro, in modo da facilitare il
compito di individuazione di keyword simili ma non ancora sfruttate. Nella Figura 3.19
potete apprezzare la bontà di questo interessante tool.
• Keyword Fisher (http://www.binarypros.com/keyword-fisher): utile per la ricerca di
nuove parole chiave.

Figura 3.19 - Esempio di utilizzo di Übersuggest.

NOTA

Tra gli altri numerosissimi tool in commercio possiamo citare Keyword Elite, un potente
software a pagamento per la ricerca delle keyword.

Tutti i tool analizzati possono esserci più o meno utili per individuare le keyword da sfruttare
durante le nostre campagne di marketing. Dobbiamo, però, precisare che essi vanno utilizzati con
moderazione (alcuni tool, per esempio, non supportano ancora la lingua italiana) e con il
supporto della nostra capacità creativa nello scoprire parole chiave nuove e facilmente
indicizzabili.

L’indice di efficienza delle keyword: KEI


Una volta che il nostro progetto SEO è avviato e ben rodato, per misurare l’efficienza delle
nostre keyword possiamo avvalerci di un indice molto utilizzato nell’ambito del Web Marketing,
cioè il Keyword Effectiveness Index (KEI). Tale indice ha un intrinseco valore previsionale e
ci può fornire un’indicazione statistica sull’effettiva capacità di ottenere un buon posizionamento
per una determinata keyword. I fattori presi in considerazione sono la quantità di competitors
presenti sul mercato e il numero di richieste provenienti dall’utenza verso la keyword in oggetto:
popularity (popolarità): è il numero di richieste (query) che si basano su una keyword
• specifica, eseguite all’interno di un determinato lasso temporale;
• competitors (concorrenti): sono dati da tutti quei siti che, per qualsiasi motivo, utilizzano
quella determinata parola chiave e che quindi possono partecipare più o meno
direttamente al posizionamento all’interno dei motori di ricerca.

La formula per calcolare il KEI è data dalla popolarità al quadrato divisa per il fattore dei
competitors:

P è l’indice di popolarità;
C è l’indice dei competitors.
Come spiega Sumantra Roy, la presunta ideatrice di tale formula, il KEI si basa su tre assiomi
fondamentali:
• il KEI per una specifica parola chiave si incrementa con l’aumento delle richieste da parte
degli utenti;
• il valore del KEI è controbilanciato dalla competizione per quella determinata parola
chiave, infatti il valore del KEI tende a diminuire con l’incremento dell’indice dei
competitors;
• la popolarità ha un’influenza positiva sull’indice. Quanto più alto sarà il valore del KEI,
tante più possibilità avremo che quella specifica keyword si posizioni correttamente.

Il KEI va considerato su una scala (diversi tool online utilizzano metriche differenti per calcolare
gli indici di popolarità e di competition, quindi anche il relativo KEI prodotto sarà differente):
• da 0 a 10: si hanno possibilità minime di posizionamento per quella specifica keyword;
• da 10 a 100: è un buon valore, che ci offre discrete possibilità di posizionamento;
• da 100 in su: per quella specifica keyword abbiamo ottime possibilità di posizionamento.

NOTA

Va sottolineato come il KEI sia vincolato dagli indici di popolarità e competition utilizzati,
che possono assumere valori differenti in base agli strumenti utilizzati.

Esempio pratico per il calcolo del KAI


Vediamo un esempio concreto di calcolo del KAI (Keyword Approssimative Index) “fatto in
casa”, che si discosterà dalla formula principale sopra spiegata. Questo valore ci serve come
base indicativa per scoprire se una keyword che vogliamo utilizzare avrà buone possibilità di
posizionamento entro un contesto empirico. Per fare questa prova, utilizziamo lo strumento per la
ricerca delle parole chiave di Google AdWords: digitiamo, come mostra la Figura 3.20, la parola
chiave (aglio italiano) e nel campo “media delle ricerche mensili” preleviamo il valore (nel
nostro caso 30) che utilizzeremo come denominatore nella nostra formula.

Figura 3.20 - KAI: individuazione del denominatore della formula con Google AdWords.

A questo punto andiamo in Google e impostiamo il periodo di ricerche nell’ultimo mese e


preleviamo il valore dei risultati ottenuti (nel nostro caso 70.000).

Figura 3.21 - KAI: individuazione del numeratore con la ricerca avanzata di Google.

Il nostro KAI approssimativo per la voce “aglio italiano” diventa quindi:

KAI = 70.000/30 = 2333

Effettuiamo il procedimento per altre parole chiave, per esempio:


“Aglio” KAI = 611.000/201000 = 3
“Aglio olio” KAI = 337000/60500 = 5,5
“Musica Gratis” KAI = 96.700.000/9.140.000 = 10
“SEO” KAI = 533.000.000/11.100.000 = 48
“SEO Parma” KAI = 130.000/72 = 1780
Possiamo notare, anche se si tratta di una formula indicativa, come la keyword “SEO Parma” sia
più facilmente posizionabile della keyword “SEO” (com’era facile presupporre). In modo
analogo, troviamo come la keyword “aglio italiano” sia preferibile ad altre keyword con alti
tassi di competizione.

NOTA

Nella nostra formula, all’aumentare del numero di ricerche mensili, il KAI calerà. Questa
potrebbe sembrare una contraddizione; in realtà, tuttavia, dobbiamo pensare che stiamo
utilizzando dati misti tra ricerche reali e ricerche mensili per le inserzioni. Quindi, in ogni
caso, essendo un indice approssimativo, il risultato ottenuto può ritenersi accettabile.

Keyword density, uno dei falsi miti della SEO


Una delle tecniche utilizzate in passato nella SEO è quella di ripetere più volte, all’interno della
stessa pagina, una determinata parola chiave. Si presume che se tale keyword viene introdotta in
un testo con una certa densità, vi saranno maggiori probabilità che la pagina possa essere
individuata dai motori di ricerca attraverso quella parola chiave (concetto sbagliato). La
keyword density non è altro che il rapporto tra la keyword e il numero totale di parole presenti
all’interno della pagina; tipicamente viene espressa in percentuale, come mostra la formula:

NOTA

Per essere più precisi, la formula andrebbe espressa come:

dove tfi,j è il numero di termini che appaiono nel documento j, mentre li è il numero totale di
termini nel documento.

Supponiamo che una parola compaia cinque volte all’interno di una pagina che conta un totale di
200 vocaboli: la densità della parola chiave sarà data da (5/200)*100 = 2,5%. La cosa davvero
importante è che la keyword density non è una variabile utilizzata dai motori di ricerca moderni
per stabilire quanto un documento sia attinente a una determinata query.
A conferma di ciò, analizzando alcuni brevetti dei motori di ricerca, possiamo notare come la
formula della keyword density, oltre a non essere mai citata, non risulti utile, perché non
abbraccia appieno nessuno dei concetti utilizzati per individuare la rilevanza delle keyword
all’interno di una pagina, come la linearizzazione, la tokenizzazione, la filtrazione, lo stemming,
la rilevanza, la precisione e la ponderazione. Tutte queste tecniche si basano su principi
matematici (LDA e LSI, per esempio, che vedremo in seguito) che vanno ben oltre una semplice
formula. La keyword density, quindi, per essere realmente utile, dovrebbe prendere in
considerazione i seguenti fattori:
• la distanza relativa tra le parole, o prossimità;
• il modo in cui in una pagina web vengono distribuite le parole chiave;
• la frequenza di co-citazione tra i due termini (co-occorrenza);
• la distinzione tra il tema principale, l’argomento e i sottotemi delle pagine web;
• la presenza di parole chiave in altre strutture HTML, come link, tag H1, H2 o nel titolo.

Il succo del discorso sta nel fatto che la keyword density è un concetto superato, dato che
l’Information Retrieval utilizza, per la catalogazione delle informazioni, tecniche avanzate che
superano i concetti di densità e frequenza di una parola chiave all’interno di un documento (o
pagina web). Per un motore di ricerca è importante fornire all’utente una risposta valida e
coerente: è bene utilizzare discorsi di senso compiuto e scrivere documenti per i navigatori e non
per i motori di ricerca. In sostanza, la keyword density è frutto di una conoscenza errata della
materia, è una tecnica che non esiste nella SEO e che non viene applicata agli algoritmi dei
moderni motori di ricerca. L’abbiamo citata per fornire al lettore un quadro completo sulle
terminologie SEO che in alcuni casi vengono contestualizzate in modo errato.

NOTA

Sul web esistono diversi tool per calcolare la keyword density (la cui utilità lato SEO è
insignificante); tra questi vi segnaliamo:
http://www.live-keyword-analysis.com/

Keyword pattern
Il keyword pattern è dato dalla misura con cui una determinata keyword si presenta all’interno di
una pagina web, senza essere ripetuta per più di due volte consecutive. È un concetto che si
avvicina molto a quanto visto precedentemente. Per esempio, la frase “L’azienda Cerasaro
produce aglio italiano, prodotti a base di aglio italiano e creme fatte esclusivamente con aglio
italiano” presenta al suo interno tre volte la ripetizione della keyword “aglio italiano” e ha quindi
un KP (Keyword Pattern) uguale a 3. Le keyword, secondo la teoria in questione, devono essere
distribuite in maniera naturale all’interno di un testo. Va inoltre precisato che uno sviluppo
innaturale di un particolare testo all’interno di una pagina web, soprattutto se presenta numerose
occorrenze dello stesso termine, potrebbe causare una penalizzazione per sovraottimizzazione. In
altre parole, anche questo concetto è ormai qualcosa di sorpassato e di non utilizzabile nella SEO
moderna.
Keyword frequency
La frequenza delle keyword si riferisce al numero di volte in cui una keyword appare all’interno
di una determinata pagina web. Ipoteticamente, si è sempre pensato che più volte compare una
keyword all’interno di una pagina web, più alta sarà la probabilità che tale pagina si posizioni
all’interno della SERP per quella determinata parola chiave. Come abbiamo avuto modo di
vedere, questi concetti servono al lettore solo per capire come i motori di ricerca non utilizzino
tali concetti.

NOTA

Tra i vari tool presenti nel web, possiamo segnalarvi http://www.ranks.nl, una serie di
applicazioni web per monitorare tutte le variabili associate alle keyword del proprio sito
web.

Keyword proximity
L’espressione keyword proximity (o prossimità delle keyword) denota la vicinanza di più parole
chiave. Ricercando, infatti, su Google “aglio italiano”, per esempio, si noterà come all’inizio
compaiano le keyword affiancate e, proseguendo via via con i risultati della ricerca, le parole
chiave appaiano sempre più distaccate fra loro.

NOTA

Possiamo osservare come la prossimità delle keyword costituisca un elemento importante per
migliorare l’indicizzazione di pagine e contenuti web.

Se utilizziamo la frase “Aglio in reti trasparenti, prodotto italiano”, possiamo notare come essa
abbia una prossimità minore rispetto ad “Aglio Italiano in reti trasparenti” per le parole Aglio e
Italiano. Dunque, una volta identificate le keyword e le frasi di prossimità, dovremo
opportunamente inserirle nelle nostre pagine web in modo omogeneo. Come vedremo a breve, le
keyword dovranno essere utilizzate non solo nel corpo della pagina, ma anche in opportuni tag
HTML (H1, Tag Title e così via).

NOTA

Esiste un ottimo tool per calcolare la prossimità delle keyword:


http://www.mikes-marketing-tools.com/marketing-tips/keyword-densities.html
Keyword prominence
La keyword prominence, o prominenza, designa la vicinanza tra la keyword e l’inizio di una
generica zona di riferimento. Per zona di riferimento intendiamo una qualsiasi sezione della
pagina web, come può essere un tag HTML (title, H1, gli anchor text e così via), un paragrafo, un
sottoparagrafo o una tabella. Maggiore è la vicinanza con l’inizio di questa zona, più probabilità
avremo che i motori di ricerca attribuiscano importanza alla pagina e alla relativa keyword. Per
esempio, se impostiamo il tag title e il tag H1 con il sintagma “aglio italiano”, avremo un’ottima
keyword prominence per quella determinata combinazione di parole chiave, poiché queste si
trovano al primo posto all’interno dei rispettivi tag.

NOTA

Tra le varie zone importanti per la prominenza, le più importanti sono: il tag <title>, i vari tag
di intestazione (<h1>, <h2>, <h3> ecc.), i diversi paragrafi che compongono il corpo del
documento, il contenuto del meta tag description e la posizione del testo nel flusso
dell’HTML.

Purtroppo anche questo concetto ormai risulta superato; con l’introduzione della semantica negli
algoritmi dei principali motori di ricerca, queste scorciatoie possono essere usate solo al fine di
avere un sito web ottimizzato ma senza correlazione con gli algoritmi usati dai search engine.

Nuovi approcci per la ricerca delle Keyword e dei Topic


Abbiamo visto tool, metodologie e concetti che possiamo sfruttare per la ricerca delle nostre
keyword per aumentare la visibilità del nostro sito web.
Alla base di un progetto di visibilità online la scelta delle keyword e dei topic risulta cruciale.
Non esiste una metodologia unica da applicare. Ora cercheremo di mostrare un approccio (uno
dei tanti possibili) per fare un’analisi delle keyword avvalendoci delle nozioni apprese in questo
capitolo.
Prima di partire dobbiamo fare un piccolo accenno a Google Hummingbird, questo nuovo
algoritmo che, assieme a RankBrain, sta rivoluzionando il modo con cui “ragiona” e “pensa”
Google.

NOTA

Non solo Google sta spostando il suo raggio d’azione verso la semantica e l’intelligenza
artificiale, anche altri motori di ricerca (ad esempio Bing con RankNet) e portali si stanno
muovendo verso quest’ottica al fine di capire il comportamento dell’utente e fornirgli
risposte sempre più personalizzate e coerenti.
Hummingbird è in grado d’interpretare il linguaggio naturale dell’utente basando la ricerca e le
relative risposte non più sulle parole chiave ma su un linguaggio comune. In questo modo sarà
possibile avere risposte a domande specifiche contestualizzate in base all’esperienza dell’utente
e alle ricerche fatte precedentemente. Ciò si integra con il mobile e le funzionalità di Google
Now. A supporto di questa novità, troviamo poi RankBrain, una parte dell’algoritmo di Google
che sfrutta un sistema di intelligenza artificiale di apprendimento automatico per processare i
risultati della ricerca.
In questo modo Google è in grado di identificare i modelli fra ricerche complesse
apparentemente non connesse fra loro e comprenderne le similitudini.
Quindi l’abbinata di Colibrì e Brain permetterà a Google di capire le query e dare risposte
sempre più precise.
Per esempio, la parola “apple” potrebbe essere associata sia al brand che al frutto. Grazie
all’apprendimento automatico e a quelli che in intelligenza artificiale vengono chiamati Vector,
l’algoritmo è in grado di comprendere e apprendere per fornire risposte precise.
Se iniziamo a digitare la parola “apple” in Google, ci verranno mostrati dei suggerimenti, come
si vede nella Figura 3.22.

Figura 3.22 - Query in Google e come si comporta l’algoritmo.

Google associa “apple” al Brand, inoltre ci suggerisce un negozio nelle vicinanze dove poter
acquistare prodotti Apple.
Tutto questo per fornire un risultato di ricerca appropriato e in linea con le nostre esigenze. Ma
se cambiamo query, cosa succede? Proviamo a digitare in Google una frase apparentemente senza
senso come “apple caramellata”.

Figura 3.23 - Query “apple caramellata” in Google.

Possiamo notare come Google restituisca dati correlati alla ricerca sfruttando la sua capacità di
associazione delle entità.
Per trovare e mostrare risultati più rilevanti, Google può pescare informazioni: è ciò che molti
SEO definiscono Search Entity. In poche parole consiste nell’arricchire le ricerche effettuate
dagli utenti permettendo a essi di di stabilire una relazione che aiuta a identificare l’importanza
di vari documenti, e di conseguenza influenza le informazioni visualizzate.
Nello stabilire il contesto in cui si verifica una query, Google prende in considerazioni una serie
di fattori, fra cui:
• la cronologia delle ricerche dell’utente;
• la posizione geografica dell’utente;
• lo storico globale delle ricerche effettuate dall’utente;
• le relazioni con una gran quantità di dati memorizzati in precedenza (termini o entità);
• le caratteristiche della query (ortografia, varianti, ecc.);
• domini, sullo stesso tema, linkati dal documento;
• la co-occorrenza dei termini e la distanza fra questi.
Tutto quello che abbiamo visto finora è per spiegarvi che ormai il concetto di “keyword” è
superato e come Google vada ben oltre nel suo processo di ricerca.
Per cercare di avvicinarci alla realtà del motore di ricerca, dovremmo spiegare concetti come
ontologie, co-citazioni, term vector , NPL e studiarci le ricerche di Fagin e Halpern e
contestualizzare il tutto con i brevetti rilasciati da Google.
Quindi quando andiamo alla ricerca delle nostre parole chiave o topical hub o topic non
dobbiamo limitarci a considerare la keyword secca o i vecchi concetti come ad esempio quello
della coda lunga, ma dobbiamo altresì cercare di capire come Google possa sfruttare queste
parole chiave nel processo di ricerca.
Non è sufficiente utilizzare sinonimi o keyword correlate per avvicinarsi al modo di ragionare di
Google.

NOTA

Le Reti Semantiche sono state introdotte da Quillian (1968), che le ha utilizzate per costruire
modelli della memoria umana.

Ora che abbiamo le idee più chiare possiamo iniziare un processo ipotetico di ricerca dei topic
(argomenti) o delle keyword da sfruttare nel posizionamento del nostro progetto web.
Per prima cosa dobbiamo avere le idee chiare sull’argomento principale e via via dettagliare per
trovare le keyword e i topic con cui strutturare il sito e organizzare le informazioni.
Iniziamo con la keyword “droni” per vedere un ipotetico piano di lavoro per la ricerca delle
keyword e delle informazioni semanticamente correlate.
Sfruttando Google Trends, possiamo vedere l’andamento della keyword e l’interesse locale o
regionale.
Figura 3.24 - Ricerca keyword “droni” in Google Trends.

Il passo successivo è quello di trovare non solo le parole correlate, ma anche tutte le macro
informazioni annesse alla keyword principale presa in considerazione.
Ad esempio, grazie ai tool http://visuwords.com/ e tools.seozoom.it, ho la possibilità di vedere i
rami con keyword affini o attinenti e sfruttarli per creare sezioni del mio sito o articoli ad hoc. Le
seguenti immagini mostrano un esempio di utilizzo di questi due tool.
Figura 3.25 - Grafo di ricerca delle keyword con Visuwords.
Figura 3.26 - Grafo di ricerca delle keyword con SEOZoom.

A questo punto possiamo spostarci su strumenti di analisi delle keyword e del traffico visto in
precedenza per identificare i topic più ricercati.
Ad esempio, sfruttando Google Suggest o le ricerche correlate di Google, abbiamo
l’opportunità di avere un’idea più ampia di quello che gli utenti ricercano.
Scopriamo che “droni professionali” e “droni giocattolo” sono topic ricercati dagli utenti e
quindi potremmo sfruttarli nella nostra strategia.
Figura 3.27 - Ricerche correlate e con Google Suggest.

Ovviamente possiamo sfruttare altri strumenti, come il Suggest di Amazon o di Youtube per avere
idee nuove sulle keyword da usare.
Ora non ci resta che utilizzare SemRush o SEOZoom o altri tool che ci forniscono le keyword
correlate ai volumi di ricerca per avere un’idea a 360°. Ci basterà inserire la keyword e ci
verranno fornite keyword attinenti e correlate con i rispettivi volumi di ricerca. Nel nostro caso
specifico ci possiamo accorgere come “drone” sia più ricercato della parola “droni” in Italia.

Figura 3.28 - Keyword Correlate con SemRush.


A questo punto possiamo raffinare la ricerca con Keyword Planner di Google o sfruttando lo
strumento di ricerca delle keyword di Bing.
Un altro ulteriore approfondimento che possiamo implementare è quello di trovare gli intenti
dell’utente e tutta la combinazione delle possibili query di ricerca. SEOZoom è un ottimo punto
di partenza, come mostrano le seguenti immagini: è sufficiente inserire la keyword principale per
avere un’idea delle intenzioni dell’utente, keyword correlate e soprattutto le query informazionali
che un possibile compratore può utilizzare nel suo processo di acquisto.

Figura 3.29 - Intenzioni dell’utente in SEOZoom.

Una volta che abbiamo il nostro pool di keyword, le possiamo suddividere per macro aree e
organizzarle per volumi di ricerca esportando il tutto in Excel e il gioco è fatto. Questo processo
prende il nome di Keyword Clustering, ovvero organizzare una grossa mole di topic e
informazioni in concetti chiave che ci permetterà anche una strutturazione armonica degli
argomenti del sito e ci fornirà una prima idea delle suddivisione delle informazioni.
Avremo in questo modo i topic e gli argomenti per strutturare i contenuti o per organizzare un sito
esistente sfruttando le keyword e i topic appena trovati.
NOTA

Per arricchire la nostra ricerca potremmo sfruttare tool come


https://www.google.com/trends/correlate o http://www.keywordeye.com/ per trovare
keyword semanticamente correlate

A questo punto abbiamo finito? Direi di no, perché non “spiare” la concorrenza? Ci potrebbe
essere utile sia per scoprire nuovi topic sia per capire pregi e difetti di chi sta concorrendo con
noi sulla SERP per una determinata keyword.
Grazie ai tool presenti sul mercato come SimilarWeb, SemRush o SEOZoom ci basterà inserire
l’url del sito da “spiare” per avere una serie di informazioni sulle keyword per cui è posizionato
e le pagine.
Potremmo prenderle in considerazione e arricchire il nostro pool di topic. A questo punto avremo
tutto il necessario per incominciare e quindi mettere mani alle keyword e pensare ai contenuti.

NOTA

Si può fare di meglio? Ovviamente Sì. Quella proposta è solo una delle diverse strade per
iniziare una ricerca delle keywords e dei topics. Potremmo sfruttare i social per capire come
la gente interpreta una parola chiave o un pensiero associato a essa, navigare i siti di risposte
come quora per farci un’idea delle domande che si pone la gente in merito alla parola chiave
che stiamo ricercando (nel nostro caso specifico relativamente ai droni). Insomma le strade
sono molte e le possiamo applicare in modo differente in base al progetto che dobbiamo
sviluppare.

Conclusioni e punti salienti del capitolo


In questo capitolo stiamo iniziando a capire come la SEO sia una disciplina complessa ma
affascinante. Dalla scelta del nome del dominio alla ricerca delle keyword abbiamo visto i primi
passi per impostare una strategia di visibilità sul web in modo corretto. Inoltre va sottolineato
come non ci sia un’unica strategia per trovare nuovi topic o keyword, ma dipende sia dal settore
in cui operiamo sia dal grado di profondità del nostro progetto.
Cosa ricordarsi?
• Non registrare domini.it e usarli per SEO internazionale.
• EMD Update e come ha impattato in Italia.
• HTTPS come segnale di ranking?
• L’Hosting è importante, ma, come vedremo, è importante anche ottimizzare il codice, le
immagini e parallelizzare le risorse.
• Esistono numerosi tool e strumenti per la ricerca delle keyword; è fondamentale trovare
quello che si adatta alle vostre esigenze.

“Non ci sono bacchette magiche, trucchi nascosti e segreti che possono portarti
immediatamente al successo, ma con il tempo, l’energia e la determinazione ci puoi
arrivare.”
(Darren Rowse)
Capitolo 4
Linee guida per lo sviluppo di siti web SEO
friendly

I tag HTML delle pagine web


Abbiamo visto come scegliere un nome di dominio opportuno e abbiamo analizzato le tecniche
per individuare le keyword per il nostro sito web. Il passo successivo è quello di iniziare la
progettazione formale del sito. Come si è accennato in precedenza, le caratteristiche primarie di
un sito che voglia essere ben posizionato sui motori di ricerca sono una buona leggibilità e una
facile accessibilità. Infatti, se, per qualche motivo, lo spider non riuscisse ad accedere al codice
del sito, ciò implicherebbe l’impossibilità di inserire quest’ultimo nell’indice, con la
conseguente probabile esclusione dalle graduatorie. Tale funzione viene espletata, oltre che da
fattori non direttamente controllabili, da alcuni tag e meta tag, porzioni di codice invisibili
all’utente ma non al crawler, che definiscono non solo l’accesso dei motori di ricerca ai contenuti
di un sito, ma anche la struttura e il layout della pagina web. Per questa ragione, tale fase di
progettazione va effettuata con particolare cura. L’attenzione sui meta tag ha visto un progressivo
calo in corrispondenza dell’emergere della classificazione basata sul link analyst; la diffusione
dei blog e degli editor per la progettazione web (per esempio, Adobe Dreamweaver), che
incorporano funzionalità di inserimento automatico dei meta tag, ha dato un’ulteriore spinta in tal
senso. Tuttavia, la crescita di importanza dei contenuti, emblema dell’ultima fase evolutiva del
web, ha restituito ai meta tag un ruolo di grande importanza per la loro funzione di descrizione
dei contenuti della pagina. Li analizziamo di seguito, con l’obiettivo di stabilire alcune norme
pratiche di semplice applicabilità e sicuro successo nell’opera di ottimizzazione del codice. I
meta tag sono informazioni nascoste all’interno del codice HTML studiate appositamente per
fornire informazioni aggiuntive (meta-informazioni) su un documento ipertestuale. Il loro
inserimento nel documento si effettua all’interno dei tag <HEAD> e </HEAD>; essi vanno
dunque considerati parte dell’intestazione dello stesso. La sintassi dei meta tag prevede due
attributi principali: name e content, atti a definirne tipologia e proprietà. Per esempio:

Il ruolo dei meta tag ai fini del posizionamento è stato oggetto di dibattiti e controversie, poiché
nei primi motori di ricerca essi costituivano l’unico mezzo a disposizione per descrivere i
contenuti dei siti, al di fuori del contenuto visualizzabile dagli utenti. Si tratta, quindi, di un buon
modo per sintetizzare i temi trattati nella pagina web, nonché il luogo ideale ove inserire le
keyword in base alle quali si vuole posizionare il proprio sito. La facilità di utilizzo improprio di
questo strumento ne ha via via svilito l’importanza e la considerazione da parte dei motori di
ricerca, cosicché attualmente gli spider di Google sono impostati in modo da attribuire loro un
valore vicino allo zero. L’utilizzo dei meta tag non migliora in maniera rilevante il
posizionamento su Google e va aggiunto che, proprio per la ragione appena descritta, un uso
scorretto e fuorviante degli stessi potrebbe causare penalizzazione o cancellazione permanente
dall’indice. Ciò premesso, esistono alcuni meta tag che ricoprono ancora una funzione
significativa, come vedremo nei prossimi paragrafi.

NOTA

Esistono diversi tool per generare i meta tag utilizzati dai principali motori di ricerca, come
http://tools.seobook.com/meta-medic/
e
http://www.seocentro.com/tools/search-engines/metatag-analyzer.html

Per comprendere le sezioni che spiegheremo, è necessario avere una certa dimestichezza con il
codice HTML, in quanto mostreremo pezzi di codice che saranno esemplificativi per capire le
azioni da compiere nel sorgente delle nostre pagine web. Dobbiamo altresì precisare che tutto
quello che andremo a illustrare è valido per pagine web statiche o dinamiche (.php, .jsp, .aspx
ecc.), in quanto il rendering della pagina per il browser web e per gli spider risulta sempre
essere semplicemente codice HTML. Tanto meglio sarà strutturato tale codice, più probabilità
avremo di essere posizionati nei motori di ricerca. La struttura del nostro codice deve essere:
• priva di errori: molto spesso, infatti, capita di dimenticarsi di chiudere tag, di utilizzare
strutture HTML errate e non conformi. Per controllare che le nostre pagine web siano
sintatticamente perfette, possiamo utilizzare questo tool: http://validator.w3.org. È bene
ricordare che in Italia i siti istituzionali e della pubblica amministrazione devono essere
accessibili e seguire la netiquette W3C sull’accessibilità, più precisamente:
http://www.w3.org/TR/WCAG10/;
• semplice e ben organizzata: sia l’utente, sia lo spider devono trovare facilmente le
informazioni all’interno della nostra pagina. Non è consigliato utilizzare immagini di
sfondo contrastanti con il testo o tabelle annidate o tag a cascata innestati dentro altri tag.
Il codice deve risultare il più pulito possibile. Questo aiuterà anche noi nell’eventuale
processo di aggiornamento delle pagine;
• facilmente modificabile: un buon prerequisito è quello di poter aggiornare le nostre
pagine web in maniera facile ed efficace. È quindi buona norma utilizzare i fogli di stile
(CSS), template per organizzare la grafica del sito web e mettere istruzioni JavaScript in
file esterni;
• leggera: per leggera intendiamo il peso in termini di byte complessivi della pagina. Infatti,
Google ha da poco reso noto un brevetto in cui è illustrato come, tra i parametri presi in
considerazione per il posizionamento, vi sia il tempo di caricamento della pagina. Più
veloce questa sarà a caricarsi, meglio sarà per noi, poiché lo spider impiegherà meno
tempo nell’analizzarla e non si correrà il rischio che l’utente abbandoni la visita perché la
pagina impiega troppo tempo a visualizzarsi nel browser. Buone norme da seguire
consistono dunque nell’ottimizzazione delle immagini e nella riduzione delle animazioni
flash; le analizzeremo nei prossimi paragrafi.

NOTA

Per scrivere pagine web pulite, accessibili e indicizzabili, è bene seguire le raccomandazioni
W3C.

L’importanza del tag title


Il titolo di una pagina web è fondamentale, dato che comunica l’argomento della pagina non solo
all’utente, ma anche ai motori di ricerca. Risulta uno dei fattori on page che hanno ancora molta
rilevanza nel posizionamento delle pagine all’interno dei motori di ricerca. Il tag <title> deve
essere posizionato all’interno del tag <head> nel sorgente HTML della pagina e deve contenere
in modo logico alcune delle keyword selezionate in base al contenuto della pagina. Ricordiamo,
come abbiamo visto nei paragrafi precedenti, che anche la posizione delle keyword all’interno
dei tag (e in questo caso nel tag <title>) è un aspetto non trascurabile, in quanto viene tenuto
conto della prominenza per influire sul posizionamento della pagina.

Figura 4.1 - Esempio di utilizzo del tag <title>.

NOTA

Non ci stancheremo mai di ripetere come sia fondamentale utilizzare titoli diversi e unici per
ogni pagina. La Search Console di Google può aiutare in questo compito
(www.google.com/webmasters/tools).

Il titolo della pagina potrebbe essere utilizzato in molti casi dai motori di ricerca all’interno
della SERP; per questo motivo è importante che il contenuto della pagina web sia coerente con il
titolo scelto, che il titolo sia unico per ogni pagina e che risulti breve, ma allo stesso tempo
descrittivo.
Figura 4.2 - Come potrebbe apparire il tag <title> in una ricerca effettuata in Google.

Ho detto “il titolo della pagina potrebbe essere utilizzato in molti casi dai motori di ricerca
all’interno della SERP " in quanto Google utilizza una visualizzazione differente nella SERP sia
in base al contesto sia in base a quello che è stato cercato. In tal modo, non è detto che il titolo
che comparirà nella SERP sia identico a quello inserito nel meta tag title. Per stabilire quale testo
sfruttare come titolo da mostrare della SERP, Google si basa su un criterio di corrispondenza di
ciascun testo con la query digitata dell’utente.
Le tipologie principali di testo da cui Google può attingere per estrapolare il titolo di una pagina
sono le seguenti:
• testo nel tag HTML Title;
• testo nell’elemento Title del feed RSS;
• testo nell’elemento TITLE nelle sitemap XML;
• Anchor Text dei link interni al sito;
• Anchor Text dei link esterni al sito;
• titolo della risorsa presente in DMOZ;
• nome del dominio;
• testo presente nella pagina;
• testo presente nell’URL della risorsa.

Quindi non dobbiamo sorprenderci se in alcuni contesti il titolo presente nella SERP potrebbe
risultare differente rispetto a quanto riportato nel tag Title della nostra pagina web.
NOTA

Ad alimentare questa tesi sono le informazioni stesse fornite da Google che afferma:

“Se abbiamo rilevato che un risultato specifico ha uno dei problemi di titolo elencati in
precedenza, possiamo tentare di generare un titolo migliorato da anchor, testo nella
pagina o da altre fonti. Tuttavia, a volte, anche le pagine con titoli ben formulati, coincisi
e descrittivi ricevono titoli diversi nei risultati di ricerca per indicare meglio la loro
pertinenza alla query. Il motivo è semplice: il tag title, come specificato dal webmaster,
può essere solo statico e fisso, indipendentemente dalla query. Una volta venuti a
conoscenza della query dell’utente, spesso riusciamo a ricavare da una pagina un testo
alternativo che spieghi meglio perché quel risultato è pertinente. L’utilizzo di questo testo
alternativo come titolo è d’aiuto sia all’utente, sia al sito. Gli utenti cercano i termini di
query o altri segni di pertinenza tra i risultati, quindi un titolo adatto alla query può
aumentare le possibilità che gli utenti vi facciano clic.”

I crawler dei motori di ricerca considerano questo tag come uno degli elementi più importanti.
Siccome il tag del titolo comunica il tema della pagina web ai visitatori, i motori di ricerca
ritengono che le informazioni inserite debbano essere attinenti al contenuto della pagina. Anche
se ci sono molti punti di vista circa i fattori on page e la loro importanza nella SEO, la maggior
parte degli esperti concorda sul fatto che il tag del titolo sia significativo. Risulta fondamentale
richiamare la parola chiave inserita nel sito anche in diverse zone della pagina e negli altri tag,
ma non solo: la sequenza di collocamento di questi termini è molto importante anche da un punto
di vista SEO. In genere i motori di ricerca visualizzano nella SERP i primi 70-71 caratteri
(ultimamente si parla anche di pixel: circa 600 px – prima erano 512 px circa – o più per Google
dopo l’aumento delle dimensioni avvenuto a maggio 2016), quindi il tag del titolo non dovrebbe
essere troppo lungo anche in relazione alla semantica della pagina. Dal momento che ogni pagina
contiene diverse informazioni, è utile variare il titolo per ogni pagina. Si noti anche come sia
possibile utilizzare plurali e singolari: per esempio, per Google “pollo” e “polli” possono
produrre risultati diversi all’interno della SERP, anche se semanticamente correlati (stemming);
per tale motivo è consigliato usare keyword che presentino entrambe le forme, plurale e
singolare. Il titolo deve poi contenere una frase che abbia un senso compiuto; vediamo un
esempio a tale proposito.
Secondo le raccomandazioni W3C, il tag title non dovrebbe superare i 64 caratteri di lunghezza.
Se il titolo riguarda una società di nome “Italia” che svende mobili, nel tag title possiamo
scrivere:

Svendita mobili: B&R vi regala mobili di qualità.

L’attrazione data dalle parole “regala” e “svendita” attirerà molti visitatori curiosi. Un’altra
peculiarità che si può applicare al tag title è quella di inserire valori di separazione chiamati
pipe (|), per separare frasi; per esempio:

Camere eleganti con vista mare | Hotel Sole San Teodoro.

NOTA

Nel tag <title>, come abbiamo avuto modo di vedere, vanno inserite le parole chiave più
significative e descrittive per il sito, senza perdersi nell’utilizzo di frasi commerciali (il
classico “benvenuti sul sito”) o di stop word che Google tende a ignorare.

Google ignora le stop word, come preposizioni, articoli, congiunzioni, che sono quindi da
evitare, tranne in una particolare situazione, ossia quando hanno un ruolo determinante nel
formare un’espressione che si vuole posizionare (per esempio: Lord OF THE rings). Lo spider
non è case sensitive, dunque le lettere maiuscole o minuscole sono considerate senza distinzione.
Vanno, tuttavia, accuratamente evitati:
• la ripetizione esasperata della stessa parola chiave: rischia di essere considerata spam;
• il mancato riempimento del tag: la pagina verrà di default intitolata “untitled document” e
sarà annullato un importante fattore di posizionamento;
• l’inserimento di parole chiave estranee al contesto e ai contenuti della pagina: prima o poi
il fatto verrà rilevato dagli spider e si andrà incontro a penalizzazioni da parte del motore
di ricerca.

NOTA

Sono sconsigliate anche le cosiddette poison word: esse non causano la cancellazione
dall’indice, ma potrebbero penalizzare il ranking, poiché sono in conflitto con importanti
utility del web. Tipiche poison word sono: Bookmark, Link, Resource, Directory, Search
Engine, Forum, BBS.

Il titolo perfetto
Per anni i SEO si sono chiesti quale fosse la quantità massima di caratteri di un tag TITLE
indicizzata da Google, sapendo che tale informazione, all’atto pratico, non è così fondamentale.
Grazie a un esperimento di reverse engineering, è stato possibile dimostrare come Google riesca
a indicizzare le prime 12 parole che compaiono all’interno del titolo. Potete leggere
l’approfondimento e il test completo all’URL: http://tinyurl.com/titolo-perfetto.
Senza entrare in approfondimenti tecnici e senza dimostrare il corollario, vi illustriamo le
conclusioni di questo interessante test:
• è stato dimostrato come Google sia in grado di indicizzare un massimo di 12 parole
estratte dal tag TITLE delle pagine web;
• è stato osservato che il testo del tag TITLE può essere archiviato in blocchi separati, così
come avviene per il testo del corpo delle pagine HTML. Nello specifico, il semplice
trattino “-” (carattere ASCII 45) non induce Google ad archiviare il testo in blocchi
diversi, mentre il molto simile trattino “–” (entità HTML &ndash;) produce la separazione
in blocchi come la pipe (|);
• è stato rilevato che, in presenza di sequenze di singoli caratteri separati da spazio, Google
indicizza parole create accorpando i caratteri stessi secondo criteri non ancora chiari. Il
limite delle 12 parole viene comunque sempre rispettato.

NOTA

A livello “visibilità” nella SERP, Google ha recentemente modificato il modo di visualizzare


in SERP il “titolo” e la descrizione, aumentando il numero di caratteri e quindi anche di pixel
visualizzabili. https://www.searchenginejournal.com/google-extends-lengths-title-tags-
mobile-search-results/164030/

Questi test hanno dimostrato che il limite reale del tag title, salvo condizioni particolari, è di 12
parole. Va anche specificato che sia a livello di usabilità sia a livello SEO vanno presi ben altri
accorgimenti e che il limite delle 12 parole deve essere solo un parametro valutativo da
considerare quando sviluppiamo i nostri titoli.
Riassumendo, come dovrebbe essere un buon titolo SEO?
• Di una lunghezza tale da non essere “troncato” nelle SERP dei principali motori di ricerca.
• È consigliabile posizionare le parole chiave il più vicino ai primi caratteri del Titolo.
• Fare un tag title leggibile e coerente con il contesto della pagina.
• Se si include un “marchio” nei tag title è opportuno posizionarlo alla fine del titolo a meno
che non si tratti di un brand ben noto che le persone cercano.
• Rendere ogni titolo unico.
• Evitare un titolo pieno di parole chiave senza alcun senso.

In breve il titolo deve colpire l’utente e invogliarlo al magico clic sulla SERP dei principali
motori di ricerca.

Il meta tag description


Questo tag è importante perché la sua definizione potrà comparire tra i risultati prodotti dai
motori di ricerca (SERP) per una specifica keyword. La sua principale funzione è quella di
fornire una breve descrizione della pagina. Dobbiamo però precisare che in alcuni casi i motori
di ricerca nei loro risultati SERP potrebbero ignorare questo tag e utilizzare dei contenuti interni
della pagina web. È comunque vero che questo tag è fondamentale per dare una descrizione dei
contenuti che l’utente si aspetta di trovare visitando la pagina. È perciò consigliabile includere in
esso le frasi più rilevanti e le keyword scelte, cercando di dare più importanza alla loro sequenza
piuttosto che alla loro ripetibilità. Il meta tag description deve essere uno per ogni pagina e non
deve superare le 12-18 parole (fino a 278 caratteri dopo le ultime modifiche di maggio 2016).
Esso offre, dunque, non soltanto la possibilità di rafforzare le keyword (per l’utente) e di
individuare o confermare il topic della pagina (per il motore), ma anche quella di presentare un
claim attraente per una prima visualizzazione, una sorta di invito all’ingresso. Qui sotto
proponiamo un esempio di meta tag description:

NOTA

I motori di ricerca, per visualizzare i risultati nella SERP, utilizzano porzioni di contenuti
prelevati dalle pagine chiamati “snippet”. Tale generazione avviene in modo automatico e il
tag description è utile per suggerire ai motori di ricerca quali informazioni inserire nello
snippet. Quindi, anche se è vero che è ad arbitrio del motore di ricerca popolare lo snippet
(Google non sceglie solo la description, ma anche una porzione di testo, se ritenuta
rilevante), utilizzando opportunamente il tag description potremo influenzare in modo
positivo i motori di ricerca e, allo stesso tempo, migliorare il nostro ranking.

Figura 4.3 - Esempio del modo in cui il tag <description> viene utilizzato da Google all’interno della SERP.

Tra le altre caratteristiche che deve avere il tag description, possiamo menzionare le seguenti:
• deve essere unico per ogni pagina: questo aiuta gli utenti e i motori di ricerca. In caso di
CMS o pagine dinamiche, è possibile generare automaticamente questo tag prendendolo da
parte del corpo della pagina. Per verificare la corretta impostazione dei tag description
delle nostre pagine web possiamo utilizzare lo strumento per webmaster messo a
disposizione da Google;
• deve essere coerente con il contenuto della pagina: ovviamente questo tag è una sorta di
preview di quello che l’utente troverà visitando la pagina, quindi deve rispecchiare e
riassumere il tema della pagina web;
• deve utilizzare frasi di senso compiuto e non essere generico: è inutile scrivere nel tag
description “questa è una pagina” o “questa è la Home Page”. Gli utenti e i motori di
ricerca non trarranno nessun beneficio da queste informazioni. Una descrizione del tipo “la
società Pinco Pallino produce stufe a legna di qualità, dal design innovativo; vienici a
scoprire…” ha sicuramente più valore e conferisce informazioni aggiuntive alla pagina in
questione.

NOTA

Per evitare che i motori di ricerca recuperino da Open Directory (DMOZ) le descrizioni da
utilizzare nello snippet prodotto dalla SERP, è possibile utilizzare opportuni meta tag:
• Per Google: <meta name="googlebot" content="noodp">
• Per Bing: <meta name="msnbot" content="noodp">
• Per Yahoo! <meta name="slurp" content="NOYDIR" />

Per ottimizzare il tag title e il tag description esistono diversi tool; uno dei migliori, a nostro
avviso, è www.seomofo.com/snippet-optimizer.html, uno strumento utile per avere un’idea di
massima di come potrebbe essere la rappresentazione del nostro titolo e della description nella
SERP di Google.

Figura 4.4 - Il tool SEO Mofo.


NOTA

Nel corso del 2016, Google ha rivoluzionato il layout della SERP con conseguente
aggiustamento dei “pixel” visualizzati sia nel title sia nella descrizione aumentando il numero
di caratteri visualizzabili (anche in base al contesto).

Il meta tag keywords


Questo tag era usato agli albori di Internet per il posizionamento delle pagine web. Oggi è ormai
sorpassato ed è quasi del tutto ignorato dai motori di ricerca. A sostegno di quanto affermato
(cioè che il meta tag keywords sia ininfluente per il posizionamento nei vari motori di ricerca e
in particolare su Google), troviamo anche la dichiarazione di Matt Cutts, secondo il quale
“Google does not use the keywords meta tag in web ranking” (http://tinyurl.com/tag-keyword).
Possiamo quindi domandarci se Google abbia mai utilizzato il meta tag keywords ai fini del
ranking. Fino a oggi pare di no; è altresì vero che Google è in grado di utilizzare la Search
Appliance per organizzare e filtrare le ricerche in base ai meta tag (incluso il meta tag
keywords). Ma questa tecnologia lavora a livello enterprise, quindi, per le normali ricerche per
il web, non viene preso in considerazione il meta tag keywords, che non risulta avere alcun
effetto a livello di ranking (almeno per Google). Il nostro consiglio è quello di usarlo comunque,
soprattutto perché alcuni “propagatori di notizie” e directory potrebbero ancora utilizzarlo (vari
motori di ricerca come Yandex, Baidu e altri adoperano ancora il tag keywords all’interno dei
loro algoritmi di ricerca). È necessario non utilizzare più di 10 keyword all’interno di questo tag
senza ripeterle, separarle da una virgola e interporre tra di esse uno spazio. Ovviamente le
keyword, per essere rilevanti, dovranno comparire anche nei tag title, nella description e nel
corpo della pagina.
Sotto riportiamo un esempio di utilizzo del tag keywords:

Possiamo quindi affermare con certezza che questo meta tag è comparativamente meno importante
rispetto ad altri. Gli specialisti SEO cercano di aggiungere alcune informazioni nel meta tag
keywords per rendere il sito più amichevole agli occhi di un motore di ricerca (e anche dei
clienti che commissionano una campagna SEO), ma la maggior parte dei crawler non considera
minimamente questa porzione di codice. Detto questo, ricordiamo come Google e i principali
motori di ricerca non utilizzino, ormai da anni, questo meta tag: è quindi superfluo sfruttarlo e
perdere tempo nell’ottimizzazione di questo campo.
NOTA

A questo link potete visionare i principali meta tag utilizzati da Google:


http://tinyurl.com/Google-metatag

Figura 4.5 - A maggio 2016 non solo Google ma anche altri motori di ricerca hanno apportato modifiche e quindi tale
tabella va utilizzata solo come idea di massima!

Il meta tag language


È utilizzato per indicare la lingua della pagina web e sfruttato dagli strumenti di traduzione
automatica, come Google Translate:

All’indirizzo http://tinyurl.com/codici-iso potete trovare l’elenco dei codici ISO da utilizzare nel
campo content.

NOTA

Possiamo specificare che una determinata pagina del sito web non venga tradotta
automaticamente da Google impostando il meta tag <meta name="googlebot" content="notranslate">. Se
vogliamo che non venga tradotta solo una porzione del codice, è sufficiente impostare l’uso
della classe “notranslate” in questo modo:
Come vedremo nel capitolo dedicato all’indicizzazione per i siti multilingua, in alcuni contesti
sarà preferibile utilizzare il namespace W3C dell’XHTML (o usarli entrambi) per specificare la
lingua delle pagine, come mostra il seguente listato:

Google afferma: “We do not use locational meta tag (like “geo.position” or “distribution”) or
HTML attributes for geotargeting” (http://tinyurl.com/google-regional), quindi viene dichiarato
ufficialmente che Google non considera questi meta tag per la localizzazione. Ciò non significa
che non dobbiamo usarli: è vero che Google è il motore di ricerca più utilizzato, ma non
dobbiamo basarci solo su di esso. Il meta tag in questione potrebbe essere utilizzato da altri
motori di ricerca (come, per esempio, Bing).

NOTA

Quando creiamo una pagina HTML, dobbiamo specificare anche il DocType. Il DocType
deve essere il primo elemento ad aprire il documento; si tratta di un tag che ha il compito di
fornire informazioni al server web che ospita la pagina. Le informazioni conferite da
DocType riguardano il tipo di documento visualizzato, oltre a essere necessarie alla
comunicazione tra browser e server. DocType deve essere scritto in una forma standard, per
esempio:

NOTA

A questo indirizzo trovate un’ottima spiegazione sulla scelta del DocType più opportuno in
base alle esigenze:
http://htmlhelp.com/tools/validator/doctype.html

Il meta tag robots


Questo meta tag ha il compito di indicare al crawler, che scandisce le nostre pagine web, le
sezioni a esso accessibili e quelle che non dovranno apparire nella SERP, sfruttando il protocollo
REP (come, per esempio, le zone amministrative o le pagine protette), allo scopo di dare
informazioni inerenti ai contenuti della pagina web. Il suo scopo principale è quello di fornire
delle direttive allo spider del motore di ricerca. Attualmente, le direttive comuni ai diversi
spider sono quattro e hanno i seguenti scopi:
richiesta di includere (index) i contenuti della pagina nell’archivio del motore di ricerca;
• è l’istruzione di default e permette di far apparire la pagina nei risultati di ricerca (SERP);
• richiesta di NON includere (noindex) i contenuti della pagina nell’archivio del motore di
ricerca o meglio NON fare apparire in SE. A oggi Google indicizza anche le risorse che
includono un’istruzione NOINDEX, che equivale a una direttiva per non farle mostrare
nella SERP. La pagina in questione potrà ancora essere sottoposta a scansione e potrà
accumulare e trasmettere autorità, ma non apparirà nella SERP;
• richiesta di “seguire” (follow) tutti i link presenti, o meglio, di aggiungere al link graph
tutti i link che contiene la pagina;
• nofollow specifica al motore di ricerca di ignorare qualunque link presente in pagina.
Quando si utilizza il meta tag nofollow in una pagina, il motore di ricerca sarà in grado di
effettuare la scansione della pagina e inserire il contenuto nell’indice. Tuttavia, tutti i
collegamenti (sia interni che esterni) sulla pagina non passeranno il trust (autorità) ad altre
pagine.

NOTA

Ci sono diversi modi per impedire che i contenuti appaiano nei risultati di ricerca, come
l’aggiunta di “noindex” al meta tag robots, utilizzando .Htaccess per proteggere con
password le cartelle, e l’utilizzo di Google Search Console. Tools per rimuovere i contenuti
che sono già stati indicizzati. A tale proposito, vi segnaliamo questo interessante intervento
da parte di Google:
http://www.mattcutts.com/blog/google-noindex-behavior/

Sotto è mostrato un esempio di utilizzo del tag in questione:

NOTA

Se non inseriamo nessun meta robots, gli spider indicizzeranno (salvo altre indicazioni o
problematiche) automaticamente tutte le pagine e seguiranno tutti i link presenti all’interno
del nostro sito web. Il meta tag noindex è utile nei casi in cui siano presenti contenuti
duplicati, versioni stampabili o altre situazioni particolari in cui non si vuole che tale pagina
venga indicizzata dai motori di ricerca.

È inoltre possibile specificare azioni differenti per gli spider dei motori di ricerca più
conosciuti, utilizzando una sintassi del tipo:
Analizziamo i valori non ancora presi in considerazione:
• NOARCHIVE inibisce la visualizzazione nei risultati della SERP della copia in cache (in
memoria) per quella specifica pagina;
• NOODP serve a specificare di non utilizzare la descrizione ODP/DMoz nella
visualizzazione dello snippet dei risultati della SERP (come avevamo già accennato in
precedenza, quando avevamo parlato del meta tag description);
• NOSNIPPET serve per impedire la visualizzazione dello snippet nei risultati di ricerca
dei vari motori;
• NOIMAGEINDEX è utilizzato per non consentire l’indicizzazione delle immagini presenti
all’interno della pagina;
• NOTRANSLATE: abbiamo accennato, nel precedente paragrafo, a questo tag; inserendolo,
inibiamo la possibilità di tradurre i nostri contenuti con Google Translate;
• UNAVAILABLE_AFTER ci permette di indicare allo spider la data e l’ora in cui bloccare
la scansione della nostra pagina web.

Per informarci che un articolo scadrà in un preciso momento in cui dovrebbe essere rimosso
dall’indice di Google, è possibile utilizzare il seguente tag:

Un altro esempio che possiamo proporre è quello di dire allo spider di ASK di non indicizzare
questa pagina web utilizzando il seguente tag:

Analogamente, possiamo procedere a creare i nostri meta tag personalizzati seguendo le


indicazioni presenti nella Tabella 4.1. In genere, è preferibile gestire le impostazioni degli spider
a livello globale, utilizzando un apposito file di testo robots.txt riconosciuto dai principali
motori di ricerca (che sarà analizzato nello specifico nel prossimo paragrafo).
Tabella 4.1 - Impostazioni consentite dai principali spider.

NOTA

Una raccomandazione importante circa i contenuti del meta tag robots è quella di non
indicare direttive in conflitto tra loro (per esempio, index e noindex contemporaneamente).

In conclusione a cosa serve questo meta tag e come può essere usato?
• È un’istruzione di markup HTML.
• Serve per determinare se e come una pagina deve apparire nella SERP.
• Serve in alcuni casi per escludere dal link graph tutti i link che contiene una determinata
pagina.

NOTA

Il crawler deve poter accedere alla risorsa per poterla leggere. Se lo blocchiamo con con
robots.txt, potremmo generare un loop vizioso.
Il crawler continuerà a scaricare e archiviare la pagina anche in presenza di un’istruzione
noindex, come già accennato.

Istruiamo i motori di ricerca: il file robots.txt


Abbiamo visto come risulti cruciale identificare quale contenuto debba essere reso invisibile ai
motori di ricerca; in nostro aiuto viene il Robots Exclusion Protocol (REP), un protocollo che
vieta l’accesso da direttori specificati all’intero sito. Il protocollo REP effettua controlli che
possono essere applicati sia a livello globale, attraverso il file robots. txt, sia a livello di pagina
(come abbiamo visto precedentemente). Il file robots.txt è un semplice file di testo codificato in
formato UTF-8, che contiene comandi consistenti e una o più direttive che specificano quali
contenuti il motore dovrà analizzare per indicizzarli regolarmente. La sua principale funzione è
quella di specificare quali risorse del sito non devono essere richieste dagli spider. Il file
robots.txt dovrà sempre trovarsi nella directory principale del proprio dominio. Per esempio,
www.miosito.com/robots.txt è la posizione corretta per il file robots.txt all’interno del dominio
ingegneridelweb.com. Per prima cosa, è necessario aprire una piccola parentesi sul
funzionamento di uno spider: un crawler non segue letteralmente i link, ma, come abbiamo avuto
modo di analizzare nei primi capitoli, è un software che funziona come downloader di risorse che
possono essere successivamente memorizzate nel link graph.
Per questo motivo la direttiva Disallow nel file robots.txt viene utilizzata dallo spider di un
motore al fine di non prelevare una o più risorse/pagine.

NOTA

Dobbiamo sottolineare che per ogni sottodominio sarebbe opportuno applicare un file
robots.txt. Allo stesso tempo, però, tale file si applica a tutte le directory e sottodirectory
presenti nello stesso dominio o sottodominio.

Vediamo ora come utilizzare correttamente questo file per istruire gli spider dei motori di
ricerca:

• User Agent indica a quale robot il comando si applica; è possibile definire il valore *
(asterisco) per specificare che tale comando viene applicato a tutti i robot. Se vogliamo,
invece, che l’azione sia specifica per un determinato crawler di un motore di ricerca,
possiamo specificare il valore.
• Disallow serve a indicare qual è il contenuto da bloccare (risorsa da non prelevare). Deve
iniziare con / e può essere usato con alcune combinazioni di caratteri speciali.
Tabella 4.2 - I crawler dei maggiori motori di ricerca.
Nome Robot Funzione
Google
Googlebot Analizza le pagine web
Googlebot-Mobile Analizza le pagine web per mobile
Googlebot-Image Analizza le immagini
Mediapartners-Google Analizza i contenuti AdSense
AdsBot-Google Analizza i contenuti AdWords
Yahoo!
Slurp Analizza le pagine web
Yahoo-MMCrawler Analizza le immagini
Yahoo-MMAudVid Analizza i contenuti video
Bing
MSNBot Analizza le pagine web
MSNBot-Media Analizza i contenuti multimediali
MSNBot-News Analizza i feed delle news

NOTA

Ai seguenti indirizzi potete prendere visione dei nomi dei principali crawler utilizzati dai
motori di ricerca:
http://www.searchenginedictionary.com/spider-names.shtml
http://www.robotstxt.org/db/abcdatos.html

Vediamo alcuni esempi.


Disabilito il prelievo del file mio.html:

Blocco l’accesso al solo spider di Google a tutti i file che hanno estensione.pdf:
L’esempio sotto riportato è più curioso: nella prima riga del Disallow blocco l’accesso a Google
(o, meglio, blocco il prelievo della risorsa) alla directory tmp, mentre nella riga sottostante viene
bloccato l’accesso sia ai file, sia alle directory pippo:

Blocco tutti i robot; questa procedura è da utilizzarsi quando il proprio sito è in fase di testing e
non è ancora pronto per essere online o per i sottodomini riservati:

Per consentire l’accesso a tutti gli spider del sito, dobbiamo lasciare uno spazio vuoto dopo i due
punti che seguono la dicitura Disallow:

Nell’esempio sotto riportato, inibisco l’accesso a tutte le cartelle tranne alla cartella public:

Impedisco la scansione di URL che includono il punto interrogativo:

Il ritardo è supportato da Yahoo!, Bing e Ask. Incarico un crawler di aspettare il numero


specificato di secondi tra una scansione e l’altra. L’obiettivo della direttiva è quello di ridurre il
carico sul server:
L’esempio seguente mostra due nuovi parametri:
• REQUEST-RATE: utilizzato per istruire lo spider a visitare al massimo n pagine ogni tot
secondi (nel nostro caso, una pagina ogni cinque secondi);
• VISIT-TIME: per indicare il lasso di tempo in cui lo spider può accedere, nel nostro caso
dalle 9.10 fino alle 12.35.

NOTA

Al seguente indirizzo potete trovare ulteriori spiegazioni sull’utilizzo avanzato dei comandi
per il file robots.txt:
http://www.conman.org/people/spc/robots2.html

Infine, l’ultimo esempio proposto serve a dare un aiuto agli spider per individuare la sitemap del
nostro sito web (spiegheremo più avanti cos’è la sitemap). Ricordiamo, inoltre, che, attraverso la
Search Console di Google è possibile monitorare la corretta installazione del file robots.txt e le
eventuali risorse bloccate.
NOTA

È importante sottolineare il fatto che mettere il tag “Disallow” a una determinata directory
non implica che essa non possa essere disponibile via web e quindi sia protetta da eventuali
attacchi di malintenzionati. Utenti curiosi potrebbero analizzare il vostro file robots.txt per
vedere le cartelle “protette” e cercare di accedervi. Per questo motivo è fondamentale
proteggere con password o con sistemi di cifratura lato server le directory o i file riservati.
Altro consiglio è non bloccare risorse richieste da Google: “Per un rendering e
un’indicizzazione ottimale, le nostre nuove linee guida specificano che si dovrebbe
consentire a Googlebot l’accesso a JavaScript, CSS e immagini utilizzate nelle tue pagine.
Questo permette il rendering e l’indicizzazione ottimale del tuo sito. Non consentire la
scansione di JavaScript o CSS del tuo sito, nel file robots.txt, danneggia direttamente il modo
con cui i nostri algoritmi fanno il rendering e l’indicizzazione dei tuoi contenuti, e ciò può
portare ad un ranking non ottimale”. Di conseguenza, è importante che il file robots.txt non
impedisca agli spider di accedere a tutte quelle risorse che sono indispensabili per
“disegnare” le pagine web, come le immagini, i file CSS, i file JavaScript e i font per i
caratteri, ad esempio.

Figura 4.6 - Gestione del file robots.txt dalla Search Console di Google.

X-Robots tag
X-RobotsTag è un tag che va inserito nell’HTTP header e ha le stesse funzionalità illustrate per il
meta tag robots. L’unica limitazione di questo metodo è che non esiste alcun sistema per trattare
un robot specifico. Le direttive da utilizzare sono le seguenti:
• X-Robots-Tag: noindex
• X-Robots-Tag: nosnippet
• X-Robots-Tag: notranslate
• X-Robots-Tag: noarchive
• X-Robots-Tag: unavailable_after: 10 May 2011 17:00:00 GMT

Un esempio di dichiarazione:
Per esempio, se vogliamo usare la direttiva NoArchive, dobbiamo modificare per Apache il file
.Htaccess aggiungendo tale direttiva:

Se siete interessati ad approfondire ulteriormente questo argomento, potete trovare alcune risorse
aggiuntive al seguente link:
https://developers.google.com/webmasters/control-crawl-index/?hl=it

NOTA

Anche Google supporta questo tag, come si evince dal blog ufficiale:
http://tinyurl.com/google-rep

Crawl Budget: CBO


Crawl Budget è il numero di volte che lo “spider” di un motore di ricerca analizza il tuo sito web
in un determinato periodo di tempo. Ad esempio, se Googlebot “passa a visitare il mio sito web”
circa 1000 volte al mese, posso dire che 1K è il mio budget di scansione mensile per Google
(stiamo usando un’affermazione molto grossolana ma che ci serve per far capire il concetto).
In pratica, è una definizione utilizzata per indicare le risorse ($) che un motore di ricerca investe
sul tuo sito web con “l’invio dello spider” verso le pagine (immagini, documenti ecc.) del tuo
sito web.
Più alto è questo valore, maggiore sarà il tempo dedicato da uno search engine all’analisi del tuo
sito web. Ad esempio, dalla Search Console di Google possiamo stabilire questo valore allo
voce “Statistiche di scansione”, come mostra la Figura 4.7.
Figura 4.7 - CBO nella Search Console di Google.

Nel nostro caso dobbiamo moltiplicare il valore medio per 30 e possiamo stabilire in modo
approssimativo il budget mensile di scansione, ovvero 30*262=7860. Naturalmente questo
numero è soggetto a cambiamenti e fluttuazioni, ma ci consente di avere un’idea indicativa di
quante pagine del nostro sito possiamo aspettarci che vengano sottoposte a scansione in un
determinato periodo di tempo.
Per migliorare il CBO del nostro sito, dobbiamo eseguire alcune accortezze che poi andranno
adattate a ogni singolo caso:
1. evitare di indicizzare pagine di ricerca;
2. evitare paginazioni a loop infinito ma sfruttare i tag next e preview;
3. individuare le pagine 404 e sistemarle;
4. individuare link “rotti” e sistemarli;
5. evitare problemi di crawling (possiamo sfruttare strumenti come Screaming Frog per
analisi approfondite come vedremo nei prossimi capitoli).

In pratica dobbiamo fare in modo che tutte le risorse del nostro sito web siano raggiungibili in
modo semplice e che non ci siano errori che possano rallentare la “scansione” dello spider.
NOTA

Come avremo modo di vedere nella parte relativa ai tools, per monitorare il CBO oltre alla
Search Console di Google possiamo sfruttare tool come:
• ScreamingFrog
• VisualSEO
• DeepCrawler

Analisi dei log per la SEO


I file di log dei web server non sono altro che dei file testuali che contengono la lista di tutte le
richieste scambiate tra client e server.
Tipicamente i file di log hanno la seguente struttura:

Come mostrato dalla seguente immagine, ogni valore ha un significato specifico che ci permette
di avere informazioni dettagliate.

Figura 4.8 - Esempio file di log.

Attraverso tali informazioni possiamo, ad esempio, conoscere le pagine più visitate da un motore
di ricerca o individuare problematiche o criticità di un sito web. Ora che abbiamo preso
confidenza con i file di log dobbiamo cercare di capire come analizzarli in maniera rapida e
veloce.
Per fare tale operazione, possiamo utilizzare software in grado di analizzare i log (in real time o
stand alone) e fornirci statistiche ed evidenziare criticità istantanee.
Tra questi possiamo menzionare, ad esempio:
• http://www.sawmill.co.uk/
• https://www.splunk.com
• https://www.screamingfrog.co.uk/log-file-analyser/
• https://www.elastic.co/downloads/kibana
• http://www.webalizer.org

Senza dilungarci troppo, essendo un argomento molto tecnico, gli strumenti di analisi dei log ci
danno la possibilità a colpo d’occhio di trovare problematiche o fare analisi statistiche
dettagliate che risultano fondamentali per siti web di grosse dimensioni.

Figura 4.9 - Esempio di analisi di log.

Lo spazio dei meta tag


Abbiamo analizzato i principali meta tag utili in ambito SEO. Dobbiamo però precisare che i
meta tag sono davvero molti e possono avere implementazioni diverse, come gli A-Core, gli
Smart Bookmarks, i Dublin Core e così via.
Per esempio, il meta tag:

specifica il set di caratteri utilizzato, mentre il meta tag

specifica l’autore.
NOTA

Molti webmaster abusano del meta tag meta revisit-after (che serve a comunicare ai motori di
ricerca ogni quanto tempo il contenuto della pagina potrebbe variare); consigliamo, quindi, di
non eccedere nell’utilizzo di questo meta tag, ma di utilizzare, per esempio, le sitemap XML
per questo compito.

Rimandiamo il lettore al link www.libro-seo.it, dove potrà prendere visione di tutti i meta tag
utilizzabili all’interno di una pagina HTML. Tra gli altri tag di cui si può usufruire, vogliamo
segnalarvi X-UA-Compatible, un meta tag introdotto da Microsoft e riconosciuto solo da Internet
Explorer.

Con l’utilizzo del codice sopra illustrato, è possibile richiedere esplicitamente l’utilizzo del
sistema di rendering di Internet Explorer nella versione 8. In questo modo, risolveremo diversi
problemi di visualizzazione delle nostre pagine HTML all’interno di browser che utilizzano
Internet Explorer 8 come motore di rendering.

NOTA

Il seguente link vi sarà utile per seguire le specifiche W3C durante la scrittura dei vostri meta
tag:
http://tinyurl.com/w3c-meta-data

I falsi miti e le domande più o meno inutili sui meta tag sono numerosi; il nostro consiglio è
quello di utilizzare la ragione e il buon senso e di non prendere per buona solamente
un’affermazione, anche se proveniente dai massimi guru in ambito SEO. Una delle osservazioni
che abbiamo avuto modo di apprezzare su questo argomento è quella scritta da Andrea Vit, il
quale afferma:

Sebbene siano in molti a pensare che il meta tag keywords non debba essere inserito nelle
pagine poiché potrebbe “insospettire” il motore per il possibile utilizzo di tecniche
“spammose” o di keyword stuffing, io ritengo invece che avrebbe ancora ragione
d’esistere, anche se non direttamente per scopi SEO. Pensiamo, per esempio, agli strumenti
di ricerca interna di un sito. Potrebbe essere utile utilizzare le parole chiave inserite nel
meta tag per raffinare le ricerche e renderle maggiormente puntuali.
A tale proposito, condividiamo con Andrea l’importanza della scelta di una modalità o
funzionalità in base alla relativa utilità, non lasciandoci condizionare da pregiudizi o false
credenze.

Heading tag
I tag di intestazione sono utilizzati per organizzare i testi della pagina, fornendo maggiore
rilevanza alle parole o frasi in essi racchiuse (non confondiamoli con i meta tag o i tag head
dell’HTML). Vi sono sei tipologie di tag di intestazione con cui possiamo organizzare i paragrafi
del nostro testo in ordine di importanza all’interno di una pagina web. Il tag <H1> è quello a cui
è attribuito maggior peso, fino ad arrivare a <H6>, quello meno significativo. Saper utilizzare gli
heading tag correttamente è molto importante ai fini dell’indicizzazione, in quanto attraverso di
essi possiamo indicare agli spider quali, secondo noi, sono le frasi più importanti all’interno di
un testo web.
Il tag H1 serve a indicare l’argomento principale della pagina, quindi sarà quello cui verrà
assegnata maggiore rilevanza dai motori di ricerca. Un esempio di utilizzo è il seguente:

L’utilizzo dei tag di intestazione deve avvenire in modo decrescente: prima si utilizza il tag
<H1>, poi il tag <H2> e così via. Deve esserci una sola intestazione <H1> per pagina e ci deve
essere coerenza nell’uso degli heading tag, senza saltare nessun livello, passando da H1 a H2 a
H3. Naturalmente non è necessario utilizzare tutti gli header dall’H1 all’H6. Per la maggior parte
dei contenuti delle pagine web, da una ricerca che abbiamo condotto su circa 100 siti web, i tag
più usati sono <H1>, <H2> e <H3>; vediamo in quale contesto possono venire utilizzati:
• il tag H1 viene tipicamente utilizzato per il titolo della pagina e serve a indicare
l’argomento principale;
• i tag H2 e H3 servono per specificare i sottotitoli (abstract) delle pagine;
• i tag H4 o H5 si utilizzano per contenere i testi delle pagine;
• i tag H5 o H6 servono invece per note, approfondimenti, copyright.

NOTA

L’ordine di scansione da parte dei principali spider dei motori di ricerca è da destra a
sinistra, partendo dall’alto verso il basso. Quindi è buona norma, come vedremo, utilizzare il
tag H1 nella posizione più alta della pagina, solitamente in alto a destra.

Uno dei problemi concernenti l’utilizzo dei tag di intestazione è la grandezza del carattere di
default, che risulta a volte eccessiva e non si conforma con il layout delle nostre pagine web.
Fortunatamente, usando i CSS, possiamo specificare il layout per ogni singolo tag di intestazione.
Per esempio:

In questo modo definiamo lo stile di visualizzazione dei tag. Ovviamente non dobbiamo “fare i
furbi” e utilizzare font troppo piccoli, soprattutto per i tag H1 e H2, in quanto potremmo essere
penalizzati dai motori di ricerca. L’importanza dei tag di intestazione è nota in ambito SEO; molto
spesso, tuttavia, essi sono mal utilizzati, poiché si cerca di ripetere nel tag H1 le keyword
presenti nella descrizione, nel titolo della pagina e nel corpo della pagina. Questa tecnica, che
una volta portava ottimi risultati in ambito SEO, sembra ora vista con sospetto dai motori di
ricerca perché utilizzata pesantemente dai blog e CMS standard (sovraottimizzazione). Il nostro
consiglio è quindi quello di evitare di creare pagine con i tag H1, title e description identici, e di
concentrarsi maggiormente sullo scrivere intestazioni che siano utili non solo ai motori di
ricerca, ma anche ai visitatori del nostro sito web. Sotto è riportato un esempio di corretto
utilizzo degli heading tag:

NOTA

Con HTML5 è possibile utilizzare tali strutture in diverse sezioni della pagina:
http://dev.w3.org/html5/markup/.

I collegamenti: anchor text


L’anchor text non è altro che il testo cliccabile all’interno di un collegamento ipertestuale. Questo
testo risulta importante perché specifica all’utente cosa troverà visitando tale collegamento.

Nel nostro esempio informiamo sia il motore di ricerca, sia l’utente, del fatto che la pagina corsi-
seo.aspx conterrà contenuti sui corsi SEO tenuti da Ingegneridelweb.com. Tale collegamento
potrebbe puntare a pagine sia interne, sia esterne al sito web. Quanto più sarà appropriato e
coerente l’anchor text rispetto al contenuto della pagina linkata, tanto più daremo informazioni
corrette al visitatore. Questo aspetto viene premiato dai motori di ricerca, in quanto un buon
anchor text aiuterà a comprendere di cosa tratta la pagina che si andrà a visitare. Ovviamente,
utilizzare keyword all’interno di questo tag potrebbe sì aiutare, ma, come abbiamo già ripetuto, è
sempre necessario usare la logica e la razionalità e non abusarne mai: si rischierebbero
penalizzazioni da parte dei motori di ricerca. Inoltre, è noto come i link siano un elemento
fondamentale per il posizionamento, anche come fattore off page, perché non sono controllabili
direttamente dall’amministratore del sito web. Quindi, imparare a costruire anchor text efficaci
per le nostre campagne di marketing su altri siti web può rappresentare un buon inizio.
Analizzando diversi brevetti rilasciati da Google, e grazie a piccoli test che abbiamo effettuato su
alcuni siti web, possiamo affermare che all’interno dell’anchor text:
• è consigliabile usare testi brevi e descrittivi: dobbiamo dare un’idea di cosa andremo a
visitare. Evitiamo di inserire all’interno dei nostri link interni testi del tipo “clicca qui” o
“visita questa pagina” e diamo invece il giusto nome alla pagina che stiamo linkando;
• i link testuali sono da preferire rispetto ai link realizzati con immagini, perché potrebbero
migliorare l’indicizzazione della pagina;
• la lunghezza massima di un link, o meglio dell’anchor text di un link, non dovrebbe
superare le 8-10 parole. Infatti, Google sembra indicizzare le prime 8 parole dei link e
troncarle dopo circa 60 caratteri. Al link seguente è possibile approfondire quanto
affermato:
http://www.searchbrain.it/news/come-ti-smonto-google-una-piccola-scoperta-seo/;
• il peso dato ai link presenti nel footer e nella sidebar sembra essere calato. Pertanto, i link
adoperati per costruire un menu di navigazione dovrebbero essere posti in alto (in termini
di codice), sopra i contenuti (in relazione all’ambito SEO);
• i link devono essere semplici da individuare e possono essere formattati utilizzando i CSS
per uniformarsi al meglio con il layout del nostro sito web.

NOTA

I link a siti/risorse esterne possono avere grande rilevanza. Sebbene occorra non esagerare
con il numero di link che puntano all’esterno, se questi sono coerenti col tema e puntano a
risorse di valore o autorevoli, allora diventano sinonimo di qualità del sito e ne fanno
aumentare la considerazione. Il fattore determinante è, ancora una volta, l’attinenza.

Ritorneremo ancora sull’argomento, perché i link risultano importanti sia per gli utenti che
visiteranno il nostro sito per reperire le informazioni che ricercano, sia per i motori di ricerca, al
fine di capire le informazioni correlate a tali link.

Come utilizzare l’attributo title all’interno dei link


Uno degli attributi utilizzabili all’interno di un link è il tag title:
Nel nostro esempio abbiamo utilizzato il tag title come informazione aggiuntiva all’anchor text.
Questo tag è stato molto utilizzato negli ultimi anni sia dai CMS, sia da blog opensource come
WordPress. Esso, tuttavia, secondo un’analisi empirica effettuata, non viene praticamente
considerato dai principali motori di ricerca: tipicamente, viene impiegato per fornire
informazioni aggiuntive alla nostra utenza e per migliorare l’accessibilità e la navigazione del
sito web. Per esempio, posizionando il mouse sul collegamento ipertestuale, i browser
potrebbero far apparire la descrizione contenuta nel tag title conferendo un’ulteriore
informazione all’utente, come mostra la Figura 4.10.

Figura 4.10 - Esempio di visualizzazione nel browser dell’attributo title interno a un collegamento ipertestuale.

In conclusione, possiamo affermare che il tag title interno a un collegamento:


• va usato per aiutare i nostri utenti, non per il posizionamento SEO;
• non deve utilizzare lo stesso contenuto presente nell’anchor text; esso peggiora
l’accessibilità al nostro sito;
• può essere omesso se non fornisce informazioni aggiuntive.

Attributo Rel=”NoFollow”
Nel 2005 i tre principali motori di ricerca (Yahoo!, Google e Microsoft) iniziarono una
campagna atta a ridurre l’efficacia di spam. Una delle azioni fu quella di adottare il tag
rel=”nofollow”, in modo che il motore di ricerca non passasse la reputazione della pagina al link
in questione.

Questa soluzione potrebbe essere utile nel caso di siti web con commenti (o forum, guestbook,
bacheche) interni; una tecnica molto usata dagli spammer è quella di inserire nei commenti link ai
loro siti web. Mettendo l’attributo rel=”nofollow” a eventuali link che compariranno nei
commenti, avviseremo i motori di ricerca che noi non conosciamo tali link e quindi non vogliamo
passare loro la nostra reputazione. In modo analogo, potremmo utilizzarlo per linkare un sito web
a cui non vogliamo passare la reputazione. Ovviamente, è sconsigliato utilizzare tale attributo nei
collegamenti interni a pagine del nostro sito web (l’unico caso in cui avrebbe senso sarebbe
quello in cui volessimo collegare una pagina interna del sito con una che è stata penalizzata dai
motori di ricerca o a cui vogliamo dare meno tempo). Un recente aggiornamento del W3C su
HTML5 parla del nofollow in maniera molto ambigua: “The nofollow keyword may be used with
a and area elements. This keyword does not create a hyperlink, but annotates any other hyperlink
created by the element (the implied hyperlink, if no other keywords create one). The nofollow
keyword indicates that the link is not endorsed by the original author or publisher of the page, or
that the link to the referenced document was included primarily because of a commercial
relationship between people affiliated with the two pages”
(http://dev.w3.org/html5/spec/links.html). Quindi potrebbe essere interpretato o come contenuto
su cui non abbiamo il controllo editoriale o come contenuto con cui vi siano rapporti
commerciali. L’evoluzione degli algoritmi di ricerca e la diversità di definizione messa in atto
dai diversi motori di ricerca porterebbe addirittura a un’interpretazione diversa di questo meta
tag. A nostro avviso, il tag nofollow utilizzato nei link potrebbe giocare un ruolo molto
importante in termini di passaggio o meno della polarità di un sito web nell’era dei social
network.
Recenti dichiarazioni di Matt Cutts (http://www.mattcutts.com/blog/guest-blogging/) sull’uso dei
Guest Posting e sull’utilizzo nei widget e nei link di affiliazione di link follow con anchor text
esatti hanno fatto sì che tale attributo (rel=”nofollow”) risulti fondamentale per i webmaster, per
non incappare in sgradevoli penalizzazioni.

NOTA

L’attributo nofollow viene utilizzato anche per impedire il passaggio di PageRank da una
pagina all’altra (ma nell’ultimo periodo, a causa delle continue evoluzioni del web, questo
tag, come visto precedentemente, potrebbe essere interpretato anche in maniera differente):
per un maggiore approfondimento consigliamo la lettura di questo post:
http://www.mattcutts.com/blog/pagerank-sculpting/
Inoltre non è del tutto corretto affermare che gli spider di Google non seguono i link con
attributo nofollow. La presenza di un attributo nofollow in un link induce Google a ignorare il
link per quello che è inerente al trust o ai segnali di ranking, ma ovviamente non garantisce
che la risorsa venga ignorata.

Attributo Rel=”Canonical”
Si tratta di un tag introdotto recentemente (nel 2009) da Yahoo!, Bing e Google e utilizzato per la
gestione dei contenuti duplicati. Come avevamo già accennato, utilizzare contenuti duplicati
all’interno delle nostre pagine web può causarne la penalizzazione. La canonizzazione degli URL
è quindi il processo messo in atto dai motori di ricerca per scegliere qual è il migliore URL
avendo a disposizione una serie di alternative. Agli occhi dei motori di ricerca, il nostro sito
web potrebbe avere pagine con contenuto identico ma raggiungibili da URL differenti. L’utilizzo
del tag rel=”canonical” ci consente di specificare la versione preferita dell’URL che il motore di
ricerca dovrebbe indicizzare (e visualizzare nelle SERP). Analizziamo un caso: supponiamo di
avere un sito web con una vetrina di prodotti; il link alla pagina del prodotto “ergal-bike” è il
seguente:

Il prodotto appartiene a una categoria specifica, cioè quella product-ergal, e potrebbe essere
anche raggiunto dal seguente link:

Il prodotto, come abbiamo detto, può avere “colorazioni differenti” e quindi potrà, per esempio,
essere raggiunto da questo link:

Tutti questi URL produrranno la visualizzazione della medesima pagina (o di pagine molto
simili), ma non sapremo quale di queste il motore di ricerca utilizzerà nel suo processo di
indicizzazione. In nostro aiuto arriva il nuovo tag rel=”canonical”, che consente, nel nostro caso
specifico, di indicare che la pagina canonica preferita è A:

Per fare questo dovremmo copiare la stringa:

all’interno del tag <head> delle pagine B (http://www.vetrina.it/ergal-bike?cat=produc-ergal) e C


(http://www.vetrina.it/ergal-bike?color=red) per informare i motori di ricerca che tali pagine duplicate sono
riferite all’URL canonico A.

NOTA

Questa tecnica deve essere adottata solo per le pagine presenti su un unico dominio; se
abbiamo spostato delle pagine su altri domini, è consigliabile utilizzare il redirect 301, come
vedremo nei prossimi paragrafi.

Dal punto di vista del posizionamento, la canonizzazione degli URL aiuta a concentrare i fattori
principali che influiscono sul PageRank su un’unica pagina, consentendo di sfruttare al meglio la
link popularity di cui gode un sito. Per ulteriori approfondimenti vi consigliamo i post seguenti:
http://tinyurl.com/rel-canonical
e:
http://tinyurl.com/seomoz-canonical

NOTA

Ricordiamo che il crawler deve poter accedere alla risorsa per poter leggere questo tag,
quindi non deve essere bloccato dal file robots.txt!
Ovviamente questo tag può facilmente andare in conflitto con altre istruzioni, come ad
esempio:
• tag di paginazione;
• meta robots nofollow;
• meta robots noindex.
In caso di istruzioni contrastanti normalmente viene ignorato.
Inoltre va ricordato che, come più volte specificato da Google, i rel=canonical non sono
sempre sufficienti per risolvere problemi di duplicazione di contenuti o risorse.

Attributo Rel=”Alternate”
Google ha recentemente annunciato una nuova metodologia per cercare di risolvere problemi
inerenti ai contenuti duplicati su siti multilingua in cui il template viene adattato alla lingua
dell’utente, mentre i contenuti restano nella lingua originaria. Tale situazione può verificarsi
quando il contenuto principale rimane nella lingua in cui è stato originariamente scritto, ma:
• abbiamo un menu di navigazione tradotto in diverse lingue;
• abbiamo un footer che si adatta alle diverse lingue supportate dal sito web;
• abbiamo sottomenu ad azioni specifiche tradotti in varie lingue.

Supponiamo che vi siano comunità o siti in cui è richiesta la registrazione dell’utente, che può a
sua volta crearsi una pagina del profilo. Per esempio, www.miosito.it/marco sarà il sito in lingua
madre italiana, mentre fr.miosito.it/marco sarà la versione francese ed en.miosito.it/marco sarà
quella inglese. Tutte queste versioni avranno i contenuti nella lingua madre (l’italiano), ma i menu
saranno tradotti nelle rispettive lingue. Tale situazione porterebbe ad avere pagine molto simili a
livello di contenuti, con conseguente rischio di penalizzazione.
Google propone una soluzione a queste tipologie di problemi: quella, cioè, di utilizzare appositi
attributi da inserire nei link che puntano alle versioni tradotte delle diverse pagine:
• rel=”alternate”: serve a specificare che si tratta di una pagina alternativa;
• hreflang=”codice della lingua ISO-639”: per identificare in quale lingua è stato tradotto
il template.
Figura 4.11 - Esempio di una situazione a rischio di penalizzazione: pagine con contenuti simili ma con menu in lingue
diverse.

Nella pagina canonica, quindi, cioè quella che sarà la versione base, verranno riportati i diversi
link alle pagine che avranno il template tradotto:

Nel nostro esempio, a partire dall’URL canonico www.miosito.it/marco, ci troveremo ad avere


come link:
NOTA

Questa tecnica è destinata ai siti in cui viene tradotto soltanto il modello (il template); non è
adatta a siti in più lingue i cui contenuti vengano tradotti completamente (in quanto avranno
URL e contenuti diversi e non si corre il rischio di penalizzazioni).

Questo nuovo approccio lato SEO permette di:


• evitare il rischio di penalizzazioni per siti con template tradotti;
• gestire in maniera ottimale situazioni ambigue in cui all’interno della stessa pagina
possono trovarsi contenuti in più lingue;
• indicizzare in maniera corretta le pagine e fornire a Google un giusto modo di
interpretazione dei contenuti.

Fonte ufficiale:

http://googlewebmastercentral.blogspot.com/2010/09/unifying-content-under-multilingual.html

Il grassetto e i tag di enfatizzazione


Lo spider, nel processo di analisi di una pagina web, cerca di reperire le informazioni più
pertinenti e interessanti. Utilizzare i tag di enfatizzazione (grassetto, corsivo, sottolineato,
colorato) permette non solo di ottenere un testo maggiormente leggibile e comprensibile
all’utente finale, ma anche di renderlo più appetibile ai motori di ricerca. L’influenza dei tag
bold, strong e italic sul posizionamento nei motori è un tema trattato da diverse scuole di
pensiero, talvolta in modo assai discorde. Per prima cosa dobbiamo dire che i tag che
prenderemo in considerazione sono i seguenti:
• <STRONG>Strongly emphasized text.</STRONG> e <B>Bolded text.</B> per il grassetto;
• <I>Italic text.</I> e <EM>Emphasized text.</EM> per il corsivo;
• <U>Underlined text.</U> per il testo sottolineato.

Ma allora qual è la differenza nell’uso di un tag piuttosto che di un altro? Dobbiamo precisare
che l’utilizzo di questi tag a livello di posizionamento esercita un’influenza molto bassa. Inoltre,
secondo una dichiarazione di Matt Cutts, non vi è alcuna differenza nell’utilizzo di questi tag; essi
vengono considerati con ugual peso.
NOTA

Sul motore di ricerca ranking di SEOmoz, i tag grassetto e strong sono elencati alla posizione
# 16, con un’influenza minima sul PageRank. Secondo Matt Cutts, Google considererebbe tali
tag con egual peso.

Detto ciò, dobbiamo però tenere presente che <b> e <strong> e <i> e <em>, anche se possono
sembrare uguali (a livello di rendering nel browser), hanno un significato assai diverso:
• i tag <b> e <i> servono a indicare al browser come visualizzare i caratteri racchiusi entro
tali tag;
• il tag <em> indica enfasi, mentre il tag <strong> indica un’enfasi semantica, che può
essere trasmessa da lettori vocali a persone con problemi di accessibilità.

Questo ci fa capire come, in realtà, l’utilizzo di tag che forniscono un risultato “simile” agli occhi
degli utenti possa essere interpretato in maniera differente dai browser o da strumenti per la
lettura dei testi. Poiché tutto, sul web, è ormai legato alla semantica, per aumentare le possibilità
di classifica è consigliabile:
• utilizzare il tag <strong> ed evitare il tag <b> (ormai deprecato);
• preferire il tag <em> al posto del tag <i>;
• utilizzare il corsivo <em>, in quanto sembra avere una rilevanza maggiore rispetto allo
<strong>;
• non abusare dei tag <em> e <strong>;
• utilizzare opportunamente i tag per evidenziare le parole che potrebbero comparire nella
SERP dei risultati, quindi colpire maggiormente l’attenzione degli utenti;
• minimizzare l’adozione di font-weight: bold (nei CSS), poiché è preferibile utilizzare il tag
<strong>.

NOTA

Usare il grassetto sulle keyword sembra incidere poco a livello di posizionamento. A ogni
modo, il grassetto potrebbe essere utilizzato per evidenziare keyword del contenuto che
compaiono nel tag title e nel meta tag description. Per Bing, invece, sembra essere importante
la presenza di una keyword nel tag BOLD (<b>).

Ovviamente, i webdesigner hanno a disposizione molti elementi per formattare correttamente il


testo e renderlo più gradevole agli occhi dei visitatori, anche con l’utilizzo dei CSS. Il nostro
consiglio è quello di concentrarsi sull’uso corretto del grassetto e dell’italico all’interno del
documento da redigere, e di utilizzare i tag <strong> e <em> per conferire maggiore enfasi alle
parole. Nei prossimi capitoli sarà ampiamente illustrato il tema inerente alla scrittura per il web
in ottica SEO.

Attributo ALT nelle immagini


Le immagini costituiscono una parte fondamentale nell’estetica di un sito web, ma, come vedremo
in seguito, anch’esse dovranno essere considerate per ottimizzare il nostro sito web in un’ottica
SEO. L’attributo alt è un elemento interno del tag <img> e serve per fornire un testo alternativo in
caso di non disponibilità dell’immagine stessa. Ciò può essere d’aiuto nel caso che un utente stia
navigando sul nostro sito con un browser che non supporta le immagini: l’attributo alt fornirà
informazioni in merito all’immagine corrispondente. Nell’esempio sotto riportato vediamo, per
l’appunto, l’utilizzo dell’attributo alt per una determinata immagine:

Figura 4.12 - Esempio di applicazione e utilizzo del tag “alt”.

NOTA

Questa pratica deve diventare di uso comune per tutti i webmaster: affinché un sito sia
validato secondo gli standard W3C, la presenza dell’attributo alt per le immagini costituisce
uno dei requisiti fondamentali.

Per quanto riguarda la SEO, sarebbe ottimo affiancare al testo un’immagine contenente nell’alt
una keyword che appare anche nel contenuto a fianco dell’immagine, come per esempio nel tag
<title> e nel meta tag description. Come sempre, non bisogna abusare di queste tecniche, ma
amalgamarle per ottenere i migliori risultati. Una buona idea potrebbe essere quella di usare
delle immagini per costruire elenchi puntati di link contenenti keyword, utili nel caso di pagine
con pochi contenuti (potete osservare un esempio di questa tecnica nella Figura 4.13).

Figura 4.13 - Elenco puntato con immagini con l’utilizzo dell’attributo alt per rafforzare la presenza delle keyword.

NOTA

L’attributo title del tag <img> può essere usato per definire i tooltip visibili quando viene
posizionato il cursore sopra l’immagine. Anche se la sua utilità in termini di SEO non è
comprovata, consigliamo di utilizzarlo per migliorare la user experience del proprio sito
web.

HTML 5 e SEO
L’HTML 5 è un linguaggio di markup per la costruzione di pagine web che con il tempo andrà a
sostituire l’attuale HTML 4.01, di cui rappresenta la naturale evoluzione. Per tale motivo, anche
in ambito SEO dovremo aspettarci novità e cambiamenti. Affrontarli in anticipo ci consentirà di
agire sulle nostre pagine per migliorarne l’indicizzazione in un modo sempre più orientato verso i
metadati e le strutture semantiche. I motori di ricerca stanno diventando sempre più intelligenti:
utilizzare quella che viene definita segmentazione (cioè una pagina è divisa in varie parti distinte
e queste parti sono trattate come voci separate) è importante al fine di migliorare il
posizionamento del sito web. Attualmente non vi è un modo per fare questo, ma con HTML 5 la
situazione potrebbe cambiare radicalmente. Infatti HTML 5 (utilizzato con CSS3) introduce
diversi nuovi tag per modellare in maniera semplice il layout di un sito web e fornire
informazioni e metadati aggiuntivi ai motori di ricerca. Da qui ci accorgiamo come il web stia
assumendo un’impronta semantica; di conseguenza, sia i motori di ricerca, sia i linguaggi di
programmazione devono adattarsi a tali cambiamenti.
Figura 4.14 - Struttura di un sito secondo HTML.

Analizziamo ora i principali nuovi tag introdotti da HTML 5.

Il tag <header>
Il tag <header> è una benedizione per gli esperti SEO, perché aggiunge una notevole flessibilità
al layout delle pagine web. Il tag <header> è molto simile al tag <H1>; la principale differenza è
data dal fatto che può avere diversi contenuti come H1, H2, H3, possedere interi paragrafi di
testo, hard-coded link. Con questo elemento si raggruppano i contenuti presenti nell’intestazione
del documento HTML.

Il tag <nav>
La facilità di navigazione di un sito web è uno dei fattori importanti per gli esperti SEO. Il tag
<nav> è preposto a contenere gli elementi di navigazione della pagina. Sarà quindi un tag molto
utilizzato dagli spider per indicizzare i contenuti di un sito web.
Il tag <article>
Il tag <article> permette di contrassegnare le voci separate in una pubblicazione online, come un
blog o una rivista. Si prevede che, nel caso di articoli contrassegnati con il tag <article>,
quest’ultimo renderà il codice HTML più pulito, perché ridurrà la necessità di utilizzare i tag
<div>.

Il tag <section>
Il tag <section> può essere utilizzato per identificare le sezioni separate di una pagina, di un
capitolo o di un libro.

Il tag <hgroup>
Serve a raggruppare due o più intestazioni successive all’interno di una sezione. Esso può essere
composto dai tag h1 fino a h6.

Il tag <figure>
L’elemento figure serve per rappresentare diagrammi, immagini o contenuti grafici in generale. A
questo tag possiamo associare una didascalia grazie all’elemento figcaption.
Il tag <video>
Il nuovo elemento cross-browser che fornisce il supporto a contenuti multimediali.

Il tag <aside>
Con questo elemento si raggruppano i contenuti secondari del documento HTML, tipicamente
quelli gestiti nelle barre laterali di un sito web.

Il tag <footer>
Il tag <footer> può essere utilizzato più volte all’interno di una medesima pagina e serve per
chiudere delle sezioni e fornire informazioni sulla pagina.

NOTA

I tag che abbiamo descritto sono solo alcuni dei tanti e ci vorrebbe un intero libro per
illustrarli tutti; per approfondire l’argomento rimandiamo il lettore al seguente articolo:
http://www.w3schools.com/html/html5_new_elements.asp

HTML 5 si sta diffondendo sempre più, e anche i motori di ricerca, come vedremo nei prossimi
paragrafi, stanno adottando nuove funzionalità derivanti da questo linguaggio (markup, snippet,
rel next e prev ecc.).
I vantaggi legati all’uso di HMTL 5 sono numerosi:
• miglioramenti in usabilità e user experience;
• inserimento e adozione di tag che aiuteranno gli sviluppatori nella classificazione dei
contenuti;
• contenuti web ricchi (audio & video);
• costituisce una valida alternativa a Flash e Silverlight;
• è ormai ampiamente utilizzato per applicazioni mobili e giochi.

Quando HTML5 passerà alla release ufficiale, ci sarà un grosso cambiamento nel campo SEO,
poiché verranno utilizzati nuovi campi e nuove strutture da parte dei motori di ricerca per
indicizzare contenuti e pagine web. Tuttavia, una volta che HTML 5 sarà usato dalla comunità
web, esso diventerà lo standard dominante negli anni a venire, ed è per questo che risulta
opportuno testare e tenere d’occhio questa tecnologia, che cambierà l’approccio allo sviluppo di
applicazioni per il web.
NOTA

HTML 5 introdurrà anche tag rel (<a rel=”value”>) con significati semantici atti a definire la
relazione che intercorrerà tra i diversi link. Ciò, a nostro avviso, modificherà lo scenario
SEO introducendo nuovi e interessanti parametri da prendere in considerazione.

Il Web Semantico
Siamo giunti a uno stadio in cui le informazioni che circolano sulla rete sono divenute
incontrollabili e anche difficilmente categorizzabili. I motori di ricerca ci aiutano nel reperire le
informazioni, ma spesso questo non basta. Magari quello che cerchiamo è nascosto all’interno di
un sito poco indicizzato ed è proprio lì che risiede il vero valore. In questo contesto nasce il
Web Semantico (Semantic Web), un’architettura universale atta allo scambio di informazioni e
conoscenza. Il Semantic Web dovrà integrare e sostituire il web normale per esprimere concetti e
informazioni in maniera comprensibile alle applicazioni. In poche parole, con Web Semantico si
intende la trasformazione di Internet in un ambiente dove è possibile fornire informazioni e dati in
un formato adatto all’interrogazione, all’interpretazione e, più in generale, all’elaborazione
automatica. Tra le varie tecnologie adottate per giungere a tale scopo, troviamo:
• XML (eXtensible Markup Language), un metalinguaggio che fornisce un insieme standard
di regole sintattiche per modellare la struttura di documenti e dati (utilizzato, per esempio,
per le Sitemap e i Feed RSS);
• URI (Uniform Resource Identifier): serve a identificare in modo univoco una risorsa;
• OWL: serve per identificare espressioni di relazioni tra le proprietà in ontologie;
• DAML+OIL, linguaggio di ontologia orientato agli oggetti (Object Oriented);
• Web Service, un insieme di servizi atti a supportare l’interoperabilità tra diversi
dispositivi.

Con il termine Web Semantico si intende quindi la trasformazione del World Wide Web in un
ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) sono associati a
informazioni e dati (metadati) che ne specificano il contesto semantico in un formato adatto
all’interrogazione, all’interpretazione e, più in generale, all’elaborazione automatica. I principali
motori di ricerca si stanno adoperando per cercare di sfruttare la ricerca semantica all’interno
dei loro algoritmi, in modo da fornire risultati sempre più precisi ed eliminare lo spam nelle
SERP.

Google e le novità del Web Semantico


Google è il motore di riferimento e, anche per quanto concerne il Semantic Web, si sta
muovendo in tale direzione. Recenti dichiarazioni (fonte: http://bit.ly/web-semantico) di Amit
Singhal, ex top executive di Google Search, hanno aperto nuovi e interessanti scenari. Singhal ha
infatti dichiarato che “il motore di ricerca abbinerà meglio le query con un database che contiene
milioni di ‘entità’ – persone, luoghi e cose – accumulate a mano a mano nel corso degli ultimi due
anni”. La ricerca semantica potrà aiutare ad associare tra loro parole diverse, per esempio una
società (Google) con i suoi fondatori (Larry Page e Sergey Brin). Alcuni importanti cambiamenti
sono già stati “attivati”, ma questo cammino verso la ricerca semantica è frutto di un lavoro in
corso da anni, che farà entrare Google “nella nuova generazione dei motori di ricerca”. Proprio
con l’introduzione del Knowledge Graph, Google ha permesso di rendere le ricerche più facili
affinando la ricerca semantica grazie al nuovo algoritmo di Hummingbird. In questo modo il
risultato della ricerca è dato dalla correlazione di informazioni “raccolte” da diverse fonti che
includono, per esempio, Freebase, Wikipedia,Wikidata e alcuni siti di alta qualità selezionati da
Google. Ma non è finita: a ottobre 2015 Google ha comunicato, come abbiamo già avuto modo di
vedere, un nuovo algoritmo che sfrutta l’Intelligenza artificiale, ovvero RankBrain il cui scopo è
quello di interpretare i risultati di ricerca e fornire le migliori informazioni possibili a sua
disposizione. In definitiva, RankBrain utilizza l’intelligenza artificiale per incorporare grandi
quantità di dati trasformandole in entità matematiche - denominate vettori - comprensibili da un
elaboratore. In tal modo, RankBrain analizza una parola o una frase per fare un’ipotesi sul suo
significato filtrando, di conseguenza, il risultato. Ciò rende più efficace la gestione delle query
rispetto a quanto visto fino a oggi.

NOTA

Il percorso di migrazione verso il Web Semantico da parte di Google è iniziato con


l’acquisizione di Orion, nel 2006, e di Metaweb, nel 2010.

In questo scenario, il primo grande cambiamento di Google è stato quello strutturale. Il vecchio
motore è stato completamente rimpiazzato da un nuovo motore semantico in grado di individuare
entità univocamente riconoscibili nelle pagine web e stabilirne le relazioni con tante altre entità.
Le relazioni tra le varie entità sono l’aspetto fondamentale su cui si costruisce il nuovo motore,
perché danno la possibilità a Google di approssimare una risposta per deduzione. Questa
capacità deduttiva basata sulle relazioni tra le varie entità conferisce a Google una sorta di
intelligenza artificiale che gli permette di rispondere con certezza su molti argomenti di cui è
“bene informato” e di dedurre possibili risposte attraversando le relazioni tra gli elementi
dell’ormai noto Knowledge Graph.
In concreto, se cerchiamo le parole “lago Tahoe” su Google, il motore di ricerca è in grado di
fornirci tutto quel che sa a proposito del lago: la sua posizione, la sua altitudine, la sua
temperatura media e il grado di salinità delle sue acque. In passato, se cercavamo “lago Tahoe”,
Google ci restituiva solo dei link all’ufficio turistico del lago, la relativa pagina di Wikipedia e
un link alla mappa della località.
Per fornire risposte a questo tipo di domande, il motore unisce una nuova tecnologia di ricerca
semantica al suo attuale sistema di indicizzazione dei contenuti. L’obiettivo? Riconoscere meglio
il valore delle informazioni pubblicate sul web e capire, quindi, quali contenuti mostrare nei
risultati della ricerca. Tutto questo dovrebbe avvenire non più affidandosi soltanto alla lettura
delle parole chiave contenute nelle pagine del web, ma attraverso il riconoscimento di specifiche
“entità”.

Figura 4.15 - Google e l’evoluzione della ricerca semantica.

Google spera, inoltre, che la ricerca semantica possa invogliare le persone a trascorrere più
tempo sul suo sito, entrando così in competizione con Facebook e Twitter, tra i maggiori siti al
mondo per tempo medio di navigazione.
La mossa verso la ricerca semantica potrebbe spingere milioni di siti web a riorganizzare le loro
pagine, modificando ciò che viene chiamato il “linguaggio di mark-up” per agevolare il recupero
delle informazioni (in questi termini si è espresso Larry Cornett, web-search executive di
Yahoo!).
Singhal ha fatto sapere che Google e Metaweb Technologies hanno ampliato questo database fino
a raggiungere la quota di 200 milioni di “entità”, in parte attraverso lo sviluppo di algoritmi di
estrazione e formule matematiche che semplificano l’organizzazione dei dati raccolti nel web.
Google si è spinta anche oltre, interpellando organizzazioni e agenzie governative per ottenere gli
accessi a un gran numero di database, tra cui il CIA World Factbook, che raccolgono
informazioni aggiornate di carattere enciclopedico sui Paesi di tutto il mondo.
Oggi Google è un motore di ricerca molto complesso e con Hummingbird è decisamente intent
based, ossia tendente a comprendere quale sia l’intenzione che sta dietro la ricerca dell’utente,
quindi l’approccio del SEO deve essere completamente diverso.
Insomma, il Web Semantico si sta avvicinando a grandi passi e stravolgerà il modo di concepire
il web e soprattutto la SEO. Concetti come quello di Linked Open Data (LOD) si stanno
diffondendo nell’ambito web; cerchiamo di capirne di più. Al giorno d’oggi, l’idea di collegare
le pagine web utilizzando i collegamenti ipertestuali è ovvia, ma risale a 20 anni fa. Il concetto su
cui si basa il Linked Data è quello di definire opportune regole per la pubblicazione dei dati sul
web in modo che essi possano essere facilmente individuati, incrociati e manipolati dalle
macchine. Tutte queste informazioni sono organizzate in modo semantico secondo i concetti
dell’RDF. In sostanza, il LOD ci permetterà di pubblicare dati strutturati in modo che possano
essere interconnessi tra di loro e sia possibile stabilire delle relazioni tra di essi.
Alla base di tutto vi sono fondamentalmente due concetti:
• Web Semantico;
• URI, Uniform Resource Identifier.

Linked Open Data è la rappresentazione di dati strutturati migliorati attraverso l’uso di URI
HTTP; in sostanza, stiamo parlando di entità-relazioni rappresentate da dati strutturati basati su
modelli in cui le entità, gli attributi e i valori di attributi sono indicati da link.
C’è ancora molta strada da fare prima che questi concetti vengano realmente applicati al mondo
del web di tutti i giorni e soprattutto alla SEO, ma con Schema.org, hashtag ecc., ci stiamo
avvicinando a questa tipologia di rappresentazione, che sicuramente costituisce il futuro dei
collegamenti ipertestuali semantici.
I dettagli del progetto si possono trovare all’indirizzo: http://linkeddata.org/
Figura 4.16 - Semantica sul web.

I microformati
All’interno del Web Semantico si collocano anche i microformati, che non sono altro che una
parte di mark up presente in una pagina web, con un intrinseco valore semantico. L’uso di
standard largamente adottati come l’(X)HTML li rende modulari e semplici da utilizzare.
Figura 4.17 - Microformats.org, i microformati.

Tra i principali microformati utilizzati troviamo:


• hCard: è un formato utilizzato per creare strutture dati inerenti a persone, aziende,
organizzazioni e luoghi;
• hCalendar: serve a standardizzare e identificare eventi o date;
• hReview: è specifico per la recensione di prodotti o servizi;
• hProduct: è specifico per la descrizione di prodotti o oggetti.

NOTA

Per scoprire tutti i microformati presenti, consigliamo di visitare il sito microformats.org: a


tale indirizzo sono presenti utili tool per creare automaticamente strutture dati che utilizzano i
microformati.

Vediamo un esempio pratico di utilizzo; per prima cosa, prendiamo in considerazione una
porzione di codice html:

Di seguito, mostriamo l’inserimento dei microformati con l’utilizzo dell’hCard:


Possiamo notare come sia semplice utilizzare i microformati: essi forniscono informazioni
aggiuntive sulla corretta interpretazione dei dati senza modificarne il layout grafico. Ma tutto
questo come interagisce con la SEO? I motori di ricerca si stanno sempre più evolvendo verso
un’ottica semantica; per questo motivo dobbiamo essere preparati a tali cambiamenti.
Recentemente, inoltre, Google ha annunciato la possibilità di utilizzare proprio informazioni
semantiche per la creazione di Rich Snippet, affermando: “Grazie ai Rich Snippet, i webmaster
che hanno siti contenenti dati strutturati (per esempio, siti di recensioni o con schede di attività
commerciali) possono assegnare un’etichetta ai propri contenuti per chiarire che ogni porzione di
testo con etichetta rappresenta un determinato tipo di dati: per esempio, il nome di un ristorante,
un indirizzo o un voto”.
Quindi, attraverso l’utilizzo di microdati, microformati o RDF, è possibile cercare di arricchire
lo snippet nella SERP di Google, com’è mostrato in Figura 4.18.

Figura 4.18 - Rich Snippet utilizzando i microformati.

Attualmente, Google supporta tre linguaggi di marcatura per i dati strutturati: i microformati,
RDFa del W3C e lo standard microdata dell’HTML 5. Nonostante l’approvazione del W3C,
RDFa risulta decisamente più articolato da padroneggiare e gestire in confronto ai microformati
e, teoricamente, questo fattore ostacola la sua diffusione. Ciò non significa che non valga la pena
di utilizzarlo, poiché presenta vantaggi potenziali, come l’utilizzo di un minor numero di codici di
marcatura, che implica pagine di dimensioni più piccole. Anche lo standard microdata
dell’HTML 5 sembra molto promettente, ma allo stato attuale è ancora in fase “beta”.

NOTA

Secondo Google i microdati utilizzano semplici attributi nei tag HTML per assegnare nomi
brevi e descrittivi a elementi e proprietà. RDFa è un modo per associare etichette ai
contenuti al fine di descrivere uno specifico tipo di informazioni (http://tinyurl.com/meta-
rdfa).
Ora che abbiamo compreso l’utilità di questi strumenti, analizziamoli in modo più approfondito
attraverso esempi pratici. Utilizziamo i microformati (essendo questi i più utilizzati e semplici da
implementare) per descrivere la nostra organizzazione.

Figura 4.19 - Esempio hCard per un’organizzazione.

Le proprietà utilizzate sono:


• fn org: nome dell’organizzazione;
• url: link del sito web;
• adr: l’indirizzo del business; esso contiene le sottoproprietà: street address, locality,
region, postal-code e country-name;
• tel: numero di telefono;
• geo: specifica le coordinate geografiche.

È utile creare tale struttura nella pagina di contatti dell’attività: analogamente, possiamo sfruttare
i microformati per creare schede informative riferite a persone o enti. Si può proporre l’utilizzo
dei microformati, implementandoli all’interno di una scheda prodotto, com’è illustrato nella
Figura 4.20.

Figura 4.20 - Esempio hproduct nella descrizione di un prodotto.

Le proprietà utilizzate nel nostro esempio sono:


• brand, per indicare il brand del prodotto;
• category, per indicare la categoria merceologica;
• description, per indicare la descrizione del prodotto;
• fn, per indicare il nome del prodotto;
• price, per indicare il prezzo del prodotto;
• photo URL, la foto del prodotto;
• url, per indicare l’URL della pagina di descrizione del prodotto.

Abbiamo quindi potuto apprezzare e osservare la facilità di utilizzo di queste strutture di dati, che
si integrano appieno con il nostro codice HTML. Per vedere ulteriori esempi, vi consigliamo di
visionare i seguenti link:
• http://tinyurl.com/Gmarking
• http://tinyurl.com/GReviews
• http://tinyurl.com/Gpeople
• http://tinyurl.com/GBusiness

Dopo aver creato le pagine contenenti i microformati, non ci resta altro che:
• validare il nostro codice di markup che utilizza i microformati:

http://www.google.com/webmasters/tools/richsnippets

o:

http://microformats.org/wiki/validator
• segnalare a Google il nostro sito web:

http://tinyurl.com/submit-snippet

NOTA

È molto importante seguire l’evoluzione tecnologica che accompagna la crescita del web
moderno, in quanto i vari motori di ricerca si spingeranno sempre di più verso questi scenari
per migliorarsi. Abbiamo già accennato a come Google utilizzi già i microformati: anche
Bing e Yahoo! hanno annunciato di utilizzarli. Ciò fa comprendere l’importanza dell’utilizzo
dei microformati all’interno delle nostre pagine web. A sostegno di questa tesi, troviamo la
notizia dell’acquisto di Metaweb (società specializzata nella catalogazione e archiviazione
delle ricerche sulle pagine web e il loro significato) da parte di Google.

I Microdati e Schema.org
Abbiamo visto l’utilizzo dei Microformati. Oltre a questi, esistono i Microdati, che, assieme a
RDFa, vanno a completare l’insieme delle strutture semantiche da utilizzare per fornire
informazioni strutturate ai motori di ricerca.
Grazie a HTML 5 è possibile espandere il core set dell’HTML classico con l’aggiunta di
vocabolari personalizzati (tramite i microdati, per l’appunto) che ci consentono di fornire
informazioni semantiche ai principali motori di ricerca. Nel luglio 2011, infatti, i principali
motori di ricerca, come Google, Bing e Yahoo!, si sono uniti sotto un unico “cappello”
Schema.org per creare e sostenere una serie di schemi per la marcatura di dati strutturati sulle
pagine web. Lo scopo principale di Schema.org è quello di fungere da punto di riferimento per i
webmaster, per facilitare l’utilizzo, da parte loro, dei microdati.

NOTA

I motori di ricerca hanno deciso di concentrarsi su un solo formato unificato, i


MICRODATI, descritto in Schema.org per cercare una soluzione semplice e utile per i
webmaster.

Per comprendere meglio cosa siano i microdati, vediamo come Google li descrive:

La specifica dei microdati HTML5 è un modo per assegnare etichette ai contenuti al fine di
descrivere un tipo specifico di informazioni (ad esempio, recensioni, informazioni su
persone o eventi). Ogni tipo di informazione descrive uno specifico tipo di elemento, come
una persona, un evento o una recensione. Ad esempio, un evento ha proprietà quali il luogo,
l’ora di inizio, il nome e la categoria.

L’utilizzo dei microdati è più semplice di quanto possa sembrare: per ogni pagina HTML in cui
vogliamo sfruttare tali strutture possiamo specificare particolari attributi che ci consentono di
definire oggetti semantici. Troviamo, quindi, due elementi - radice itemscope e radice itemtype -
che ci servono come contenitore delle informazioni che vogliamo specificare:
• itemscope è il contenitore dell’oggetto e serve a identificare l’elemento;
• itemtype identifica e descrive il vocabolario in cui viene specificato il tipo di oggetto.

Infine, troviamo l’attributo itemprop, che deriva dai due elementi radice appena descritti e che
definisce la proprietà che verrà valorizzata con il testo contenuto presente nel tag. Vediamo un
esempio di utilizzo dei microdati:

Analizziamone il funzionamento:
• nella prima riga itemscope indica che i contenuti racchiusi tra i tag <div> sono un
elemento;
• http://schema.org/Person indica che l’elemento è una persona;
• ogni proprietà dell’elemento persona è identificata con l’attributo itemprop. Ad esempio,
itemprop=”name” descrive il nome della persona.

In modo analogo, possiamo creare strutture semantiche per diverse tipologie di oggetti definite in
Schema.org. Infine, per poter verificare la correttezza dei tag semantici, possiamo sfruttare lo
strumento di Google per i Rich Snippets, come mostrato nella Figura 4.21.
https://search.google.com/structured-data/testing-tool

Figura 4.21 - Esempio di validazione struttura con i microdati con lo strumento Rich Snippets di Google.

I microdati sono quindi un valido strumento che dovrebbe essere utilizzato in qualsiasi sito web
(come, per esempio, negli e-commerce, per descrivere attraverso strutture semantiche i propri
prodotti) al fine di migliorare le informazioni fornite agli utenti e generare i Rich Snippet,
conferendo quindi un valore aggiunto alle informazioni presenti nella SERP.
NOTA

Vogliamo precisare che non solo Google utilizza i Rich Snippet nella SERP, ma anche gli
altri principali motori di ricerca, come, per esempio, Bing, hanno iniziato di recente a
sfruttarli. Motivo in più per iniziare a implementare pagine web sfruttando i microdati.
Inoltre possiamo sfruttare JSON-LD per inserire strutture dati sviluppate con Schema.org; per
maggiori info https://developers.google.com/schemas/formats/json-ld.

Rich Cards
Google è sempre attivo e nell’ultimo periodo sta concentrando i suoi sforzi nelle SERP per
migliorarle. Dopo aver eliminato la barra di destra per gli annunci di ADWords, introdotto le
pagine AMP e avere aumentato i caratteri visibili per i titoli e le descrizioni in SERP, ha diffuso
un nuovo formato semantico, ovvero le Rich Cards, per fornire contenuti in maniera più
coinvolgente e visivamente accattivante. Attualmente sono disponibili per le ricette, i video, i
ristoranti e i corsi online ma non è detto che non vengano a breve estese ad altre strutture dati.

Figura 4.22 - Esempio delle Rich Cards.

Google ha predisposto una guida per implementare queste CARD visualizzabili in formato
carosello consultabile all’url https://developers.google.com/search/docs/guides/mark-up-content.
Come avviene per i Microdati, è consigliato:
• usare JSON-LD;
• validare la struttura dati con lo strumento di Google https://search.google.com/structured-
data/testing-tool;
• sfruttare il nuovo formato all’interno delle pagine web.

Le Rich Cards sono sicuramente un nuovo strumento molto potente in mano sia agli editori che
agli sviluppatori per implementare pagine che abbiano un aspetto coinvolgente in SERP. Tutto
questo, inoltre, è tracciabile dalla Search Console di Google sia per conoscere le Cards corrette
sia per avere un’idea di quanti visitatori atterrano sul nostro sito sfruttando questa nuova
“funzionalità” di Google.

Figura 4.23 - Rich Cards nella Search Console di Google.

Open Graph
Quando parliamo di Web Semantico dobbiamo fare un doveroso accenno agli Open Graph.
Facebook ha introdotto l’OpenGraph, che ci permettere di aggiungere delle informazioni
strutturate alle pagine web, in modo tale da avere un maggiore controllo su come i contenuti
appaiono quando vengono condivisi su Facebook. Grazie alla sua diffusione, l’Open Graph è
stato riconosciuto come standard anche da altri social network, come Twitter, Google e LinkedIn.
Esso si basa su una serie di tag personalizzabili da inserire nell’<head> delle pagine Web. La
sintassi è molto semplice e la illustreremo brevemente:
• og:url: l’url canonica dell’articolo;
• og:title: il titolo dell’articolo;
• og:description: la descrizione dell’articolo;
• og:site_name: il nome del sito che pubblica la notizia;
• og:image: l’immagine di anteprima Facebook consiglia immagini di circa 1200 x 630
pixel.

Ecco un esempio:

Esistono molti tag Open Graph consultabili all’url


https://developers.facebook.com/docs/reference/opengraph#object-type.
Infine, grazie allo strumento di Debug di Facebook
(https://developers.facebook.com/tools/debug/), abbiamo la possibilità di verificare la
correttezza dei tag implementati.

Authorship Markup (Deprecato?)


Attraverso gli standard del Semantic Web possiamo informare Google sulla paternità di un
articolo, post o documento pubblicato sul web. Questa peculiarità si integra appieno con i Rich
Snippet, fornendo un risultato di maggior impatto nella SERP, che mostrerà la foto dell’autore
dell’articolo.
Per poter associare gli articoli a un profilo personale, abbiamo a disposizione modalità
differenti:
• possiamo inserire nell’articolo un link con rel=”author” verso il nostro profilo su
Google+;
• nel caso di un blog o sito web con più autori possiamo inserire nell’articolo un link con
rel=”author” verso la pagina relativa all’autore. Quest’ultima pagina al profilo G+ con
rel=”me”.
NOTA

È altresì possibile, infine, inserire il proprio nome nell’articolo linkato a un indirizzo e-mail
verificato. Infatti, alla fine di ottobre 2011 Google ha introdotto un modo semplificato e, in
tanti casi, automatico, per associare le pagine di un sito web ai profili Google+. Se una
persona pubblica e convalida il proprio indirizzo e-mail sul suo profilo Google+ e inserisce
il medesimo indirizzo e-mail in tutti i suoi articoli, Google collegherà gli articoli al profilo
Google+ dell’autore. Questa pratica potrebbe portare spam verso l’indirizzo e-mail utilizzato
e, per tale motivo, ne sconsigliamo l’utilizzo. Per maggiori informazioni:
http://tinyurl.com/markup-mail.

Caso 1: Un autore, un sito web


È la situazione più semplice: dobbiamo semplicemente “collegare” il nostro sito web con il
profilo personale di Google+. Grazie all’introduzione delle pagine business di Google+, tale
procedura è consentita anche in questo scenario. I passi da seguire sono veramente semplici: è
necessario, per ogni post/articolo, inserire un link rel=”author” verso il nostro profilo su
Google+ e da quest’ultimo linkare il sito web alla voce “contributore di”.
In questo modo avremo un collegamento reciproco e verranno attivati gli Authorship Markup per
il nostro sito web.

NOTA

Inserendo il pulsante di Google+ per le pagine business, creeremo un collegamento reciproco


tra il profilo aziendale e il sito web, attivando gli Authorship Markup in maniera automatica.
Figura 4.24 - Schema logico per Authorship Markup nel caso di un singolo autore per sito web.

Caso 2: Un sito web, più autori


In questo scenario abbiamo più autori che scrivono per un determinato sito web e ogni autore ha
una pagina personale con il proprio profilo all’interno del sito web.
Vediamo i passi per mettere in pratica quanto detto:
• inseriamo un link con rel =”author” dal nostro post/articolo verso la pagina dell’autore;
• inseriamo un link con rel = ”me” dalla pagina dell’autore verso il profilo di Google+;
• infine, dalla pagina del profilo di Google+ impostiamo nel campo “contributore di” l’URL
del sito web in questione.

La Figura 4.25 mostra nel dettaglio i passi da eseguire.


Figura 4.25 - Schema logico per Authorship Markup nel caso di più autori per sito web.

Così facendo, attiveremo gli Authorship Markup anche per siti web in cui collaborano più autori.
Per verificare i passi eseguiti, possiamo utilizzare lo strumento di Google per i Rich Snippet:
http://www.google.com/webmasters/tools/richsnippets.
Se tutto è andato a buon fine, potremo apprezzare la potenzialità di questo risultato nella SERP di
Google, come mostra la Figura 4.27. Ma, dopo agosto 2014, questo non è più possibile. Infatti in
una dichiarazione John Mueller, portavoce di Google, ha detto:
Figura 4.26 - Lo strumento Rich Snippet di Google.

Figura 4.27 - Come si presentavano gli Authorship Markup nella SERP di Google.

“Sono stato coinvolto sin dalle fasi iniziali dei test sull’authorship markup, e della
visualizzazione dello stesso nei risultati delle ricerche. Abbiamo ricevuto un sacco di feedback
utile da webmaster e utenti, e abbiamo ottimizzato, aggiornato e affinato il riconoscimento e la
visualizzazione delle informazioni sull’authorship. Purtroppo, abbiamo anche osservato che
questa informazione non è utile ai nostri utenti come avevamo sperato, e può anche distrarre dai
risultati. In base a ciò, abbiamo preso le difficile decisione di interrompere la visualizzazione
dell’authorship nei risultati di ricerca.”
I nuovi tag rel=”next” e rel=”prev”
Tipicamente, nella gestione di news o in cataloghi di e-commerce online si sfrutta la paginazione
per suddividere un elenco di pagine. Google ha cercato di facilitare l’operatività ai webmaster, i
quali possono utilizzare i tag rel=”next” e rel=”prev” assieme al tag canonical per evitare
duplicazioni di contenuti, consentendo un’organizzazione strutturale delle informazioni.

NOTA

Ricordiamo che il tag rel=”canonical” permette di indicare a Google quale sia la pagina
principale all’interno di una sequenza di pagine “simili”.

Grazie all’utilizzo di questi nuovi tag, possiamo quindi dichiarare un ordine consequenziale delle
pagine per consentire agli utenti e al motore di ricerca una consultazione più semplice e lineare
dei contenuti.
Vediamo un esempio pratico fornito da Google per sfruttare tali tag.
Supponiamo di avere quattro URL con paginazione:

Nella prima pagina includiamo nella sezione <head>:

nella seconda pagina inseriamo:

nella terza pagina:

e nell’ultima pagina:

Alcuni accorgimenti tecnici:


• la prima pagina deve contenere solo rel=”next” e non rel =”prev”;
• l’ultima pagina deve contenere solo rel=”prev” e non rel =”next”;
• rel =”next” e rel =”prev” vanno dichiarati nella sezione <head>;
• rel=”previous” è una variabile sintattica di rel=”prev”;
• è possibile utilizzare tali tag con rel=”canonical” nel caso sia presente una visualizzazione
“view all” (cioè una visualizzazione che consente di elencare tutti gli elementi presenti
nella paginazione) per evitare la duplicazione dei contenuti.

Una valida alternativa per gestire i contenuti “spalmati” su più pagine.

NOTA

Per ulteriori informazioni, si rimanda a http://tinyurl.com/nextprev e http://tinyurl.com/video-


paginazione.

LSI: Latent Semantic Indexing


Il Latent Semantic Indexing (LSI) è un particolare metodo di classificazione dei documenti.
Esso permette, attraverso complessi algoritmi matematici, di individuare i termini e le frasi
presenti all’interno di un documento e di scoprirne le similarità. In questo modo è possibile
fornire documenti che possono essere rilevanti per una determinata ricerca, anche se non
contengono esattamente gli stessi termini. L’indicizzazione semantica latente aggiunge, quindi, un
passo importante al processo di indicizzazione dei documenti. In ambito SEO vi sono diverse
discussioni in merito, soprattutto sull’utilizzo da parte dei motori di ricerca di questa tecnica.
Alcuni motori di ricerca potrebbero, infatti, utilizzare il LSI o tecniche analoghe per confrontare
siti web con argomenti affini, in modo da fornire risultati maggiormente coerenti agli utenti. In
parole povere, il LSI applicato ai motori di ricerca non è altro che la loro abilità di conferire un
senso al contenuto di una pagina web, non analizzando semplicemente la densità delle keyword
utilizzate, ma scoprendo associazioni tra keyword e keyphrase presenti nel contesto di quella
particolare pagina. In riferimento alla SEO, cosa possiamo fare per sfruttare un eventuale
approccio LSI da parte dei motori di ricerca? Dobbiamo precisare che, a oggi, non esiste nessun
brevetto che parli dell’adozione di LSI da parte di Google. I motori di ricerca potrebbero usare
tecniche simili, ma non è detto che sfruttino appieno l’algoritmo LSI. Per verificare ciò, possiamo
effettuare un piccolo test. Il caso più semplice dovrebbe essere quello della verifica dei risultati
di ricerca utilizzando termini singolari e plurali: LSI gestisce in modo identico le due tipologie di
frasi, quindi i risultati della ricerca dovrebbero essere identici in entrambe le casistiche.
NOTA

Nel caso fossimo collegati con il nostro account Google, dobbiamo effettuare il log out
(disconnessione) per effettuare tale test.

Proviamo a digitare “vino” e “vini”: Google produce risultati differenti. Proseguiamo con “auto”
e “automobile” o “macchina”: anche in questo caso i risultati proposti si discostano in misura
notevole. Come ultimo test proviamo a impiegare diversi tempi verbali di una parola. Se fosse
ampiamente utilizzato LSI, i risultati di ricerca forniti dovrebbero essere molto simili. Proviamo
con “vincerò” “vinto”. Anche in questo caso i risultati divergono. Questo semplice test, a nostro
parere, serve a comprendere che, se anche i motori di ricerca usassero LSI, questo non
sembrerebbe influire in maniera così radicale sul posizionamento all’interno della SERP. Inoltre,
sembrerebbe che LSI, con numerosi carichi e una mole di dati, non risponda perfettamente: ciò
vorrebbe dire che Google potrebbe usare tecnologie migliori. Come sappiamo, nella SEO non
esistono certezze matematiche, quindi ogni considerazione va presa con cautela. A ogni modo,
possiamo attuare piccole modifiche in ambito SEO per cercare di approcciarci a LSI o a
metodologie simili (Google Suggest). I nostri consigli sono i seguenti:
• utilizzare sinonimi nell’anchor text: non avrebbe senso creare link che, per esempio,
utilizzino sempre e solamente la parola “SEO”; risulterebbe interessante variarli con
termini semanticamente simili, come Search Engine Marketing, posizionamento nei motori
di ricerca, motore di ricerca, ranking dei motori di ricerca;
• prendere in considerazione tutte le varianti di parole chiave suggerite da vari strumenti per
la generazione di keyword;
• nel corpo del documento utilizzare anche sinonimi e plurali per cercare di indicizzare più
keyword.

Questi semplici consigli, se ben amalgamati con quanto abbiamo visto e quanto vedremo in
seguito, potranno condurre a ottimi risultati in termini di posizionamento e visibilità. Ovviamente,
dobbiamo precisare che con il tempo i motori di ricerca miglioreranno i loro algoritmi, perciò è
sempre buona norma rimanere aggiornati sull’uscita di nuove tecnologie o sulla pubblicazione di
nuovi brevetti. Vi suggeriamo, a tale scopo, di seguire il blog www.seobythesea.com, che
propone in anteprima gli ultimi brevetti rilasciati dai principali motori di ricerca.
NOTA

Esiste un’estensione per Firefox: Google Semantics (https://addons.mozilla.org/en-


US/firefox/addon/6029), che consente di ottenere come risultato di una ricerca in Google
anche i sinonimi per la frase ricercata, come si evince dalla Figura 4.28. Un altro interessante
tool è http://deeperweb.com/, il quale ci permette di trovare in pochi istanti i sinonimi di una
parola confrontandoli con i risultati presenti sul web.

Figura 4.28 - Utilizzo del tool per Firefox Google Semantics. Nell’esempio vengono forniti i sinonimi durante la ricerca
della parola “auto”.

LDA: Latent Dirichlet Allocation


Abbiamo appena illustrato LSI, quello che viene definito da molti SEO “un mito”; ora ci
concentreremo su un argomento nuovo e molto interessante: LDA. LDA significa Latent
Dirichlet Allocation e consente di scomporre i documenti e le pagine web in più cluster,
suddividendoli attraverso opportuni filtri bayesiani per keyword o argomenti simili.
L’applicazione di questo modello è la caratterizzazione di documenti in modo completamente
automatico, senza bisogno di indicare il valore semantico delle parole presenti nei testi.
Dobbiamo precisare come LDA, diretto discendente di altri modelli, come LSI, non sia una
nuova scoperta: le sue prime applicazioni, infatti, risalgono al 2002. La differenza introdotta da
LDA è data dal fatto che per l’indicizzazione dei documenti o delle pagine web non vengono
presi in considerazione solamente i fattori classici, come il keyword stuffing, la densità delle
parole chiave o qualche vecchia tecnica SEO convenzionale a proposito della concentrazione di
una parola chiave all’interno di una pagina. Si tratta, invece, di dover riconoscere argomenti
diversi che hanno un vocabolario specifico. Applicato ai motori di ricerca, ciò vorrebbe dire
insegnare a essi come “Maldini, Baresi e Nesta” facciano parte di un raggruppamento specifico,
“difensori del Milan”. Ma anche questa spiegazione è davvero riduttiva, raffrontata alle
possibilità di applicazione di LDA. Si presuppone che alcuni motori di ricerca, come Bing e
Google, implementino LDA per le loro classificazioni, ma ovviamente non vi sono certezze in
merito. Desideriamo, tuttavia, segnalarvi questi due documenti interessanti:
• da parte di Google: http://tinyurl.com/lda-google;
• da parte di Microsoft: http://tinyurl.com/lda-microsoft.

A tale riguardo, vediamo un esempio di correlazione semantica individuata tramite LDA per
capirne il funzionamento:

La navetta spaziale ha viaggiato a lungo nello spazio prima di arrivare sulla Luna. Una
volta arrivata, le sonde esamineranno il suolo per cercare di stabilire se nelle profondità
dei crateri lunari si trova del ghiaccio.

Le parole chiave che possiamo individuare sono astronomia e geologia.


Il significato semantico delle parole chiave, anche se esse non sono indicate esplicitamente,
viene evidenziato dal topic di ogni singola frase. Per effettuare test similari possiamo avvalerci
di un tool molto interessante:
http://www.virante.org/seo-tools/lda-content-optimizer
Esiste un altro ottimo tool, http://www.freebase.com/ ormai sostituito da
https://www.wikidata.org/ che ci consente di analizzare le relazioni e le correlazioni tra diverse
entità. Non dobbiamo fare altro che impostare l’indirizzo web della pagina e la keyword che
vogliamo analizzare. Si otterrà un punteggio in percentuale da intendersi come indicatore di
pertinenza del contenuto di questa pagina secondo LDA.
Figura 4.29 - Tool freebase.com.

Tale strumento può rivelarsi adatto per decidere se LDA possa realmente influire
sull’ottimizzazione SEO on page e quindi suggerirci quali sono le contromisure da adottare. Per
esempio:
• questo strumento può venire in aiuto per individuare le keyword più rilevanti per una
ricerca;
• ci permette di individuare la “bontà” di una determinata parola chiave;
• modificando il contenuto della pagina, possiamo scoprire come variano i risultati proposti
e agire di conseguenza.

L’argomento trattato è nuovo e di attualità; per questo crediamo che provare a effettuare
modifiche ad alcune pagine per testarle con questo strumento possa risultare interessante,
soprattutto con l’introduzione, da parte di Google, di strumenti che ci suggeriscono in automatico
le parole da cercare mentre le digitiamo nel browser (Google Instant). Testare e provare è
sempre una buona strategia SEO, ma bisogna anche prendere con le pinze le nuove scoperte e
approfondirle adeguatamente. LDA non è una nuova ricetta magica (è presente sul mercato da
quasi dieci anni), infatti l’importanza dei link, la validità dei contenuti e la link building
rimangono invariati per ottenere un corretto posizionamento, ma l’evoluzione degli algoritmi
utilizzati dai motori di ricerca potrebbe aprire nuove e interessanti strade, applicabili anche in
ambito SEO.
NOTA

Vogliamo segnalarvi due articoli in merito a LDA in cui potete trovare opinioni e pareri
contrastanti:
http://www.seomoz.org/blog/discussing-lda-and-seo-whiteboard-friday
http://seobullshit.com/lda-google-games

Testiamo brevemente i fattori on page


Abbiamo illustrato i fattori on page principali; nel Capitolo 5 completeremo tale scenario
analizzando l’ottimizzazione della struttura di un sito web e dei componenti di una pagina web. A
questo punto siamo pronti per mostrarvi l’utilizzo di alcuni tool che ci permetteranno di
monitorare le azioni SEO e che dovranno essere utilizzati nel tempo per cercare di sfruttare tutte
le nozioni fornite in questo libro. Un buon esperto SEO deve essere in grado di monitorare le
azioni e di capire i successi e le sconfitte, in modo tale da apportare modifiche al proprio piano
strategico. Perciò, oltre ad avere un diario di bordo in cui annotare le azioni adottate, risulta utile
adoperare alcuni tool che consentono di ottimizzare il tempo fornendo risultati significativi.
Successivamente, verso la fine del libro, mostreremo nel dettaglio i migliori tool SEO a
disposizione sul mercato e come utilizzarli. Riteniamo comunque opportuno aprire una breve
parentesi su come utilizzare alcuni di questi tool per monitorare i fattori SEO on page appena
descritti.
Un primo tool che analizzeremo è SEO Automatic (http://www.seoautomatic.com/unique-
tools/instant-seo-review), uno strumento gratuito (ne esiste anche una versione a pagamento più
completa) che consente di monitorare per ogni pagina i principali fattori SEO. È sufficiente
inserire l’URL della pagina da monitorare per avere un feedback immediato. La Figura 4.30
mostra un esempio pratico di utilizzo di questo tool.
Figura 4.30 - Utilizzo del tool SEO Automatic per analizzare i fattori interni della pagina web.

Un altro tool è SEO Doctor (http://www.prelovac.com/vladimir/browser-addons/seo-doctor),


un plug-in per il browser Firefox che offre la possibilità di monitorare le pagine web, fornendo
utili e immediati feedback visivi. Una volta installato il tool, vedremo apparire nella barra
dell’URL di Mozilla Firefox nuovi simboli che apporteranno indicazioni, tra cui:
• lingua dell’hosting;
• link della pagina web;
• parametri SEO on page.

NOTA

SEO Workers Web Page SEO Analysis Tool (https://addons.mozilla.org/en-


US/firefox/addon/10455/) è un altro dei tool per Firefox che permettono di tenere sotto
controllo i principali fattori SEO on page delle pagine web.
Figura 4.31 - Utilizzo del tool SEO Doctor per l’analisi dei fattori SEO on page.

Infine, vogliamo menzionare il tool On page (https://addons.mozilla.org/en-


US/firefox/addon/9403/), un plug-in aggiuntivo per firebug installabile per Mozilla Firefox.
Questo strumento, oltre a mostrare il doom della pagina e i rispettivi parametri, fornisce,
inserendo una keyword, una serie di rapporti che consentono di comprendere come la pagina web
sia più o meno ben ottimizzata per quella rispettiva keyword. Esso analizza, per esempio, il
titolo, i meta tag o il contenuto della pagina o di un dominio e propone suggerimenti per
migliorare questi fattori.

Figura 4.32 - Esempio di utilizzo del tool SenSEO.

NOTA

Non dimentichiamo della Search Console di Google che ci fornisce utili informazioni,
soprattutto a livello di dominio generale, indicando, per esempio, le metadescrizioni
duplicate, i tag title duplicati e le performance generali del nostro sito web.
Figura 4.33 - Suggerimenti forniti dalla Search Console di Google.

Ovviamente quello che abbiamo mostrato finora consiste in un rapido controllo automatico su
alcuni fattori. Per effettuare una vera Audit SEO, ovvero un’analisi approfondita, è necessario
analizzare diversi parametri tra cui i log di sistema, il comportamento del crawler, i tag, i
microdati, la velocità di caricamento, l’esperienza utente e così via. Nel Capitolo 5 analizzeremo
questi aspetti e approfondiremo tale analisi, per il momento vi consigliamo di scaricarvi
Screaming Frog (www.screamingfrog.co.uk) o Visual SEO (www.visual-seo.com), che ci
saranno molto utili per le nostre analisi on page.

Conclusioni e punti salienti del capitolo


In questo capitolo abbiamo analizzato i principali tag SEO on page, scoperto come sia importante
il Web Semantico e come viene sfruttato dai principali motori di ricerca.

Cosa ricordarsi?
• I Tag Html sono importanti, ma non sono l'unico strumento della SEO.
• Il Tag Title e Description variano in SERP e gli ultimi aggiornamenti hanno visto un
aumento di caratteri visibili.
• CBO è importante al fine di migliorare le risorse indicizzate, soprattutto per siti di grosse
dimensioni.
• Una buona struttura di navigazione di un sito web è fondamentale sia per gli utenti che per
i motori di ricerca.
• Schema.org è un primo passo verso concetti di strutture Web Semantiche.
• Le Rich Cards sono una delle ultime novità di Google in ambito snippet nelle SERP.

“Il design non è come sembra o come appare. Il design è come funziona.”
(Steve Jobs)
Capitolo 5
Architettura di un web project SEO

Architettura di un sito web


Lo scopo della SEO non è solo quello di migliorare l’indicizzazione per i vari search engine: una
delle sue peculiarità risulta essere, infatti, la capacità di attrarre i visitatori e coinvolgerli
all’interno del sito facendoli rimanere su di esso il più tempo possibile. Questo perché il vero
valore aggiunto è la permanenza sul sito web del visitatore, che, trovando interessanti i contenuti,
è invogliato a scoprirli e, soprattutto, è incentivato a ritornare per vedere gli aggiornamenti e le
novità proposte. Un sito web deve pertanto basarsi su un’architettura solida e deve essere
progettato in modo curato. Un suo elemento fondamentale è la navigabilità: più questa è semplice
e intuitiva, più probabilità avremo che un utente trovi facilmente ciò che cerca. Al tempo stesso,
una grafica ben curata e raffinata sarà gradita dai visitatori più esigenti. Uno dei più importanti
principi della progettazione delle interfacce grafiche afferma che si devono conservare le
conoscenze acquisite dagli utenti nel corso delle loro esperienze informatiche. Per tale motivo, le
grosse software house e i produttori di sistemi informatici seguono con enorme interesse questa
filosofia, cercando di produrre applicativi con un’interfaccia che garantisca una certa uniformità
d’impiego. Sarebbe, infatti, molto difficile proporre una modalità grafica di interazione
completamente diversa rispetto a quella attualmente utilizzata da una specifica azienda per un
determinato software o sito web. Ciò potrebbe provocare ostilità da parte degli utenti: gli
utilizzatori finali, abituati a una disposizione logica degli elementi di interfaccia e quindi a un
certo modo di lavorare, si troverebbero a far fronte a una nuova realtà di cui non conoscono le
reazioni e impiegherebbero più tempo per compiere la medesima operazione.

NOTA

Un esempio recente è stato il cambio di layout e di interfaccia di Facebook, che ha suscitato


lamentele da parte di molti utenti.

Tuttavia, se per le applicazioni software desktop si può avere un profilo dell’utilizzatore finale
del software, ciò non è possibile per le applicazioni Intranet e, soprattutto, Internet, che si
rivolgono a utenti dei quali non sono note né le competenze informatiche, né i sistemi operativi
utilizzati. È dunque impossibile sapere quali competenze conservare e diviene essenziale cercare
l’esperienza minima comune a tutti gli utenti potenziali, che consiste nell’uso del browser e
dell’ipertestualità. È spontaneo chiedersi quale sia il modo ottimale per creare un’interfaccia lato
web che guidi l’utente durante le sue attività. Entra in gioco il concetto di consistenza, che
possiamo suddividere in tre entità:
• consistenza visiva: la similarità nell’apparenza e nella disposizione degli elementi grafici
che la compongono;
• consistenza nel comportamento: una determinata azione deve sempre produrre un risultato
simile; per esempio, tutti i bottoni si azionano con lo stesso tasto del mouse;
• consistenza funzionale: la stessa azione ha sempre lo stesso risultato.

Un’interfaccia progettata male può decretare l’insuccesso di programmi altrimenti ben scritti,
mentre una GUI (Graphic User Interface) accattivante può nascondere molte pecche. Questo
assioma, comunemente accettato nella programmazione tradizionale delle applicazioni desktop,
perde validità quando si costruiscono applicazioni Intranet: la GUI, infatti, influenza fortemente
tutta l’architettura del sistema e un errore nella sua analisi può condurre all’uso di tecnologie
inadatte a raggiungere gli obiettivi prefissati, costringendo alla riscrittura dell’intero sito web.
Per tale motivo, l’uso della consistenza ci permette di ottenere la riusabilità delle componenti di
interfaccia (esistono librerie di componenti di interfaccia con aspetto e comportamento
predefiniti) e di favorire la capacità di apprendimento da parte dell’utente. È evidente come
l’importanza dell’interfaccia utente, in ogni tipo di applicazione, sia molto elevata, e come, nel
caso di applicazioni Internet, non si limiti al lato estetico, ma ricada fortemente su tutto lo
sviluppo delle applicazioni. Ecco perché è fondamentale, per raggiungere i migliori risultati,
prestare attenzione, nella costruzione della GUI, sia all’utente a cui si rivolge l’applicazione, sia
al contesto in cui tale applicazione sarà usata e ai controlli necessari per renderla sicura ed
efficace.

NOTA

Un buon sito web dovrebbe avere una solida struttura di navigazione e rispettare i canoni di
accessibilità e usabilità (per esempio W3C).

Disegno architetturale di un sito web


I motori di ricerca, come abbiamo più volte accennato, cercano di migliorare i propri algoritmi in
modo da comprendere meglio i contenuti offerti da un sito web, con lo scopo di fornire agli utenti
risultati di ricerca sempre più attinenti. Creare un’architettura logica di un sito web, organizzata
in maniera tale da rendere facile il reperimento delle informazioni, sarà utile non solo ai nostri
visitatori, ma anche ai motori di ricerca. Non solo, migliorare quello che è il look and feel di un
sito web potrebbe migliorarne il feedback da parte degli utenti, che, trovando un’interfaccia
facile, ma allo stesso tempo gradevole, sono invogliati a rivisitare il sito web. Troviamo, quindi,
il concetto di Rich Internet Application (RIA), che definisce un insieme di applicazioni web che
hanno caratteristiche e funzionalità del tutto equivalenti alle “tradizionali” applicazioni desktop
(cioè residenti sul computer). Nelle RIA il browser, che deve elaborare le funzionalità
dell’interfaccia utente e della presentazione dei dati, è chiamato a svolgere un compito ancora più
importante. Tale approccio migliora l’interazione con il web, rendendola quasi indistinguibile da
quella con i programmi desktop. L’avvento delle RIA ha permesso agli sviluppatori di utilizzare
funzionalità avanzate per le interfacce utente web, che rendono le applicazioni più semplici e
utilizzabili e forniscono agli utilizzatori finali strumenti più produttivi, riducendo i tempi
operativi e di navigazione necessari per l’interazione con le applicazioni stesse.

Figura 5.1 - Esempio di applicazione RIA.

Non è detto che un esperto SEO sia anche un programmatore, perciò, nella fase di sviluppo di un
sito web, le due figure (programmatore ed esperto SEO) devono lavorare in sinergia per
sviluppare un disegno architetturale che rispetti i seguenti punti:
• usabilità: un sito web deve essere facilmente navigabile e le informazioni devono essere
fornite in modo chiaro e conciso. Jakob Nielsen, il “guru” della usability, definisce
“usabile” (e quindi accessibile) un sito quando esso consente facilità ed efficienza di
utilizzo, permette pochi errori di interazione, è adeguato alle aspettative e ai bisogni degli
utenti e risulta facile da capire. L’uso di animazioni Flash, JavaScript e così via deve
essere ridotto e implementato solo per migliorare la user experience;
NOTA

Secondo la definizione data dalla norma ISO 9241, l’usabilità è il “grado in cui un prodotto
può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e
soddisfazione in uno specifico contesto d’uso”.

• accessibilità: le informazioni fornite da una pagina web o da un sito web devono essere
facilmente fruibili da tutte le persone. Per esempio, sarebbe opportuno dare agli utenti la
possibilità di aumentare il carattere delle scritte, in modo tale che possano essere lette
dalle persone che hanno difficoltà a leggere. Il layout del sito web deve essere simile su
tutti i dispositivi e browser web. In questo contesto dovrebbero essere utilizzati elementi
di programmazione (CSS, DIV HTML, per esempio) in modo tale da rispettare le
specifiche di accessibilità W3C (www.w3c.org);

NOTA

Per maggiori approfondimenti in merito, vi segnaliamo la seguente guida:


http://webdesign.html.it/guide/leggi/46/guida-accessibilita-dei-siti-web-teorica/
Inoltre, vogliamo ricordare che le pubbliche amministrazioni e i siti istituzionali in Italia
devono rispettare le norme di accessibilità qui descritte:
http://www.governo.it/

• fruibilità: un sito web deve poter essere visualizzato correttamente su diversi dispositivi e
browser. Con l’avvento di cellulari sempre più interattivi, risulta importante rendere i
contenuti dei nostri siti web fruibili anche da diversi apparati tecnologici.

A questo punto siamo pronti per procedere con il design architetturale del sito web. Individuato il
target degli utenti e i loro possibili bisogni, il passo successivo consiste nella definizione del
linguaggio di programmazione con cui implementare le nostre pagine web, e nella scelta di
utilizzare o meno risorse o CMS open source. Importante è progettare il sito web in modo che
attragga l’attenzione dei visitatori e sia in grado di rispondere in tempi brevi anche a numerosi
accessi. Un utente, in media, non aspetterà più di sei secondi per il caricamento di un contenuto (a
meno che non si tratti di un contenuto multimediale, come un filmato in streaming); per tale
motivo, un sito web deve essere progettato in modo tale che le pagine vengano caricate
velocemente (quindi è consigliato utilizzare immagini di piccole dimensioni, per esempio).
NOTA

“Un Content Management System, in acronimo CMS, letteralmente ‘sistema di gestione dei
contenuti’, è uno strumento software installato su un server web studiato per facilitare la
gestione dei contenuti di siti web, svincolando l’amministratore da conoscenze tecniche di
programmazione web.” (Wikipedia)

Un altro punto da tenere in considerazione è la tipologia di sito web: un blog dovrà avere una
struttura fondamentalmente diversa da quella di un sito web aziendale o di un portale di e-
commerce. Ogni sito web, ogni tipologia di sito web va studiata per cercare di capire bisogni e
desideri dell’utenza che ci visiterà, in modo da fornire contenuti in grado di sollecitare la
curiosità dei visitatori. Ultimamente, nel web si trovano sempre più siti prefabbricati costruiti su
CMS (per esempio, Joomla) o blog open source, in cui spesso il layout e lo stile si ripetono. A
nostro avviso, è vero che un CMS ci aiuta a implementare un sito web e riduce di molto i tempi
di sviluppo, ma bisogna fare attenzione al codice da esso prodotto. A volte, il codice è “sporco”
e non ottimizzato SEO, pertanto dobbiamo essere in grado di metterci mano per apportare le
modifiche richieste. In altri casi, invece, tali CMS potrebbero usare meccanismi di
sovraottimizzazione e quindi essere malvisti dai motori di ricerca. L’originalità e la capacità di
implementare strutture e layout nuovi sicuramente ci aiuteranno nel nostro processo di sviluppo
di un sito web.
Un altro fattore da tenere in considerazione nello sviluppo di un sito web è la riusabilità del
codice. Spesso i siti, soprattutto quelli di piccole dimensioni, si assomigliano. Essere in grado di
riutilizzare il codice implementato, per esempio per la gestione delle news, e utilizzarlo in altri
siti ci consentirà di ridurre il tempo di sviluppo. Anche la scelta del template è importante:
strutturare un sito web in modo tale che dei restyling grafici non implichino una riscrittura di tutte
le pagine che costituiscono il sito ci permetterà di apportare modifiche in tempi brevi e senza
impattare sulla struttura generale del progetto.

Figura 5.2 - I principali passi da seguire per strutturare un’architettura per un sito web SEO friendly.

Ovviamente, non possiamo dilungarci più di tanto su questo argomento, poiché il nostro scopo è
quello di fornire informazioni in modo tale da rendere consapevole l’utente dell’importanza che
ha un buon disegno architetturale anche in un contesto SEO.
Navigabilità
La navigazione di un sito web è rilevante per aiutare i visitatori a trovare rapidamente i contenuti
desiderati, ma non solo: può essere di aiuto ai motori di ricerca per capire quali sono i contenuti
interessanti. Generalmente, tutti i siti web hanno una home page (o root), cioè la pagina
principale di ingresso da cui si accede al sito web digitando l’URL (per esempio,
www.yourdigitalweb.com). Non è detto che gli utenti accedano al nostro sito web da questa
pagina, poiché ogni pagina correttamente indicizzata potrebbe essere fonte di nuove visite.
Tipicamente, un’organizzazione gerarchica dei contenuti e delle pagine comporta una struttura di
navigazione facilmente intuibile da parte dell’utente. Tale struttura deve essere coerente e
suddividere eventuali macroaree del sito web. Per esempio, le pagine che parlano di cucina
potrebbero essere organizzate in directory così strutturate: www.miosito.web/cucina; mentre
altre pagine che hanno come argomento principale la musica potrebbero essere strutturate in
questo modo: www.miosito.web/musica. Secondo l’information architecture (Rosenfield e
Morville, 2006), la struttura principale di un sito web è di tipo gerarchico, con un nodo padre
collegato a più nodi figli.

Figura 5.3 - Esempio di struttura semplificata di navigazione per un sito web.


I nodi figli, a loro volta, possono essere interconnessi tra di loro per migliorare la navigabilità
del sito web. Gli argomenti possono essere raggruppati in maniera omogenea secondo criteri
diversi con l’obiettivo di fornire differenti modi per ottenere l’accesso alle stesse parti di un
contenuto. In base a questo schema, i collegamenti che partono dalla home page, detti
collegamenti di primo livello, dovranno condurre l’utente (e ovviamente gli spider) alle aree
secondarie del sito, divise in base a uno schema logico di contenuti. I collegamenti che partono
dalle aree secondarie, o collegamenti di secondo livello, condurranno alle pagine interne che
trattano dello stesso argomento e così via. Tutte le pagine dovranno contenere un link a pagine di
livello superiore e, opzionalmente, alla home page. Per i siti complessi, contenenti migliaia di
pagine, una struttura di questo tipo potrebbe rendere difficoltoso il reperimento di alcune
informazioni; per questo motivo dovrebbe essere corredata da un’opportuna Sitemap e da un
campo di ricerca avanzato.

NOTA

Una Sitemap è una pagina che contiene la lista gerarchica di tutte le pagine del sito web.
Creare un file Sitemap in XML consente ai motori di navigare il sito web in maniera più
semplice e soprattutto di prendere in considerazione tutte le pagine.

Figura 5.4 - Esempio di struttura gerarchica interconnessa per un sito web (fonte: Datadial).

Una volta organizzata la nostra struttura, dovremo capire se sia meglio implementare la
navigabilità con sottodirectory o domini di terzo livello. La cosa importante da tenere in mente è
quella di dare un nome coerente alle cartelle e agli URL. Per esempio:
www.miosito.it/pippo/miofile.html è un URL non molto significativo, che non è di aiuto al
visitatore né tantomeno ai motori di ricerca. Invece, un URL
www.miosito.it/ricette/risotto_di_porcini.html ha un valore intrinseco e consente di percepire in
anticipo il contenuto della pagina (tratteremo nei prossimi capitoli l’argomento inerente alla
riscrittura degli URL). Le pagine, quindi, dovranno essere strutturate per fornire un colpo
d’occhio che aiuterà l’utente a capire dove si trova e se le informazioni che vuole ricercare sono
presenti. Quindi è opportuno:
• mettere in risalto l’argomento trattato dalla pagina;
• creare una gerarchia che segua una logica; la navigazione dovrebbe avvenire partendo da
un contenuto generale fino ad arrivare a informazioni sempre più specifiche;
• i tag spesso aiutano l’utente a capire gli argomenti trattati nella pagina che sta visitando;
• non fornire troppe informazioni nella stessa pagina: potrebbero confondere l’utente e farlo
desistere dalla consultazione;
• usare prevalentemente link per la navigazione; menu costituiti da immagini, JavaScript o
flash potrebbero non essere correttamente considerati dai motori di ricerca;
• la barra di navigazione (sia essa orizzontale o verticale) deve essere ben visibile e
consentire all’utente di esplorare il sito facilmente;
• implementare un breadcrumb (insieme di link) nella parte superiore o inferiore della
pagina in modo da permettere ai visitatori di navigare velocemente all’interno della
struttura del proprio sito web;

Figura 5.5 - Esempio di breadcrumb per facilitare la navigazione.


NOTA

Le briciole di pane possono essere utilizzate anche con i microdati o con Schema.org:

• informazioni quali contatti, e-mail e “cambio lingua” dovrebbero essere presenti in ogni
pagina (in quanto sono le caratteristiche più ricercate dai navigatori). Tipicamente, tali
diciture potrebbero essere collocate in fondo alla pagina, o in posizioni strategiche, ma
sempre ben visibili.

Tutte le informazioni illustrate ci devono essere di aiuto per creare una struttura di navigazione
semplice ed efficace. Se troviamo difficile reperire qualche informazione all’interno del nostro
sito web, dovrebbe accendersi subito un campanello di allarme per metterci in guardia sul fatto
che molti dei potenziali utenti si troverebbero in difficoltà nel reperimento delle informazioni.
Dovremmo, perciò, immediatamente modificare la struttura di navigazione del nostro sito web.
Nella Figura 5.6 vi è un esempio di buona struttura di navigazione.

Figura 5.6 - Struttura di navigazione.

Gestione dei link


In base alle considerazioni fatte nei paragrafi precedenti, risulta chiaro come i link rivestano un
ruolo molto importante nel decretare la posizione di un sito web, o di una sua pagina, nelle
graduatorie di rilevanza di un motore di ricerca. Questa importanza è giustificata, a livello
teorico, dal fatto che tale meccanismo citazionale, alla base della struttura ipertestuale del web,
stabilisce relazioni tematiche tra le risorse, favorendo la saturazione dei bisogni informativi
dell’utente. Nella pratica, purtroppo, tale corrispondenza tra collegamenti e attinenza tematica è
difficile da implementare, sia per la varietà delle possibili affinità semantiche tra le risorse, sia
per la proliferazione di pratiche atte ad aumentare in maniera innaturale il ranking. Come
abbiamo osservato, Google (così come gli altri motori di ricerca) ha costantemente aggiornato i
propri algoritmi per offrire un posizionamento secondo criteri di maggiore trasparenza dei
risultati naturali. Questo processo ha richiesto l’introduzione di algoritmi come HillTop e
TrustRank, nonché un’evoluzione del concetto di link popularity, basato inizialmente sulla
quantità dei link, e passato successivamente a un approccio basato sulla qualità, ovvero sul
maggiore rilievo assunto dall’attinenza semantica nel calcolo del valore dei link. Passiamo
dunque in rassegna i fattori legati ai link di cui i motori di ricerca tengono maggiormente conto
per la determinazione del valore degli stessi, osservando come alcuni aspetti di squilibrio nel
calcolo dell’importanza dei link siano stati corretti grazie all’introduzione degli aggiornamenti.

Anchor text del link


L’anchor text è un parametro fondamentale per gli spider, poiché rappresenta il primo segnale di
attinenza tematica con la pagina cui punta. Il valore del link per il sito che lo riceve aumenta,
dunque, proporzionalmente all’esattezza, all’attinenza e alla specificità dei termini utilizzati in
questa stringa rispetto alle keyword di una query. A conferma di questa tesi, nella determinazione
del soggetto tematico di un sito concorrono tanto i testi contenuti all’interno di esso, quanto
l’anchor text dei suoi link in ingresso. In passato, se molti link puntavano al sito con la stessa
stringa nell’anchor text, il documento aveva maggiori possibilità di ranking per quella
determinata query. La dimostrazione di quanto appena detto trova conferma nel fenomeno del
Googlebombing, una pratica che, utilizzando in maniera distorta la forza dell’anchor text, ha
messo più volte Google in crisi. Oggi, con l’avvento di Google Penguin e con l’evoluzione degli
algoritmi semantici da parte dei principali motori di ricerca, il panorama è decisamente
cambiato! Infatti, se un sito web riceve moltissimi link in ingresso con lo stesso anchor text (che
non sia il nome di brand o di dominio), per esempio “auto usate”, esso, in concomitanza di altri
fattori, potrebbe essere intercettato dall’algoritmo di Google Penguin e quindi non posizionarsi
ottimamente per quella specifica keyword.

Testo attorno al link


Il parametro successivo a livello logico è il testo stesso che giace attorno al link. Tale testo
concorre all’attribuzione di forza al link in misura pari alla sua coerenza con il link stesso e con
la pagina verso cui il link è direzionato.

Linking interno
La struttura dei link interni di un sito può influenzare il ranking dello stesso in virtù della sua
organizzazione. Come abbiamo accennato in precedenza, la buona navigabilità di un sito si
ottiene a partire da una suddivisione dei contenuti in sistemi gerarchici di cartelle e sottocartelle.
L’importanza di una specifica pagina nell’architettura globale di un sito web può essere misurata
attraverso l’importanza e la profondità delle altre pagine del sito che si riferiscono alla pagina in
questione. Una pagina interna ben collegata ad altri documenti del sito sarà senz’altro considerata
più importante di una pagina oscurata, rimossa o isolata. Tale ordine, oltre a costituire una virtù
apprezzata dagli utenti e dagli spider, ottiene riconoscimento in termini di posizionamento.

Link popularity
La link popularity globale del sito, associabile all’algoritmo PageRank, misurava semplicemente
il peso e il numero di link. L’esempio più famoso risale alla fine del 2003, quando numerosi
blogger si misero d’accordo per linkare la home page della biografia ufficiale del presidente
degli Stati Uniti, George W. Bush, con l’anchor text miserable failure. Pur non contenendo questi
due termini in alcun punto del codice, questa pagina balzò in testa per le ricerche legate a quelle
keyword. Dall’inizio del 2007, Google ha aggiornato l’algoritmo di Googlebot per evitare gli
effetti del Googlebombing. La lunga attesa per tale riparazione viene spiegata da Google con la
volontà di risolvere il problema a livello tecnico, grazie alla scalabilità degli algoritmi, piuttosto
che manualmente. L’ottica è quantitativa, per cui un grande numero di link provenienti da siti
molto importanti bastava, di per sé, a innalzare smisuratamente il valore di PageRank di un sito.
Lo squilibrio di tale valutazione ha portato all’introduzione dell’algoritmo HillTop, che ha
trasformato la link popularity in un concetto legato all’area tematica. L’area tematica viene
misurata da Google come un gruppo di siti i cui link reciproci trattano un argomento correlato.
Link da siti della stessa area tematica portano attualmente grande valore al sito stesso, mentre è
stato svilito il peso dei link provenienti da aree che trattano altri argomenti. Naturalmente, al
fianco di questo fattore si pone il trust di ciascun sito, introdotto con l’algoritmo TrustRank, che
specifica ulteriormente il concetto della qualità dei link, vincolandola, oltre che all’area
tematica, anche alla fiducia che si riceve. Come abbiamo appreso, i link sono sempre più uno
strumento per certificare l’attendibilità del sito e sempre meno un mezzo per valutare la qualità
dello stesso, compito che ormai è demandato (giustamente) ai contenuti.

NOTA

È possibile effettuare l’inserimento, all’interno del codice HTML, di relazioni tra i contenuti
online, di modo che i collegamenti tra questi non siano più solo ipertestuali, ma anche basati
sul rapporto di senso che li lega. L’utilizzo di tali standard consente, per esempio, di
esplicitare che la relazione tra i due estremi di un link è di amicizia o di collaborazione
professionale:

Sitemap
La Sitemap è uno strumento che i webmaster possono sfruttare per migliorare la navigabilità di
un sito web. In genere consigliamo di preparare due Sitemap, una per gli utenti e una per i motori
di ricerca (in formato XML). La Sitemap per gli utenti sarà una semplice pagina che racchiude
tutta la struttura del sito web, in modo da consentire un rapido accesso a tutte le pagine di esso.
Fondamentale è mantenere aggiornata tale pagina e gli URL in essa contenuti; per tale motivo
l’utilizzo di pagine dinamiche aiuterà a creare questa pagina automaticamente e a mantenerla
aggiornata nel tempo. Nella Figura 5.7 troviamo un esempio di Sitemap utile agli utenti.

Figura 5.7 - Esempio di Sitemap per l’utente.

La Sitemap XML è invece uno strumento per indicare ai motori di ricerca tutte le pagine che
costituiscono il nostro sito web. È molto utile quando possiamo comunicare agli spider la
frequenza di aggiornamento delle nostre pagine web, la data dell’ultima modifica e il valore di
importanza relativamente alle altre pagine del sito (che va da 0 a 1). Lo scopo della Sitemap è
quindi quello di fornire informazioni aggiuntive al fine di favorire l’indicizzazione delle pagine
web dell’intero sito web. Nel novembre 2006 i principali motori di ricerca hanno unito le forze
per supportare un nuovo standard per Sitemap: Sitemaps 0.90.
La Sitemap deve:
• iniziare con un tag di apertura <urlset> e terminare con un tag di chiusura </urlset>;
• specificare lo spazio dei nomi (standard del protocollo) all’interno del tag <urlset>;
• includere una voce <url> per ogni URL come tag XML principale;
• includere una voce secondaria <loc> per ogni tag principale <url>.

Riportiamo un semplice esempio di Sitemap XML:

NOTA

È possibile creare più file Sitemap, ma ciascuno di essi non può contenere più di 50.000 URL
e non può avere una dimensione superiore a 10 MB.

Cerchiamo di illustrare brevemente i principali attributi che costituiscono la Sitemap:


• <urlset>: è obbligatorio, costituisce il file e fa riferimento agli standard del protocollo
corrente;
• <url>: anch’esso obbligatorio, è il tag di apertura per ogni URL;
• <loc>: è obbligatorio e specifica l’URL della pagina; questo valore deve contenere meno
di 2048 caratteri;
• <lastmod>: è un attributo facoltativo e specifica la data dell’ultima modifica del file;
questa data dovrebbe avere il formato W3C Datetime, che consente di omettere l’ora, se lo
si desidera, e di utilizzare il formato AAAA-MM-GG;
• <changefreq>: è un attributo facoltativo e specifica la frequenza con la quale la pagina
potrebbe venire modificata. I valori consentiti sono:
– always
– hourly
– daily
– weekly
– monthly
– yearly
– never
• <priority>: anch’esso è un attributo facoltativo e specifica la priorità di questo URL
rispetto ad altri URL del sito. Il suo valore va da 0 a 1 e la priorità predefinita di una
pagina è 0,5.

NOTA

Il sito ufficiale sitemaps.org contiene ulteriori informazioni su come strutturare Sitemap XML
semanticamente corrette.

Per chi avesse problemi nel creare il file Sitemap XML, esistono online diversi servizi che,
attraverso la compilazione di un opportuno form, ci consentono di generare in modo automatico
la Sitemap XML 0.90. Una volta generato l’XML sitemap.xml, non ci resterà che caricarlo sul
nostro sito web in modo da renderlo fruibile ai motori di ricerca. Tra i vari servizi che ci
consentono di generare i file XML per la Sitemap, possiamo citare xml-sitemaps.com, l’utility
più completa per la creazione e la validazione di Sitemap (ulteriori approfondimenti sono
reperibili al link http://tinyurl.com/Gsitemap-generator). Avendo a disposizione la Sitemap XML,
possiamo comunicarla ai vari motori di ricerca (si veda l’appendice B); per esempio, per Yahoo!
la sintassi è la seguente:

In modo analogo, attraverso la Search Console di Google, possiamo inserire la nostra Sitemap
affinché il motore di ricerca possa correttamente indicizzare le nostre pagine web.

NOTA

Esistono diversi formati di Sitemap utilizzabili per video, immagini, mobile, news, codice
open source per le coordinate geografiche. Potete trovare ulteriori dettagli a questo indirizzo:
http://tinyurl.com/about-sitemap
Figura 5.8 - Invio di Sitemap XML a Google attraverso Search Console.

NOTA

Se utilizziamo il campo priority, dobbiamo prestare attenzione a dare un giusto peso alle
varie pagine: è errato attribuire a tutte le pagine un’importanza elevata!

News Sitemap
Per descrivere articoli che riportano delle news potrebbe venirci in aiuto la News Sitemap, di
cui riportiamo un esempio:

Video Sitemap
Se nel nostro sito web abbiamo un certo numero di contenuti multimediali e vogliamo
correttamente indicizzarli, sarebbe opportuno creare una Video Sitemap:
NOTA

A questo indirizzo potrete trovare ulteriori approfondimenti:


http://tinyurl.com/gvideo-sitemap

Mobile Sitemap
Come approfondiremo in seguito, è possibile specificare una Sitemap anche per i contenuti
mobile:

Keyhole Markup Language: KML


KML è l’acronimo di Keyhole Markup Language. Tale formato è utilizzato per esprimere
informazioni geografiche in applicazioni quali Google Earth, Google Maps, Flickr, Virtual Earth
e altre ancora. Da marzo 2007 Google sta indicizzando i file KML che possono essere inclusi in
sitemap esistenti, o, ancora meglio, in nuove geositemap.
Con i file KML è possibile conquistare la fiducia con Google al fine di geolocalizzare un’attività
commerciale; ci basterà segnalarla utilizzando il Google Webmaster Central.
NOTA

Potete trovare ulteriori informazioni sull’utilizzo dei file KML al seguente URL:
https://developers.google.com/kml/documentation/.

Ecco un esempio di utilizzo di file sitemap.xml e file klm:

Sitemap.xml:

File kml:

Attraverso l’utilizzo di sitemap XML e file KML è quindi possibile fornire ulteriori informazioni
a Google e migliorare la propria geolocalizzazione.
Feed RSS
Un Feed RSS è un file XML appositamente strutturato, che consente agli utenti di rimanere in
contatto con le novità di uno specifico sito web. È uno strumento apprezzabile e lo riteniamo
fondamentale per i siti web che pubblicano in modo costante novità o aggiornamenti sui loro
prodotti. A differenza della newsletter, gli iscritti al Feed riceveranno la notifica appena un
nuovo contenuto verrà pubblicato sul nostro sito web. In ambito SEO è veramente importante
avere a disposizione un Feed RSS perché ci permetterà di:
• inserire il sito in aggregatori di notizie;
• mantenere un contatto continuo con i nostri visitatori;
• aderire a campagne pubblicitarie online;
• fornire i nostri Feed RSS a canali come Google News, Yahoo! e via dicendo;
• indicizzare contenuti multimediali come immagini, suoni e video.

Tutti i software per la creazione di blog e CSM incorporano in modo automatico strumenti per la
creazione di Feed RSS. Nel caso dovessimo sviluppare un sito web nostro, attraverso Asp.net
PHP o altri linguaggi di programmazione, è molto semplice implementare un Feed RSS per i
contenuti del sito stesso.
Riportiamo di seguito un esempio di struttura XML di un Feed RSS:

Organizzazione e scrittura degli URL


Abbiamo già accennato all’importanza di creare URL che abbiano un significato, che esprimano
cioè il contenuto della pagina che andremo a visitare. Spesso si ha l’abitudine di creare pagine
“standard”, come azienda.hmtl, prodotti.html e così via. Gli URL dovrebbero essere più
significativi e contenere possibilmente keyword richiamate all’interno della pagina stessa. Per
tale motivo, sarebbe più interessante chiamare la pagina Azienda come azienda-produzione-
miele.html: in tal modo introdurremo la keyword “miele” direttamente nell’URL e forniremo
un’informazione in più sia agli utenti, sia ai motori di ricerca.
NOTA

Esistono molti dibattiti in merito all’utilizzo del trattino alto “-” o basso “_”. L’unica cosa
che appare certa è che Google (notizia appresa dal blog ufficiale) sembra utilizzare il trattino
alto negli URL per separare due keyword, mentre quello basso viene interpretato come parte
integrante di una parola. È quindi consigliabile utilizzare i trattini (-) invece dei caratteri di
sottolineatura (_) nell’URL nel caso si vogliano separare i significati delle varie parole.
Precisiamo, però, che i motori di ricerca usano algoritmi in grado di interpretare anche
parole o frasi scritte “attaccate” come se fossero parole separate. Quindi non bisogna
fossilizzarsi troppo su tali punti. Da alcuni esperimenti effettuati su oltre una ventina di siti
web, abbiamo notato come i principali motori di ricerca siano in grado di interpretare
correttamente parole separate sia da trattini alti, sia da trattini bassi.

Tipicamente, si raccomanda di non utilizzare URL troppo lunghi e che contengano meno di quattro
parole chiave. Secondo Google, inserire le keyword nell’URL potrebbe portare un
miglioramento, ma sicuramente inserire numerose keyword non aiuterebbe. Per quanto concerne,
invece, la posizione delle keyword all’interno dell’URL, questo risulta essere un fattore
secondario.

NOTA

Su questo argomento è possibile visualizzare un approfondimento a questo link:


http://tinyurl.com/url-ranking

Anche la definizione dei nomi delle cartelle (directory) ricopre un ruolo importante: visto che
andranno a costituire una parte dell’URL, essi dovranno essere utilizzati in maniera corretta. Per
esempio, la directory news dovrebbe contenere tutte le news presenti nel sito web, la directory
prodotti potrebbe servire per organizzare il catalogo dei prodotti aziendali. Vediamo un esempio:

www.miosito.com/prodotti/carrello-elevatore.html

La directory, nel caso di questo URL, è “prodotti”, quindi possiamo capire l’importanza di
utilizzare nomi coerenti in base al contenuto di ogni cartella.
NOTA

Nella scrittura degli URL consigliamo di utilizzare sempre le minuscole. Questo perché
diversi server web potrebbero interpretare in maniera differente pagine o contenuti che
contengono lettere maiuscole e minuscole. Per esempio, alcuni server Linux potrebbero
interpretare le pagine Pagina.html e pagina.html come due entità distinte. Per questo motivo
bisogna prestare attenzione alla nomenclatura di file, cartelle e URL.

Abbiamo quindi visto come sia importante avere URL corti, che contengano keyword, ma che
siano significativi per l’utente e per i motori di ricerca. Ricordiamo, inoltre, come l’URL di un
documento o di una risorsa venga mostrato come parte del risultato di ricerca dei vari motori di
ricerca, perciò è estremamente importante creare URL SEO friendly. Nel caso si utilizzino CMS
o pagine web dinamiche (jsp, php, asp ecc.), è possibile utilizzare tecniche per la riscrittura degli
URL in modo da renderli maggiormente SEO friendly. Tramite l’utilizzo di un rewrite engine,
saremo quindi in grado di modificare i nostri URL. A differenza di un normale sito web HTML,
un sito web dinamico, come dice la parola stessa, può variare la forma e i contenuti. Questi,
infatti, sono collegati a basi di dati su cui risiedono le informazioni aggiornate periodicamente
dal webmaster o dal manutentore del sito web. Un sito web dinamico può, con il passare del
tempo, avere al suo interno numerose informazioni e pagine web che lo aiuteranno
nell’indicizzazione. Ovviamente, questa grande mole di dati prodotta grazie all’aggiornamento
del sito web deve essere gestita in maniera opportuna. Molti motori di ricerca, infatti, possono
ignorare il contenuto perché non formattato correttamente, perché presenta link scritti in maniera
non riconducibile, perché non riesce a riconoscere correttamente le pagine del sito web
dinamico; questo può diventare un grosso problema per un’azienda. Il prodotto “pistone”
potrebbe essere raggiungibile da una pagina web così strutturata:

www.sito.com/prodotto?id=1

Possiamo notare come tale pagina sia difficilmente indicizzabile e non risulti di facile
memorizzazione da parte dell’utente. Invece, un URL strutturato in questo modo:

www.sito.com/prodotti-1/pistone.html

sarà ottimizzato per i motori di ricerca.

La riscrittura degli URL si ritiene necessaria perché:


• URL troppo lunghi non sono facilmente memorizzabili da parte degli utenti;
• URL “sporchi” sono difficilmente indicizzabili e poco usabili;
• URL “sporchi” non esprimono correttamente il contenuto della pagina che si andrà a
visitare.
Non essendo, questo, un libro di programmazione, non ci soffermeremo a illustrare le diverse
tecniche di URL rewriting da utilizzare per i vari linguaggi di programmazione, ma ci limiteremo
a elencare una serie di soluzioni applicabili.

Riscrittura degli URL per i principali linguaggi di programmazione e web server


PHP e Apache
• utilizzare il mod_rewrite di Apache. Il mod-rewrite è un modulo del web server Apache
che consente di trasformare URL dinamici del tipo http://www.sito.com/prodotto.php?
id=23 in URL apparentemente statici del tipo http://www.dominio.com/prodotto-
pane.html;
• implementare .htaccess, che sono dei semplici file di testo contenenti le direttive di
Apache per la configurazione.

NOTA

Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per PHP e Apache:
• http://httpd.apache.org/docs/2.0/mod/mod_rewrite.html
• http://www.andreavit.com/blog/url-rewriting-e-redirect/riscrittura-delle-url-con-
htaccess-apache-consigli-esempi-pratici-2.html

ASP.NET e ISS
• http://urlrewriter.net/: modulo per implementare URL rewriting in Asp.net;
• http://www.urlrewriting.net/: modulo completo per implementare la riscrittura degli URL;
• usare il modulo HttpModule to Perform Extension-Less URL Rewriting con IIS7;
• utilizzare ISAPI Rewrite per abilitare Extension-less URL Rewriting per IIS5 e IIS6. Il
sistema di riscrittura URL di ISAPI si avvicina molto al mod-rewrite di Apache, ma risulta
ideato in modo specifico per Microsoft’s Internet Information Server (IIS);
• implementare URL routing di asp.net 3.5 e 4.0 e Asp.net MVC.

NOTA

Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per ASP.net:
• http://msdn.microsoft.com/it-it/library/cc668201.aspx
• http://aspnet.html.it/articoli/leggi/2222/tecniche-di-url-rewriting-con-aspnet/4/

JAVA
• implementazione URL Encoding;
• utilizzo dell’oggetto di sessione;
• http://www.tuckey.org/urlrewrite/

NOTA

Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori
nell’implementazione di tali tecniche per JAVA:
• http://docstore.mik.ua/orelly/java-ent/servlet/ch07_03.htm

Figura 5.9 - Esempio di riscrittura URL con ASP.Net.

Scegliere il nome dei file


Anche quando pubblichiamo file, siano essi immagini, pdf, documenti o file compressi, dobbiamo
prestare attenzione e scegliere nomi di file adeguati. Anch’essi, infatti, potrebbero essere
posizionati nei motori di ricerca e quindi generare nuovo traffico verso il nostro sito web.
Vediamo alcuni semplici consigli da seguire:
• evitare gli spazi nei nomi dei file;
• evitare di utilizzare caratteri “strani”, che potrebbero non essere correttamente interpretati
dai server;
• utilizzare i trattini (-) per separare nomi di file lunghi;
• fornire nomi di file coerenti e che possano contenere keyword.

Vediamo subito alcuni esempi completi:


• dobbiamo mettere online il pdf del catalogo dei prodotti che ha il seguente nome:
prodotti%202010.pdf. Ovviamente è opportuno riscrivere il nome del file indicando il
tipo di prodotti e l’anno. In tal modo, il cliente già dal nome riesce a percepire quello che
contiene il file. Un nome corretto potrebbe essere catalogo-spugne-2010.pdf;
• per le immagini il discorso è equivalente: è sempre opportuno scegliere nomi coerenti con
il contenuto del file. Corona-ergal.jpg e Birra-fresca.jpg sono, per esempio, due ottimi
nomi di file.

Procedendo sulla falsariga degli esempi proposti, possiamo scegliere nomi di file SEO friendly.

Figura 5.10 - Esempio di riscrittura di nomi di file SEO friendly.

Gestione pagine di errore e redirect


Un sito web, soprattutto di grosse dimensioni, costituito da migliaia di pagine, potrebbe essere
sottoposto a errori di carattere tecnico o di digitazione degli URL. Per esempio, gli utenti
potrebbero navigare all’interno del nostro sito in modo insolito, digitando direttamente gli URL
nel browser. Ciò potrebbe causare la richiesta di una pagina che in realtà non è presente sul
nostro server: in questi casi come ci dovremmo comportare? Dovremmo creare una pagina 404
(che indica che la pagina non è stata trovata) che informi l’utente che la risorsa cercata non è
disponibile e lo consigli di accedere al sito web da un opportuno link. Alcuni dei motivi
principali per cui viene visualizzata la pagina 404 sono:
• link di pagine o risorse non più presenti nel server;
• pagina precedentemente indicizzata nelle SERP, ma non più presente nel server;
• link rotti nella struttura del sito.
La pagina di errore 404 dovrebbe avere un layout uguale al resto del sito web e fornire tutte le
informazioni utili all’utente per poter accedere al nostro sito web. Per tale motivo, potrebbe
essere utile mettere in essa le FAQ, una serie di link di “ingresso” verso il nostro sito web ed
eventualmente un’e-mail di contatto in caso di errore. In tal modo l’utente non si trova spiazzato
e, invece di abbandonare la pagina, ritorna sul nostro sito web. Per migliorare l’usabilità della
pagina di errore 404, Google mette a disposizione un widget, disponibile al seguente link:
https://support.google.com/webmasters/answer/93641?hl=it

NOTA

Di seguito, due link interessanti sulla gestione dell’errore 404:


• http://tinyurl.com/error-g404
• http://tinyurl.com/G-page404

Redirect 301
Supponiamo ora che una pagina che è stata indicizzata debba essere eliminata, perché obsoleta o
perché contiene informazioni errate. Usando la tecnica del redirect 301, potremo dire allo spider
che la pagina in questione non esiste più, ma punta fisicamente e in modo permanente verso
un’altra pagina web. Questo perché il redirect preferito dai motori di ricerca è quello chiamato
301, il quale indica al motore che l’indirizzo è stato spostato permanentemente. Esistono diversi
modi per effettuare un redirect 301 SEO friendly per vari linguaggi di programmazione.
Cercheremo, nel seguente elenco, di mostrare le principali tecniche a disposizione.
• Htaccess 301 redirect: è implementabile in siti ospitati su server Apache in cui le
richieste vengono controllate dalle regole specificate nel file .htaccess. Vediamo un
esempio:

Alla richiesta della pagina pagina_seo1.php, l’utente verrà rimandato alla pagina

NOTA

Potete trovare ulteriori informazioni per implementare tale tipologia di redirect a questo
indirizzo:
http://tinyurl.com/apache-redirect

• IIS 301 redirect: è possibile configurare opportunamente IIS per gestire la redirezione
delle pagine. Vediamo i passi per effettuare un redirect 301 di un intero sito web: dopo
aver avviato ISS, dobbiamo selezionare il server in cui è presente la risorsa e poi il sito
web da gestire. Dopo aver fatto clic con il tasto destro, scegliamo la voce Proprietà.
Selezioniamo il tab Home Directory; scegliamo Reindirizzamento a un URL e nella
casella Reindirizza a: inseriamo l’indirizzo verso cui ridirigere le richieste. Infine,
attiviamo l’opzione Reindirizzamento permanente per la risorsa necessaria per
effettuare il redirect 301.

Figura 5.11 - Esempio di configurazione ISS per redirect 301 di un intero sito web.
NOTA

Per effettuare un redirect di un singolo file dobbiamo effettuare i seguenti passaggi: avviare
ISS; dopo aver selezionato il server, spostarci fino alla pagina da gestire; facciamo clic con
il tasto destro su di essa e selezioniamo la voce Proprietà. Una volta posizionati sulla
scheda File, possiamo modificare l’impostazione in Reindirizzamento a un URL come visto
precedentemente.

• PHP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:

Oppure nel file htaccess:

• ASP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:

• ASP .NET redirect 301: il seguente codice va inserito all’interno della pagina (sezione
Page_Load) in cui si vuole effettuare il redirect 301:

• JSP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole
effettuare il redirect 301:

• Ruby on Rails redirect 301: il seguente codice va inserito all’interno della pagina in cui
si vuole effettuare il redirect 301:
• Coldfusion redirect 301:

• Perl redirect 301:

• Perl redirect 301:

• Redirect HTML: nel caso non avessimo a disposizione un linguaggio di programmazione


e ci trovassimo nella situazione di dover effettuare un redirect di una pagina web che è
stata spostata, l’unica alternativa a disposizione è quella dell’utilizzo di codice HTML per
effettuare il redirect. Ecco il codice che ci viene in aiuto:

NOTA

Il valore CONTENT=“” serve a specificare i secondi che intercorrono al reindirizzamento


verso la pagina specificata. Se tale valore è pari a 0, viene interpretato come un redirect
simil 301.

Google e i principali motori di ricerca, tra cui Yahoo!, sono in grado di riconoscere il redirect
via meta refresh, che viene trattato specificatamente come 301 (nel caso venga indicato un valore
pari a zero) o 302 (se il ritardo è maggiore). In conclusione, il redirect via HTML, a nostro
avviso, va applicato solamente nei casi in cui non si abbiano alternative; contrariamente, è
sempre consigliabile utilizzare il redirect 301. Gary Illyes ha affermato: “301 redirects don't lose
PageRank anymore”. Questa dichiarazione è molto importante sull'utilizzo di questi redirect!

Redirect 302
Il redirect di tipo 302 è un redirect temporaneo. È consigliabile utilizzarlo in quei casi in cui si
vuole comunicare allo spider che una determinata pagina web è stata temporaneamente
rinominata o rimossa dal web, ma che sarà ripristinata entro breve. In questo modo lo spider, non
trovando la pagina, non la rimuoverà dal proprio indice, ma ne terrà in memoria una copia cache
fino a quando la pagina non verrà ripristinata.

Redirect sconsigliati lato SEO


Esistono, ancora oggi, alcune tipologie di redirect non molto apprezzate dai motori, e che, anzi, in
alcuni casi vengono interpretate come azioni di spam, penalizzando quindi la pagina web o il
dominio che ne fa uso. I principali redirect da evitare, a nostro avviso, sono i seguenti:
• Meta Refresh HTML: con tempo di redirect superiore a cinque secondi, non sembra
essere una tecnica molto amata dai motori di ricerca, soprattutto per l’abuso che ne è stato
fatto:

• JavaScrip Redirect: rientra nella categoria di cloaking e quindi potrebbe portare a


penalizzazioni della pagina che lo implementa:

• Redirect con frame: tipicamente viene usato nella pagina principale del dominio in cui si
inserisce un frameset che richiama l’URL della pagina da visualizzare. Anche questa
risulta essere una tecnica non apprezzata dai motori di ricerca:

Spostare una pagina web o un dominio


Alcune volte potrebbe capitare, per problemi di hosting, per scelte di marketing o per qualsiasi
altro motivo, di dover spostare una pagina web o addirittura un intero sito web. Per fare questo,
abbiamo visto come sia indispensabile utilizzare opportunamente un redirect 301, per non
perdere la propria popolarità e il PageRank.
Quali sono le pagine principali su cui dovremmo concentrarci per effettuare la migrazione?
• le pagine con maggiori visite;
• le migliori landing page;
• le pagine con più backlink;
• le pagine meglio posizionate nella SERP.

I passaggi da seguire per effettuare una migrazione corretta sono i seguenti:


• evitare di avere online due versioni con contenuti duplicati;
• verificare che tutti i link del nuovo e del vecchio sito siano funzionanti;
• implementare la pagina di errore 404 per tenere sotto controllo eventuali errori;
• effettuare un redirect 301 a livello globale o per ogni singola pagina che si vuole
“trasferire” (consigliato);
• monitorare le operazioni attraverso l’utilizzo l'utilizzo della Search Console messa a
disposizione da Google;
• ottimizzare il nuovo sito web attraverso le tecniche illustrate in questo libro.

NOTA

Google offre il consiglio seguente (http://www.google.com/support/webmasters/): “Non


effettuare un unico reindirizzamento che diriga tutto il traffico dal vecchio sito alla nuova
home page. Un reindirizzamento pagina per pagina comporta una maggiore mole di lavoro,
ma consente di conservare il posizionamento del vostro sito nei risultati di Google e fornisce
al contempo un servizio coerente e trasparente agli utenti. Se non vi è una corrispondenza 1:1
tra le pagine del vecchio e del nuovo sito (come consigliato), dovete assicurarvi almeno che
ogni pagina del vecchio sito sia reindirizzata in una nuova pagina con contenuto analogo”.

Applicando opportunamente tali passaggi, saremo in grado di trasferire il nostro dominio senza
che avvengano penalizzazioni da parte dei motori di ricerca. Per verificare tutti i link interni del
nostro sito web, possiamo sfruttare due interessanti tool:
• Pinger: è un tool per Mozilla che ci consente di verificare se i link presenti in una pagina
siano funzionanti o meno;
• Xenu: è un software da installare sul proprio PC che analizza tutti i link presenti
all’interno del dominio e verifica la presenza di eventuali collegamenti non funzionanti. È
possibile scaricare il software dal link http://home.snafu.de/tilman/xenulink.html.

NOTA

Può accadere che non tutti i vecchi URL abbiano un corrispettivo URL. Per tale motivo,
bisogna compiere delle scelte:
• effettuare un redirect verso un nuovo URL;
• eseguire un redirect verso la radice della categoria.
Figura 5.12 - Esempio di utilizzo del tool Xenu per la verifica dei link di un sito web.

Search Console (ex GWT Google Webmaster Toolkit) è uno strumento che analizzeremo
ampiamente in seguito, ma che ci può già venire utile nel caso di cambio di indirizzo di un
dominio web. Per utilizzare lo strumento in questione, è necessario essere registrati e aver
inserito opportunamente i meta tag di verifica all’interno dei siti da monitorare.

NOTA

Attenzione: "John Mueller of Google went on record that when you do 301 redirects of many
or all of your old internal pages to your home page, Google will treat those redirects as soft
404s. Which means, essentially, Google will ignore those redirects, not pass the PageRank
and signals from the old pages to the new page"
Figura 5.13 - Errori nella Search Console.

La risoluzione grafica di un sito web è utile per la SEO?


Chi si occupa di SEO il più delle volte non si pone nemmeno il problema della risoluzione di un
sito web, in quanto questa caratteristica non sembra essere presa in considerazione dai motori di
ricerca. Ma è proprio qui che stiamo commettendo un grave errore. Dobbiamo ricordarci che un
buon sito deve accogliere gli utenti, i quali sono la fonte principale per la SEO. Se un visitatore
accede al nostro sito web e non visualizza correttamente le pagine presenti in esso, possiamo
essere certi che lo abbandonerà dopo pochi secondi. Per tale motivo, la scelta della risoluzione a
cui impostare il layout di un sito web è importante. In alcuni casi, se utilizziamo un layout al
100%, esso si adatta automaticamente alla risoluzione dello schermo. Bisogna fare attenzione,
però, che anche tutti i moduli interni siano in grado di adattarsi. Questa tecnica a volte è
penalizzante per il layout, che potrebbe essere “non molto sfarzoso”. Per vedere quale potrebbe
essere la risoluzione ottimale per il nostro sito web, ci potremmo basare su statistiche prese da
altri siti web che abbiamo implementato, al fine di capire quale sia la risoluzione più utilizzata
dagli utenti che navigano nel web. Dai dati forniti da marketshare.hitslink.com, si può notare
come a oggi la risoluzione più usata dai frequentatori della rete risulti essere 1024 x 768, seguita
da 1280 x 800, come mostrato in Figura 5.14.
Figura 5.14 - Le principali risoluzioni video utilizzate dai navigatori in Internet.

La soluzione ottimale sarebbe dunque quella di sviluppare le pagine con larghezza dinamica, ma
con una struttura minima di circa 1000 px. È importante, a nostro avviso, riservare un layout
apposito per apparati mobile, quindi far sì che il nostro sito web sia fruibile anche da cellulari,
palmari e via dicendo. Una volta implementati il layout e la grafica, resta un ultimo passo da
compiere: vedere se il nostro sito web viene visualizzato correttamente all’interno dei vari
browser. L’errore comune di molti designer e sviluppatori web è quello di fermarsi al layout
visualizzato nel proprio monitor e nel browser predefinito senza testare quanto è stato creato
anche in altre risoluzioni o su altri browser web.
Vediamo alcuni strumenti utili per verificare come viene visualizzato il nostro sito web a
risoluzioni differenti e su browser diversi:
• http://testsize.com: è un servizio online che ci permette di vedere come viene
visualizzato un sito web a risoluzioni differenti;
• http://browsersize.googlelabs.com: è un servizio messo a disposizione da Google per
testare le risoluzioni del proprio sito web.

Durante l’implementazione di un sito web spesso può diventare difficile costruire pagine web
che vadano bene per tutti gli utenti e soprattutto per tutti i browser web in circolazione. Eseguire
i cosiddetti test cross browser è un passaggio essenziale, ma il più delle volte si rivela un
compito arduo. Un primo passo verso la compatibilità consiste nell’eseguire test preliminari
attraverso opportuni software di simulazione che verificano la compatibilità del sito web
all’interno di browser differenti. Tra i principali servizi possiamo menzionare:
• http://browsershots.org: servizio online che consente di verificare se il proprio sito web
è compatibile con i principali browser in commercio;

Figura 5.15 - Esempio di utilizzo del tool browsershots.org per la verifica della compatibilità di pagine web su browser
differenti.

• https://netrenderer.com/: consente agli utenti Mac di testare le proprie pagine su Internet


Explorer attraverso questo servizio gratuito;
• http://www.browsercam.com: offre un’interfaccia online per controllare le schermate su
una serie di browser e sistemi operativi differenti;
• http://www.my-debugbar.com/wiki/IETester/HomePage: un software gratuito permette
di verificare la compatibilità delle proprie pagine web all’interno di browser Internet
Explorer di Microsoft nelle varie release.

Attraverso i tool sopra illustrati possiamo capire se il lavoro svolto sia adeguato o se,
eventualmente, sia necessario apportare alcune modifiche alla grafica o ai componenti per
rendere il sito web compatibile con diverse risoluzioni video e su diversi browser web.

DIV e CSS o tabelle?


Durante lo sviluppo del layout web esistono due scuole di pensiero e due approcci
fondamentalmente differenti: l’utilizzo di tabelle o di tag HTML e i DIV formattati attraverso
l’uso di CSS. Le tabelle, oltre ad avere la funzione di rappresentare dati di ogni genere allineati
in righe e colonne, sono utilizzate per costruire l’intera struttura di una pagina web. Infatti, con le
tabelle si può definire il layout di una pagina web in modo da disporre il testo su colonne
multiple e ottenere allineamenti anche molto complessi. I DIV, invece, sono raccoglitori di
elementi (secondo il W3C): “Gli elementi DIV e SPAN, insieme con gli attributi id e class,
offrono un meccanismo generico per aggiungere struttura ai documenti. Questi elementi
definiscono il contenuto o come in riga (SPAN) o come a livello di blocco (DIV), ma non
impongono alcun altro idioma presentazionale sul contenuto. Pertanto, gli autori possono usare
questi elementi in congiunzione con i fogli di stile ecc. per adattare l’HTML ai propri bisogni e ai
propri gusti”. Fondamentalmente, l’uso delle tabelle è più semplice e intuitivo, si ha la certezza
che il layout risulti simile su quasi tutti i browser web ed eventuali modifiche potrebbero
richiedere poco tempo. L’utilizzo di DIV + CSS comporta una conoscenza profonda dell’HTML e
dei CSS, il layout risulta più pulito e tipicamente servono meno righe di codice per ottenere il
medesimo risultato utilizzando le tabelle. Il problema principale è rappresentato dalla
compatibilità con i vari browser: infatti, alcuni parametri dei CSS possono essere interpretati in
maniera differente da browser diversi, con conseguente layout modificato. In linea di principio,
l’utente non si accorgerà se un sito web è stato fatto utilizzando le tabelle o i DIV + CSS.
Stabilire, poi, quale sia l’approccio migliore non è facile; su Internet i dibattiti in merito a questo
argomento sono accesi.
Figura 5.16 - Esempio di utilizzo di tabelle e DIV con CSS.

Come si vede dall’esempio, il layout basato su tabelle contiene più codice rispetto alla versione
con i DIV e CSS.

NOTA

A nostro avviso, un layout costruito utilizzando DIV + CSS potrebbe essere l’approccio
migliore (anche se in alcuni casi potrebbe richiedere maggior tempo per lo sviluppo), perché
ci consente una separazione tra disegno (DIV) e grafica (CSS) e l’utilizzo di codice “pulito”
e leggero (rispetto all’implementazione basata su tabelle).

Il nostro consiglio è quello di avere un approccio pragmatico a questo argomento:


• è consigliabile utilizzare i DIV nella maggior parte dei casi: grazie a essi è possibile
implementare pagine con minor quantità di codice ingombrante e i loro CSS potranno
essere archiviati in file esterni. Questo porterebbe a un caricamento più rapido delle
pagine web del nostro sito;
• nonostante ciò, se si è scelto di adottare un design specifico e dettagliato, sarà
consigliabile utilizzare le tabelle, in quanto renderanno veloce il caricamento delle pagine
web.

NOTA

“Per esempio, Google propone tutti i suoi annunci tramite tabelle. Questo è pragmatismo
all’opera.” (Robin Good)

Ai motori di ricerca non importa molto di queste differenze nel codice; a loro interessa la qualità
dei contenuti. È altresì vero che un sito web “meno pesante”, che si carica più velocemente e la
cui struttura interna HTML sia facilmente navigabile da parte degli spider, aiuterà nel processo di
indicizzazione. Vediamo, quindi, i principali pro e contro nell’utilizzo delle tabelle o DIV + CSS.

Utilizzo delle tabelle


Pro
• generalmente minor tempo per l’implementazione di un layout basato sulle tabelle;
• facilità di scrittura;
• pochi errori riscontrati con i browser (in alcuni casi si adattano maggiormente ai
browser);
• nessun trucco CSS da usare.

Contro
• la comodità nello sviluppo viene in genere “pagata” con una notevole complessità di
codice e poca chiarezza dei contenuti;
• le tabelle annidate non sono apprezzate dai motori di ricerca;
• utilizzo di molto codice anche per elementi semplici;
• difficoltà nel gestire i tag di chiusura.

DIV + CSS
Pro
• ottima divisione tra contenuto e impostazione grafica;
• ridotto peso delle pagine, con conseguente diminuzione dei tempi di caricamento;
• possibilità di cambiare l’aspetto del sito, anche notevolmente, modificando solamente un
file.

Contro
• uso di “trucchi” CSS per poter raggiungere alcuni effetti grafici e far sì che il layout sia
cross browser (alcuni browser differenti o datati potrebbero non interpretarli
correttamente o allo stesso modo);
• conoscenza approfondita dei CSS per poter scrivere al meglio il layout;
• tipicamente, impiego di maggior tempo per implementare un layout complesso.

Ora che abbiamo ben chiaro lo scenario, possiamo scegliere la strada che riteniamo migliore in
base alla tipologia e alla complessità del sito web che implementeremo. Fondamentalmente, la
nostra scelta dovrebbe propendere maggiormente verso l’utilizzo dei DIV e CSS, in quanto il
futuro del web (come vedremo HTML 5) andrà in questa direzione.
NOTA

A livello SEO, abbiamo notato come vi siano siti web costruiti utilizzando tabelle e siti web
con layout fatto solamente di DIV e CSS, entrambi posizionati in prima pagina nella SERP
dei vari motori di ricerca. Questo ci fa capire che, per un sito web, una buona struttura
(leggera, navigabile e accessibile) è certamente importante, ma è altresì fondamentale
proporre contenuti aggiornati e freschi.

W3C e accessibilità
Abbiamo accennato all’importanza di avere un sito web accessibile non solo da un punto di vista
SEO, ma anche per accogliere utenti con caratteristiche e bisogni differenti. Ma cos’è il W3C? È
un’associazione che cerca di definire degli standard e di consentire al web di essere sfruttato e
fruibile al 100% delle sue potenzialità. Validare il codice HTML attraverso gli standard imposti
dal W3C a volte risulta davvero arduo (possiamo notare che anche i siti più importanti, come
Bing.com, presentano numerosi errori di validazione), ma può rivelarsi utile per migliorare
l’accessibilità del nostro sito web e quindi la user experience. In ambito SEO, come vedremo tra
poco, i vantaggi di avere un sito W3C validato sono pochi, ma a nostro avviso è sempre meglio
avere un sito web validato secondo gli standard per i seguenti motivi:
• i motori di ricerca possono leggere il contenuto del sito senza incorrere in errori HTML
(per esempio, tag non chiusi);
• un sito validato W3C (WAI WCAG) è conforme agli standard di accessibilità, quindi può
essere usato per le pubbliche amministrazioni;
• un sito validato W3C è sinonimo di sito ben fatto e strutturalmente valido.

Figura 5.17 - La home page di Google non rispetta gli standard W3C.

In poche parole, il W3C è per l’HTML ciò che la grammatica è per la lingua italiana. Nonostante
ciò, sul web esistono siti W3C non validi, ciò senza compromettere la loro navigabilità e senza
che gli utenti se ne accorgano. Per esempio, la home page di Google ha diversi tag HTML non
chiusi, quindi non è W3C compatibile.
I principali sostenitori del W3C affermano che il vantaggio derivante dal rendere un sito
compatibile con gli standard indicati da esso è principalmente quello di rendere il nostro sito
accessibile ai visitatori e agli spider dei motori di ricerca. È noto, d’altro canto, come sia
difficile creare un sito che sia completamente compatibile con gli standard W3C, cosa che
richiede molto tempo per analizzare il codice. Abbiamo anche visto come alcuni siti web, tra cui
Google, pur non rispettando tali standard, siano funzionanti e utilizzati da migliaia di persone. In
una recente intervista, Matt Cutts dichiara che a Google interessano i contenuti, non gli standard.
Egli afferma: “Stiamo cercando di fare sempre attenzione alla qualità. A quanto è valida una
pagina per gli utenti. In quale misura, cioè, essa sia in grado di fornire ai visitatori le
informazioni di cui hanno bisogno. Ci sono molte persone che scrivono codici HTML non validi,
commettendo molti errori di sintassi, ma che comunque producono ottimi contenuti. Dobbiamo
essere capaci di classificare questi contenuti anche se qualcuno commette errori e non è
totalmente perfetto in termini di validazione”.
La conclusione che dobbiamo trarre è che W3C fornisce delle linee guida che permetterebbero di
rendere il nostro sito web maggiormente accessibile, ma in questo scenario dobbiamo sapere che
generalmente i motori di ricerca non trarranno molti vantaggi da pagine che rispettano tali
standard. Il nostro consiglio rimane quello di scrivere un codice il più pulito e leggero possibile,
corredandolo di contenuti interessanti.

NOTA

A questo link è possibile prendere visione delle linee guida per lo sviluppo di siti web W3C
compatibili:
http://www.w3.org/TR/WCAG10/full-checklist.html

Ora non ci resta che vedere come validare le nostre pagine web. La procedura è molto semplice:
è sufficiente andare sul sito web http://validator.w3.org/ e inserire l’URL della pagina che
vogliamo validare. In caso di errori, verrà riportata la riga in cui essi compaiono, in modo tale
da individuarli ed eventualmente correggerli.

NOTA

Vi consigliamo un tool per Firefox, che consente di validare pagine web anche offline, utile
in fase di sviluppo di un sito web: HTML Validator. Nella Figura 5.18 viene mostrato il tool
in azione.
Figura 5.18 - HTML Validator in esecuzione.

SEO e WordPress
Sul web esistono molti CMS: WordPress, Magento, Joomla sono i più noti. Ora cercheremo di
analizzare brevemente le modifiche principali da apportare a WordPress per renderlo SEO
friendly.
WordPress è, assieme a Joomla, un CMS diffuso su scala mondiale, che ci consente di realizzare
in pochi istanti siti web o blog. Per questo motivo analizzeremo le principali tecniche di base per
partire con un sito WordPress ottimizzato (ovviamente molti di questi consigli potranno essere
utilizzati anche per altri CMS online).

WordPress e la sicurezza
WordPress (www.wordpress.org) è senza ombra di dubbio uno dei CMS più intuitivi e utilizzati
al mondo. Grazie alla vasta community e all’ampia scelta di plugin e template disponibili – per la
maggior parte gratuiti – è entrato di peso a far parte della vita quotidiana di chiunque si occupi di
sviluppo e gestione di progetti web.
Proprio per questa ragione è anche uno dei CMS più “presi di mira” dall’altra vasta community
presente nei meandri della rete: i famigerati Hachers. :-)
La natura “open source” di WordPress, che ne determina il punto di forza forse più assoluto, si
rivela allo stesso tempo anche un tallone d’Achille, da non sottovalutare.
La scelta di aprire il proprio codice alla vasta community della rete permette a chiunque di
contribuire alla qualità del core di WordPress. I “difetti” e i bug presenti nel codice applicativo
vengono scoperti, analizzati e infine fixati potenzialmente da chiunque contribuisca allo sviluppo
del CMS.
Tuttavia, il processo di analisi del codice applicativo può essere utilizzato allo stesso modo per
scopi non propriamente leciti.
Individuata una falla, infatti, un cosiddetto “cracker” potrebbe trovare il modo per utilizzarla a
proprio vantaggio, diffondendo malware e/o trovando “accessi dalla porta di servizio” per
compromettere i siti sviluppati con WordPress.
Un esempio recente è la falla di sicurezza scoperta il 6 maggio 2016 ai danni del noto plugin
Yoast SEO (https://www.wordfence.com/blog/2016/05/yoast-seo-vulnerability/).
Col passare del tempo, e dei vari aggiornamenti del core, i sistemi di sicurezza WordPress
continuano a migliorare e ad affinarsi, ma per andare sul sicuro e minimizzare i rischi è
consigliabile installare alcuni plugin appositi.
Ne segnalo due: Wordfence e iTheme Security (precedentemente noto come Better WP Security).
Principalmente si occupano di gestire la maggior parte delle funzioni base di sicurezza del nostro
sito.

Figura 5.19 - Esempio di utilizzo di plugin di sicurezza.

Wordfence, nello specifico, ha diverse e interessanti caratteristiche:


• firewall con ban automatico o manuale degli IP;
• notifiche in tempo reale sulle minacce e gli accessi;
• blocco degli attacchi brute-force;
• anti malware con scansione automatica dell’intero codice applicativo;
• filtri anti spam;
• gestione della cache;
• password audit;
• riparazione di file corrotti.

iThemes Security si concentra, invece, su una serie di operazioni preliminari che i cracker
effettuano per irrompere nei siti WordPress. Comprende, quindi, la possibilità di scegliere un
URL per il login, impedendo, così, di accedere al sito mediante path standard come wp-admin o
wp-login.php.
Oppure blocca gli accessi dopo un numero predefinito di tentativi falliti, impedisce qualunque
accesso durante un orario stabilito, contrasta gli attacchi brute-force, invia notifiche per qualsiasi
cambiamento di file operato dal sistema e impedisce la scansione delle cartelle del sito.
Ecco infine una carrellata di altri plugin utili:
• caching: W3 Total Cache;
• link rotti: Broken Link Checker;
• backup e sicurezza: WPB2D WordPress Backup;
• sicurezza: Secure WordPress;
• authorship Markup: AuthorSure;
• Schema.org: All In One Schema.org Rich Snippets;
• redirection: segnala i 404 e permette di impostare i redirect 301.

Yoast SEO: il plugin SEO per eccellenza


Il plugin Yoast SEO (precedentemente chiamato WordPress SEO by Yoast) è uno strumento
prezioso che può contribuire al miglioramento della SEO di un sito web.
Yoast SEO è in assoluto uno dei plugin gratuiti più diffusi, con oltre un milione di utenti che lo
utilizzano regolarmente; e questo la dice lunga sulla sua semplicità di utilizzo e, perché no, sulla
sua sostanziale efficacia.
È, infatti, uno dei tool più completi per l’analisi e l’ottimizzazione SEO nell’ampio mondo
WordPress.
Oltre a permettere la gestione di tutte le funzionalità SEO di base, garantisce anche impostazioni
più avanzate ormai indispensabili per ottenere i risultati desiderati.
Per prima cosa è opportuno configurare permalink; questo ci consentirà di avere URL SEO
friendly per il nostro blog WordPress. Andiamo in Impostazioni > Permalink; qui possiamo
impostare gli URL personalizzati, come mostrato nella Figura 5.20.
Figura 5.20 - Permalink: riscrittura degli URL.

Una volta scaricato e installato, Yoast vi inviterà a iniziare un tour guidato. In questo modo
potrete impostare i primi valori di default e comprendere il funzionamento dei vari tool
disponibili:
• Title e Meta Description (due valori importantissimi perché, oltre ad avere un peso nel
posizionamento della pagina per quanto riguarda il “tag title”, sono un vero e proprio
biglietto da visita utile per attrarre l’utente web sul proprio sito, piuttosto che su un sito
concorrente);
• Robot Metadati;
• Canonical URL;
• Breadcrumbs (semplici ma importanti informazioni che aiutano a comprendere la struttura
del sito);
• Primary Category (la possibilità di catalogare un post in più categorie indicando, però,
quella principale);
• Permalink;
• Sitemap XML (fondamentale per comunicare a Google la mappa del sito);
• RSS (permette di aggiungere contenuti come link ai feed RSS);
• Editor di facile utilizzo per il robots.txt e .htaccess.

Non voglio dimenticare di citare l’ormai mitico semaforo di Yoast, che tanto fa sorridere i SEO
con più esperienza alle spalle.
I colori del semaforo – verde, giallo o rosso – vorrebbero rappresentare il livello di qualità del
lavoro effettuato OnPage sull’articolo che si sta analizzando. È piuttosto evidente di come si tratti
di una semplice indicazione di massima, che non deve essere scambiata per un giudizio completo,
assoluto e a 360°.
La versione Premium di Yoast SEO - a pagamento - comprende anche altre funzioni come ad
esempio il Redirect Manager, che aiuta a reindirizzare vecchi URL; o il Multiple Focus
Keywords, uno strumento in grado di ottimizzare un post per due o più termini.
La Figura 5.21 mostra un esempio di utilizzo del di plugin per ottimizzare titoli e descrizioni.

Figura 5.21 - Ottimizzazione di titoli e descrizioni per WordPress.

NOTA

Tra le varie funzionalità offerte da WordPress SEO, vi è la possibilità di impostare la


priorità della sitemap, eventuali redirect 301 o configurare il rel=”canonical” senza scrivere
nessuna riga di programmazione.

Senza addentrarci nei dettagli delle configurazioni avanzate del plug-in, possiamo dire che esso
ci consente di impostare in pochi passaggi diverse funzionalità avanzate, come la gestione della
sitemap, la gestione dell’authorship markup e l’impostazione di sottosezioni, come gli archivi e i
campi tag, che per blog appena nati potrebbero causare qualche problema di visibilità se non
gestiti in modo corretto. All’indirizzo seguente si può trovare una guida dettagliata su come
configurare il plug-in nelle sue impostazioni più avanzate:
https://yoast.com/articles/wordpress-seo/

Autoptimize: la velocità è importante!


Oggigiorno le abitudini degli utenti che navigano il web stanno cambiando e affinandosi sempre
di più.
Aspettare qualche secondo in più nell’attesa che un sito si aprisse, non era una grossa seccatura
in passato. Oggi, invece, è un fastidio sopportato da pochi. Persino Google ha poca pazienza con
i siti web poco ottimizzati e lenti.
La velocità con cui si carica una pagina web, infatti, sembra essere un fattore rilevante che –
indirettamente o meno – potrebbe essere considerato da Google ai fini del posizionamento di un
sito web in SERP.
Indipendentemente da come la possa pensare googlebot, è fondamentale che i nostri siti siano
reattivi e scattanti, per offrire agli utenti una piacevole esperienza di navigazione. Se gli utenti
saranno contenti del nostro sito web è molto probabile, infatti, che lo sarà anche il motore di
ricerca.
A questo fine, vi consigliamo un plugin completamente gratuito e in grado di ottimizzare il vostro
sito WordPress in maniera semplice e veloce.
Autoptimize unisce tutti gli script e gli style, comprime i CSS e JS, fa caching del sito e minifica
il codice HTML, rendendo, così, il sito più leggero e veloce.
Una volta aperto Autoptimize, vi troverete davanti a una pagina dei setting molto chiara e
immediata. Qui potrete decidere se spuntare o meno i cinque checkbox proposti, a seconda dei
compiti che desiderate far compiere al plugin.
Potrete anche inserire gli script che vorrete escludere dall’ottimizzazione.
Inoltre, questo tool è compatibile con altri plug-in come WP Super Cache e HyperCache, che
integrano perfettamente Autoptimize con funzioni più avanzate.
Figura 5.22 - Esempio di utilizzo di AutoOptimizee.

NOTA

WordPress usa una serie di costanti per migliorare la sicurezza sotto diversi aspetti, come ad
esempio i cookie assegnati durante l’autenticazione. Queste costanti si trovano nel file wp-
config.php e, malgrado in genere siano a posto, è sempre meglio verificare e generarle
dall’URL http://api.wordpress.org/secret-key/1.1/.

SEO e Joomla
Anche Joomla, essendo un CMS molto diffuso, ha diversi livelli di personalizzazione. A livello
SEO, oltre a seguire tutte le indicazioni date in questi capitoli, abbiamo la possibilità di
installare plug-in che ci facilitano il compito di ottimizzazione. Una delle prime configurazioni da
impostare lato SEO è presente in “Impostazioni Sito”: da qui è possibile, infatti, scrivere il nome
del sito e impostare altre opzioni avanzate. Inoltre Joomla ha delle opzioni SEO native: si tratta
di parametri presenti in Sito > Configurazione Globale > Impostazioni SEO, che possiamo
attivare e che ci permettono di impostare URL SEO friendly.

Figura 5.23 - Ottimizzazione SEO di Joomla.

Oltre alle impostazioni standard, consigliamo alcuni plug-in aggiuntivi; tra questi i principali
sono:
• Joomsef: consente di riscrivere e personalizzare gli URL e presenta una sezione specifica
denominata Manage Meta Tags attraverso la quale l’utente può impostare per ogni singolo
URL i relativi title, description, keywords;
• Mijosef: permette di generare in modo automatico i principali meta tag SEO.

NOTA

Altri plug-in molto utilizzati sono SEO Boss e SEOSimple, ottimi strumenti per
personalizzare e ottimizzare Joomla. Si ringrazia Davide Prevosto per il supporto fornito.

SEO per PrestaShop di Ivan Cutolo


Quando si parla di SEO per e-commerce, a differenza di un tradizionale website, bisogna
affrontare alcuni argomenti rilevanti:
• architettura website, più complessa in uno shop online;
• linking interna, più articolata, essendoci molte pagine/categorie/prodotti;
• gestione contenuti duplicati, più frequenti;
• ID URL categorie (nel caso di PrestaShop).
La struttura architettonica di un e-shop.
Quando si costruisce un e-shop, la prima preoccupazione è che sia bello, che abbia una grafica
accattivante, elegante, che sia evidente il nome del brand: in sintesi, alla cura grafica si dedica
tantissimo tempo, sforzandosi di immaginare cosa possa piacere o meno alla gente. Perdendosi
nel mondo dell’estetica, si dimentica che è importante comunicare e, nel mondo reale come in
quello digitale, è fondamentale che il messaggio, il prodotto, il servizio proposto arrivi
all’utente/cliente.
Nel mondo del digitale, non potendo usare la parola per comunicare, si attinge ad altri strumenti,
per far arrivare in modo diretto, senza ostacoli, il messaggio di vendita al cliente: la scrittura, le
immagini, la struttura architettonica del sito. Entreresti in un negozio confusionario, dove è
difficile trovare quello che cerchi senza indicazioni? Certamente no. Quando si costruisce un e-
commerce, bisogna considerare che l’utente è frettoloso, è impaziente, si annoia se non trova
quello che cerca in breve tempo, va via, dimenticandosi di te per sempre. L’utente cerca delle
informazioni, dei dettagli, vuole conoscere il prodotto, se non trova tutto questo, non ci sono
visite ma solo curiosi di passaggio.
Instauriamo una buona relazione con l’utente, sin dai primi passi, accogliendolo in uno shop dalla
struttura chiara e pulita, di facile navigabilità, con le giuste informazioni, con un contenuto
sincero e leggibile.
Come deve essere l’architettura di un e-shop a prova di cliente?

Struttura a silos
La home è la pagina più importante del tuo sito, è l’ingresso dove ricevi gli utenti, è la pagina che
Google vede e valuta. Organizza la home, dove presenti il tuo negozio con macro categorie, che
indicano i gruppi merceologici dei prodotti in vendita, che andranno a contenere le varie
categorie. Capita spesso di vedere menu con un numero elevato di macro categorie, che
disorientano l’utente; è importante invece la moderazione nell’inserirle: anche l’abuso di esse
genera confusione e difficoltà di navigazione. L’ideale, per un e-commerce di piccole o medie
dimensioni, è inserirne al massimo cinque o sei.
Come nominare le macro categorie?
Questo è un passaggio rilevante per un’architettura efficace sia lato utente, sia lato SEO.
Ecco perché la realizzazione di uno shop non esula da una pianificazione marketing preventiva.
Le categorie vanno nominate alla luce di uno studio delle keywords di settore. Bisogna capire
quali sono le key più ricercate e di conseguenza quelle da ottimizzare. Fatto questo lavoro, si
nominano le macro e le micro categorie.
Nell’immagine, facciamo un esempio di architettura leggera e semplice da navigare con tre macro
categorie, all’interno di queste un numero sempre non elevato di micro categorie, fino ad arrivare
in una sequenza logica, ordinata e precisa alla scheda prodotto.
Figura 5.24 - Struttura a silos ideale per un e-commerce.

La struttura, così rappresentata, è quella che consiglio per la navigabilità e l’usabilità, ideale per
la maggior parte degli e-commerce che si realizzano; chiaramente in base al numero dei prodotti
e alla grandezza dello shop, si può allungare la struttura di un passaggio ulteriore prima del
carrello.

Internal linking
Spesso, si sottovaluta dal punto di vista SEO, la parte inerente alla linking interna, dando priorità
all’ottimizzazione di title, description e H1. È lavoro che va fatto, ma la SEO, in una fase
advanced, riguarda anche link interni al sito, che devono essere distribuiti in modo omogeneo.
La linking interna in un e-shop va curata per due fattori che ci stanno a cuore: l’utente e Google.
Come dicevo, il più delle volte, noto che nell’ e-commerce non esiste alcun tipo di collegamento
tra le pagine dello shop o, laddove esista, ci sono dei collegamenti privi di senso. Questa prassi
non aiuta l’indicizzazione del sito e non ne aiuta la navigabilità.

Come ragionare e perché creare link interni?


L’internal linking ricopre un ruolo importante, consente agli utenti di navigare un sito, aiuta a
stabilire la gerarchia di informazioni, permette di definire la link juice spread (ranking).
In un e-commerce è la home la pagina di ricerca più forte, quella con il rank juice più alto, mentre
la pagina del prodotto è quella meno trafficata con il juice più basso; per trasferire forza a tutto il
sito è necessario collegare le pagine tra loro, con senso logico e tematico. Il mio consiglio per
ottimizzare le pagine e creare una corretta linking interna è quello di immaginare una struttura a
silos, dove si collegano tra loro le pagine prodotto con le micro categorie, e queste con le
categorie o viceversa. Per non generare confusione nell’utente e compromettere il lavoro di
indicizzazione, evitate dei collegamenti fuori schema con link a categorie non pertinenti al
prodotto.

Schema del silo in dettaglio


Nella Search Console di Google, andando in Traffico di ricerca > Link interni, si controlla lo
stato reale della linking interna del sito analizzato e si vede quali sono le pagine più linkate. In
ordine, teoricamente, dovremmo trovare:
• home;
• categorie;
• sottocategorie.

Proprio come riportato nella Figura 5.25.

Figura 5.25 - Search Console Architettura.

Nel caso in cui i numeri siano troppo sproporzionati, rivediamo e miglioriamo la struttura di link.

Contenuti duplicati
La Search Console di Google è uno strumento interessante, ci dà tante informazioni, come visto
prima, e in particolare ci allerta in caso di contenuti duplicati. Un e-commerce può cadere vittima
dei contenuti duplicati: senza entrare nel merito dell’originalità dei testi del sito, la duplicazione
in genere dipende dalla paginazione e/o dai filtri di ricerca.
Ad esempio in PrestaShop, quando entriamo in una categoria, ci ritroviamo sulla destra un ordine
per: età, prezzo, colore, ecc. (vedi Figura 5.26).
Figura 5.26 - Ordinamenti E-commerce.

Nel momento in cui l’utente sceglie l’ordine, cambierà l’URL di riferimento:


/4-abbigliamento-bambina?orderby=name&orderway=desc
/4-abbigliamento-bambina?orderby=name&orderway=asc

Queste due URL, e tutte quelle delle varianti della categoria, in realtà hanno gli stessi contenuti.
Per Google queste pagine sono duplicate. In PrestaShop questo problema si può risolvere
installando un modulo per il “tag canonical” (lo trovate in Addons-PrestaShop e costa 29,90 €):
http://addons.prestashop.com/it/url-redirect/4501-canonical-url-pro.html

Con questo modulo, in un e-shop PrestaShop, comunichiamo a Google qual è l’URL canonical,
l’URL principale a cui tutte le appendici fanno riferimento, eludendo il pericolo di contenuti
duplicati.
Sul piano tecnico, l’installazione del modulo non è complessa e prevede una piccola modifica in
HTML, che viene spiegata bene, appena si installa il modulo.

Friendly URL
A Google sono gradite le cose semplici, chiare, pulite e leggibili.
Quanto sono noiosi quegli URL, infiniti con tanti numeri e lettere? Disorientano Google per
l’indicizzazione della pagina e l’utente che si sente perso.
Con PrestaShop possiamo creare degli URL friendly, brevi, con il nome della categoria, così
Google e l’utente sono sempre informati del luogo in cui si trovano.
Come si imposta l’URL friendly?
Dal pannello diBackend andiamo in Preferenze > SEO & URL e impostiamo il Friendly URL; a
questo punto il nostro URL si presenterà così: nomesito/12-categoria.
Un URL breve, semplice, efficace, ma purtroppo non perfetto, perché compare di default un
numerino, nel nostro caso 12: è una gerarchia interna di PrestaShop, che non serve all’utente e
nemmeno a Google.
Come possiamo ovviare a questo?
PrestaShop risponde a questa mancanza con un modulo, “Advanced URL”, con il quale possiamo
eliminare questo numero: anche questo modulo si trova in Addons-Prestashop:

http://addons.prestashop.com/it/url-redirect/16928-advanced-url.html

Un piccolo consiglio, che dal punto di vista SEO non sarà determinante per scalare la SERP, ma
può essere utile, mentre sul piano dell’usabilità ci ritroviamo un URL più corto e pulito che non
guasta mai.
Abbiamo analizzato e individuato una serie di aspetti importanti per un’ottimizzazione SEO di un
e-shop in PrestaShop: l’architettura, la linking interna, il canonical, gli URL friendly, tutti il più
delle volte trascurati, ma che vanno presi in esame per un lavoro corretto e preciso, finalizzato a
realizzare un e-shop, gradito al motore di ricerca e all’utente/cliente, che vogliamo raggiunge nel
vasto mondo del web.

SEO e Magento
Magento è uno dei più famosi CMS dedicati agli e-commerce e realizzato in php. Dal 2008, anno
della sua nascita, la piattaforma realizzata da Varien sta riscuotendo un successo dopo l’altro,
vincendo numerosi e prestigiosi concorsi di rilevanza internazionale.
Sempre più negozi online stanno scegliendo Magento per sviluppare i propri siti e in molti casi si
sta rivelando una scelta vincente. Famosi brand quali Nike, Olympus, Volcom, Nicol Miller, e
tanti altri ancora, hanno deciso di affidarsi a Magento ormai da anni.
Seguire il loro esempio e decidere di aprire il proprio e-commerce su questa piattaforma è
sicuramente un primo e decisivo passo per dare uno slancio al proprio business online, ma non è
sufficiente.
Come sappiamo tutti, l’ottimizzazione SEO è una parte fondamentale di ogni sito Internet.
Permette, infatti, alla nostra pagina web di comparire tra i primi risultati delle query su Google o
su altri motori di ricerca come Bing e Yahoo!.
Raggiungere i primi posti delle SERP Google offre vantaggi importantissimi e una visibilità
capace di sbaragliare la concorrenza sul web.
Per questo l’attività SEO è una vera e propria lotta all’ultimo sangue, e per ottenere i risultati
sperati dobbiamo dotarci delle giuste “armi”.

Estensioni SEO Magento


Magento è di default uno degli engine più SEO-friendly che si possa trovare. Molte funzioni base
per l’ottimizzazione SEO sono già presenti e possono essere utilizzate semplicemente tramite la
dashboard del nostro sito.
Permette, infatti, di modificare gli URL, di gestire i Meta Data, di aggiungere Page Title, Meta
Decription e Slug, di modificare l’Header, ecc.
Queste possibilità, se sfruttate e gestite nel modo corretto, ci garantiscono già un buon livello di
ottimizzazione SEO. In breve tempo vedremo il nostro sito e-commerce scalare una posizione
dopo l’altra dando una spinta notevole al nostro business.
A volte, però, capita che non riusciamo a raggiungere i risultati sperati nonostante l’ottimo
utilizzo dei tool di default.
In questo caso c’è una sola cosa da fare: affidarsi a estensioni SEO Magento esterne che
garantiscono risultati eccezionali semplificando, allo stesso tempo, il lavoro necessario.
Oggigiorno esiste un’infinità di provider e di aziende che sviluppano estensioni con finalità SEO.
Molte di queste hanno caratteristiche simili ed è quindi complicato capire quale sia il tool che fa
per noi.

Figura 5.27 - Esempio del plugin CreareSEO in Magento.

Esistono sia estensioni gratuite, sia a pagamento. Bisogna però ricordare che un prodotto a
pagamento non è sempre un prodotto migliore. Esistono, infatti, estensioni gratuite molto utili e
che spesso sono addirittura migliori di molte altre più o meno costose.
Un esempio è sicuramente Free Magento SEO Extension, l’estensione gratuita e sviluppata dal
team Creare. Questo prodotto offre una serie di nuovi e fondamentali strumenti capaci di
combattere alcuni problemi in cui ci si può imbattere durante l’attività SEO: come duplicati di
contenuti o pagine 404.
Anche per la sua semplicità di utilizzo e gestione, Free Magento SEO Extension è una delle
estensioni più scaricate e apprezzate dall’online community fedele a Magento.

Advanced SEO Suite


Nonostante si trovino ottimi strumenti anche gratuitamente, non è sbagliato considerare la
possibilità di investire del denaro in un potente tool SEO. Una maggiore visibilità, unita a
prodotti di qualità, garantisce ritorni che giustificano gli investimenti iniziali, e la giusta
estensione è in grado di trasformare il nostro sito in una fabbrica di soldi.
Dopo aver provato tante estensioni, finalmente possiamo dire di averne trovata una che ci
soddisfa sotto molti punti di vista.
Il “must-have” per ogni e-commerce che vuole puntare sulla SEO è l’estensione a pagamento
Advanced SEO Suite, sviluppata dall’azienda Mirasvit.
Permette di ottimizzare le categorie di prodotti venduti per specifiche ricerche di termini
all’interno del template. In questo modo permette al negozio online di schizzare e guadagnare
posti in tutti i maggiori motori di ricerca (Google, Bing, Yahoo!, ecc).
Nello specifico Advanced SEO Suite permette:
• l’ottimizzazione per le keywords;
• l’ottimizzazione degli URL;
• l’utilizzo di link canonici;
• l’utilizzo della sitemap frontale semplice e comoda da usare;
• l’ottimizzazione della Google sitemap;
• l’utilizzo di altri strumenti quali il Robots.txt Editor, il Google Rich Snippets, e la
produzione automatica di crosslink interni e di ALT per le immagini dei prodotti.

Insomma, stiamo parlando di un modulo per la SEO a 360°, considerato tra i migliori sul mercato
e che vanta feedback e review positive e affidabili.
Mirasvit ha pensato proprio a tutto, dando strumenti automatici e facili da usare a chiunque voglia
avere successo con il proprio business online.
La configurazione dell’Advanced SEO Suite è veloce. Basta seguire le indicazioni fornite al
momento dell’acquisto, o sul sito dell’azienda, per iniziare immediatamente a ottimizzare la SEO
del nostro negozio online e ottenere i risultati che ci eravamo prefissati.
Figura 5.28 - Esempio del plugin Advanced SEO Suite in Magento.

Nel prezzo del prodotto sono compresi anche l’installazione e il servizio d’assistenza, sempre
molto efficace e puntuale. Anche questo è un valore aggiunto da non sottovalutare e che può fare
la differenza nel momento di scegliere un’estensione piuttosto che un’altra.

NOTA

Abbiamo analizzato i CMS più usati, ovviamente ne esistono molti altri che non abbiamo
preso in considerazione. Ad esempio Drupal a oggi ha moltissimi plug-in presenti in
WordPress e le configurazioni sono molto simili. Ogni volta che ottimizziamo un CMS open
source i nostri consigli sono:
• metterlo in sicurezza da eventuali “attacchi”;
• controllare la generazione di URL e l’alberatura;
• verificare la presenza di pagine prive di contenuti o duplicati;
• verificare che il plugin SEO installato assolva appieno ai suoi compiti.

Si ringraziano Ivan Cutolo e Davide Prevosto per i preziosi suggerimenti sulla parte di
personalizzazione dei CMS.
Conclusioni e punti salienti del capitolo
In questo capitolo abbiamo analizzato temi molto importanti, come l’organizzazione dei contenuti
e il disegno architetturale di un sito web. Questi aspetti sono molto importanti non solo a livello
SEO, ma anche a livello di marketing generale.

Cosa ricordarsi?
• È opportuno far raggiungere le risorse desiderate agli utenti nel minor numero di clic
possibile.
• È altresì importante e cruciale organizzare i contenuti in modo organico evitando
duplicazioni o malfunzionamenti del sito stesso.
• Infine, abbiamo analizzato brevemente 4 dei CMS più usati nella realizzazione di siti web
e ci siamo soffermati su alcuni aspetti SEO basilari nelle loro configurazioni.

“La creatività è senza dubbio la risorsa umana più importante. Senza creatività non ci
sarebbe progresso e ripeteremmo sempre gli stessi schemi.”

(Edward De Bono)
Capitolo 6
Performance e ottimizzazioni di un web
project SEO

Velocizzare il caricamento delle pagine web


La velocità dei siti web risulta essere un nuovo fattore SEO per l’ottimizzazione interna. A
sostegno di questa tesi, troviamo un’interessante dichiarazione di Matt Cutts, il quale ha
affermato che, con l’introduzione del nuovo algoritmo di Caffeine, la velocità di caricamento
delle pagine di un sito web diventerà un fattore da tenere in considerazione per il buon
posizionamento. Nonostante ciò, la qualità e la frequenza di aggiornamento dei contenuti saranno
ancora gli aspetti fondamentali per stabilire il valore di un sito web. Dobbiamo inoltre ricordare
che i fattori utilizzati per determinare il posizionamento sono più di 200 e molti di questi non
sono noti.

NOTA

All’indirizzo http://tinyurl.com/velocita-pagina potete trovare il video completo


dell’intervista a Matt Cutts. Google suggerisce di ottimizzare i tempi di caricamento delle
pagine, in quanto “i siti veloci aumentano la soddisfazione degli utenti e migliorano la qualità
generale del web”. Inoltre consiglia di testare le prestazioni di un sito web utilizzando
PageSpeed Insights e Webpagetest.org.

Inoltre, la velocità di caricamento di un sito web va a costituire la user experience dell’utente:


più la pagina sarà lenta, più probabilità avremo che l’utente chiuda il browser o abbandoni il
sito. Per tale motivo, dobbiamo prestare attenzione e cercare di creare pagine leggere ma allo
stesso tempo accattivanti e dal layout curato. Nei prossimi paragrafi cercheremo di illustrare le
principali tecniche per misurare le prestazioni del nostro sito web e per agire nel caso sorga la
necessità di velocizzare i tempi di risposta di alcune pagine web.
NOTA

Dal 2010 a oggi Matt Cutts e John Mueller hanno rilasciato dichiarazione su come i siti
"lenti" possono avere una perdita di visibilità in SERP. A oggi non è quindi sicuro se i siti
“veloci” siano realmente premiati da Google. Ovviamente da parte nostra crediamo sia
fondamentale avere un sito che risponda in modo “rapido” soprattutto dopo l’introduzione di
AMP e le Progressive Web App per il mobile.

Misurare la disponibilità e la velocità dell’hosting


Nel Capitolo 3 è stato affrontato ampiamente il tema della scelta di un Hosting Web. Infatti, è
importante avere un piano di hosting commisurato alle performance che vogliamo ottenere e al
carico del nostro sito web. Esistono strumenti in grado di tenere sotto controllo la disponibilità
di un server web, in modo da poter essere avvisati nel caso vi siano problemi. Si tratta di un
aspetto cruciale, specialmente se si ha un’attività online in cui il business dipende dalla
possibilità, per i visitatori, di accedere ai contenuti 24 ore su 24. Supponiamo, per esempio, che i
server di eBay si guastino o vadano offline per alcuni minuti: ciò comporterebbe un danno di
milioni di euro. Possiamo quindi capire l’importanza di misurare la disponibilità del nostro
hosting per essere sempre a conoscenza di eventuali malfunzionamenti. Tra i vari servizi gratuiti
offerti da questo servizio, possiamo menzionare i seguenti:
• HostTracker: è uno strumento che consente di monitorare un server web (http://host-
tracker.com/);
• Mon.itor.us: è un tool gratuito che permette di monitorare un server web in tempo reale
(http://mon.itor.us/).

Tali servizi aiuteranno a monitorare il nostro sito in modo da prevenire eventuali lackout.

NOTA

Un server web che supporta l’ultima versione del protocollo HTTP2 permetterà ai siti gestiti
di sfruttare le potenzialità del nuovo protocollo e quindi erogare risorse in modo “più rapido
e veloce”; qui potete trovare una guida introduttiva:
https://github.com/http2/http2-spec/wiki/Implementations

Misurare le prestazioni del sito web


Per sapere se il nostro sito web risponde correttamente alle richieste, dobbiamo adottare
strumenti in grado di misurare le prestazioni. Il primo passo da seguire potrebbe consistere
nell’utilizzo di server proxy, in modo tale da verificare il livello di accessibilità del sito web da
diverse località geografiche. Per esempio, se utilizziamo un server proxy che si trova a Londra,
possiamo scoprire i tempi di risposta e il modo in cui viene visualizzato il nostro sito come se
fossimo realmente in Inghilterra. Tra i vari servizi di proxy, possiamo citare: btunnel.com,
web4proxy.com e http://nntime.com/proxy-country. Mettiamo ora in atto quanto detto
precedentemente: dalla lista scegliamo un proxy che si trova in Inghilterra e impostiamolo
all’interno del nostro browser web. Per esempio, in Internet Explorer dobbiamo andare in
Strumenti > Opzioni Internet > Connessioni > Impostazioni Lan e inserire l’indirizzo IP e la
porta del nostro proxy, come mostra la Figura 6.1.

Figura 6.1 - Impostazione del proxy.

A questo punto, possiamo navigare tra le pagine del nostro sito web e vedere come sono i tempi
di risposta: testeremo, così, come un utente inglese visualizzerebbe il nostro sito web e come
esso risponde alle varie richieste. Esistono diversi servizi che permettono di monitorare le
prestazioni delle nostre pagine web: a tale proposito, Google mette a disposizione tutta una serie
di strumenti, disponibili al seguente link: http://code.google.com/speed/. Tra i tool a
disposizione, possiamo utilizzare Google Analyst e gli strumenti per webmaster, che consentono
di monitorare la velocità media di caricamento delle nostre pagine web, come mostra la Figura
6.2.
Figura 6.2 - Esempio di controllo della compatibilità mobile da parte del tool di Google.

NOTA

Un aspetto da tenere presente è il fatto che sia Google Analytics, sia Google Search Console
sono strumenti JavaScript-based. Questi tool registreranno solamente le visite alle pagine
provenienti da browser in cui sono stati abilitati JavaScript e i cookie. Per avere, invece, un
quadro generale del traffico dal nostro sito web, dobbiamo utilizzare un analizzatore di file
di log, come AWStats.

A oggi vi sono diversi strumenti per fare le verifiche della velocità di caricamento delle nostre
pagine web, per esempio Page Speed (http://code.google.com/speed/page-speed/), rilasciato da
Google, e YSlow (http://developer.yahoo.com/yslow/), rilasciato da Yahoo!. Entrambi sono
extension di Firefox e richiedono Firebug (http://getfirebug.com/). Una volta installati questi tool,
possiamo vedere il tempo di caricamento delle pagine e scoprire quanto “spazio” occupa ogni
singola pagina.
NOTA

Vogliamo segnalarvi un tool molto interessante: GTMetrix (http://gtmetrix.com), che ci


consente di monitorare la velocità del nostro sito web sia attraverso Page Speed sia con
YSlow.

Figura 6.3 - Esempio di utilizzo dei tool per verificare le prestazioni di un sito web.

NOTA

Ai fini della velocità del sito sono importanti sia i tempi di risposta del server web, sia gli
elementi stessi della pagina; per tale motivo, dovranno essere ottimizzati tutti i componenti
che la costituiscono, come immagini, CSS, JavaScript, Flash ecc.

Alleggerire le pagine web


Ora che abbiamo capito l’importanza che ha il tempo di caricamento di una pagina web sia per
l’utente, sia per i motori di ricerca, mostreremo alcune tecniche di base per cercare di ottimizzare
le nostre pagine web. Attraverso un altro interessante tool come pingdom (tools.pingdom.com),
analizziamo le nostre pagine web per cercare di capire gli elementi che le costituiscono e in quali
termini essi contribuiscono al tempo di caricamento. Fatto ciò, siamo pronti per iniziare ad
apportare alcune modifiche per alleggerire le pagine web.
Figura 6.4 - Utilizzo del tool pingdom per verificare gli elementi che contribuiscono in modo negativo al caricamento di
una determinata pagina web.

Cerchiamo, in primo luogo, di utilizzare i CSS per definire il layout delle nostre pagine web e
inseriamoli in file esterni alla pagina web:

NOTA

È opportuno verificare sempre che le risorse "splittate" siano visibili ai bot dei motori di
ricerca (spesso si rischia che esse siano bloccate dal file robots, è opportuno controllare
sempre il contenuto con la search console di Google alla voce: “visualizza come Google”).

In questo modo, la velocità di caricamento della pagina migliorerà, poiché, per gli accessi
successivi al primo, la quantità di byte da scaricare sarà inferiore, dato che il file di stile verrà
memorizzato nella cache del browser. Inoltre, come abbiamo avuto modo di vedere in
precedenza, l’utilizzo dei CSS ci consente di ottenere un codice snello e pulito.
NOTA

È possibile ottimizzare i CSS attraverso piccoli accorgimenti, per esempio combinando più
regole:
Invece di avere:
• h1 { color: black; }
• p { color: black; }
usiamo un’unica regola:
• h1, p { color: black; }
Inoltre è possibile utilizzare il metodo CSS sprite, che permette di mostrare più immagini ai
visitatori della nostra pagina web facendone caricare solo una, velocizzando in questo modo
i tempi di caricamento della nostra pagina.

Esistono svariati tool che permettono di ottimizzare e comprimere i nostri file CSS, tra cui:
• CSS Optimizer: è un semplice tool online che processa il CSS e ne crea una versione
compressa (http://www.cssoptimiser.com);
• Clean CSS: è possibile impostare il livello di compressione desiderato e personalizzare
le diverse opzioni di compressione (http://www.cleancss.com);
• CSS Compressor: consente di definire diverse opzioni di compressione
(http://iceyboard.no-ip.org/projects/css_compressor).

Se nelle nostre pagine è presente del codice JavaScript, esso dovrebbe essere sempre inserito in
un file esterno, soprattutto nei casi in cui lo stesso codice è utilizzato in più pagine (vale il
medesimo discorso fatto per i CSS):

NOTA

Vedremo in seguito come sia possibile comprimere anche i file JavaScript.

Elementi da evitare sono le tabelle nidificate, perché quanto più la nidificazione sarà articolata,
tanto più il browser impiegherà tempo nella renderizzazione della pagina. Ciò comprometterà il
tempo di caricamento e la velocità della nostra pagina. Un altro elemento di cui sconsigliamo
l’utilizzo è rappresentato dai frame. Il problema sta nel fatto che i motori non riescono a
indicizzare correttamente i siti con i frame. Questo perché ogni frame è una pagina a parte, quindi
richiede maggior tempo nel caricamento e l’uso del frame set (il raccoglitore dei vari frame) ne
complica ulteriormente l’architettura e la complessità. Per questo motivo suggeriamo di non usare
tali elementi, ma di sostituirli con template adattabili al linguaggio di programmazione utilizzato.
Infine, l’ultimo consiglio che ci sentiamo di fornire, oltre a quello di ottimizzare tutti gli elementi
che compongono una pagina (immagini, pdf, JavaScript), è di rimuovere eventuali spazi bianchi o
tag HTML non strettamente necessari per il nostro sito web. Strumenti come Dreamweaver ci
aiutano in questo compito.

NOTA

Pagine troppo ricche di testo o di immagini possono risultare lente da caricare, e intimorire,
così, i visitatori. È quindi consigliato suddividere i contenuti corposi su più pagine.

È sempre consigliabile sfruttare i percorsi relativi piuttosto che quelli assoluti, in modo da non
costringere il server a ristabilire nuove connessioni. Inoltre, è sempre preferibile utilizzare file
presenti sui propri server invece di sfruttare immagini presenti su altri siti web (di cui non
avremo il controllo). Per esempio, invece di utilizzare l’URL relativo:

sfruttiamo il percorso relativo:

Un altro metodo per migliorare la velocità di caricamento delle nostre pagine web è l’utilizzo
della cache (HTTP caching), che permette un caricamento rapido delle pagine per le visite
successive alla prima. Ogni linguaggio di programmazione lato web offre strutture atte a sfruttare
la cache del browser:
• per Asp.net si veda: http://tinyurl.com/cache-microsoft;
• per PHP si veda: http://tinyurl.com/cache-apache.

NOTA

Tra le altre tecniche che possiamo utilizzare per migliorare la velocità delle nostre pagine
web troviamo Gzip, che consente di ridurre il peso di JavaScript e CSS.
Esiste, inoltre, un modulo per Apache creato da Google per caricare velocemente le pagine
web:
http://googlewebmastercentral.blogspot.com/2010/11/make-your-websites-run-faster.html

Ottimizzazione delle immagini per la SEO


Le immagini all’interno di un sito web hanno una notevole importanza, perché vanno a costituire
quello che sarà il layout grafico. L’utente può essere attratto da elementi visivi: una grafica curata
e ben fatta ci consentirà di migliorare l’esperienza utente dei nostri visitatori. Le immagini per la
SEO costituiscono un elemento spesso non ben visto: cercheremo di mostrarvi alcuni piccoli
trucchi per ottimizzarle. Iniziamo a prendere in considerazione i tag HTML, che servono al
browser per visualizzare l’immagine:

• Il nome dell’immagine, come abbiamo visto, deve essere breve e contenere una o due
parole chiave che richiamino l’argomento espresso dall’immagine stessa. Questo perché
alcuni utenti potrebbero giungere al nostro sito attraverso la ricerca effettuata su immagini,
per esempio Google Image. Avere un nome che esprima il contenuto di un’immagine o di
una foto agevola sia gli utenti, sia i motori di ricerca.
• L’attributo alt deve essere presente e deve rispecchiare anch’esso il contenuto
dell’immagine. Nel caso, per qualsiasi motivo, l’immagine non venisse caricata, il testo
contenuto nell’attributo alt permetterebbe all’utente di capire dove si trova e cosa
potrebbe incontrare proseguendo nella navigazione.
• I tag width e height devono essere sempre presenti, perché permettono al browser di
visualizzare l’immagine senza doverne calcolare gli attributi di altezza e larghezza. Inoltre,
la presenza di questi due attributi permette al browser di caricare la pagina senza aspettare
di aver effettuato il download delle immagini presenti in essa. Una piccola accortezza che
ci permetterà di guadagnare secondi preziosi e di fornire i contenuti nel minor tempo
possibile.

Questi espedienti consentono di ottenere sottili miglioramenti, apprezzabili anche in ambito SEO.
Non dobbiamo dimenticarci che anche il testo che si trova nelle vicinanze delle immagini risulta
essere un elemento molto importante. Infatti, se ben strutturato, con informazioni correlate a
quelle dell’attributo alt, rende ancora più appetibile l’immagine per i motori di ricerca. La scelta
del formato delle immagini (gif, jpg o png) è un altro aspetto cruciale che ci consentirà di
risparmiare qualche KB.
• Gif permette di ottenere prestazioni migliori per immagini con una mappa di colori
ristretta (fino a un massimo di 256 colori). Questo formato supporta la trasparenza e
piccole animazioni. È tipicamente consigliato per elementi grafici come bottoni, icone o
layout grafici.
• Jpeg è più indicato per immagini fotografiche e, grazie al suo metodo di compressione
(con perdita dell’informazione), ci permette di ottenere risultati soddisfacenti. Questo
formato non supporta la trasparenza.
• Png attua una compressione dell’immagine senza perdita di informazioni e supporta la
trasparenza e la semitrasparenza. L’unico difetto riscontrabile è che a oggi non tutti i
browser supportano la trasparenza delle png.
La scelta di un formato adeguato per le nostre immagini consentirà di ottenere immagini con
qualità superiore, ma di dimensioni ridotte, e un risparmio in byte utile per ottimizzare il
caricamento di una pagina web. Un modo per ottimizzare le immagini è quello di ridurne le
dimensioni; in che modo? Esistono diversi strumenti che ci agevolano in questo compito:
• http://www.imageoptimizer.net/Pages/Home.aspx: è un tool online che consente di ridurre
le dimensioni di immagini con estensioni gif, png e jpg;
• http://www.imgopt.com/: è un servizio offerto da Yahoo! per la compressione delle
immagini;
• http://www.prelovac.com/vladimir/wordpress-plugins/seo-friendly-images: è un tool per
ottimizzare le immagini.

NOTA

Ricordiamoci che se nel nostro sito inseriamo un’immagine con tag height e width di 50 px,
ma in realtà l’immagine ha una larghezza e un’altezza di 500 px, essa impiegherà più tempo a
caricarsi. Per tale motivo, se vogliamo inserire immagini di preview con dimensioni ridotte,
utilizziamo programmi appositi per ridurne le dimensioni.

È bene tenere presente che, se utilizziamo linguaggi di programmazione dinamici, è possibile


sfruttare librerie proprietarie (per esempio, http://aspnet.codeplex.com/releases/view/50140) per
comprimere le immagini e adattarle al nostro layout grafico. Inoltre, in alcuni casi, utilizzando i
CSS, possiamo ottenere i medesimi risultati ottenuti con le immagini, ma utilizzando meno byte,
quindi rendendo più performanti le nostre pagine web. Infine, prendiamo in considerazione il
termine coniato per specificare le immagini che vengono utilizzate su domini diversi, causando un
forte sfruttamento in termini di banda e risorse. Alcune persone potrebbero utilizzare le nostre
immagini nei loro blog o nel sito web, prelevandole direttamente dal nostro sito web,
sovraccaricandolo. Alcuni webmaster cercano quindi di bloccare le immagini, se visualizzate da
domini diversi dall’host di destinazione. Questo consente di migliorare il carico sul server e di
impedire che le nostre immagini vengano utilizzate su altri siti web. Di contro, però, bloccando
l’hot-linking, impediamo che motori di ricerca di immagini sfruttino le foto, privando il nostro
sito web di una possibile fonte di visite. Il nostro consiglio è quello di monitorare l’utilizzo delle
immagini attraverso strumenti di statistica, ma di non impedire completamente la tecnica dell’hot-
linking, perché ci priveremmo di visite provenienti da canali trasversali. Abbiamo quindi
analizzato le principali tecniche che ci permettono di ottimizzare le immagini del sito web per la
SEO; nei successivi paragrafi prenderemo in considerazione l’ottimizzazione di altri elementi
multimediali (quali filmati video, HTML 5) per migliorare la user experience sia degli utenti, sia
dei motori di ricerca.
NOTA

Potrete trovare alcuni spunti interessanti per la gestione dell’hot-linking a questo link:
http://www.mauriziopetrone.com/blog/hotlink-no-backlink
Ricordiamo che nel corso degli anni sono nati nuovi formati di immagini ormai compatibili
con i browser web più diffusi. Questi formati sono l’apng (png animate) e le WebP (il 40%
più leggere delle normali jpg) o le jpg 2000. Perché non iniziamo a sfruttarle?

Flash e SEO: un tecnologia superata e deprecata


L’utilizzo di Adobe Flash permetteva di dare un tocco di vivacità e movimento al design
dell’intero sito web. Sempre più le aziende e i clienti richiedono siti animati, interattivi e
multimediali anche se oggi Flash è una tecnologia obsoleta e decisamente superata.
Indubbiamente questa tecnologia migliora la user experience dell’utente, ma non è la strada
ottimale per una corretta indicizzazione dei contenuti web.

NOTA

SWF è il formato compilato che viene letto dai Flash Player disponibili per i vari browser
web. È possibile implementare applicazioni Flash che si integrano con l’XML.

In questo contesto troviamo, come accade in molti campi, due correnti di pensiero opposte:
• gli esperti SEO, che non amano l’utilizzo di Flash(tecnologia superata);
• i designer e i web designer, che affermano che l’utilizzo di Flash era indispensabile per
fornire un’esperienza utente e un’interattività migliori (oggi è possibile sfruttare HTML 5 e
Ajax per ottenere i medesimi risultati).

Di fronte a questo dilemma, possiamo porci nel mezzo e cercare di identificare, delle due diverse
correnti di pensiero, gli aspetti principali:
• i siti RIA, da una recente analisi, sono risultati più apprezzati dai visitatori che
tendenzialmente spendono su di essi più tempo;
• alcune animazioni possono essere fatte con altri strumenti come JavaScript o Ajax;
• i contenuti devono essere facilmente stampabili o consultabili dall’utente;
• le pagine HTML sono “più leggere” di quelle che contengono animazioni;
• dobbiamo ricordarci che il sito web deve essere fatto per il motore di ricerca, ma
soprattutto per i visitatori, i quali hanno emozioni e sensazioni che possono scaturire da
una combinazione appropriata di stili e animazioni; ciò potrebbe indurli a tornare a
visitarlo;
• la navigazione di siti interamente in Flash è difficoltosa e, anche se ben strutturata, risulta
non molto apprezzata dai navigatori web;
• in genere un utente non è disposto ad aspettare più di dieci secondi per il caricamento di
un contenuto web.

In base a queste considerazioni, possiamo pensare di utilizzare Flash in modo appropriato e


apprendere cosa può essere correttamente indicizzato. In passato, i motori di ricerca non
riuscivano a interpretare correttamente i contenuti presenti all’interno dei file SWF. Oggi, grazie
alla collaborazione tra le società che gestiscono i principali motori di ricerca e Adobe, è
possibile indicizzare correttamente anche i contenuti di tipo Flash.

NOTA

Il 30 giugno 2008 Google ha annunciato, attraverso il suo blog, la possibilità di indicizzare


correttamente i contenuti Flash
(http://googlewebmastercentral.blogspot.com/2008/06/improved-flash-indexing.html).

“Stiamo lavorando inizialmente con Google e Yahoo! per migliorare in modo significativo la
ricerca dei contenuti RIA presenti sul web e abbiamo intenzione di ampliare la disponibilità di
questa funzionalità a beneficio di tutti gli editori di contenuti, sviluppatori e utenti finali”. Questo
è quanto ha affermato David Wadhwani, General Manager e Vice Presidente della Platform
Business Unit di Adobe.
“Google sta lavorando duramente per migliorare la lettura e l’interpretazione dei file SWF.
Attraverso la nostra recente collaborazione con Adobe, siamo in grado di aiutare i proprietari dei
siti web nel progettare soluzioni in Flash in grado di essere indicizzate. Migliorare il modo con
cui eseguire la scansione dei contenuti dinamici, migliorare l’esperienza di ricerca per i nostri
utenti” ha affermato Bill Coughran, Vice Presidente della sezione Engineering di Google.
Il problema fondamentale dei contenuti Flash è che essi non aderiscono al paradigma della
singola pagina per informazione, quindi è possibile che particolari stati o frame non abbiano
necessariamente un URL univoco. Senza un URL univoco, i motori di ricerca che desiderano
avere un collegamento al contenuto specifico del filmato Flash si troveranno di fronte a questo
problema. Lo stesso discorso, anche se con caratteristiche leggermente differenti, si verifica con
le pagine “Ajax-based”. Una tecnica chiamata deep linking consente agli sviluppatori Flash di
fornire URL specifici per determinati stadi dell’applicazione. Tale tecnica non è del tutto
perfetta, ma è in grado di offrire agli utenti un collegamento a un particolare contenuto del file
SWF. Nell’implementazione di applicativi Flash è quindi possibile limitare il problema
utilizzando in modo appropriato questi stratagemmi.
NOTA

Il seguente link mostra esempi di utilizzo della tecnica deep linking per Flash:
http://flash.html.it/articoli/leggi/3050/swfaddress-deep-linking-e-tasto-indietro

Sotto, riportiamo un esempio di codice HTML validato W3C per incorporare filmati Flash:

NOTA

Al posto del messaggio di errore “Fail…” è consigliabile inserire una descrizione, in modo
tale da fornire agli utenti e ai motori di ricerca informazioni aggiuntive (metodo SWFObject).

Buone pratiche per lo sviluppo di Flash SEO (Flash non si usa più!)
Esistono diversi espedienti per cercare di indicizzare al meglio anche le pagine web sviluppate
utilizzando la tecnologia Flash; vediamole:
• utilizzare file XML o file di testo esterni all’applicazione Flash potrebbe migliorarne la
leggibilità e l’indicizzazione; infatti, il formato XML offre ai motori di ricerca una
struttura semantica molto adatta all’indicizzazione dei contenuti. Separando il layer di
contenuto dal layer applicativo, si otterrà una migliore manutenzione dell’applicativo
Flash e un migliore risultato in termini di indicizzazione;
• creare URL unici per le pagine web Flash aiuterà i motori nella navigazione dei contenuti
Flash. Per creare tali link univoci, si consiglia di impiegare tecniche come SWFAddress,
SWFObject o UrlKit (http://code.google.com/p/urlkit/). Un’altra soluzione è quella di
associare una nuova pagina HTML per ogni contenuto che si vuole rendere più SEO
friendly, come mostrato nella Figura 6.5;
Figura 6.5 - Esempio di utilizzo di pagine HTML per inglobare contenuti Flash.

• utilizzare il tag NOSCRIPT HTML potrebbe essere una buona soluzione per veicolare i
motori di ricerca verso i contenuti presenti nelle pagine che utilizzano Flash. Questo tag è
molto utile, perché, nel caso di un sito sviluppato interamente in Flash, ci permette di dare
in pasto ai motori di ricerca testo e descrizioni fondamentali per una corretta
indicizzazione. L’utilizzo è molto semplice: si posiziona il tag <noscript> </noscript>
subito dopo il codice che incorpora il filmato Flash nelle nostre pagine.

Figura 6.6 - Esempio di utilizzo del tag NOSCRIPT per migliorare l’indicizzazione di pagine Flash.

All’interno di questo tag è possibile inserire testo e descrizioni che serviranno ai motori
di ricerca per capire il contenuto trattato nella pagina. Da alcuni test effettuati è stato
possibile constatare come i motori di ricerca indicizzino correttamente tali contenuti, come
mostra la Figura 6.7;
Figura 6.7 - Sito web in Flash che utilizza il tag NOSCRIPT e la sua corretta interpretazione da parte dei search engine.

• sfruttare framework dedicati all’ottimizzazione dei contenuti Flash, come GAIA o


turtlebite.

Abbiamo visto alcune tra le metodologie a disposizione degli esperti SEO per migliorare
l’indicizzazione di contenuti Flash. Cercheremo ora di analizzare più nel dettaglio le due
principali tecniche che vengono utilizzate per rendere indicizzabili i contenuti Flash:
• SWFObject;
• SWFAddress.
Figura 6.8 - FEB Flash Website Framework.

SWFObject consente di interrogare il browser web per capire se è in grado di riprodurre il


filmato Flash; in caso contrario, viene visualizzato un contenuto HTML alternativo. Questa
tecnica offre quindi la possibilità non solo di fornire contenuti agli spider, ma anche di sfruttare
un eventule layout diverso nel caso il browser non supporti i filmati Flash. Applicare SWFObject
può apportare alcune migliorie, in quanto gli spider, navigando sulle nostre pagine web,
troverebbero contenuti indicizzabili, quindi è plausibile ipotizzare un buon rendimento lato SEO.
Per quanto concerne le note negative di questa tecnica, troviamo una scarsa possibilità di fornire
contenuti identici al filmato Flash in caso di mancata riproduzione. È bene prestare attenzione al
contenuto alternativo, onde evitare penalizzazioni da parte dei motori di ricerca. Di seguito
mostreremo due esempi che utilizzano la tecnica appena illustrata:

Esempio 1:

Esempio 2:

NOTA

Ai seguenti link troverete numerosi esempi di applicazioni per questo SWFObject:


• http://www.alistapart.com/articles/flashembedcagematch/
• http://www.hochmanconsultants.com/articles/seo-friendly-flash.shtml

L’SWFObject offre quindi un modo diverso per includere contenuti HTML; ciò deriva dalla Web
Accessibility Initiative, la quale afferma che i contenuti multimediali dovrebbero avere un modo
alternativo di accesso alle informazioni presenti in essi.
SWF Address non è altro che una libreria (JavaScript/Actionscript) che si occupa di collegare
fra di loro sezioni interne di un filmato Flash. SWF Address ci consente di:
• aggiungere il sito web Flash ai preferiti del browser;
• inviare link via e-mail;
• ricercare contenuti specifici;
• utilizzare i bottoni di navigazione del browser;
• effettuare deep linking tra contenuti interni.

In poche parole, SWFAddress permette di creare deep link, cioè di associare un URL a una
sezione del nostro sito in Flash e di navigarlo anche con i bottoni avanti/indietro/refresh del
browser. Per esempio, supponiamo di avere un sito in Flash con tre sezioni: HOME, PRODOTTI
e CONTATTI. SWFAddress offre la possibilità di accedere alla sezione PRODOTTI con un URL
di questo tipo:
miosito.com/#/PRODOTTI/
SWFAddress consente di migliorare la navigabilità dei nostri contenuti Flash e di fornire URL
diversi da dare in pasto ai motori di ricerca. In ambito SEO, per ottenere i migliori risultati, tale
tecnica dovrebbe essere utilizzata in concomitanza con SWFObject, in modo tale da fornire URL
distinti e contenuto indicizzabile dai motori. Da non sottovalutare lo sforzo di progettazione e
implementazione necessario per applicarla e la scarsa possibilità di avere una buona link
popularity, poiché i link verso contenuti interni hanno il valore “#” come suffisso.

NOTA

Ai seguenti link potete trovare esempi di applicazione di tale tecnica:


• http://www.roytanck.com/2007/02/14/making-flash-websites-search-engine-friendly/
• http://flash.html.it/articoli/leggi/3050/swfaddress-deep-linking-e-tasto-indietro/
Infine segnaliamo un’altra tecnica chiamata Scalable Inman Flash Replacement (sIFR)
introdotta nel lontano 2006: un modo per incorporare in pagine web un qualsiasi font grazie a
Flash e JavaScript.

Figura 6.9 - Il sito Nike Lab utilizza la tecnica SWFAddress.

Ottimizzazione dei PDF


Il formato PDF (Portable Document Format) è stato sviluppato da Adobe Systems e permette di
creare documenti in grado di mantenere la formattazione del documento originale sia per la
stampa, sia per la visualizzazione su piattaforme diverse, che includono Windows, UNIX e Mac.
Grazie all’avvento degli e-book e dei book-reader digitali, tale formato ha ottenuto una grande
popolarità e diffusione in Internet. I motori di ricerca riescono a interpretare ottimamente i
contenuti presenti all’interno di questi file, indicizzandoli correttamente. Basti pensare a come la
ricerca in Google della voce “manuali pdf” produca numerosi risultati nella SERP, derivati da
una perfetta indicizzazione dei file con estensione .pdf.

Figura 6.10 - La ricerca in Google di “manuali pdf” produce numerosi risultati, determinati dalla corretta indicizzazione
dei documenti PDF.

Per creare un documento PDF, possiamo avvalerci di numerosi tool (Infix PDF Editor, Acrobat
Reader Professionale) a disposizione; ovviamente il migliore rimane quello di Acrobat
(utilizzato nel corso di questa trattazione). Attraverso questi software, saremo in grado di gestire
i meta-data del documento e di modificarli a nostro piacimento. L’ottimizzazione di un documento
PDF segue le linee SEO on page viste per le pagine web. Dobbiamo scegliere un titolo adeguato,
non creare PDF troppo pesanti (in termini di byte), completare i meta tag del documento e
utilizzare gli stili di intestazione, perché verranno riconosciuti come i tag H1, H2… di una pagina
HTML. Tutto questo perché un documento PDF ben posizionato nel web potrebbe portare nuove
visite al nostro sito web.

NOTA

È importante tenere presente come alcuni convertitori di PDF o versioni non recenti di
Photoshop non convertano il testo come “editabile”, bensì in pixel (il testo appare come
un’immagine) non indicizzabili. Per una corretta e adeguata indicizzazione, i testi presenti
all’interno di un documento PDF non devono essere rasterizzati come immagini.

Analizziamo ora le proprietà di un documento PDF (si consideri la Figura 6.11).


Figura 6.11 - Esempio di modifica delle proprietà del PDF con Adobe Acrobat Pro.

• File (ottimizzare-pdf.pdf): se nel documento PDF non è stato definito il meta tag “Title”,
viene utilizzato il nome del file. Per tale motivo, è importante utilizzare nomi appropriati e
non generici.
• Title: risulta essere l’elemento cruciale per una corretta indicizzazione del documento
PDF. Tale tag viene utilizzato come titolo nei risultati della SERP.
• Author: serve a specificare l’autore del documento PDF.
• Subject: questo campo funge da Snippet del Meta Description per il nostro documento
PDF. Comprendiamo bene l’importanza di questo meta tag e di conseguenza la scelta delle
keyword e delle frasi da riporre al suo interno.
• Keywords: parole chiave che servono a identificare il documento; solitamente è
consigliato indicare non più di cinque-sette keyword per documento.
• Tra le varie opzioni a disposizione, abbiamo l’opportunità di modificare la
visualizzazione iniziale del documento PDF dalla sezione “Initial View”. Variando tali
parametri (come mostrato in Figura 6.12), saremo in grado di visualizzare in maniera più
user friendly i nostri documenti PDF.

Figura 6.12 - Impostazioni di visualizzazione di un documento PDF.

Quelle sopra esaminate sono le tecniche base applicabili per migliorare l’indicizzazione dei
documenti nel web.
NOTA

Domande e risposte sui PDF


Come vengono trattati i documenti PDF?
I PDF vengono trattati in modo del tutto analogo alle pagine HTML: i link passano PageRank,
il testo viene indicizzato. Al momento le immagini presenti nei PDF non possono essere
indicizzate e non è possibile aggiungere l’attributo “nofollow” ai link.
I PDF possono produrre contenuto duplicato?
Sì, se sono la copia identica di una pagina html o di una descrizione di un prodotto o scheda
tecnica. Per evitare la duplicazione, è possibile inserire nell’header HTTP il
rel=”canonical”. Se non vogliamo indicizzare il file PDF, lo possiamo bloccare dal file
robots.txt o attraverso il tag X-Robots-Tag: noindex nell’header HTTP utilizzato per servire il file
PDF.
Come si comportano i link nei PDF?
Secondo le ultime dichiarazioni i link in file PDF passano PageRank

Silverlight per la SEO


Per costruire applicazioni web altamente interattive, sul mercato esistono principalmente due
strumenti software: Flash di Adobe e Silverlight di Microsoft (recentemente sta prendendo piede
anche JavaFX).

NOTA

Silverlight, conosciuto anche con il nome in codice WPF/E, rappresenta una recente
tecnologia per lo sviluppo di nuove applicazioni web multimediali e animate tramite
l’utilizzo del Framework .NET.

Nella battaglia per aggiudicarsi una grossa fetta del mercato, questi tre grandi colossi
propongono le novità introdotte nei loro applicativi di punta per lo sviluppo sul web. Tale
battaglia verterà principalmente sulla qualità offerta da questi supporti e sull’attrazione che essi
riusciranno a esercitare sugli utenti finali. Lo scontro tra i due colossi di produzione software si
fa ormai ad armi pari: Silverlight offre un ottimo supporto alla programmazione delle RIA,
applicazioni tipiche dello sviluppo del web 2.0, soprattutto grazie alla possibilità di
interfacciarsi con script Ajax e di fare streaming video con qualità DVD. Proprio per quanto
riguarda lo streaming, è ottima la scelta di casa Microsoft di permettere la diffusione gratuita a
flussi video fino a 4 GB senza l’ausilio di costosi software come Adobe. Entrambe le piattaforme
hanno l’opportunità di lavorare con i numerosi linguaggi di programmazione server side presenti
sul mercato, come PHP, Coldfusion, .NET, Ruby on Rails, e possono essere usate anche nelle
architetture Enterprise J2EE. Si evince come Silverlight, nell’era delle applicazioni web
interattive e multimediali, stia rivestendo un ruolo di grande importanza, che deve quindi essere
considerato e analizzato anche in ambito SEO. I motori di ricerca, al momento, non riescono a
riconoscere perfettamente il contenuto di Silverlight in modo nativo. Per tale motivo, per rendere
il contenuto di Silverlight indicizzabile da parte dei motori di ricerca, è possibile avvalersi di
approcci con cui i search engine hanno già familiarità, come la combinazione di aree di contenuto
di Silverlight con i metadati HTML. L’obiettivo di tale ottimizzazione è quello di aumentare le
probabilità con cui la pagina, contenente oggetti Silverlight, viene visualizzata all’interno della
SERP. Vediamo ora in sintesi alcune tecniche di ottimizzazione di Silverlight, tratte dall’articolo
ufficiale di Microsoft scritto da Ashish Shetty:
http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/

Mixare l’HTML con il contenuto di Silverlight


Questo modo di operare comporta la miscelazione di testo in HTML con il contenuto di
Silverlight nella stessa pagina, così da produrre contenuti ricchi e utili agli occhi dei motori di
ricerca. Per fare questo, in fase di progettazione del contenuto di Silverlight è necessario inserire
contenuti testuali HTML, affinché si integrino appieno con la struttura della pagina. La Figura
6.13 mostra un esempio di applicazione di questa tecnica.

Figura 6.13 - Esempio di mix di contenuti HTML e Silverlight (fonte: Microsoft).

Utilizzare l’object tag


L’object tag è progettato in modo tale che, se l’oggetto principale non può essere caricato, il
browser cerca contenuti alternativi all’interno di questo tag. Il seguente listato mostra un esempio
di applicazione di tale tecnica:

Utilizzare un contenuto alternativo per Silverlight


L’object tag per l’applicazione Silverlight deve essere integrato con un contenuto alternativo. In
questo modo, se il browser non riuscirà a caricare il contenuto dell’applicazione Silverlight,
verrà mostrato all’utente un contenuto testuale alternativo. Tale tecnica, molto simile a quanto
visto per Flash, serve per dare in pasto ai motori di ricerca contenuti che descrivano la pagina in
questione. Il seguente listato mostra l’applicazione di tale tecnica:

Per tutte le altre tecniche più avanzate che richiedono una specifica conoscenza di Silverlight
rimandiamo il lettore alla consultazione dell’articolo:
http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/

SEO e contenuti video


L’avvento di piattaforme come YouTube ha permesso la diffusione online di contenuti video.
Anche i contenuti video possono essere utili per richiamare nuovi visitatori verso il nostro sito
web. Una grossa fetta della promozione e indicizzazione dei contenuti video è data dalle azioni di
marketing online, come vedremo nei prossimi capitoli. Ora analizzeremo le tecniche base per
ottimizzare un contenuto video.
Best practices e suggerimenti:
• bisogna assicurarsi di creare videoclip inerenti al contesto del sito web. Un video deve
essere relativamente corto e fornire informazioni aggiuntive al visitatore;
• è fondamentale utilizzare un buon titolo per il video: una strategia per convincere gli utenti
a visualizzare il nostro video è quella di indicare un titolo accattivante, che contenga una
parola chiave direttamente correlata al nostro prodotto, servizio o marchio;
• esistono numerose piattaforme per la condivisione di video: YouTube, Google Video, AOL
Video, Yahoo! Video, MySpace.com, MSN Video. Essere presenti su una o più di queste
piattaforme di condivisione di contenuti video risulta essere cruciale per promuovere i
nostri filmati sul web;
• utilizzare tag che definiscano il contenuto del video. Una descrizione HTML prima del
filmato e l’utilizzo di tag che ne identifichino la categoria rappresentano un buon modo di
procedere per migliorare l’indicizzazione del video stesso;
• non creare video troppo lunghi: un video che dura più di cinque minuti potrebbe non
catturare l’attenzione dell’utente. Nel caso di contenuti video molto lunghi, è consigliabile
suddividerli in più parti e renderli fruibili di volta in volta in modo da suscitare
l’interesse dei visitatori;
• utilizzare appositi software di compressione dei filmati per rendere il video “leggero” e
facilmente visualizzabile sul web. Per la visualizzazione del video è consigliabile
adoperare formati che siano cross-browser e cross-platform;
• offrire la possibilità di visualizzare il video a diverse risoluzioni; in tal modo l’utente con
una banda limitata potrà caricare il video in poco tempo con una risoluzione minore,
mentre l’utente che ha una banda superiore potrà visualizzare il filmato ad alta risoluzione;
• l’utilizzo di una Sitemap video permette una corretta indicizzazione da parte dei motori di
ricerca; essa è simile a una Sitemap in XML, ma è formattata appositamente per i video.

NOTA

Google non può di fatto “vedere” cosa ci sia dentro un filmato, perciò si basa su titoli e altri
meta-dati per determinarne il reale contenuto.

Soffermiamoci un attimo sull’analisi del Sitemap video, in quanto è uno strumento molto efficace
per la diffusione e l’indicizzazione dei nostri filmati all’interno dei principali motori di ricerca.
Google dice:

Google Video Sitemap è un’estensione del Protocollo Sitemap che consente di pubblicare i
contenuti video online, nonché i relativi metadati, e di inviarli a Google al fine di renderli
disponibili per la ricerca nell’indice di Google Video. È possibile utilizzare una Sitemap
video per aggiungere informazioni descrittive, quali il titolo, la descrizione e la durata del
video, che agevolano la ricerca da parte degli utenti di una particolare porzione di
contenuto. Quando un utente trova il vostro video tramite Google, viene indirizzato ai
vostri ambienti ospitati per poterlo riprodurre integralmente. Quando inviate una Sitemap
video a Google, gli URL dei video inclusi saranno disponibili per la ricerca su Google
Video. I risultati di ricerca conterranno un’immagine miniatura (da voi precedentemente
fornita o generata automaticamente da Google) dei contenuti del video, oltre alle
informazioni (per esempio, il titolo) forniti nella Sitemap video. Il vostro video può inoltre
comparire in altri prodotti di ricerca di Google.

In poche parole, Sitemap video non è altro che un file XML in cui racchiudere le informazioni
inerenti a contenuti multimediali: in tal modo, si istruiscono i motori di ricerca sul contenuto dei
filmati. I tipi di video compatibili comprendono mpg, mpeg, mp4, mov, wmv, asf, avi, RA, RAM,
RM, FLV e devono essere direttamente disponibili tramite HTTP. La Figura 6.14 mostra un
esempio di Sitemap video.

Figura 6.14 - Esempio di Sitemap video.

Per conoscere tutti i tag disponibili e approfondire questo argomento, consigliamo la lettura
dell’articolo che trovate all’indirizzo:
https://developers.google.com/webmasters/videosearch/sitemaps

NOTA

Per chi non avesse conoscenze riguardo a XML, è possibile creare Sitemap video utilizzando
un software gratuito scaricabile da https://moz.com/community/q/video-sitemap-generator.

Una volta creata la nostra Sitemap video, non ci resterà altro che inviarla attraverso gli strumenti
per webmaster di Google o aggiungere il suo collegamento nel file robots.txt (per esempio,
aggiungendo il tag Sitemap: http://www.miosito.com/video_sitemap.xml).
Sitemap video non è l’unico strumento che abbiamo a disposizione per indicizzare i nostri
contenuti multimediali. Media RSS è un formato creato da Yahoo!, ma supportato anche da
Google e Bing, per la scoperta di contenuti multimediali come video, audio e immagini. È
un’estensione di RSS 2.0 ed è molto utile nel caso di pubblicazione di filmati in modo continuo
(la Figura 6.15 mostra un esempio di utilizzo di Media RSS).
Figura 6.15 - Esempio di Media RSS.

NOTA

Al seguente link troverete maggiori informazioni su Media RSS:


http://www.rssboard.org/media-rss

Questi consigli, accompagnati da una buona campagna di marketing volta alla diffusione dei
nostri contenuti video, ci permetteranno di acquisire popolarità sul web.

NOTA

Non dimentichiamoci che nelle specifiche di HTML 5 vi sono nuove e interessanti novità
proprio per i contenuti video e i relativi standard da utilizzare.

Dobbiamo sempre ricordarci che i risultati video sono in grado di attirare l’attenzione degli
utenti scardinando il concetto di Golden Triangle: infatti un interessante studio di eye-tracking di
Dr. Pete su Google Universal Search (http://tinyurl.com/video-eye-ok) mostra come il video al
secondo posto per la parola chiave “How to make a pizza” risulti molto più visto del risultato
testuale presente al primo posto.
Per questo motivo, è fondamentale sfruttare i video per le nostre campagne di promozione online.
Figura 6.16 - Studio sull’importanza dei video nella SEO moderna (Dr. Pete).

Come ottimizzare un video YouTube per la visibilità online


Per ottimizzare e rendere virale un video su YouTube non esiste una ricetta magica. Come
avviene per il ranking in Google, anche gli algoritmi di YouTube si modificano nel tempo e si
adattano alle evoluzioni tecnologiche e comportamentali degli utenti. Esistono alcuni fattori che
servono a migliorarne la visibilità, ad esempio:
• il titolo del video deve contenere la parola chiave per cui volete essere trovati;
• la durata del video pare essere un fattore di posizionamento così come il coinvolgimento
degli utenti;
• è importante avere parole chiavi nella descrizioni e nei tag;
• inoltre il tempo di visualizzazione e il numero di visualizzazioni sono fattori di ranking.

Per questo motivo è importante compilare in fase di caricamento titolo e descrizione del nostro
video e prestare cura agli aspetti sopra elencati.
Ajax e i JavaScript: come usarli in ambito SEO?
Dal 2001 al 2008 il World Wide Web è passato attraverso una crescita spaventosa in termini di
tecnologie e metodologie utilizzate per portare questo strumento statico alla vita. All’inizio, tutte
le pagine web erano statiche: gli utenti richiedevano una risorsa (costituita da un file) e il server
gliela restituiva. Stimolato da tecnologie nuove e talvolta già presenti da tempo nei browser, il
web ha compiuto un notevole progresso, sconvolgendo il modo d’uso tradizionale che
necessitava del caricamento completo di una pagina ogni volta che si accedeva a nuove
informazioni o a una nuova parte della logica dell’applicazione. Nasce, quindi, il concetto di
“web 2.0”, cioè un diverso atteggiamento mentale sia di chi sviluppa i servizi attraverso le
tecnologie, sia di chi ne fruisce: la maggiore attenzione all’utenza innesca un meccanismo
collaborativo interno ed esterno estremamente vitale, creativo e produttivo. Ciò risulta possibile
anche grazie alla maggiore maturità dell’infrastruttura e del mercato tecnologico: maggiore
diffusione di connettività a banda larga a costi inferiori, di dispositivi digitali personali migliori
e più economici. In questo contesto, sorgono nuove tecnologie come Silverlight e Ajax
(Asynchronous JavaScript And XML), quest’ultimo sorto nel febbraio del 2005, quando James
Garrett della Adaptive Path LLC pubblicò un articolo intitolato “Ajax: A new approach to web
application”. Da quel momento nacque ufficialmente Ajax, una specifica tecnologia basata su
JavaScript, che conferisce alle nostre applicazioni web maggiore interattività, velocità e tutta
una serie di costrutti che le rendono uniche. Invece del modello classico, in cui il browser si
occupava di avviare le varie richieste al server web e di elaborare le risposte provenienti da
quest’ultimo, il modello Ajax prevede un livello intermedio chiamato Ajax Engine, che gestisce
tutte le fasi della comunicazione. A differenza del modello tradizionale, il server, che solitamente
servirebbe HTML, immagini CSS o JavaScript, viene opportunamente configurato per inviare i
dati che possono essere quindi interpretati e utilizzati dal motore Ajax. Questo processo
comporta un trasferimento minore di dati e informazioni: l’interfaccia utente viene aggiornata più
velocemente e l’utente è in grado di svolgere il proprio lavoro con maggiore efficienza (la Figura
6.17 illustra tale processo).
Figura 6.17 - Gestione richieste Ajax.

L’intento di tale tecnica è perciò quello di ottenere pagine web che rispondano in maniera più
rapida, grazie allo scambio in background di piccoli pacchetti di dati con il server, così che
l’intera pagina web non debba essere ricaricata ogni volta che l’utente effettua una modifica. Alla
base di questa tecnologia web vi è il componente denominato XMLHTTP, che detiene il compito
fisico di instaurare la comunicazione. Come è possibile notare, il processo di richiesta Ajax si
sviluppa in tre passi fondamentali. Il primo passo consiste nella creazione vera e propria
dell’istanza dell’oggetto XMLHTTP sul browser e nella sua configurazione. Il passo successivo
è quello di configurare correttamente i parametri della chiamata. La terza e ultima fase prevede
l’impostazione della funzione di Callback, il cui scopo è quello di controllare lo stato della
chiamata. Ajax non risulta essere una nuova tecnologia, bensì consiste nel riutilizzo di quelle
esistenti, permettendo di realizzare un determinato compito. Una delle peculiarità di Ajax che ne
fanno una tecnologia eccezionale è data dalla sua capacità di funzionare nella maggior parte dei
browser e di non richiedere alcun software o hardware proprietari. Il punto di forza principale
sta nel fatto che il programmatore non deve riscrivere il codice già funzionante, ma può integrarlo
ed estenderlo con questa tecnologia. Ajax risulta essere un approccio sul lato Client, perciò è
indipendente dal lato Server.
Le principali tecnologie alla base di Ajax sono:
• HTML/XHTML: linguaggi di rappresentazione del contenuto primario;
• CSS: fornisce una formattazione stilistica ai contenuti web;
• DOM (Document Object Model): aggiornamento automatico di una pagina caricata;
• XML: linguaggio standard per lo scambio di informazioni;
• XSLT: processo di trasformazione da XML in HTML;
• XMLHttp: agente di comunicazione primario;
• JavaScript: linguaggio di scripting utilizzato per programmare un motore Ajax.
NOTA

JavaScript è un linguaggio di scripting orientato agli oggetti, comunemente usato nei siti web.
Può essere adoperato in concomitanza con altre tecnologie, come Ajax e Silverlight.

Senza dilungarci troppo sugli aspetti tecnici, possiamo capire come questo linguaggio di
programmazione orientato alle applicazioni web sia fondamentale per un web interattivo.
Esistono numerosi framework che utilizzano queste tecniche: il più noto e diffuso è JQuey. In
tale scenario, anche la SEO deve approcciarsi a queste nuove strutture garantendo una buona
indicizzazione delle pagine (e dei relativi contenuti) che sfruttano tali tecnologie.
Per quanto concerne l’indicizzazione delle pagine contenenti JavaScript, i consigli sono i
seguenti:
• utilizzare file JS esterni alla pagina;
• sfruttare il tag <noscript> (come spiegato in precedenza, quando si è parlato dei contenuti
Flash) per fornire del testo alternativo ai motori di ricerca;
• caricare attraverso la funzione google.load() le librerie JavaScript o Ajax desiderate.

NOTA

Attraverso google.load() siamo in grado di fornire i contenuti JavaScript in maniera più


veloce rispetto al server che ospita il nostro sito: questo perché Google utilizza il data center
che geograficamente si trova più vicino al visitatore per fornire le librerie richieste durante il
caricamento della pagina web. Il suo utilizzo è molto semplice e immediato. Per prima cosa,
dobbiamo procurarci una API Key per il nostro dominio e inserirla nelle pagine web in cui
vogliamo utilizzare tale tecnica:

Successivamente possiamo incorporare le librerie che vogliamo utilizzare richiamandole


attraverso la funzione google.load:

Per maggiori informazioni:


https://developers.google.com/loader/
Esistono diversi strumenti atti a comprimere i file JavaScript; siccome tali file renderanno, a
livello di programmazione, il codice non comprensibile, si consiglia sempre di avere una copia
del file originale non compresso per potervi apportare eventuali modifiche in caso di
aggiornamenti. Segnaliamo due servizi che offrono la possibilità di comprimere i file JavaScript:
• Closure Compiler: un servizio online semplice e gratuito (http://closure-
compiler.appspot.com). È possibile scegliere la tipologia di compressione e verificare
che il codice compresso sia compilato. Semplice, efficiente e veloce. La Figura 6.18
mostra un esempio di utilizzo di questo strumento;

Figura 6.18 - Esempio di utilizzo di Closure Compiler per comprimere file JavaScript.

• YUI Compressor: questo strumento (http://yuilibrary.com/) dispone di numerose opzioni


per la compressione sia di file JavaScript, sia di CSS. Ne sono disponibili diverse
versioni ed è un applicativo multipiattaforma.

Figura 6.19 - Esempio di utilizzo di YUI Compressor per comprimere file JavaScript.
Per quanto concerne l’indicizzazione di contenuti e pagine che sfruttano Ajax, sono stati compiuti
numerosi passi avanti da parte dei motori di ricerca, che si sono adoperati per fornire strumenti e
tecniche agli specialisti SEO.
Google, nel 2009, ha rilasciato una guida molto utile agli esperti SEO consultabile al seguente
indirizzo che ormai risulta superata ma che lasciamo per completezza:
https://webmasters.googleblog.com/2009/10/proposal-for-making-ajax-crawlable.html
Tra i punti salienti per ottimizzare gli applicativi in Ajax (secondo Google) ricordiamo i
seguenti.
• Dobbiamo specificare allo spider di Google che il nostro sito supporta il nuovo “schema”
di indicizzazione per Ajax. Tipicamente un URL in Ajax contiene un hash “#” che serve a
specificare i diversi stati in cui può trovarsi l’applicazione
(http://www.miosito.com/index.html#stato10).
In questo modo, un sito così strutturato viene visto dagli spider come costituito da una sola
pagina: i motori di ricerca non sono in grado di capire che diversi stati dell’applicazione
Ajax possono corrispondere a pagine con contenuti e informazioni differenti.
Google affermava tempo fa di dover aggiungere un punto esclamativo (!) subito dopo il
cancelletto, così:
http://www.miosito.com/index.html#!stato10

In tal modo, riusciamo a comunicare allo spider che siamo in grado di accettare la procedura di
indicizzazione in Ajax.
• Il crawler cambierà l’URL richiesto: nell’istante in cui lo spider di Google si accorge che
l’URL è stato modificato (come descritto nel punto precedente), riesce a indicizzare la
pagina come a sé stante.
• Modificare gli stati dell’applicazione Ajax in modo tale da fornire tag e description
diversi e contenuti appropriati.

Ovviamente si tratta di una soluzione alternativa e abbastanza articolata; per tale motivo
recentemente Google ha comunicato come non ci sia più bisogno di sfruttare gli _esca-
ped_fragment_ i contenuti in Ajax
(https://googlewebmastercentral.blogspot.it/2015/10/deprecating-our-ajax-crawling-
scheme.html). In questo scenario Google consiglia di sfruttare il concetto di Progressive
Enhancement per migliorare sia l’esperienza utente sia per facilitare a Google il compito di
rendering di siti con tali caratteristiche.

Google sitelink
Secondo la definizione presente in Google Search Console, i sitelink “sono link aggiuntivi che
Google talvolta genera dai contenuti dei siti al fine di aiutare gli utenti a navigare nel vostro
sito”. I Google sitelink sono dei piccoli link che appaiono sotto il primo risultato di Google per
una determinata serie di parole chiave e consentono all’utente di raggiungere informazioni
ricercate senza navigare nel sito stesso. La Figura 6.20 mostra un esempio di struttura generata da
Google.

Figura 6.20 - Struttura sitelink di un sito web.

NOTA

Google mostrerà i sitelink solo quando ne avrà individuati almeno tre; essi vengono assegnati
solo se pertinenti a quella determinata ricerca. Per approfondimenti vedere
https://plus.google.com/+GoogleWebmasters/posts/b4WcMeLgbAL.

Non si conosce bene la ricetta in base alla quale Google decide o meno di assegnare i sitelink,
ma è assai probabile che questi vengano generati:
• quando il sito web genera un buon traffico di utenti;
• quando Google ritiene che i link presenti nel sito risultino di utilità per l’utente;
• quando il sito è ben strutturato e navigabile;
• quando nel sito siano presenti in giusto rapporto anchor text di parole chiave inerenti ai
risultati di ricerca nella SERP;
• quando il sito in questione gode di buona popolarità e di un buon numero di link in
ingresso di qualità;
• quando il numero di clic ricevuti per una pagina è elevato;
• quando il tempo di permanenza sul sito web è sufficientemente lungo: questo significa che
quello che stiamo proponendo è di interesse per il visitatore.

Questi sono solo alcuni dei fattori che Google potrebbe tenere in considerazione per generare i
sitelink; esistono, tuttavia, eccezioni in cui tali sitelink vengono generati anche per siti web con
pochi visitatori e con una struttura di navigazione discutibile. Nel giugno 2005 Google ha
registrato il brevetto dei sitelink, che solo il 21 dicembre 2006 è stato reso pubblico sul sito dei
brevetti americani (Us Patent). È possibile consultarlo al seguente link:
http://tinyurl.com/Google-brevetto-sitelink
Gli algoritmi con cui vengono generati tali sitelink stanno evolvendo e negli ultimi mesi Google
sta testando nuove strutture per i sitelink. Il nostro consiglio è quello di seguire tutte le linee
guida per l’ottimizzazione della home page, creando una buona struttura di navigazione.
Dopodiché, solo il tempo e il riscontro delle strategie applicate ci consentiranno di capire se il
nostro sito è idoneo ad avere i sitelink.
Nell’agosto 2011, Google (http://tinyurl.com/nuovisitelink) ha migliorato e ottimizzato la
generazione dei sitelink. Ora, infatti, possono essere visualizzati fino a 12 sitelink per sito web
ed è anche possibile bloccare direttamente dagli strumenti per webmaster i sitelink non
“desiderati”. Nel 2014 altre modifiche alla grafica della SERP di Google hanno modificato il
layout dei sitelink; altre modifiche grafiche e di layout sono state introdotte nel 2016.
NOTA

Da alcuni test effettuati su una decina di siti, abbiamo potuto riscontrare che i sitelink sono
stati aggiunti (in genere dopo due-sette mesi) nei siti web che avevano le seguenti
caratteristiche:
• siti con un numero costante di visite giornaliere (maggiore nei casi rilevati a 25 visite
uniche);
• siti sia con struttura a tabelle, sia con DIV + CSS, ma con una navigabilità semplice
ottenuta principalmente con link testuali;
• siti con Sitemap e Feed RSS;
• siti aventi la barra di navigazione posta nella parte alta del sito web realizzata con link
testuali ed elenchi puntati (ul, li).

Sitelinks Search Box


Una delle ultime novità è la possibilità di avere il search box direttamente nella SERP di Google
nella finestra dei sitelink, come mostra la Figura 6.21.

Figura 6.21 - Ricerca direttamente nelle SERP di Google

Google ha specificato più volte che questo box verrà mostrato solo per query ritenute utili e
pertinenti per gli utenti e anche per siti che non hanno “implementato” il codice specificato nelle
linee guida.
Per tentare di far apparire il box in questione, dobbiamo seguire le linee guida di Google:
https://developers.google.com/structured-data/slsb-overview
Quali sono quindi le principali caratteristiche a cui devono rispondere i siti web per poter
usufruire di questo box di ricerca?
• avere un motore di ricerca interno al sito;
• strutturare i dati delle pagine con il markup di Schema.org;
• impostare correttamente il tag rel=”canonical” in Home Page;
• avere una struttura che supporti la codifica dei caratteri UTF-8.

Ecco un esempio di implementazione con i microdati:

Com’è possibile notare, il codice, che va inserito in Homepage, è semplice e deve riprendere
l’URL di generazione prodotta dal motore interno del sito web.

Mobile SEO
L’evoluzione tecnologica degli ultimi anni ha permesso la diffusione sul mercato di dispositivi
mobile a prezzi accessibili e dotati di connettività. Risulta infatti possibile collegarsi attraverso
palmari o cellulari di ultima generazione a Internet e fruire, tramite questi strumenti, di contenuti
web anche multimediali. Addirittura, gli ultimi lettori MP3 hanno al loro interno browser in
grado di collegarsi alla rete Internet, consentendo all’utilizzatore di scaricare i brani desiderati.
iPod, iPad, iPhone sono diventati un cult per i giovani d’oggi; quasi tutti i cellulari ormai
incorporano un browser web e applicativi per connettersi con i maggiori social network. Risulta
quindi fondamentale conoscere il proprio target di utenti, ma soprattutto i dispositivi che essi
usano per visitare le nostre pagine web, in modo tale da prendere in considerazione la possibilità
di creare una versione accessibile da apparati mobile. Sotto questo aspetto, anche la SEO e il
Web Marketing hanno un ruolo cruciale. I motori di ricerca si sono adattati a questa evoluzione e
offrono la possibilità di indicizzare opportunamente siti web creati appositamente per apparati
mobile. Per esempio, Google utilizza lo user agent “Googlebot-Mobile” per identificare i siti che
offrono i loro contenuti per apparati mobili. Yahoo!-Bing e tutti i principali motori di ricerca
mondiale forniscono i loro contenuti sotto forma mobile e prevedono strumenti specifici per
identificare siti e pagine web studiati appositamente per tali scenari.
NOTA

In alcuni contesti è preferibile verificare la stringa dello user agent all’interno delle nostre
pagine web, in quanto i motori di ricerca potrebbero cambiare tale intestazione senza
preavviso. È quindi consigliabile utilizzare le ricerche DNS per verificare l’esattezza dello
user agent, come viene spiegato in questo articolo di Google:
https://webmasters.googleblog.com/2006/09/how-to-verify-googlebot.html

Nel mondo mobile troviamo diverse esigenze, dovute sia alla dimensione degli schermi dei
dispositivi, sia agli utenti che hanno aspettative e bisogni differenti rispetto a quelli “desktop”
(che utilizzano il web attraverso un normale PC). “A Large Scale Study of European Mobile
Search Behaviour” (http://dl.acm.org/citation.cfm?id=1409243) è un’interessante ricerca che
mostra l’evoluzione del mobile, fornendo importanti spunti di riflessione:
• nel 2008 la lunghezza media delle query in Europa si aggirava attorno ai 2,2 termini e in
questo scenario Google era il motore di ricerca in grado di attirare query più articolate;
• nonostante la difficoltà di digitazione, gli utenti creano query di lunghezza del tutto
comparabile a quella del web tradizionale;
• la Long Tail Keyword applicata è ancora valida e circa il 14% delle richieste viene
rielaborato per raffinare la propria ricerca.

Figura 6.22 - Lunghezze delle query mobile espresse in numero di termini.


Questo ci fa capire l’importanza dell’evoluzione tecnologica verso il mondo mobile e quanto sia
fondamentale anche in ambito SEO prestare attenzione a tali cambiamenti. Ma come funziona la
Mobile Search di Google? Facendo riferimento al brevetto “Blending Mobile Search Results”
del 31 luglio 2008 (fonte: http://tinyurl.com/bleending-mobile), è possibile notare come i risultati
di ricerca restituiti dalla sfera del Mobile Search siano un blending, un’aggregazione tra siti
“desktop” e siti “mobile”. La Figura 6.23 riassume lo schema di funzionamento.

Figura 6.23 - Mobile Search, schema di massima del suo funzionamento.

Vediamo come funziona, in linee molto generali, il Mobile Search di Google: vengono generate
due SERP differenti, una che ingloba i risultati per i siti mobile, l’altra per gli utenti generici (che
definiremo anche “desktop”). È da evidenziare come il ranking dei siti mobile venga
implementato utilizzando un algoritmo differente, che sfrutta il “mobile search quality score”. A
questo punto le due SERP vengono mixate attraverso un processo che prende il nome di
“blended”, in modo tale da fornire un unico risultato. I risultati ottenuti vengono filtrati ed
elaborati per evitare i contenuti duplicati, e presentati all’utente finale. L’analisi di tale brevetto
può portare alla luce diversi spunti e curiosità che gli esperti SEO possono osservare per
migliorare l’indicizzazione anche per i siti mobile. Ovviamente lo sviluppo di un sito per
apparati mobile richiederà tempo, risorse tecniche e investimenti. Ma quali sono le principali
caratteristiche che deve avere un sito mobile?
NOTA

Negli header delle versioni mobile degli URL sarà necessario aggiungere il rel=”canonical”
che punta alla versione desktop dello stesso URL:

La versione desktop dell’URL dovrà contenere il rel=”alternate media” in modo da


consentire la mappatura tra versione desktop e versione mobile; ecco un esempio pratico:

• DocType: la versione mobile del nostro sito web deve utilizzare un DocType adeguato:

• dominio differente: registrare possibilmente un sito .mobi o .mobile di terzo livello (per
esempio, mobile.ingegneridelweb.com), in modo tale da separare i contenuti e facilitarne
l’indicizzazione;
• navigabilità e velocità: la struttura delle pagine deve essere essenziale, senza effetti e con
pochissime immagini. L’utente deve trovare nel minor tempo possibile quello che sta
cercando;
• shortcut con le Access Key:

Tale link permette, indicando la lettera associata, di tornare alla pagina “SEO” utilizzando
la combinazione Alt + S per mettere il focus sul link e [Invio] per concretizzare il link.
Questo modo di operare facilita la navigazione e la consultazione delle pagine web ed è
molto apprezzato in ambito mobile;
• sitemap: è necessario predisporre una sitemap per la versione mobile. Tale sitemap è
molto simile a quella classica, ma utilizza appositi tag “mobile”; un esempio di codice è
illustrato qui sotto:

• utilizzo di codice leggero e che rispetti gli standard, tra cui XHTML di base 1.1, XHTML
MP 1.2, XHTML di base, XHTML MP, HTML e WML (http://www.w3.org/TR/mobile-
bp/).

NOTA

Per la validazione del codice è possibile utilizzare due tool:


• Ready.mobi (http://ready.mobi/)
• W3C MobileOK Checker (http://validator.w3.org/mobile/)

Una recente ricerca di Google (consultabile su http://www.thinkwithgoogle.com/research-


studies/mobile-path-to-purchase-5-key-findings.html) ha riportato il comportamento all’acquisto
degli utenti che utilizzano uno smartphone. Si evince come l’utilizzo per ricerche e soprattutto la
tipologia con cui vengono ricercati determinati argomenti stia evolvendo e cambiando negli
ultimi anni. Per questo motivo, anche lo sviluppo di siti web deve adattarsi a queste nuove
richieste e tipologie, anche in base alle indicazioni che ci vengono fornite dai principali motori
di ricerca internazionali.

Figura 6.24 - Mobile Search di Google 2016.

Uno dei problemi più sentiti per un webmaster è quindi quello di gestire tecnicamente la
possibilità di fornire contenuti differenti in base alle richieste dei dispositivi. Per questo motivo
è necessario adottare alcuni accorgimenti tecnici.
• Utilizzare fogli stile o architetture apposite, in modo tale da identificare se un visitatore ci
sta visitando da un apparato mobile, e quindi effettuare un redirect verso contenuti e
informazioni adeguate. Identificare attraverso lo user agent la richiesta di visualizzazione e
predisporre soluzioni differenti per apparati mobile diversi (che possono avere risoluzioni
o dimensioni dello schermo variabili). È altresì possibile identificare lo user agent del
motore di ricerca in modo tale da redirigerlo verso contenuti opportuni. La Figura 6.25
mostra un esempio pratico di tale tecnica.

Figura 6.25 - Schema redirect automatico per apparati mobile.

NOTA

Il redirect alla versione mobile potrebbe costituire cloaking? Riportiamo quanto affermato da
Matt Cutts (http://tinyurl.com/redirect-mobile): “Avere uno script che reindirizza
automaticamente gli utenti mobile alla versione mobile del proprio sito non costituisce
cloaking. Questo perché il cloaking altro non è che il tentativo di mostrare contenuti diversi
all’utente e a Googlebot. Ma lo spider di Google si comporta esattamente come un comune
utente. Il Googlebot è pertanto ‘insensibile’ a questo tipo di redirect. In linea di massima,
fintanto che Googlebot viene ‘trattato’ come fosse un comune utente, non vi è alcun rischio di
essere penalizzati”.

• Una soluzione differente sarebbe quella di fornire lo stesso URL per versioni desktop e
mobile, cambiando però il loro formato in base allo user agent. In altre parole, sia gli
utenti mobili, sia quelli desktop accedono allo stesso URL (in questo caso non viene
effettuato nessun redirect), ma il contenuto della pagina si adatta in base allo user agent. In
questo contesto, se il nostro sito web non viene configurato correttamente, potrebbe essere
considerato cloaking. Per cloaking si intendono quelle tecniche atte a separare i contenuti
forniti a Googlebot rispetto a quelli visualizzati dagli utenti normal, in modo tale da avere
un vantaggio in termini di posizionamento. Come si è detto precedentemente, Google
utilizza “Googlebot” per la navigazione normale e “Googlebot-Mobile” per le ricerche
mobile. Per rimanere entro le nostre linee guida fornite da Google, si dovrebbe procedere
in questo modo:
– l’utente desktop deve vedere il medesimo contenuto proposto a Googlebot;
– l’utente mobile deve vedere il medesimo contenuto proposto a Googlebot-Mobile;
– il contenuto proposto all’utente mobile e desktop potrebbe anche essere differente.

Figura 6.26 - Schema di gestione di medesimi URL, ma con contenuti e forme differenti per versione mobile e desktop.
Esempio di modelli mobili corretti.

NOTA

Tale ragionamento è stato fatto per Google, ma funziona in maniera similare anche per gli
altri motori di ricerca. Ricordiamo, inoltre, che è stata rilasciata la piattaforma JQuery
Mobile pensata proprio per tali apparati (http://jquerymobile.com).

Quindi, dal punto di vista dello sviluppo, esistono a oggi fondamentalmente tre tipologie di
macro-soluzioni che raggruppano quelle sopra descritte e che possiamo adottare nello sviluppo
di un sito web mobile friendly:
• responsive design;
• dynamic serving;
• sito mobile custom.

Il modello responsivo è quello più amato dai web designer, in quanto consente con modifiche ai
CSS di rendere adattabile e modulabile la grafica in base al dispositivo su cui è visualizzato il
sito web. Un sito con responsive design ha quindi tipicamente un unico template HTML gestito da
un unico file CSS, e soprattutto un’unica ottimizzazione SEO.
La tecnica del dynamic serving consiste nell’intercettare la tipologia del dispositivo e, in base a
questo parametro, fornire attraverso un unico indirizzo un template appropriato alla risoluzione
del device che sta effettuando la richiesta. In questo contesto avremo differenti template e CSS in
base ai dispositivi per cui vogliamo adattare il nostro sito web.
Un’altra alternativa è quella di avere una versione mobile separata dal resto del sito web, che,
oltre a essere molto dispendiosa a livello tecnico, lato SEO deve avere delle accortezze per
evitare che il sito web sia correttamente interpretato come dedicato ai mobile e non considerato
contenuto duplicato.

NOTA

Vediamo alcune accortezze da tenere in mente:


• per i siti responsivi sfruttare il tag viewport <meta name=”viewport” content
=”width=device-width,initial-scale=1.0”>;
• per i siti dynamic servering: rendere disponibile HTML e CSS nello stesso URL,
variando lo user agent;
• per l’ultima modalità, ovvero quella in cui abbiamo due versioni separate, è opportuno
identificare la versione mobile e desktop e sfruttare in modo opportuno i tag
rel=”alternate” and rel=”canonical”.

Strumenti per la SEO Mobile


Una delle problematiche più sentite durante lo sviluppo di progetti mobile è la fase di testing per
simulare il reale utilizzo. Non essendo possibile provare il sito web sviluppato su ogni apparato
tecnologico di tipo mobile, la soluzione è quella di utilizzare strumenti avanzati come
Dreamweaver, che offre la possibilità di effettuare testing in ambienti simulati (come mostra la
Figura 6.27) o di sfruttare servizi online gratuiti (a pagamento per funzionalità avanzate).
Di seguito illustriamo alcuni tool gratuiti che ci permettono di implementare in modo semplice e
intuitivo versioni mobile per i nostri siti web; tra questi troviamo:
• Mobify (http://www.mobify.com): un servizio web-based che ci consente di realizzare una
versione mobile del nostro sito web;
• WireNode (http://www.wirenode.com): un servizio gratuito che consente di creare un sito
web ottimizzato per i telefonini più diffusi sul mercato, avendo a disposizione statistiche e
assistenza SEO mobile;
• Onbile (http://www.onbile.com): una piattaforma gratuita che offre servizi per la gestione
di siti web mobile;
• Mippin Mobilizer (http://mippin.com): un servizio gratuito che consente di implementare
una versione mobile del proprio blog o sito web.

Figura 6.27 - Device Lab di Dreamweaver CS5.

Dopo aver implementato il nostro sito web, l’ultimo passo, come abbiamo precedentemente
illustrato, è quello di testarlo sugli apparati mobile. Per fare questo, è necessario disporre di
emulatori che simulino il software e la tecnologia presenti sul dispositivo cellulare su cui si
vuole effettuare il test. Vediamo quali sono, a nostro avviso, i migliori strumenti a disposizione:
• User Agent Switcher (https://addons.mozilla.org/en-US/firefox/addon/59): consente di
modificare lo user agent per vedere come si comporta il nostro sito web. È un plug-in per
Mozilla Firefox;
• Mowser (http://mowser.com/): è un servizio gratuito che permette di verificare come il
nostro sito web venga visualizzato da un qualsiasi apparato mobile;
• Google Mobilizer: è un servizio gratuito di Google che consente di verificare la
visualizzazione del nostro sito web su apparati mobile; è sufficiente inserire l’URL del
sito web o della pagina per vedere come sarà la visualizzazione su dispositivi cellulari.
Figura 6.28 - Esempio di visualizzazione di un sito web con Google Mobilizer.

Abbiamo quindi preso in considerazione gli strumenti online che riteniamo costituiscano le basi
per effettuare ottimi test sui nostri siti web mobile. Ovviamente, sul mercato esistono numerosi
software, anche professionali, atti a effettuare tali compiti e che mettono a disposizione
funzionalità avanzate. Il nostro consiglio, in un momento di forte cambiamento tecnologico, è
quello di prendere realmente in considerazione la possibilità di implementare una versione
mobile del proprio sito web, al fine di consentire la fruibilità dei servizi da più apparati e
soprattutto di invogliare nuovi “clienti” o “visitatori” a visitare il nostro portale.

NOTA

Di recente Google (http://tinyurl.com/googlesmart1), a seguito della grande diffusione dei


cellulari smartphone, ha introdotto un nuovo tipo di agente che simula la navigazione su un
sito operata da uno smartphone. Come si legge dal blog di Google Search Console: “The
content crawled by smartphone Googlebot-Mobile will be used primarily to improve the user
experience on mobile search. For example, the new crawler may discover content
specifically optimized to be browsed on smartphones as well as smartphone-specific
redirects”.
Questa è un’ulteriore conferma che ci dovrebbe spingere a creare siti web con supporto
anche ai dispositivi mobile.

Mobile Site Speed e compatibilità mobile


Abbiamo già visto e analizzato come la velocità di caricamento di un sito web sia fondamentale
per intercettare l’attenzione dell’utente. Anche per i siti mobile è importante tenere in
considerazione questo aspetto, per tale motivo vi segnaliamo alcuni link utili tra cui:
• Google Page Speed Insights https://developers.google.com/speed/pagespeed/insights/).
• Mobi Test from Akamai (http://mobitest.akamai.com/m/index.cgi).
• WebPageTest (http://www.webpagetest.org/).
• W3C’s Mobile OK Checker (http://validator.w3.org/mobile/).
NOTA

Il 26 febbraio 2015, sul Webmaster Central Blog, Google ha ufficializzato quanto aveva già
detto in sordina a novembre 2014: l’essere mobile-friendly sarà un fattore di posizionamento;
Google, per facilitare la comprensione di questo argomento da parte dei webmaster, ha
pubblicato una mini guida a supporto: http://bit.ly/remigi-mobile.

Google ha attuato dal 2015 la cosiddetta rivoluzione mobile o Mobilegeddon. I siti che non
saranno compatibili con le sue direttive avranno un ranking inferiore nei risultati di ricerca
mobile.
In pratica, una pagina web è idonea all’etichetta “mobile-friendly” sole se soddisfa i seguenti
criteri:
• non ha contenuti Flash;
• utilizza testo che è leggibile anche senza zoom;
• evita scroll orizzontali nella modalità mobile;
• collegamenti ipertestuali e menu facilmente accessibili e che non disturbino la
navigazione.

Per verificare se il tuo sito è Mobile Friendly secondo le direttive di Google, ti basterà utilizzare
il seguente tool:
https://www.google.com/webmasters/tools/mobile-friendly/

Ecco come potrebbe apparire nelle SERP Mobile:


Figura 6.29 - Test di compatibilità mobile e risultato in SERP con https://testmysite.thinkwithgoogle.com/.

Questi sono ulteriori segnali che ci fanno capire come nella progettazione di un sito web l’aspetto
“mobile” non è da sottovalutare e sarà sempre più importante nei prossimi anni.

Accelerated Mobile Pages - AMP


La novità in ambito mobile passa dalle pagine AMP, ovvero pagine web strutturate in base a una
specifica open source fruibile al link https://www.ampproject.org/. Sostanzialmente le pagine
AMP convalidate vengono scansionate, memorizzate e pubblicate da una cache di Google che
consente una pubblicazione più veloce e rapida fornendo un’esperienza utente unica.
Figura 6.30 - AMP nelle SERP di Google Mobile.

NOTA

Queste nuove pagine avranno vita propria e quindi dovranno essere create e gestite in modo
scrupoloso. Ovviamente dovremmo poi sfruttare il canonical o alternate per evitarne la
duplicazione dei contenuti. Google ha già annunciato che il formato AMP sarà fruttato anche
in altri servizi come ad esempio Google News.

Il progetto si basa su AMP HTML, framework open source ideato e progettato basandosi su
protocolli e tecnologie esistenti e che consente di realizzare pagine più leggere in grado di essere
erogate in poco tempo.
Grazie alla collaborazione con altri player del mercato tra cui Twitter, Pinterest, WordPress.com,
Chartbeat, Parse.ly, Adobe Analytics e LinkedIn ed altri editori nazionali ed europei, è stato
possibile sperimentare questa funzionalità ormai diventata una realtà all’interno delle SERP
mobile.
Grazie a tale novità, gli editori e in generale tutti i webmaster potranno realizzare contenuti ricchi
di elementi multimediali, come immagini, video, mappe, condivisibili sfruttando il sistema di
cache di Google.
Per quanto riguarda la pubblicità, Google AMP supporta formati diversi di advertising e quindi
gli editori non si dovranno preoccupare di questa problematica.
Recentemente Google ha dichiarato il RollUP di Amp sulle SERP tradizionali. Un primo passo è
avvenuto Il 23 agosto 2016 in cui Google ha rimosso l’etichetta mobile-friendly dalle SERP;
successivamente Il 20 settembre 2016 Google ha annunciato il rollup dei risultati AMP in SERP.
Questa novità ci fà capire come AMP e il mobile siano una priorità e non dovremmo
sottovalutare questa tecnologia nelle nostre strategie.

NOTA

Ma Facebook e Apple stanno a guardare? Ovviamente no, grazie a “Facebook instant


articles” e “Apple News” è possibile pubblicare i contenuti direttamente sulle loro
piattaforme senza “uscire da esse”. Il novo servizio di Instant articles di Facebook inoltre è
del tutto automatico e gli editori non dovranno scrivere una riga di codice:
https://developers.facebook.com/docs/instant-articles.

Come implementare AMP


L’implementazione di AMP è relativamente semplice: i più famosi CMS si sono attrezzati ed
esistono infatti plugin come AMP per WordPress che svolgono egregiamente questo compito.
Vediamo un esempio di pagina AMP.
Analizziamo il codice per scoprire come deve essere strutturato:
• il doctype deve iniziare con <!doctype html>;
• va specificato il tag <html /> o<html amp>;
• ovviamente devono essere presenti i tag di apertura e chiusura <head> <body>;
• deve essere specificato l’URL canonical della pagina non APM <link rel=”canonical”
href=”url HTML” />;
• va specificato il tag <meta charset=”utf-8”>;
• deve contenere il meta tag <meta name=”viewport” content=”width=device-
width,minimum-scale=1”>;
• va specificato lo script <script async src=”https://cdn.ampproject.org/v0.js”></script>;
• deve contenere AMP boilerplate code (quello presente style amp-boilerplate ecc.).

Con queste accortezze avremo creato una pagina AMP. Detto questo, Google ci suggerisce alcune
accortezze da prendere in considerazione ovvero:
• in tutte le pagine non AMP è fondamentale inserire un riferimento alla versione AMP della
pagina per consentire a in modo che Google e altre piattaforme di rilevarla:

• nella pagina AMP va specificato come abbiamo già detto la pagina canonical (o HTML o
se stessa):

NOTA

Anche le AMP autonome vengono indicizzate, a condizione che possano essere rilevate dal
motore di ricerca, per questo motivo è necessario che dispongano di link ad altre pagine
indicizzate o che siano specificate nella Sitemap.

Il passo successivo è vedere se la pagina è valida; vediamo gli step:


• aggiungere all’url da verificare #development=1;
• aprire lo Chrome Development Tool e andare alla voce console;
• se troviamo la scritta Powered by AMP ↯ HTML – Version xxx significa che abbiamo
fatto le cose correttamente.

La seguente immagine illustra i passi appena descritti (recentemente è stato rilasciato un plug-in
per Chrome e Mozilla che permette di validare in modo semplice le pagine AMP; il plugin si
chiama "amp-validator"):
Figura 6.31 - Esempio di pagina AMP.

Alla fine possiamo visionare lo stato delle nostre AMP page direttamente dalla search console di
Google.

Figura 6.32 - AMP nella Search Console di Google.


AMP è sicuramente una bella novità da tenere in considerazione nell’implementazione di un sito
web.

NOTA

Se utilizzi WordPress sicuramente troverai utile questo link:


https://it.wordpress.org/plugins/amp/ dove troverai diversi plugin utili per iniziare a sfruttare
AMP.

Progressive Web App - PWA


Google ha rilasciato nel 2016 un nuovo prodotto in occasione della Google I/O, a San Francisco,
ovvero le Progressive Web App. Questa nuova tecnologia permetterà agli sviluppatori di
costruire un sito Internet per mobile che funzioni molto più velocemente e si comporti come
un’app.
Aaron Gustafson, che lavora nella sezione di sviluppo di nuovi sistemi web per la Microsoft,
rivela che le PWA sono una tecnologia che permetterà a un sito Internet per mobile di funzionare
molto più similmente a una app per smartphone e tablet. Allo stesso tempo, sarà possibile evitare
il download. In più, sarà possibile inviare notifiche all’utente direttamente sul suo dispositivo
quando qualcosa sul sito cambierà e i pagamenti online saranno più facili e immediati.
In questo scenario diventa sempre più difficile per gli sviluppatori scegliere la via migliore. In
ogni modo vediamo nel concreto cosa siano le Progressive Web app e come si comportano.
• Progressive: devono “lavorare” ed essere disponibili a tutti gli utenti, a prescindere dalla
scelta del browser perché devono essere implementate con il progressive enhancement.
• Responsive: disponibili per qualsiasi dispositivo: desktop, mobile, tablet.
• Connectivity independent: devono essere in grado di “lavorare offline” su reti di bassa
qualità.
• App-like: devono apparire con un layout simile a un’app e basarsi sul modello APP shell
model.
• Fresh: devono essere aggiornate in modo costante.
• Safe: devono essere sicure e servite sotto HTTPS.
• Discoverable: sono identificabili come “applicazioni” grazie al loro manifest W3C in
modo da essere anche facilmente indicizzabili dai principali motori di ricerca.
• Re-engageable: integrazione con le notifiche push.
• Installable: devono consentire agli utenti di “mantenere” le app che trovano più utili sul
loro schermo, senza il fastidio di entrare in un app store.
• Linkable: facilmente condivisibili attraverso URL.

Insomma sembra tutto molto bello in teoria, ma in pratica? Le PWA sono un costrutto che
permetterà di migliorare l’esperienza utente, in quanto Google si è accorto che lato mobile molti
siti e app non sono al passo con i tempi. Tutto questo comporta una miriade di standard e linee
guida da seguire.
Per alcuni approfondimenti tecnici vi consiglio la lettura del post ufficiale di Google di inizio
2016 https://developers.google.com/web/progressive-web-apps/.

AMP o PWA: molta confusione


Le Accelerated Mobile Pages hanno portato come conseguenza logica (a mio avviso)
all’implementazione delle Progressive Web App (PWA) le quali sopperiscono alle carenze
tecniche delle AMP.
In pratica le PWA permetteranno di integrarsi con i servi dei nostri smartphone tra cui ad esempio
SIRI e migliorare l’integrazione tra sito web e app mobile.
Attualmente le PWA non sono ancora ampiamente diffuse in quanto gli editori le stanno ancora
testando, dovremo aspettare un po’ per capire come gestirle in modo corretto!
Le Progressive Web Apps non sono altro che un altro set di strumenti che sono stati sviluppati
negli ultimi anni per ottimizzare il web su dispositivi mobili. Accoppiate con il Responsive Web
design, Web API HTML5-basede e JavaScript saranno il modo migliore per costruire per il web
del futuro.

ASO: App Store Optimization


ASO è l’acronimo di Application Store Optimization e indica tutte quelle tecniche che si
devono applicare per poter migliorare la posizione di un’app mobile all’interno della pagina dei
risultati degli app store (Play Store e IOS). Si evince fin da subito come la SEO classica debba
anche evolversi e adattarsi nello sviluppo delle app mobile.
Figura 6.33 - Ranking Factors.

Tra le varie opzioni da considerare per l’ottimizzazione on page nello sviluppo di app troviamo:
• App Title: il titolo dell’app deve essere conciso, persuasivo e contenere delle keyword;
• App Description: la descrizione deve essere coinvolgente e contenere parole chiave utili
alla ricerca dell’app;
• App Logo: il logo di un’app deve attirare l’attenzione dell’utente e rispettare alcuni criteri
che facilitano il posizionamento dell’app, come non contenere parole, essere leggero e
rispecchiare le caratteristiche dell’app;
• App Screenshot: gli screenshot di un’app devono essere diversificati e devono essere in
grado di attirare l’attenzione dell’utente finale;
• Category: le categorie degli store sono molte e differenti, ed è quindi fondamentale
scegliere quella che rispecchia appieno la caratteristica della nostra app;
• App YouTube Demo: questa è una caratteristica dedicata al Play Store, che permette di
caricare un video di YouTube che mostra l’utilizzo della vostra app;
• Leverage Google Plus: tutte le app sullo store di Google hanno un plug-in per Google +.
Più saranno i G+ ottenuti, più la vostra app potrebbe guadagnare posizionamento nello
store.
NOTA

Google ha affermato chiaramente che qualsiasi “uso ripetitivo e/o irrilevante di parole
chiave nel titolo dell’app e nella descrizione, in grado di creare un’esperienza utente
sgradevole, può causare una sospensione dell’app all’interno dello store”.

Ora che abbiamo visto i principali fattori interni soffermiamoci un attimo per capire le possibili
differenze tra i vari store e principalmente Google Play e Apple Store. Cerchiamo di riassumere:
• il nome nell’applicazione per Apple Store deve essere di circa 25 caratteri mentre 30 per
Google Play, e potrebbe essere utilizzato nell’URL dell’app;
• tipicamente la descrizione viene utilizzata per i primi 167 su Google Play (valore che
potrebbe cambiare);
• parole chiave vengono utilizzate da IOS, che sfrutta i primi 100 caratteri prendendo
solamente i termini singoli (al momento plurali e singolari sono keyword differenti);
• come abbiamo visto, l'icona ha un ruolo fondamentale anche per intercettare l’interesse
dell’utente;
• lo screenshot è importante per dare un’anteprima agli utenti di quello che sarà l’utilizzo
dell’app;
• la categoria è fondamentale in quanto il 64% degli utenti scarica un’app direttamente dagli
app store.

Non ci crederete, ma anche per il posizionamento delle app esistono i fattori ASO off page:
• App ratings: la valutazione data dagli utenti all’app;
• App reviews: le recensioni scritte in modo naturale dagli utenti che hanno provato e
testato l’app;
• totale dei download: questo influisce sulla psiche dell’utente. Più alti saranno i download
della vostra applicazione, maggiore è la probabilità che altri utenti scarichino la
medesima app;
• Link Building: per le app di Google, il Play Store Google ha accesso agli indici di ricerca
di Google. Questo significa che i link da siti web popolari e autorevoli sarà certamente di
aiuto nel ranking della vostra app mobile.
NOTA

Tra gli altri fattori esterni possiamo individuare ad esempio:


• numero di installazioni;
• numero di disintallazioni;
• tempo utilizzo dell’app;
• andamento dei download nel tempo.
Ovviamente sono fattori del tutto indicativi che possono variare e avere un peso differente
nel ranking delle APP.

Ovviamente alcune delle caratteristiche appena elencate possono adattarsi meglio o all’app store
di Apple o al Play Store di Google. Prima di concludere, vogliamo elencare alcuni tool per
controllare e migliorare la ASO di un’app:
• Flurry: per aumentare la popolarità della vostra app;
• Swrve: supporto avanzato agli sviluppatori;
• App Annie: facilita il monitoraggio dei download e altre caratteristiche dell’app mobile.

Figura 6.34 - Alcuni dei principali fattori di Ranking Mobile (in continua evoluzione).
NOTA

Tra gli altri tool che consigliamo per l’ottimizzazione delle APP segnaliamo:
• Sensor Tower (sensortower.com)
• MobileDev HQ (mobiledevhq.com)
• SearchMan (searchman.com)
• Apptweak (apptweak.com)
• Straply (straply.com)
• AppCode.es (appcodes.com)
• Appstatics (appstatics.com)
• MobileAction (mobileaction.co)

App Indexing
Abbiamo visto come Google, ma non solo, stia puntando molto sul mobile seguendo l’andamento
e l’evoluzione tecnologica. Google App Indexing è la capacità da parte di Google di indicizzare i
contenuti delle app e mostrarli nei risultati di ricerca. Google App Indexing è stato lanciato nel
mese di ottobre 2013 per una serie limitata di editori. Successivamente è stato ampliato nel
giugno 2014; nel mese ottobre 2015 Google ha annunciato il supporto per l’indicizzazione delle
app all’interno di Safari e queste funzionalità permette di offrire agli utenti il contenuto di
applicazioni non installate sul dispositivo.
Grazie all’avvento dell’App Index cambia anche il modo di sviluppare le app e di svolgere
attività SEO su di esse; infatti potremmo modificare il codice dell’applicazione per renderlo più
efficace in quanto Google ora è in grado di leggere l’intero contenuto dell’app, indicizzarlo e
renderlo visibile nelle SERP.

Figura 6.35 - App Index Google vs Apple.


La App Indexing fondamentalmente può articolarsi su due binari come la SEO ovvero:
• a pagamento: si può utilizzare Adwords o Bing ADS per mostrare gli annunci riferenti
all’applicazione;
• organica: attraverso l’ottimizzazione SEO del contenuto delle applicazioni e seguendo le
direttive ASO.

Infatti, con questa nuova funzionalità i motori di ricerca non leggono più solo una parte del codice
dell’app come titolo e descrizione, ma sono in grado di leggere l’intero contenuto
dell’applicazione e per questo motivo dovrà essere nostro compito ottimizzarlo per facilitarne il
posizionamento e la visibilità. Tra le ultime novità di Google App Indexing troviamo inoltre la
possibilità di provare molte app (pulsante Try now) direttamente in SERP (Google App
Streaming) senza installarla per avere una visione in anteprima del suo utilizzo.

Figura 6.36 - Google App Streaming senza installazione.


NOTA

Anche gli altri motori di ricerca e siti web si sono attrezzati di conseguenza infatti troviamo:
• Bing App Linking: molto simile all’indexing di Google: https://msdn.microsoft.com/en-
us/library/dn614167.aspx;
• Apple App Search & Universal Links:
https://developer.apple.com/library/content/documentation/General/Conceptual/AppSear
ch/UniversalLinks.html.
Figura 6.37 - App Index e Google.

Come iniziare a sfruttare questa opportunità? Google ha reso disponibile una guida disponibile al
seguente url https://developers.google.com/app-indexing/.
Senza entrare troppo nei dettagli tecnici che potete trovare nella guida ufficiale, vediamo gli step
principali (che sono differenti in base ad app iOS o Android):
• aggiornare il Manifest dell’applicazione:
• includiamo le chiamate API app inde:

• verificare il sito nella Search Console di sviluppo:


• inserire lo snippet di markup:
Grazie a questi semplici passaggi avremo la nostra applicazione compatibile e indicizzabile da
Google. I passaggi anche per le app iOS sono semplici e il consiglio è quello di utilizzare fin da
subito questa grande opportunità per migliorare la visibilità delle app anche nelle SERP mobile.

NOTA

Per chi volesse approfondire questo argomento oltre alla guida ufficiale di Google, al
seguente link, è possibile visionare una guida completa: http://searchengine-land.com/app-
indexing-new-frontier-seo-google-search-deep-linking-226517.

Pop UP e Push Notification


Tra le varie possibilità che abbiamo per migliorare la visibilità di un’app Google ma non solo, ci
rendono possibili quelle che sono le Push notification all’interno di un sito web. Cosa sono?
Sono modalità che consentono di inviare notifiche attraverso al visitatore del nostro sito
avvisandolo della possibilità di scaricare la nostra APP, ad esempio.
Per iniziare a sfruttare tale tecnologia vi invitiamo a visitare:
• https://developers.google.com/web/updates/2015/03/increasing-engagement-with-app-
install-banners-in-chrome-for-android
• https://developers.google.com/cloud-messaging/

Figura 6.38 - Esempio di notifiche.

Conclusioni e punti salienti del capitolo


In questo capitolo abbiamo appreso come la “velocità di caricamento”, sia quella prettamente
tecnica sia quella percepita dagli utenti, sia un elemento fondamentale.
Abbiamo visto come ottimizzare i contenuti video, PDF e come gestire Ajax e Javascritp. Proprio
a questo proposito voglio dirvi come esistano numerosi framework come ad esempio
backbone.js, Angular.js, jquery,node.js e molti altri. È opportuno utilizzarli in modo corretto per
evitare che siti web sempre più “veloci” e intuitivi non si scontrino con le necessità dei motori di
ricerca (ovvero la necessità di leggere testo e interpretare URL). Infine abbiamo analizzato il
mondo mobile: qui sarà il futuro. Le ricerche mobile hanno superato quelle da desktop, le vendite
da mobile stando spopolando, quindi… È ora di sfruttare queste potenzialità!

Cosa ricordarsi?
• Controlla le performance del tuo sito web.
• Migliora e ottimizza i tempi di caricamento.
• Ottimizza i PDF.
• Sfrutta le AMP.
• Rendi il tuo sito mobile friendly.
• Rimani aggiornato sulle novità di Google e Apple in ambito APP e mobile.
“L’uomo è una creatura che non vive di solo pane, ma principalmente di slogan.”
(Robert Louis Stevenson)

NOTA

Il 13 Ottobre 2016, Gary Illyes ha pubblicamente annunciato che Google sta passando ad un
"mobile first index". In tal modo Google dovrebbe preferire l'indice mobile a discapito di
quello "desktop". Questo passaggio per i siti responsivi dovrebbe avvenire in modo indolore.
Il mobile è un tema molto caldo e in questo capitolo abbiamo cercato di darvi degli spunti
utili per affrontare questa nuova sfida SEO.
Focalizziamoci sui concetti base:
• Rimane un unico indice di Google, UNO!
• Google in caso di versione mobile e versione desktop valuta la versione mobile.
• Google accetta di buon grado le strutture di layout come accordion/tabbed content…
i contenuti non prontamente visibili NON saranno più dequalificati.
• NON toccate le combinazioni canonical-alternate.
Capitolo 7
Siti multilingua per la SEO e il SEM

L’importanza dei siti multilingua


Il problema della creazione di siti web multilingua è sempre più sentito dalle aziende e dai
webmaster di tutto il mondo. L’internazionalizzazione ha portato molte aziende a spingersi in
mercati stranieri, in cui è fondamentale una presenza online per lo specifico mercato di
riferimento. Si viene, quindi, a creare la necessità di implementare versioni di siti web distinte
per lingua o per nazione. Le motivazioni possono essere svariate:
• creazione di strumenti di helpdesk e supporto clienti per determinate specifiche;
• politiche di pricing diverse per nazioni differenti;
• marketing verticale differente in base alla lingua o alla nazione: l’azienda potrebbe, infatti,
decidere di attuare campagne di marketing o di promozione online diverse in territori
geograficamente distanti, ma che adottano la medesima lingua;
• brand aziendale che rispecchia le richieste specifiche di quel particolare settore.

Tutti questi fattori dovranno prevedere azioni di Web Marketing ben definite, che vanno da scelte
di comunicazione e gestione dei contenuti diversificate, alla gestione del brand aziendale e delle
politiche di prezzo adattabili alle diverse realtà, fino a toccare i costi di trasporto e logistica. Un
altro aspetto da non sottovalutare è l’organizzazione delle informazioni e dei contenuti lato web
in modo da garantirne un’ottimizzazione per un corretto posizionamento all’interno dei motori di
ricerca. Le informazioni dovranno essere, quindi, localizzate, in base alle scelte aziendali, per
lingua o nazione e perciò proposte in una forma e in un contesto che risultino di interesse per il
visitatore.
Per tale motivo, la scelta e lo studio delle parole chiave devono essere rivisti e studiati per
riflettere lo scopo del sito stesso. Utenti di diverse nazioni, ma che utilizzano la medesima lingua,
potrebbero ricercare in modo dissimile lo stesso vocabolo, poiché hanno usanze e bisogni
differenti. Lo studio SEO per la ricerca delle parole chiave va quindi predisposto in tale ottica.
In alcuni casi, come stiamo notando, le esigenze delle aziende e del mercato in cui esse operano
conducono alla necessità di creare contenuti e supporti non più distinti solamente per lingua, ma
anche per nazione.
La globalizzazione e la localizzazione del visitatore diventa, quindi, un punto fondamentale: un
utente americano potrebbe accedere alla pagina di un determinato sito web in lingua inglese ma
riferita al mercato europeo, con prezzi e brand differenti. In tal modo, l’utente potrebbe trovarsi
“spaesato” e lasciare dopo poco tempo il sito web. I visitatori che accedono a un sito e trovano i
contenuti nella loro lingua nazionale sono fino a quattro volte più propensi a comprare e a
dedicare del tempo a visitarne le pagine.
In questo scenario sarebbe preferibile usare indirizzi IP localizzati in base alla nazione corretta,
sia per migliorarne le performance, sia per rendere efficace la localizzazione del sito web stesso.
Per esempio, il dominio ingegneridelweb.es dovrebbe appartenere a un provider spagnolo con
relativo indirizzo IP corrispondente. Un problema molto pressante che può sorgere nel caso di un
sito web multilingua, ma con differenziazione per nazioni, è quello del contenuto duplicato.
Inevitabilmente, alcune schede tecniche e alcuni contenuti della stessa lingua potrebbero essere
utilizzati per versioni diverse del medesimo sito web in base alla nazione. In questo caso
potrebbe essere utile apportare piccole modifiche al contenuto e variare il titolo originale delle
pagine ed eventualmente alcune keyword di riferimento. Tutti questi problemi richiedono una
grande attenzione sia dal lato marketing, sia per quanto concerne aspetti SEO e di miglioramento
del posizionamento. Esistono altresì differenze nella psicologia dei diversi popoli che portano
alla necessità di avere non solo pagine e strutture diverse, ma anche strategie SEO adattabili al
contesto. Per esempio, un buon titolo (title di pagina) per gli utenti italiani potrebbe essere un
disastro per quelli russi. Se poi andiamo nel dettaglio, possiamo incontrare casi particolari, come
le nazioni multilingua. Prendiamo l’esempio della Spagna, Paese in cui le lingue ufficiali
riconosciute sono quattro: spagnolo, catalano, galiziano e basco. Se fossimo un’azienda spagnola
e volessimo comunicare e avere visibilità in maniera ottimale in Catalogna, potremmo registrare
il dominio miodominio.cat, oltre a miodominio.es, pubblicando i contenuti opportunamente
contestualizzati nella lingua del dominio o utilizzando i terzi livelli per ogni versione linguistica
nazionale. Tutti questi fattori ci portano a pensare come l’influenza della lingua e della
nazionalità rappresenti un aspetto fondamentale e sempre più presente anche all’interno dei
motori di ricerca. Basti pensare alle query di ricerca all’interno di Google fatte in lingue diverse
dall’inglese: esse risultavano essere solamente il 30% nel 2002, mentre oggi sono oltre il 50%
(dall’analisi di Google Trends). Questo ci fa capire l’importanza di geolocalizzare! Da una
recente analisi statistica (fonte: dynamical.biz) dei comportamenti degli utenti europei, è emerso
come gli acquirenti online preferiscano “riempire i loro carrelli virtuali” in fasce diverse della
giornata:
• l’utente spagnolo tra le 12 e le 13;
• gli utenti tedeschi e italiani tra le 14 e le 16;
• l’utente danese tra le 17 e le 18;
• l’utente francese tra le 18 e le 22;
• l’utente inglese intorno alle 20;
• l’utente svedese intorno alle 21.

Dobbiamo anche notare (come precedentemente accennato) come un contesto nazionale possa
influenzare la nostra strategia di comunicazione. Per esempio, negli Stati europei del
Mediterraneo, Internet è sempre più usata come fattore di comunicazione, di scambio e social
network; nei Paesi nordici si fa invece affidamento su Internet per un utilizzo più pragmatico e
per scopi funzionali. Riguardo ai siti multilingua e al loro posizionamento, potrebbe essere
scritto un trattato di centinaia di pagine, ma, come ben sappiamo, i motori di ricerca sono in
rapida evoluzione e in questo campo le varie tattiche attuate potrebbero essere suscettibili di
cambiamenti radicali nel prossimo futuro. Le politiche SEO da adottare vanno quindi studiate e
commisurate prestando molta attenzione a tutti i fattori appena illustrati.

TLD, sottodomini o cartelle?


Nei diversi progetti di promozione che coinvolgono siti web multilingua, ci si scontra spesso con
il dilemma di dover posizionare e gestire ciascuna versione linguistica.
Le soluzioni da adottare sono tipicamente tre:
• utilizzare TLD diversi: un esempio è Amazon, che ha registrato www.amazon.com,
www.amazon.fr (stessa strategia intrapresa anche dal colosso Google);
• utilizzare domini di terzo livello (o sottodomini): Wikipedia utilizza questa tecnica per
scindere le stesse lingue di Paesi diversi, per esempio en.wikipedia.org o
it.wikipedia.org;
• sfruttare le cartelle o directory: questa è la strada adottata da Apple; troviamo infatti
registrati i domini www.apple.com/fr/, www.apple.com/it/.

Figura 7.1 - Come strutturare un sito multilingua.

NOTA

Potete trovare un interessante articolo di approfondimento a questo indirizzo:


http://www.mattcutts.com/blog/subdomains-and-subdirectories/

Utilizzare TLD differenti per gestire la diversificazione delle utenze in base alla nazione e alla
lingua è una strategia che consigliamo per siti di grosse dimensioni. Comporta, infatti, un grande
dispendio di risorse e accorgimenti tecnici. Questo perché sia i cookie, sia le session, strumenti
mediante i quali è possibile mantenere in memoria alcune informazioni dei visitatori, sono
strettamente legati a un singolo dominio. Ai fini della sicurezza e della privacy, i browser non
trasmettono i cookie da un dominio diverso da quello che li ha impostati.

NOTA

La gestione di un account su più domini diventa quindi più difficile rispetto a una soluzione
unificata all’interno di un unico dominio.

Per evitare questi ostacoli, è necessario optare per accorgimenti tecnici di progettazione e
sviluppo atti a garantire il single sign-on se vi è la necessità di una gestione delle autenticazioni
unificate per più domini. Il problema si avverte anche in caso di preesistenza dei dati, cioè
quando si vogliono memorizzare i dati in una banca dati unica. Serviranno, quindi, un sistema
centralizzato e opportuni accorgimenti tecnici e di sviluppo (per esempio, webservice) per
gestire tali problematiche. Il tutto si traduce in un aumento della complessità totale della struttura
e dei costi di implementazione, che solo grosse aziende, in base al loro target di mercato, sono
disposte a sostenere.

NOTA

Utilizzando un dominio unico, si ha il vantaggio di concentrare e sfruttare tutti i benefici dei


fattori off page.

Riepilogando: i Top Level Domain sono utili per gestire siti multilingua organizzando i contenuti
geografici di nazioni differenti:
• miosito.com per gli Stati Uniti;
• miosito.fr per la Francia;
• miosito.de per la Germania;
• miosito.it per l’Italia.

Vantaggi:
• ogni sito è a sé stante ed è facile impostare parametri quali lingua, valuta, disponibilità di
prodotti, e definire, per esempio, i costi di trasporto;
• sono identificativi di uno specifico mercato di riferimento;
• attraverso gli strumenti a disposizione degli esperti SEO sono facilmente monitorabili;
• se registrati su hosting nazionali, si potrebbero avere miglioramenti di velocità e di
prestazioni (per esempio: sito spagnolo se hostato su un provider spagnolo);
• facilmente indicizzabili e contestualizzabili dai motori di ricerca.

Svantaggi:
• se una lingua è parlata in diversi Paesi, i link in entrata potrebbero essere distribuiti su più
domini;
• se più lingue sono utilizzate in un Paese, queste dovranno essere gestite utilizzando
sottodomini o cartelle;
• risulta costoso avere diversi domini;
• sono richieste competenze e risorse tecniche specifiche;
• sono complicati da gestire e da coordinare.

Quando è consigliabile utilizzare un sottodominio (o dominio di terzo livello)?


Un sottodominio potrebbe rivelarsi come una potente tecnica per ospitare un blog o un altro
microsito con un tema di business completamente diverso dal nodo padre. Google considera i
sottodomini come entità logiche del tutto separate dal dominio padre: seo.tuosito.com è trattato in
modo differente dai motori di ricerca rispetto a tuosito.com. Generalmente, i sottodomini
vengono utilizzati in modo da separare contenuti o aree tematiche differenti: se il nostro sito tratta
temi specifici a volte non interconnessi tra loro, l’utilizzo di sottodomini sarebbe la tecnica
migliore per organizzare i contenuti. Per esempio, Google ha il proprio prodotto per le news
(news.google.com) e per la gestione delle mappe (maps.google.com) e, poiché essi sono
fondamentalmente diversi, vengono organizzati in sottodomini separati. Per tale motivo, è da
tenere ben presente come ciascun dominio di terzo livello sia visto come un’entità a sé stante
rispetto al motore di ricerca: avrà, pertanto, un trust, un’anzianità e una link popularity differenti.

NOTA

Abbiamo affermato che, secondo Google, un sottodominio vive di vita propria, ma se un


sottodominio è bannato, lo diventa anche quello principale? In alcuni casi sì. Se è linkato al
dominio principale, potranno essere penalizzati entrambi. Vi sono stati casi in cui una
penalizzazione di un sottodominio si è estesa al dominio principale, e altri, invece, in cui
questo non si è verificato. Però, se il dominio principale viene bannato da Google, ed esso
presenta collegamenti con i sottodomini, anche questi ultimi verranno molto probabilmente
penalizzati.

Per quanto concerne l’aspetto SEO, si è vista una notevole proliferazione di domini di terzo
livello costruiti con il solo scopo di migliorarne l’indicizzazione in base a opportune keyword. In
merito non esistono particolari controindicazioni o penalizzazioni; se è fatta in maniera
scrupolosa, l’attività di organizzazione in terzi livelli può dare buoni risultati.
Riepilogando: i sottodomini sono considerati dai motori di ricerca come entità “apparentemente”
diverse rispetto al dominio principale. Non ereditano il posizionamento del dominio di
appartenenza, ma scelte errate possono influire più o meno direttamente sul dominio principale.
Per gestire siti con lingue diverse, possiamo strutturare i domini, per esempio, in questo modo:
• es.miosito.com
• it.miosito.com

Potrebbe essere necessario avere più suddivisioni, con l’uso di sottocartelle in caso di gestione
di situazioni particolari, come, per esempio, Paesi in cui si parlano più lingue o Stati diversi che
parlano la stessa lingua.

NOTA

Google ha ottimizzato il suo algoritmo di posizionamento in modo da escludere sottodomini


creati unicamente per aumentare la posizione nella SERP.

Vantaggi:
• possibilità di strutturare keyword per rafforzare il nome del dominio (per esempio,
seo.ingegneridelweb.com);
• essendo entità a sé stanti, sono facilmente monitorabili.

Svantaggi:
• generano un segnale URL debole rispetto ai risultati di ricerca di primo livello;
• la configurazione di impostazioni personalizzabili, come la valuta o la nazionalità,
potrebbe richiedere maggiori dettagli e approfondimenti tecnici.

Sottocartella o sottodominio: qual è la scelta migliore dal punto di vista SEO?


La sottocartella può essere utilizzata per gestire e organizzare contenuti.

NOTA

Useremo i termini cartelle, sottocartelle o directory per identificare una particolare struttura
ad albero per la gestione di un sito web strutturata in questo modo:
miosito.com/cartella/

A differenza di un sottodominio, che ha una vita e una gestione del posizionamento a sé stanti, le
directory possono avere un impatto positivo o negativo sulla classifica SEO del sito principale.
Se, per esempio, utilizziamo testo duplicato all’interno delle nostre sottocartelle, la
penalizzazione si riflette in modo automatico verso il sito principale. È quindi necessario
prestare attenzione durante l’utilizzo di sottocartelle.
Riepilogando: l’utilizzo di una sottocartella (sottodirectory, directory o folder) è un’operazione
tecnicamente semplice e indolore a livello della struttura architetturale di un sito web. Potremmo,
infatti, organizzare i contenuti per lingua utilizzando questa struttura:
• miosito.com/it/ per l’Italia;
• miosito.com/fr/ per la Francia;
• miosito.com/de/ per la Germania.

Nei casi particolari in cui una stessa lingua può essere parlata da più nazioni, l’organizzazione
delle cartelle potrebbe assumere la seguente forma:
• miosito.com/es/ per la Spagna;
• miosito.com/es-ar/ per l’Argentina;
• miosito.com/es-mx/ per il Messico.

Un’altra situazione che potrebbe verificarsi è quella di una stessa nazione che utilizza lingue
diverse (come la Svizzera o la Spagna). La nostra struttura a cartelle potrebbe diventare così:
• miosito.com/es/ spagnolo;
• miosito.com/es-ca/ catalano.

NOTA

È importante, nella nomenclatura delle sottodirectory, utilizzare ISO 639-1 con codici di due
lettere; per esempio, è corretto utilizzare /it/, mentre non è appropriato utilizzare /ita/ o
/Italia/.

Vantaggi:
• nessun costo di registrazione;
• possibilità di aggregazione di link: tutti i backlink vanno allo stesso dominio;
• facilità di gestione e di implementazione.

Svantaggi:
• la targeting geolocation può essere considerata ambigua (su uno stesso dominio abbiamo
più lingue);
• potrebbe essere necessaria una suddivisione ulteriore per nazionalità;
• può risultare difficile tenere traccia delle statistiche all’interno delle directory per più
lingue;
• modifiche in negativo o in positivo influenzano l’intero dominio.

Per un sito multilingua è meglio utilizzare sottocartelle o domini di terzo livello?


Questa è una delle questioni più dibattute in ambito SEO. È bene precisare che entrambe le
soluzione sono corrette e ben contemplate dai motori di ricerca; non esiste una soluzione migliore
in assoluto, perché vanno presi in considerazione aspetti di marketing, brand aziendale e fattori
variabili, quali politiche di pricing dei prodotti o sinergie tra le diverse sezioni del sito.
Cercheremo, però, di mostrare un interessante esempio di posizionamento in base alla lingua
relativo a un colosso mondiale, Microsoft:
• andiamo su google.it (Italia) e ricerchiamo la parola chiave “Microsoft”: noteremo che,
come primo risultato, compare www.microsoft.com/it-it/;
• ora posizioniamoci su google.fr (Francia) e ricerchiamo la parola chiave “Microsoft”:
noteremo che, come primo risultato, compare www.microsoft.com/fr-fr/;
• analogamente, accediamo a Google.de (Germania) e ricerchiamo la parola chiave
“Microsoft”; noteremo che, come primo risultato, compare www.microsoft.com/de-de/.

Possiamo, quindi, osservare come i principali motori di ricerca riescano facilmente a


interpretare le cartelle come suddivisioni logiche di sezioni multilingua di uno specifico sito
web.

NOTA

Gli strumenti per i webmaster di Google consentono ora di organizzare e gestire le


preferenze di geolocalizzazione per le sottodirectory.

In conclusione di questo semplice esperimento, possiamo affermare che è possibile utilizzare


sottocartelle in ambito SEO, senza che vi siano effetti negativi. I motori di ricerca saranno in
grado di distinguere le varie sezioni linguistiche presenti all’interno dello stesso dominio. Se,
invece, abbiamo esigenze specifiche per la gestione di siti web multilingua, allora è possibile
ospitare i nostri siti su diversi domini. Per esempio, potrebbe essere utile avere per la Germania
il dominio miosito.de o miosito.it per l’Italia. È altresì possibile, come si è anticipato, creare
sottodomini per i siti in lingua diversa, per esempio de.miosito.com o it.miosito.com.
Tipicamente, la scelta dell’utilizzo di sottodomini per la gestione linguistica di un sito è più
incline alle preferenze delle imprese e delle aziende, piuttosto che all’ottimizzazione da un punto
di vista SEO. Dovrete essere voi stessi a decidere se scegliere l’utilizzo di un sottodominio o di
una sottocartella. Utilizzando una struttura a sottocartelle, risparmierete sicuramente molto tempo.
Tuttavia, qualsiasi attività eseguita sulla vostra sottocartella potrà avere impatti positivi o
negativi sulle graduatorie del motore di ricerca. Pertanto, è necessario analizzare i diversi
scenari a disposizione prima di effettuare la propria scelta.
NOTA

È anche possibile specificare la lingua di una determinata pagina attraverso i parametri URL.
Google, in alcuni casi, fa uso di tale tecnica, per esempio viene usata la sintassi hl=<codice>
per cambiare la lingua di una pagina. Anche Bing permette agli utenti di cambiare il Paese e
la lingua attraverso un apposito menu sfruttando i parametri URL. A nostro avviso, tale
tecnica non è consigliabile, soprattutto se un sito è alla ricerca di traffico proveniente dai
motori di ricerca, in quanto gli URL complessi non sono graditi né dai motori di ricerca né
dagli utenti finali.

Figura 7.2 - Google: pregi e difetti delle tecniche da utilizzare per i siti multilingua.

NOTA

Per ulteriori approfondimenti:


http://tinyurl.com/siti-multilingua

Esempi pratici per i siti multilingua


Cercheremo di mostrare esempi pratici per gestire correttamente siti multilingua ottimizzando gli
aspetti SEO di questo interessante scenario.

Content language
È corretto utilizzare il content language con l’indicazione del Paese di riferimento:
anche se sarebbe più corretto inserire il seguente tag:

accompagnato dalla dichiarazione del Content Type all’interno della <head> per specificare, per
esempio, la codifica ISO-8859-1:

NOTA

Gli header HTTP (Content-Language) e gli attributi dei tag HTML (lang) sono nati con lo
scopo di specificare la lingua di un documento web. I motori di ricerca li utilizzano poco,
dato che si devono appoggiare a strumenti linguistici più sofisticati, come l’analisi n-gramma,
per capire il linguaggio umano dei contenuti web.

Gestione caratteri speciali


Durante la realizzazione di siti multilingua è possibile incappare in problemi nell’utilizzo di
caratteri speciali (come alfabeti cirillici, lettere accentate). Per evitare problemi di
visualizzazione, è necessario impostare il charset corretto. Per esempio, per le pagine contenenti
caratteri cirillici deve essere specificata la codifica, a scelta tra: windows-1251, KOI8-R, ISO
8859-1 o UTF-8 (unicode). Nel caso che il russo risulti l’unica lingua utilizzata per l’intero sito
web, è consigliabile scegliere il charset windows-1251 (il più diffuso). Se vi sono pagine che
utilizzano la lingua russa insieme a pagine in italiano o in inglese, è preferibile utilizzare UTF-8.
Nel caso il sito sia in lingua cinese, il charset più utilizzato risulta GB2312, come mostrato nel
seguente listato di codice:

NOTA

Il charset=GB2312 corrisponde al cinese semplificato, mentre il charset=big5 corrisponde al


cinese tradizionale.
I charset più utilizzati risultano essere i seguenti:
• charset = gb2312 cinese semplificato;
• charset = big5 cinese tradizionale;
• charset = EUC_KR coreano;
• charset = Shift_JIS o EUC_JP giapponese;
• charset = KOI8-R o Windows-1251 russo;
• charset = iso-8859-1 est Europa;
• charset = iso-8859-2 Europa centrale;
• charset = iso-8859-5 lingue slave (Bulgaria, Bielorussia, Macedonia, Serbia ecc.);
• charset = uft-8 unicode multilanguage.

Redirect in base alla lingua


Solitamente molti siti propongono nella loro home page la selezione della lingua, ma si sa che la
pigrizia degli utenti del web è notevole, quindi è sempre meglio far risparmiare loro qualche
clic. Ecco, allora, che un rilevamento automatico della lingua e della nazione con relativo
redirect è una soluzione più user friendly. Ovviamente, tale modo di operare deve essere portato
avanti tenendo presenti diversi fattori:
• dev’essere concessa all’utente la possibilità di scegliere la lingua desiderata anche se
viene reindirizzato in base alle impostazioni della lingua del browser;
• lo spider potrebbe non gradire redirect automatici e penalizzare il sito;
• lo spider, utilizzando una lingua diversa, potrebbe non indicizzare correttamente tutte le
pagine del sito web;
• non impedire all’utente l’accesso a contenuti in lingua diversa.

Gestione delle traduzioni


Molti siti utilizzano Google Translate o strumenti analoghi per tradurre in realtime i loro
contenuti: una soluzione economica che può essere utilizzata per i blog o per comunità free. Non
commettiamo l’errore di far tradurre a strumenti automatici siti web istituzionali o aziendali.
Oltre a fare una pessima figura con i clienti esteri, non saremo correttamente indicizzati (in base
alla lingua) dai motori di ricerca. Le traduzioni del nostro sito web devono essere accurate e fatte
in modo tale da rispondere alle esigenze dei visitatori. Esistono, inoltre, situazioni particolari in
cui uno stesso concetto (o vocabolo) può essere espresso con parole diverse in Paesi che
utilizzano la medesima lingua.
Per esempio: la parola “all’ingrosso” può essere tradotta in spagnolo in modo differente:
• catalano/spagnolo: venta al por mayor;
• argentino: venta mayorista;
• messicano: mayoreo.

Questo ci fa comprendere l’importanza di una corretta traduzione dei contenuti del nostro sito
web, in base al targeting degli utenti, alla lingua e alla nazionalità.
Gestione della duplicazione dei contenuti
È noto come non sia una buona norma mischiare contenuti di lingue diverse all’interno della
medesima pagina. Come abbiamo già accennato in precedenza, è importante gestire in modo
corretto i contenuti tradotti per diverse lingue e nazioni onde evitare spiacevoli penalizzazioni da
parte dei motori di ricerca. La penalizzazione derivante dalla duplicazione di contenuti consiste
nel fatto che Google (così come altri motori di ricerca) potrebbe indicizzare solo una parte delle
pagine aventi il contenuto replicato. Ciò potrebbe capitare per la descrizione di un prodotto nella
stessa lingua, ma presente su pagine realizzate per nazionalità differenti. In altri casi, questo
potrebbe essere non rilevante e i motori di ricerca indicizzeranno correttamente le pagine che
riterranno rilevanti, anche se presentano contenuti in parte duplicati. Il nostro consiglio è quello
di cercare di prestare attenzione e di fornire contenuti idonei e magari leggermente differenti per
nazione.

Sitemap per siti multilingua


Per quanto concerne la Sitemap, meglio utilizzarne una o più per multilingua? Sicuramente, per
istruire i motori di ricerca in modo idoneo, è un’ottima soluzione avere Sitemap separate per
lingua o nazionalità del sito web multilingua, come mostra la Figura 7.3.

Figura 7.3 - Esempio di Sitemap multilingua.

rel=”alternate” hreflang=”x”
Google ci permette di sfruttare i tag rel=”alternate” hreflang=”x” in contesti multilingua in modo
da visualizzare la lingua corretta o l’URL locale per gli utenti che effettuano specifiche ricerche.
In quali contesti possiamo sfruttare questi tag? Google ce lo dice chiaramente.
• in scenari in cui viene tradotto soltanto il modello della pagina, ad esempio la barra di
navigazione e il piè di pagina, e vengono mantenuti i contenuti principali in una sola
lingua. Si tratta di una soluzione comune per le pagine con contenuti generati dagli utenti,
ad esempio un post di un forum;
• in situazioni in cui le pagine hanno contenuti molto simili in un’unica lingua, ma con
piccole varianti locali. Ad esempio, dei contenuti in inglese destinati ai lettori di Stati
Uniti, Gran Bretagna e Irlanda;
• in siti web i cui contenuti sono completamente tradotti. Ad esempio, per ogni pagina vi
sono sia la versione in tedesco sia quella in inglese.

Supponiamo, quindi, che la società TravelINC fornisca contenuti rivolti a utenti negli Stati Uniti,
in Gran Bretagna e in Germania. Gli URL seguenti hanno sostanzialmente gli stessi contenuti, ma
con varianti locali:
• http://www.travelinc.com/: home page in lingua inglese. Contiene informazioni sui costi
delle spedizioni internazionali che partono dagli Stati Uniti;
• http://en-us.travelinc.com/: in lingua inglese; i prezzi vengono indicati in dollari
americani;
• http://de.travelinc.com/: versione dei contenuti in tedesco.

In questo contesto possiamo sfruttare il tag “alternate”, inserendolo in ogni pagina indicata nella
sezione HEAD, come mostrato di seguito:

Esiste un tool semplice ma efficace nella generazione di questi tag:


http://www.internationalseomap.com/hreflang-tags-generator/. Può aiutarvi nel supporto per la
creazione dei tag linguistici con hrflang.
Dal maggio 2012 Google ha semplificato il contesto, dando la possibilità di inserire tali tag
direttamente nella sitemap.xml; la struttura, nell’esempio preso in analisi, sarà la seguente:
NOTA

Ricordiamo che è possibile utilizzare hreflang anche nelle intestazioni HTTP (ad esempio
possiamo sfruttarle nel caso di PDF):
Maggiori dettagli sono presenti su http://tinyurl.com/google-alternate.
Gli URL negli hreflang devono essere ovviamente quelli canonici, altrimenti il tag hreflang
potrebbe essere ignorato da Google e da altri motori di ricerca.

Infine, il valore “x-default” è riservato viene utilizzato per indicare i selettori/reindirizzatori non
sono specifici di una lingua o di un’area geografica, ad esempio se l’homepage fa un redirect
automatico in base alla lingua del browser. Ecco un esempio del suo utilizzo:

Per verificare di aver eseguito le operazioni in modo corretto, possiamo verificare il tutto nella
Search Console di Google.
Figura 7.4 - Esempio di Sitemap multilingua.

Link earning per siti multilingua


Per la SEO i link in entrata sono uno degli elementi fondamentali per migliorare il
posizionamento di un sito web. Per tale motivo, bisogna investire sforzi e risorse per gestire
opportunamente i link all’interno di progetti multilingua. Anche attività di link popularity
focalizzate per nazione svolgono un ruolo fondamentale. Risulta opportuno applicare tecniche di
ottimizzazione off page mirate ma equilibrate per le varie versioni multilingua del sito web:
• nel caso si utilizzino le cartelle, la campagna di link earning è facilmente gestibile. È
possibile ottenere link direttamente alla nostra home page, oppure disporli all’interno di
pagine interne per migliorarne la classifica;
• quando si utilizzano sottodomini o domini, è vivamente sconsigliato implementare
campagne separate per la costruzione di link. È necessario garantire che i sottodomini o i
domini ricevano un numero sufficiente di collegamenti da parte di domini esterni al fine di
velocizzare l’indicizzazione e aumentare il loro PageRank. Inoltre, nel caso di
sottodomini, è opportuno assicurarsi che il nodo figlio sia collegato al nodo padre. Infine,
quando si dispone di più domini, è opportuno accertarsi di avere collegamenti trasversali.

NOTA

Ribadiamo che qualsiasi attività di link earning deve essere messa in atto al fine di ottenere
link naturali e non artificiali. Anche per il SEO multilingua, dopo gli ultimi aggiornamenti di
Google Penguin, è fondamentale ottenere link in ingresso con anchor text pulite (a nome di
dominio o di brand), magari suddivise per nazionalità. Google vuole che i link siano naturali
e spontanei, ma questo lo abbiamo già ribadito più e più volte!

Un’altra tecnica molto utile per l’indicizzazione delle pagine nelle diverse lingue è il cross-
linking, ovvero l’inserimento di link in una pagina che punta ad altre pagine aventi il medesimo
contenuto, ma in lingua diversa. Gli utenti che giungono su una pagina a loro non gradita sono in
grado di cambiare lingua. I motori di ricerca saranno facilitati, con questo stratagemma, a seguire
i link, quindi ci sarà maggiore probabilità che indicizzino tutti i contenuti nelle varie lingue.

Targeting geografico
È possibile sfruttare lo strumento di targeting geografico (nella Search Console di Google) per
indicare a Google che il nostro sito è rivolto a un Paese specifico. Questo strumento va utilizzato
solamente se il nostro sito ha un dominio di primo livello generico gTLD (generic Top-Level
Domain). Non va usato se il nostro sito è rivolto a Paesi diversi. Per esempio, sarebbe sensato
impostare l’Italia come target per un sito sui ristoranti di Genova, ma non avrebbe senso
impostare lo stesso target per un sito rivolto a persone di lingua francese in Francia, Italia e
Germania.

Geo Targeting con IP e redirect


Oggi molti siti si specializzano nel fornire contenuti localizzati: l’utente di nazioni differenti
visualizzerà versioni di contenuti ad hoc. Per migliorare l’esperienza degli utenti, sta diventando
una prassi comune indirizzare i visitatori verso un contenuto più appropriato in base alla
posizione fisica dell’utente. Ci sono diversi modi per determinare la posizione di un utente, ma
quello più diffuso è l’utilizzo dell’indirizzo IP dell’utente avendo a disposizione un database
aggiornato delle locazioni degli IP.

NOTA

Questa tecnica può essere rischiosa se non si hanno strumenti aggiornati o se si utilizzano
localizzazioni approssimative. Per siti di medie dimensioni è consigliabile l’utilizzo
dell’identificazione della lingua del browser web dell’utente.

Vale la pena di notare che gli indirizzi IP non sono perfetti al 100% per determinare la “posizione
esatta di una persona”: essi, infatti, dipendono dall’Internet Service Provider (ISP) e con
l’utilizzo di alcune tecniche, come i proxy, possono essere facilmente manipolati. Tuttavia, il
rilevamento IP dovrebbe essere utilizzato solo per i nuovi visitatori, memorizzando le
informazioni dell’utente. È altresì importante dare la possibilità all’utente di aggiornare il
proprio target geografico.

Il target per IP è SEO friendly?


Da un punto di vista SEO, si tratta di un tema molto caldo: le principali preoccupazioni
scaturiscono dal fatto che i crawler dei motori di ricerca potrebbero essere reindirizzati in modo
errato in base al loro IP. Ciò potrebbe accadere perché i motori di ricerca non sono ospitati con
indirizzi IP da tutti i Paesi e si corre il rischio di non indicizzare correttamente i contenuti. Ecco
perché questa tecnica va usata con molta cautela e non è molto apprezzata in ambito SEO.

Il reindirizzamento dei motori di ricerca utilizzando uno user


agent
Una tecnica per evitare che i crawler dei motori di ricerca vengano reindirizzati a una certa area
del sito è l’utilizzo di uno User Agent Detection. Uno spider, quando visita il sito web, è
identificabile attraverso il suo nome, per esempio Googlebot, MSNBot o Slurp. Dunque,
l’individuazione di un motore di ricerca tramite il suo user agent è utile al fine di prevenire la
localizzazione tramite IP. Purtroppo, non è così facile: i motori di ricerca definiscono questa
tecnica, in determinate occasioni, con il nome cloaking e potrebbero considerarla come spam e
bloccare il nostro sito web.
Ogni volta che un sito mostra ai visitatori contenuti diversi sulla base di una variabile (per
esempio, contenuti diversi mostrati a visitatori e a spider dei motori di ricerca), si corre il
rischio di essere penalizzati dai motori di ricerca per cloaking. Il cloaking è in genere una tecnica
SEO Black Hat e rappresenta una violazione delle linee guida di Google per i webmaster. Per
evitare tali sanzioni, Google propone alcune soluzioni:
• non autotradurre in modo automatico i contenuti in base all’IP;
• fornire a Googlebot lo stesso contenuto che un utente vedrebbe visitando il sito;
• creare URL separati per contenuti differenti.

Se sottodomini o sottocartelle sono utilizzati nella struttura del sito, impiegare gli strumenti per i
webmaster per impostare la località preferita.

Redirect in base alla lingua del browser?


Una tecnica alternativa, anch’essa molto discutibile, è il redirect in base alla lingua del browser.
Questo vuol dire che, se un utente inglese entra nel sito, gli verranno mostrati i contenuti in lingua
inglese, a uno spagnolo quelli in lingua spagnola e via dicendo. Di per sé, ciò sembra non avere
ripercussioni, ma, come abbiamo già accennato, è necessario prestare attenzione e utilizzare
questa tecnica con molta cautela. Gli spider potrebbero essere rimandati a sezioni specifiche di
un sito web, non riuscendo a indicizzare correttamente i contenuti delle altre lingue. Per questo
motivo, è necessario collegare opportunamente le varie versioni in lingua del sito e concedere
all’utente la possibilità di variare in qualsiasi istante la lingua a disposizione. Si potrebbe anche
incorrere nel rischio che i motori di ricerca interpretino come Doorway Page tale tecnica,
penalizzando l’intero sito web. Il nostro consiglio è quello di applicare queste tecniche
solamente se si è realmente sicuri delle azioni tecniche da mettere in atto. Per effettuare quanto
illustrato, è possibile utilizzare script JavaScript, php, asp.net, così come altri linguaggi di
programmazione.
Per esempio, in PHP il seguente sorgente indirizza il visitatore in base alla lingua del browser
verso pagine specifiche:
Per quanto concerne asp.net, un metodo da noi testato e che sembra funzionare bene risulta quello
di rimandare il visitatore a sezioni in lingua del sito con un redirect 302, mantenendo comunque
collegate le diverse versioni attraverso opportuni link. Dopo un mese dall’utilizzo di questa
tecnica, abbiamo notato come Google e i principali motori di ricerca riescano a indicizzare
correttamente tutte le pagine del sito web:

Google ha ribadito che il redirect in questa situazione dovrebbe essere un 302 e andrebbe
specificato, come abbiamo visto, nell’hreflang l’attributo x-default.
Quelli esaminati finora sono metodi molto delicati, che, se non usati correttamente, possono
generare penalizzazioni da parte dei motori di ricerca. Se ritenete opportuno applicarli, il nostro
suggerimento è quello di seguire gli spunti forniti in questo capitolo e di mettere in atto tutti gli
accorgimenti per ottenere i risultati desiderati.
NOTA

Qui troverete ulteriori informazioni sulle linee guida di Google per i siti multilingua:
http://bit.ly/seo-multilingua

Conclusioni e punti salienti del capitolo


In questo capitolo abbiamo analizzato le principali accortezze che dobbiamo tenere in
considerazione quando implementiamo un sito web multilingua o un progetto internazionale. Cosa
ricordarsi?
• Non registriamo un dominio .it per poi sviluppare su di esso anche la versione inglese ad
esempio www.pippo.it/en.
• Sfruttiamo e implementiamo correttamente hreflang.
• Personalizziamo le pagine di atterraggio degli utenti in base alla lingua e alla cultura del
loro Paese.
• Prestiamo attenzione, se siamo un e-commerce, alla corretta localizzazione della moneta in
uso.
• Non esiste solo Google come motore di ricerca, sfruttiamo anche gli altri search engine
come Baidu o Yandex se il nostro obbiettivo è aumentare la visibilità nei Paesi in cui sono
usati.

Detto questo, prima di concludere, voglio mostrarvi qualche tips e accortezza da tenere in
considerazione nell’implementazione SEO per progetti internazionali.
• Per prima cosa ricordati di avere un tag di ritorno negli hreflang.
• Non effettuare redirect strani che potrebbero ingannare o bloccare il crawler.
• Specifica sempre la lingua di destinazione e offri all’utente la possibilità di cambiarla.
• Personalizza i menù e le immagini in base alla nazione e cultura specifica.

La seguente immagine mostra una corretta configurazione da prendere come spunto per progetti
SEO internazionali.
Figura 7.5 - Esempi di tag html per gestire correttamente siti multilingua lato SEO.

“Quando fai marketing, non aver paura di essere creativo e di sperimentare.”


(Mike Volpe) CMO – Hubspot
Capitolo 8
Copywriting e tecniche di persuasione sul
web

Quando ci si accinge a scrivere sul web, non bisogna seguire le stesse modalità adottate nella
redazione di un testo su carta: sul computer, infatti, a differenza di un libro, ciò che si interpone
tra gli occhi del lettore e i caratteri battuti sul foglio elettronico è lo schermo, che, a causa della
luminosità e degli effetti di luce, può rendere la lettura non piacevole e talvolta fastidiosa.
Inoltre, diversamente da un manuale o da un articolo cartaceo, il visitatore, sul web, tende a
effettuare una lettura molto rapida, saltando vocaboli o righe e focalizzando l’attenzione su parole
che egli ritiene utili o curiose per i suoi fini di ricerca. Lo scrittore web attento deve pertanto
tenere in considerazione questi fattori come premesse, come punti fermi per poi adottare uno stile
di scrittura che conferisca vantaggi (di tempo, di precisione delle informazioni, di chiarezza, di
semplicità, di completezza) al suo interlocutore, ma anche a se stesso, soprattutto nel caso di
un’impresa che presenta la propria mission e i propri prodotti, facendo del sito web aziendale il
punto di forza per attirare nuovi clienti e fidelizzare quelli esistenti.
Risulta allora fondamentale, per l’autore, conoscere e applicare quelle che potrebbero essere
definite delle vere e proprie regole di scrittura sul web, o, se si preferisce evitare il termine
“regole” (che può creare una sensazione negativa di costrizione e forzatura), degli accorgimenti
pratici vivamente consigliati a chiunque decida di inserire contenuti di carattere informativo sul
web. Tali indicazioni sono fornite dal SEO Copywriting, vale a dire uno strumento
assolutamente valido ed efficace che ingloba tecniche e direttive di scrittura sul web: SEO,
anteposto al vocabolo Copywriting, oltre a designare il concetto di Search Engine
Optimization, vuole evidenziare la possibilità, se si seguono le indicazioni impartite, di
ottimizzare i contenuti, i testi, le immagini, i file che si vogliono pubblicare su Internet, attraverso
l’inserimento delle keyword. Tutto ciò contribuisce alla logica SEO: la conseguenza immediata
dell’adozione di un sistema di scrittura efficace e persuasivo, che evidenzia le parole chiave e
offre al lettore risposte immediate, è sicuramente il miglioramento del posizionamento del
proprio sito web.
In questo capitolo sono quindi descritte quelle regole di scrittura cui si è accennato poco prima,
che si auspica il lettore di questo libro consideri come paradigma di riferimento, d’ora in poi,
per i suoi scritti sul web.

Prima di scrivere: a cosa prestare attenzione


Prima di dare forma alle idee che si hanno nella mente, è fondamentale domandarsi a chi è
indirizzato il messaggio, quale intenzione o argomento si vuole presentare, in quale modalità si
desidera esporre le argomentazioni; detto in altri termini, è utile porsi le domande seguenti.

Chi è il destinatario del mio messaggio?


Bisogna identificare il target/pubblico a cui ci si rivolge, considerando il sesso, l’età, il livello
di cultura e formazione, la categoria professionale, tanto per citare alcuni fattori salienti.

Che cosa voglio scrivere?


È opportuno avere ben chiaro nella mente l’oggetto preciso del messaggio, così da poter scrivere
informazioni utili e interessanti per il lettore ed evitare di dilungarsi in ambiti non inerenti al
tema, che potrebbero annoiare e distrarre il pubblico. Di conseguenza, la domanda successiva
sorge spontanea.

Perché scrivo riguardo a una determinata tematica? Quale


scopo/fine voglio conseguire?
Rispondendo a tale domanda, si ha l’opportunità di colpire maggiormente il lettore
indirizzandolo verso aspetti dell’argomentazione che si vuole siano oggetto di attenzione: per
esempio, essendo consapevoli che lo scopo che ci si è prefissati è la promozione sul web di
prodotti aziendali, si sa a priori che il messaggio dovrà vertere su una descrizione accurata delle
caratteristiche e delle potenzialità della merce, avvalendosi di un linguaggio chiaro e diretto al
cliente.

Come posso scrivere il messaggio nel modo più efficace


possibile?
Il “come” raggruppa, in un certo senso, le informazioni che possono scaturire rispondendo alle
domande precedenti: si tratta di redigere le proprie argomentazioni in uno stile efficace e
semplice, che bandisca “giri di parole” e frasi lunghe e ripetitive. Ciò che conta, infatti, è
l’incisività dell’esposizione: per avere successo è fondamentale essere concisi, procedere con
ordine (punto per punto), scrivere il necessario in modo sintetico ma esaustivo.

L’impostazione dei contenuti


Il titolo
Il primo aspetto cui dedica attenzione il lettore è sicuramente il titolo: per questo motivo, è
importante che esso sia corto, semplice e conciso, ovvero che contenga tutte le informazioni che
il lettore si aspetta di leggere, ma anche intrigante, cioè capace di destare interesse. In
particolare, per ottenere tale effetto, è consigliabile redigere il titolo scegliendo tra le modalità
sotto descritte:
• la forma interrogativa: usando un’interrogazione come titolo, si attrae maggiormente chi
legge, proprio perché questi è invogliato a trovare la risposta alla domanda. Seguendo tale
indicazione, un esempio potrebbe essere il seguente: “Non sai come posizionare al meglio
il tuo sito web sui motori di ricerca?”, invece di “Il posizionamento di siti web sui
motori di ricerca”. Nel primo caso, il lettore è catturato dalla domanda, a cui cercherà
probabilmente di associare una risposta, ma anche dal linguaggio diretto e familiare e
dall’uso dell’aggettivo “tuo”, che sembra fornire una soluzione su misura al diretto
interessato;
• la forma esclamativa: essa consente di porre in rilievo il tema che si intende affrontare.
L’esclamazione, infatti, può essere identificata come una forma di espressione di un
consiglio, di un suggerimento, di un parere personale, che, annunciato sotto forma di
opinione, viene letto volentieri, perché non è né una regola né una restrizione, ma solo un
consiglio. Per esempio, “SEO Specialist: i professionisti specializzati nel
posizionamento dei siti web nei migliori motori di ricerca! Affidatevi a noi!” invita alla
lettura sia per la forma esclamativa, che sembra indicare un consiglio valido fornito da un
amico di fiducia, sia per l’utilizzo di una terminologia persuasiva, come “migliori”,
“affidatevi”, “professionisti”, “specializzati”.
Il fattore da considerare, indipendentemente dalla scelta di una modalità piuttosto che di
un’altra, è la capacità attrattiva che il titolo deve possedere: è fondamentale mettere in
evidenza la problematica o l’oggetto (esempio A) di ciò che si vuole esprimere o, al
contrario, inserire la soluzione (esempio B):
– A)“Non riesci a ottenere un buon posizionamento sui motori di ricerca?”;
– B)“Ecco i consigli utili per ogni tuo problema!” / “Come fare per risolvere questo
problema”.

Il contenuto
Dal punto di vista formale/stilistico, è auspicabile che il testo sia suddiviso in paragrafi ed
elenchi (eventualmente anche composto da sottotitoli e sottoparagrafi): l’occhio umano riesce, in
tal modo, a visualizzare ordine e chiarezza. Sempre a tale scopo, è utile impiegare certi caratteri
precisi di scrittura di colore nero (automatico), come il “Times New Roman”, il “Verdana”,
l’”Arial”, il “Georgia”, il “Trebuchet MS” e il “Tahoma”, sullo sfondo bianco. Inoltre è meglio,
per evidenziare parole, frasi o concetti, servirsi del grassetto o di colori diversi, evitando,
invece, il sottolineato (salvo nel caso del link) e le lettere maiuscole, e diminuendo l’uso del
corsivo, poiché sono metodi di scrittura non immediatamente visibili. Ancora, è bene che:
• il testo sia corto e riassuntivo, nel senso che deve toccare tutti i dettagli dell’argomento in
questione, senza, però, cadere in giri di parole o inutili digressioni “fuori tema”;
• siano presenti spazi, sia bianchi (per esempio, tra un paragrafo e un altro), sia creati dalla
punteggiatura (di essa si dirà meglio in seguito);
• se si desidera implementare immagini, esse devono essere presenti in numero ridotto, di
piccole dimensioni e poste ai lati, sopra o sotto il testo, altrimenti potrebbero fuorviare
l’attenzione del lettore: le figure hanno la funzione di aiutare a capire quanto spiegato o di
invogliare l’interlocutore a proseguire la lettura, ma non devono risultare l’unico elemento
attrattivo dell’esposizione;
• insieme alle immagini è opportuno inserire le relative didascalie, che consentono non solo
di spiegare il contenuto della figura (che quasi sempre è comprensibile da sé), ma anche di
chiarire il motivo per il quale si include proprio quell’immagine in quel punto specifico
del testo.

Dal punto di vista intrinseco (per non usare il termine “contenutistico”, dato che il soggetto di cui
si sta parlando è, appunto, il contenuto del testo), gli scritti sul web devono essere caratterizzati
da:
• sintesi;
• specificità delle argomentazioni;
• chiarezza;
• semplicità;
• concisione ed essenzialità;
• gradevolezza grafica;
• correttezza della lingua.

La lingua e lo stile
Il linguaggio del web segue le stesse regole di quello “su carta”, pertanto valgono appieno i
principi dettati dalla lingua italiana. Per consolidare tali nozioni, conviene stilare un elenco delle
maggiori problematiche linguistiche riscontrabili fra gli utenti:
• il punto si usa per chiudere definitivamente un argomento; in genere, per terminare il tema
trattato e iniziarne uno nuovo, creando opportuni paragrafi, si va a capo. Il punto si
posiziona alla fine di periodi brevi e semplici. Una nota di riguardo merita il titolo: al
termine del titolo il punto non è concesso;
• la virgola indica una pausa minore rispetto al punto; solitamente si usa per legare due
proposizioni (senza usare la congiunzione “e” o “o”), per separare fra loro gli elementi di
una lista “disposta lungo il testo” (non a elenco), per mettere in risalto un’espressione.
Anche la virgola, come il punto, ha la funzione di permettere pause, consentendo una
lettura agevole e scorrevole;
• il punto e virgola deve essere usato con moderazione, poiché indica una pausa di intensità
minore del punto ma maggiore della virgola; quasi sempre si usa nei punti elenco al
termine di ogni frase o parola;
• i punti di sospensione sono e rimangono sempre tre; se si adoperano all’interno del testo e
non alla fine, essi vanno situati attaccati alla fine della parola che li precede e separati da
uno spazio dalla parola che li segue (per esempio, “il marketing è… strategico”);
• il trattino separatore va collocato adiacente a entrambi i vocaboli tra i quali è inserito
(senza spazi); se esso si trova all’interno del testo per indicare una digressione o un
inciso, in sostituzione alla virgola, per esempio, deve essere preceduto e seguito da uno
spazio (“la descrizione è – per così dire – inadeguata ai contenuti”);
• la lettera maiuscola si utilizza nei casi di designazioni di enti, ministeri e simili (per
esempio, “Ministero della salute”) e nel caso di acronimi, come “SEO” (“Search Engine
Optimization”), “SAA” (“Systems Application Architecture”), “ICF” (“Internet
Connection Firewall”);
• l’apostrofo si usa, per esempio, davanti agli acronimi e ai numeri scritti in lettere (se i
numeri sono scritti in cifre, non devono essere preceduti dall’apostrofo); sul web è
preferibile, a differenza di quanto accade a livello cartaceo, rappresentare i numeri in
cifre, perché più chiari e immediati, tranne nel caso in cui il numero sia molto grande (“50
milioni”). Anche i secoli e i decenni vanno scritti in lettere (“nel diciassettesimo
secolo”);
• i punti elenco possono essere costituiti in diversi modi:
– punto e virgola alla fine di ogni riga, punto al termine dell’ultimo elemento
dell’elenco, lettera minuscola iniziale della prima parola della prima riga;
– punto alla fine di ogni riga, lettera maiuscola iniziale di ogni parola di ogni riga;
– nessuna punteggiatura, lettere iniziali minuscole.

In generale, lo stile di scrittura sul web deve essere, come più volte ripetuto, chiaro e mirato a
ciò che l’interlocutore si aspetta di trovare: prima di scrivere, quindi, bisogna avere ben presenti
le informazioni che il lettore vuole trovarsi davanti; bisogna “mettersi nei panni del lettore”,
fornendogli indicazioni complete ed esaustive che racchiudano risposte immediate alle sue
esigenze. Per tale motivo, può rivelarsi utile tracciare una sorta di mappa, di schema
organizzativo dei contenuti che si vogliono presentare: per esempio, può essere estremamente
vantaggioso iniziare, dopo la stesura del titolo e di eventuali sottotitoli, da indicazioni generali,
per poi passare, attraverso sottoparagrafi, a indicazioni specifiche, arricchite di esempi e di
immagini, nonché di collegamenti ipertestuali. I link, infatti, oltre a conferire veridicità e
affidabilità alle argomentazioni esposte, suscitano curiosità ed esortano il lettore a cliccarvi
sopra e a procedere nell’esplorazione dei contenuti.

Il corretto uso dei link


Innanzitutto, il link deve essere indicato tipicamente in sottolineato (per convenzione),
menzionando il nome o la dicitura del collegamento ipertestuale, e collocando, a fianco e tra
parentesi, il tipo di file e la dimensione; sono da evitare forme del tipo “clicca qui”. Un esempio
di corretta scrittura del link è il seguente: Caratteristiche tecniche stirelle (pdf 1 MB).
Il collegamento ipertestuale è sicuramente un valido aiuto sia per chi deve spiegare/descrivere
qualcosa, sia per chi deve leggere/capire qualcosa, perché è un componente aggiuntivo e fornisce
un elemento in più rispetto alla mera descrizione. Tuttavia, un uso eccessivo può disturbare il
lettore, e addirittura infastidirlo, perché la presenza fitta di link sottolineati ostacola una lettura
scorrevole e veloce. In conclusione, se e quando si ritiene opportuno creare un link, è buona
norma:
• sottolinearlo;
• designarlo con il nome o il titolo appropriato;
• affiancarlo con una parentesi in cui sono inserite la tipologia di file (per esempio, word o
pdf) e la dimensione;
• scrivere il link su una sola riga;
• accertarsi della validità temporale e della veridicità dei contenuti del link.

SEO: l’importanza di fare la giusta scelta lessicologica


La rilevanza delle keyword
Risulta fondamentale per l’impresa, sia per accrescere il proprio fatturato, sia per acquisire
nuovi clienti o fidelizzare quelli già esistenti, avere un sito web aziendale ben posizionato sui
principali motori di ricerca. È necessario, quindi, che il motore di ricerca riconosca delle
keyword, parole chiave significative e illustrative del contenuto del sito, affinché il potenziale
cliente, digitando, per esempio, “articoli sportivi”, sia immediatamente indirizzato al sito stesso,
il cui link è in prima linea sul motore di ricerca. Per fare questo, una buona tattica può essere
quella di evidenziare in grassetto le parole chiave: in tal modo, infatti, il motore di ricerca riesce
a trovare e a posizionare il sito, consentendo al pubblico di visualizzarlo prima con molta più
probabilità. Come abbiamo già illustrato nei primi capitoli, la scelta delle keyword è
fondamentale ed è un processo lungo. Durante la scrittura di articoli e testi per il web, il
copywriter deve cercare di mescolare il testo corredandolo di parole chiave pertinenti, che siano
di aiuto sia ai motori di ricerca, sia agli utenti finali. Tutte le tecniche illustrate precedentemente
rimangono valide e vanno applicate con cura e creatività.

La fidelizzazione degli utenti


Sia per quanto riguarda i privati, sia per quanto riguarda le imprese, si spera sempre che l’utente,
una volta visualizzato il sito web, vi ritorni nuovamente, per leggere news, curiosità o stabilire
contatti, nel caso di privati (che magari aprono un blog), o per pubblicizzare e commercializzare
i prodotti, nel caso di un’azienda. Pertanto, ciò su cui si deve puntare, nel momento in cui si
decide di realizzare un sito web o di assicurarsi un incremento delle visite, è la fidelizzazione
dell’utente o potenziale cliente.
È importante, quindi, ottenere dati relativi agli utenti per cercare di rafforzare nel tempo