Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
gsnews.it /algoritmi-dei-motori-di-ricerca/
Come ragionano i motori di ricerca? Quali sono le strategie da adottare in ottica SEO per migliorare il
posizionamento delle pagine nelle SERP?
RUBRICHE >> Internet >> SEO >> Algoritmi dei motori di ricerca
In questo articolo, voglio analizzare gli algoritmi dei motori di ricerca in ottica SEO. Google e gli altri “search
engine” utilizzano algoritmi per classificare le informazioni archiviate sulla base di determinati parametri, non tutti
noti. Questo processo permette di assegnare un valore ad ogni pagina web, valore che determina la posizione
della pagina nella lista dei risultati (SERP) dei motori di ricerca. L’obiettivo primario è quello di fornire risultati
che soddisfino pienamente le query effettuate dagli utenti. Un errore è però credere che Google, Yahoo e
Bing utilizzino un solo algoritmo, quando in realtà sono diversi. Ognuno di essi assolve ad uno specifico compito
e per questo è importante conoscerne almeno le principali caratteristiche e sfruttarle in ottica SEO. Non pretendo
di coprire l’argomento in maniera esaustiva, ma di dare delle linee guida da utilizzare per l’ottimizzazione dei siti.
Una risorsa molto importante da consultare è Search Engine Land, un portale sempre aggiornato sulle tematiche
SEO, SEM, motori di ricerca. Segnalo anche SEJ (Search Engine Journal). Entrambi i siti sono in inglese.
Dal 2015 Google sta usando un nuovo algoritmo basato sull’intelligenza artificiale, RankBrain, per aiutarsi nella
scelta del ranking dei propri risultato di ricerca. L’obiettivo è chiaramente quello di ottenere risultati più precisi e
che corrispondano esattamente alla query di ricerca. RankBrain è un algoritmo che viene soprattutto utilizzato
per interpretare le query di ricerca fatte dagli utenti su Google e tradurle in maniera efficace in modo da
individuare le pagine più adatte. Parlerò di RankBrain in un articolo separato: “Algoritmo RankBrain“.
Algoritmo Panda
Algoritmo introdotto da Google a fine febbraio 2011, giunto alla versione 4.2, allo scopo di penalizzare i siti a
bassa qualità, con contenuti duplicati o di spam, valorizzando allo stesso tempo siti web/blog che contengono
contenuti originali e di informazione. Le indicazioni SEO che se ricavano, al fine di evitare penalizzazioni da
parte di questo algoritmo, sono le seguenti:
Un altro consiglio è quello di assicurarsi che il contenuto della pagina web sia corrispondente alla parola chiave
attraverso la quale vogliamo farci trovare dai motori di ricerca. Se non lo fosse possiamo inserire una o 2 extra-
paragrafi che contengano la parola chiave stessa.
Algoritmo Penguin
Algoritmo utilizzato per verificare la qualità dei link in ingresso al sito, con l’obiettivo di penalizzare quei siti che
ottengono link in maniera non naturale. A settembre 2016 Google ha rilasciato la versione finale (4.0) inserendola
nel core dell’algoritmo di ricerca principale. L’algoritmo è ora in grado di valutare in tempo reale se un sito debba
essere penalizzato o, viceversa, se gli possa essere tolta la penalizzazione. Tutto questo è sicuramente molto
interessante, ma la domanda che mi sorge spontanea è: come facciamo a controllare tutti i links in ingresso
al nostro sito o blog, soprattutto se ha un traffico elevato e rimuovere quelli che ci possono penalizzare ?
Vi dico già subito che non esiste un sistema che in maniera automatica verifica i links e rimuove quelli “malevoli”,
ma o ci si rivolge ad una agenzia specializzata o ci si deve armare di pazienza. Il primo passo da compiere è
ovviamente quello di individuare i links “malevoli” ovvero quelli generati da noi attraverso tecniche di link
building aggressive oppure quelli che si ricevono in modo spontaneo da altri siti e che non riusciamo a
controllare. Un consiglio, fate questi controlli non appena il vostro sito o blog viene pubblicato o indicizzato o vi
troverete migliaia di links in ingresso “fuori controllo”. Dopo aver individuato tali collegamenti inserite in un file
2/7
(disavow file) la lista di tutte le URL in entrata da eliminare e comunicatelo a Google. La procedura da
utilizzare è ben indicata nella “Guida di Search Console” al seguente link: Rifiuto dei backlink .
Algoritmo Pigeon
Questo algoritmo è stato progettato per fornire risultati più pertinenti ed accurati nelle ricerche locali e l’obiettivo è
stato raggiunto integrando i risultati restituiti dalla ricerca classica con quelli di Google Maps. In passato
per cercare ad esempio una pizzeria in una località, si doveva inserire una parola chiave composta da “pizzeria”
+ “località”. Ad esempio in questi giorni ero a Marina di Bibbona per lavoro e avevo bisogno di trovare un locale
dove andare a mangiare una pizza. Ho acceso il mio portatile e digitato la parola chiave “pizzeria”. Il risultato,
che si commenta da solo, è stato questo:
utilizzare un “design responsive” in cui la pagina rimane la stessa (URL, HTMP, Immagini) per ogni
dispositivo ma cambia il CSS (la pagina viene formattata sulla base della lunghezza dello schermo).
Questo approccio è quello preferito da Google;
RESS/Adapting/Dynamic Server. L’URL rimane lo stesso ma il server invia una differente versione
dell’HTML e CSS sulla base del tipo di device che effettua la richiesta;
creare un sito mobile separato. Viene creato un sito che viene visualizzato solo per i dispositivi mobile,
normalmente inserito in un sottodominio o una sotto-directory. Se tale approccio permette di adottare sia
strategie SEO che di Advertising differenti, il lavoro da fare è praticamente doppio.
NB: se il vostro blog è realizzato con WordPress potete utilizzare il plugin “ Amp for Wp“.
Se volete verificare se il vostro sito è “mobile-friendly” è sufficiente effettuare il test che Google ha messo a
disposizione e che trovate al seguente indirizzo: test di compatibilità Google con i dispositivi mobile .
Algoritmo PageRank
Il PageRank è un algoritmo che fornisce un valore numerico, o rank, a ciascuna pagina web indicizzata e viene
utilizzato per misurarne la qualità, partendo da un valore zero per arrivare fino a 10. Il PageRank viene calcolato
conteggiando sia la quantità di link esterni in ingresso, sia valutandone la qualità, intesa come grado di
pertinenza rispetto all’argomento trattato.
4/7
Dal punto di vista SEO, per migliorare il valore del PageRank (aggiornato da Google ogni 3 mesi), occorre
puntare ad una strategia di link building corretta. Per maggiori informazioni leggete l’articolo “Google PageRank.
Algoritmo Hilltop
L’algoritmo Hilltop è stato sviluppato da Bharat e Mihaila presso l’università di Toronto e reso noto al pubblico nel
1999. Google ne ha acquistato il brevetto nel 2003 per correggere uno dei limiti dell’algoritmo di PageRank,
ovvero non distinguere link che arrivano da “pagine esperte” sull’argomento specifico (link rilevanti) o link che
arrivano da pagine importanti e prestigiose in generale ma che non sono rilevanti rispetto al contenuto della
nostra pagina web. Google utilizza questo algoritmo per l’ordinamento dei risultati sulla base della autorevolezza
di un sito o di una o più pagine web rispetto ad uno specifico argomento.
L’algoritmo Hilltop scarta tutte le pagine non autorevoli sull’argomento, correggendo i risultati derivanti dalla link
popularity e dal PageRank che invece prende in considerazione tutti i link esterni o backlink provenienti da
qualsiasi risorsa sul web. Agisce inoltre sullo spam generato dai link non rilevanti, riducendolo.
Punto di debolezza
Il punto centrale di Hilltop è dunque la determinazione delle “pagine esperte”, che però può essere visto anche
come punto di debolezza dal momento che è molto facile trovare pagine esperte su argomenti molto popolari (ad
elevato traffico), ma lo è meno nel caso di tematiche meno popolari o di nicchia, dove il rischio è di non riuscire a
trovare un numero adeguato di pagine esperte per un corretto ordinamento dei risultato.
Hilltop e SEO
Ai fini SEO dobbiamo fare in modo che la nostra pagina sia collegata a pagine pertinenti e rilevanti (“pagine
esperte”). Un modo possibile è quella di inserirla in directory ritenute esperte sull’argomento trattato. Un’altra
strada da percorrere in parallelo è quella di ottenere link da pagine web che a loro volta ricevano link di qualità da
pagine/siti ad alto rank.
Algoritmo di Stemming
Le tecniche di stemming sono studiate in informatica da oltre 40 anni e rappresentano uno dei metodi di base
per ridurre la dimensionalità dei documenti di testo. Ma che cosa si intende per Stemming ? Lo stemming è il
processo di riduzione della forma flessa di una parola alla sua forma radice, detta tema. Il tema non corrisponde
necessariamente alla radice morfologica (lemma) della parola: normalmente è sufficiente che le parole correlate
siano mappate allo stesso tema (ad esempio, che andare, andai, andò mappino al tema and), anche se
quest’ultimo non è una valida radice per la parola [fonte Wikipedia].
Questa definizione può sembrare chiara agli addetti ai lavori, ma proviamo a dirla in un altro modo. Stemming
deriva dall’inglese stem, che significa stelo. Lo stelo è un elemento sottile ed allungato con funzioni di sostegno e
collegamento (ad esempio gambo dei fiori). Nello stemming la radice di una parola viene considerata come uno
stelo da cui si diramano tutte le parole varianti, per cui alla radice vengono associate più parole.
5/7
l’inclusione di parole chiave simili. Questo è reso possibile dalla riduzione delle parole chiave alla radice
corrispondente. Se volete approfondire l’argomento vi consiglio un ottimo articolo scritto da Andrea Minini:
Algoritmo di Stemming.
creare gli articoli utilizzare un linguaggio naturale e comprensibile sia dagli utenti che dai motori di ricerca;
ottimizzare una pagina ai fini di una ricerca esatta. L’argomento trattato deve essere chiaro sia a chi ci
legge, sia agli spider dei motori;
all’interno delle pagine spaziare le parole che devono essere spaziate;
nei nomi, directory e file utilizzare sempre il separatore di parole classico (-) piuttosto che l’underscore (_)
ed evitare di scrivere le parole attaccate;
suddividere gli argomenti affrontati nel sito in cartelle nominate correttamente (non sempre applicabile);
inserire la parola chiave principale nel dominio, fornendo contenuti di qualità ed inerenti con l’argomento
indicato nella keyword, altrimenti il vostro dominio potrebbe essere considerato come SPAM.
Yahoo utilizza un algoritmo che valuta il contenuto del sito e la keyword density, penalizzando i siti che hanno un
valore di densità troppo alto (siti spam) o troppo basso (siti di scarsa rilevanza). Anche se sono poco propenso a
dare dei valori di riferimento, in alcuni articoli viene indicato come valore ottimale di keyword density nel corpo
della pagina attorno al 3%. Stesso valore per il meta tag keywords e description, che diventa 20% per il TITLE. Il
mio consiglio quando scrivete un testo è sempre il solito: non preoccupatevi delle percentuali, ma create
contenuti utili agli utenti e di facile lettura (scrittura naturale).
Bing è il portale di ricerca di Microsoft nato nel giugno del 2009 in sostituzione dei precedenti MSN e Live
Search. In termini SEO Bing da grande importanza ai meta tags ed alla posizione delle keywords nel testo
(keywords prominence). Bing dà maggior peso alle parole chiave più in alto nel testo. Altri fattori di
posizionamento SEO sono:
età del dominio (più è vecchio e più sarà rilevante). Una delle strategie da utilizzare in questo senso è di
acquistare domini già esistenti;
parola chiave principale nel dominio;
presenza della parola chiave nel tag TITLE;
contenuti di qualità e lunghi almeno 300-500 parole per pagina;
struttura della pagina web, in modo che sia facilmente navigabile (utilizzo tag H1, link building interna,
“breadcrumps” e URL semplici e non lunghi);
codice del sito pulito e che rispetti la validazione HTML (W3C);
link in entrata ed in uscita. Bing dà meno peso alla link building rispetto a Google. Tuttavia una buona
strategia di “link in ingresso” può essere utile, soprattutto se le pagine web da cui arriva il collegamento
contengono la parola chiave del vostro sito nel tag TITLE. Bing considera invece maggiormente i link in
uscita dal proprio sito, purchè i siti web esterni a cui viene indirizzato il collegamento siano ritenuti
rilevanti, oltre che utili ai fini di un approfondimento del contenuto della vostra pagina. In ogni caso sia che
ottimizzate per Google che per Bing cercate di linkare siti considerati autorevoli.
utilizzo di segnali social. La condivisione social influenza direttamente il posizionamento delle pagine
web nella SERP del motore di ricerca di Microsoft;
6/7
Bing e l’Adaptive Search
A partire dal 2011 il motore di ricerca di Microsoft sta utilizzando un tipo di approccio chiamato Adaptive Search,
con l’obiettivo di risolvere il problema dovuto all’ambiguità dei termini utilizzati nella ricerca. Parole identiche
possono avere infatti diversi significati. Come può allora un motore di ricerca capire quello che effettivamente
stiamo cercando? Semplicemente, ma non troppo, sulla base delle ricerche che sono state effettuate
precedentemente da uno stesso utente. Ogni volta che effettuiamo una ricerca con Bing, l’informazione fornita
aiuta il motore stesso a capire cosa stiamo cercando. Più effettuiamo ricerche e clicchiamo su un certo risultato,
più Bing impara e può usare queste informazioni per fornirci le risposte più attinenti, che vengono visualizzate in
maniera più evidenziata rispetto alle altre.
Dal punto di vista SEO, appare chiaro che Bing Adaptive Search ha la capacità di influenzare il traffico verso il
vostro sito. Supponiamo ad esempio che vendiate solo attrezzature per il golf e che siate ottimamente posizionati
per questo termine. Può succedere che dopo un certo periodo di tempo diventi chiaro a Bing che alcuni utenti,
digitando la parola chiave golf, siano interessati alle news sul golf e non all’acquisto della attrezzatura. Bing
modificherà allora i risultati delle SERP per questi utenti, con il risultato che il vostro sito verrà scavalcato nel
posizionamento dai siti di news sul golf.
Verrete invece favoriti nel posizionamento per quegli utenti che ricercano, con la keyword golf, le attrezzature per
questo sport.
Riassumendo l’algoritmo adaptive search ha come obiettivo quello di fornire una lista di risultati rilevanti per
l’utente, sulla base delle ricerche effettuate da ogni utente. Quindi personalizzare le SERP attraverso le
esperienze di ricerca.
Questo articolo sugli “algoritmi dei motori di ricerca” è stato pubblicato in data 7 luglio 2016. I diversi algoritmi
vengono aggiornati di frequente, per cui alcune delle informazioni che troverete potrebbero cambiare. Sarà mia
cura mantenere il più possibile attuale questo articolo, anche attraverso degli approfondimenti.
7/7