Sei sulla pagina 1di 3

Qualche giorno fa abbiamo introdotto alcune interessanti questioni riguardanti lottimizzazione, che puoi rileggere qui.

Oggi svilupperemo ulteriori punti di quel discorso, illustrando altri passaggi della SEO, e svelando quali possano essere i trucchi del mestiere. Avevamo interrotto la lunga lista dinterventi dopo aver parlato degli H1 tag. Un altro fattore da non tralasciare mai il contenuto. Originale, unico, ricco: esso un indice fondamentale della qualit del tuo sito. Ricorda che le pagine contenenti pi di 2400 parole sono quelle che Google ritiene migliori. Ma non scendere mai al di sotto delle 300 parole ti tutela abbastanza. 400/600 parole sono sufficienti per una pagina pi che accettabile. Webmaster Tools e Screaming Frog rivelano informazioni preziose circa la situazione dei link. Mai superare il tetto massino di 100 link per pagina. Per quanto riguarda gli anchor text, va detto che non bisogna mai esagerare con luso di anchor tex ricchi. Per ricchi intendo consistenti in parole chiave. Ogni tanto le formule del tipo clicca qui o approfondisci non guastano, perch si evita di gettare parole chiave in maniera insistente nel testo, rendendolo in alcuni tratti sovra-ottimizzato e poco user-friendly. Diciamo che tre link interni per ogni singola pagina rappresenta la quantit ideale. Per quanto riguarda le immagini, indispensabile che ognuna di essere contenga un ALT tag, che la descriva e che abbia in s una parola chiave rilevante. Evitare che il nome dellimmagine sia un numero o una stringa casuale: esso deve necessariamente essere descrittivo. Le dimensioni dellimmagine vanno impostate con attenzione, ed essa pu essere usata come un link, mettendola al posto di un anchor text. Un piccolo approfondimento sul tag rel=nofollow si rende ora necessario. Google ha introdotto questo tag per scoraggiare il traffico verso determinate pagine che non approva del tutto (pensiamo al traffico generato da commetti spam allinterno di blog, forum, ecc!). E una sorta di difesa contro i link in uscita di bassa qualit, che finiscono col danneggiare i siti buoni (blog, forum) poich il traffico che generano indirizzato verso siti non altrettanto buoni, anzi qualitativamente scarsi. I file robots.txt ti aiutano a impedire che le pagine vengano indicizzate, come fanno del resto i tag di non indicizzazione. Pagine con contenuti mediocri, duplicati o insufficienti, potrebbero aver bisogno di interventi di questo genere, per evitare la censura degli spider e la penalizzazione. E un po come renderle invisibili agli occhi del crawler. Sitemap in HTML o in XML, sottoposte al Webmaster Tools, ti riveleranno il grado di indicizzazione di ogni singola pagina del tuo sito, consentendoti di fare interventi mirati e integrativi.

I reindirizzamenti 302 vanno invece completamente evitati, perch rappresenterebbero il fallimento della SEO. Un reindirizzamento 301 permanente, invece, pu essere usato, ma con saggezza. Non ripeteremo mai abbastanza quanto sia pericoloso il contenuto duplicato. Un contenuto non originale, ma presente in altre pagine sul web, indice di scarsa qualit: Google lo disapprova moltissimo! Se ti accorgi della presenza di contenuti duplicati agisci, a seconda del caso, cos: modifica lURL; riscrivi i contenuti modificandoli quanto basta; fai un 301 redirect a un/a canonical page/site; implementa il rel:canonical tag per identificare la pagina fonte. La pagina canonica , in effetti, la versione preferita di una serie di pagine simili, ecco perch va in qualche modo individuata. Attenzione, adesso, ai broken link (link spezzati, corrotti, danneggiati). Uno strumento come XENU Link Sleuth pu aiutarti a correggere errori di questo genere. Attenzione, inoltre, ai codici di programmazione. Attieniti agli standard W3C, favoriti da Google. Ora passiamo a parlare della velocit di caricamento, essenziale per incrementare la qualit del sito. Pingdoms free speed text tool pu aiutarti a capire quanto sia veloce il tuo sito. Ridurre la dimensione delle immagini, operare sul browser caching, CSS Sprites per la combinazione di immagini se possibile, sono azioni preziose in caso di lentezza eccessiva. Accorpare i file CSS e quelli JavaScript, comprimerli e minimizzarli, sar un intervento in pi. Numero di link in entrata e loro qualit sono due fattori ulteriori da considerare. Open Site Explorer ti mostrer una panoramica di questo traffico. Poich i link che puntano alla homepage serviranno a ben poco, stai attento alle pagine di arrivo! Trusted domains (domini certificati) sono quelli pi autorevoli, da cui ricevere traffico valido, a differenza di domini scarsi o addirittura diffidati. Inoltre i link in entrata non devono mai provenire da un unico dominio, ma da una serie pi o meno lunga domini. Domain Authority uno strumento che, appunto, misura lautorevolezza di un dominio da 0 a 100, e ti aiuta a scegliere le migliori rampe di decollo per il tuo sito. Facebook, Twitter, Delicious, Pinterest e altri social network tra i pi quotati influenzano pesantemente il posizionamento. Clicca qui se vuoi informarti, per esempio, sulla crescente importanza di Facebook. Non omettere dinserire pulsanti di condivisione (share buttons) e contenuti meritevoli di essere condivisi: a dir poco fondamentale.

Infine sar utilissimo non limitarsi a monitorare il proprio sito, ma confrontarlo costantemente con i suoi competitori: potr essere ben strutturato e avere tutti i crismi, ma se i suoi competitori si dimostreranno pi efficaci sar difficile spuntarla in questa guerra per il posizionamento. Per oggi sembra essere tutto. Clicca qui se desideri farci domande.