Girando per il web si rischia di impazzire a furia di cercare le soluzioni migliori per ottimizzare il nostro sito web sui motori di ricerca. Ormai è un fatto certo che il rank di un sito web dipende da diversi fattori e anche dal CMS che si utilizza. Questa guida al momento rimane generica senza entrare negli specifici tools o plugin per CMS, ma ci occuperemo di accorgimenti generali.
- scelta del Dominio o dei Domini, durata nel tempo
- sono in molti a ritenere che la scelta del Dominio sia uno degli step fondamentali, ma è anche vero che la saturazione dei nomi a dominio ci porta spesso a non poter usufruire di ternini o combinazione di termini favorevoli (es. hotelroma.it), inoltre i più grandi del web utilizzano nomi a dominio “non convenzionali” come google, bing, ecc. Io direi che ove possibile è sempre positivo utilizzare termini attinenti alla propria attività, legando il tutto ad una ricerca mirata, utilizzando buon gusto ed originalità.
- Di recente effettuando alcune analisi sul rank di un sito web con un tool specifico, mi sono imbattuto in un suggerimento che riporto in quanto mi sembra essere in linea con quella “filosofia” che ha da sempre mosso il web, ovvero la durata della registrazione di un dominio. Il periodo prolungato di una registrazione di un dominio nel tempo indica stabilità ed affidabilità, sicuramente ne indica la volontà a mantenere il dominio attivo per un periodo più lungo rispetto alla media.
- scelta del server su cui posizionare il proprio sito web e delle tecnologie da utilizzare
- spesso quando si è ai primi passi, le scelte vengono effettuate un base a fattori anche comprensibili, economicità, semplicità, supporto nella propria lingua, ma lo sviluppo di un sito web in fase di produzione per realtà commerciali prevede alcuni accorgimenti e la scelta del server è fondamentale soprattutto per ragioni di sicurezza e comunque per avere una certa libertà e disinvoltura nell’utilizzo di determinate tecnologie (in questa guida si fa riferimento a server linux che utilizzano prettamente tecnologie open source)
- utilizzo di .htaccess
- attraverso il suo utilizzo possiamo effettuare una serie di operazioni di riscrittura sul server, le impostazioni sono molteplici, il suo utilizzo puo’ essere impiegato fondamentalmente per la riscrittura degli url dinamici e per alcune opzioni di protezione su cartelle ed aree riservate con protezione e password.
- utilizzo di SEF URLs e URL Rewriting (riscrittura degli indirizzi/link generati dinamicamente dal php)
- l’utilizzo di riscrittura degli indirizzi dinamici è sicuramente un passo fondamentale. Partendo dal presupposto che il linguaggio su cui si struttura e visualizza il web è l’HTML, si sviluppa una tecnica secondo la quale rendere un link dinamico (come quelli generati dal php) in una forma più “indicizzabile e favorevole” ai crawler è “cosa buona e giusta”. E’ anche vero che in molti sono i sostenitori del contrario, in quanto la chiave è da ricercare nei contenuti e come sono definiti.
- utilizzo del robot.txt
- un file di testo che ci permette di indicare ai crawler cosa scansionare e indicizzare e cosa no.
- lasciare che google indicizzi la nostra cartella immagini /images/ (a meno che non esistano ragioni specifiche per impedirglielo)
- spesso nel file robot.txt o in guide generiche troviamo Disallow: /images/ ovvero l’indicazione data al crawler di escludere la cartella /images/ dalla scansione e quindi indicizzazione. Il motore di ricerca per immagini di google è usato quasi quanto quello per contenuti, impedire quindi che le nostre immagini vengano inserite nel motore è sconsigliabile, a meno che non esistano ragioni ben precise per cui farlo.
- Usare Alt Tags e dimensionare le immagini ottimizzandole
- Utilizzare l’attributo Alt per le immagini equivale a definire un testo alternativo per le immagini, ricordiamo sempre che l’immagine è un file che il crawler individua come tale, a cui associando un attributo Alt testuale e descrittivo, indichiamo cosa contiene.
- L’ottimizzazione delle immagini è fondamentale per la velocità con cui si accede alle pagine e con cui l’utente deve confrontarsi in base alla propria connessione.
- Gestire ed ottimizzare i Meta Data
- Per favorire un’indicizzazione adeguata ai contenuti, i crawler in fase di scansione ed i motori poi, utilizzano per ogni pagina web una serie di meta data per definire: Title tag, Description Tag, Keyword Tag.
- Contenuti duplicati ed utilizzo del Tag Canonical
- l’utilizzo dei CMS e quindi la gestione dinamica dei contenuti produce una mole di link “superflui” da indicizzare (es. i link delle pagine multiple) per evitare che determinati continuti vengano indicizzati più volte, attraverso l’utilizzo del tag canonical rel=”canonical”
è possibile segnalare ai crawler quali link indicizzare.
- l’utilizzo dei CMS e quindi la gestione dinamica dei contenuti produce una mole di link “superflui” da indicizzare (es. i link delle pagine multiple) per evitare che determinati continuti vengano indicizzati più volte, attraverso l’utilizzo del tag canonical rel=”canonical”
- Velocizzare ed ottimizzare il proprio sito web
- è possibile testare la velocita di caricamento e di rendering delle proprie pagine web attraverso l’utilizzo di diversi strumenti, messi a disposizione dei browser stessi, per ottimizzare tutti i contenuti, al fine di renderli più leggeri e dinamicamente fruibili agli utenti.
- Ottimizzare la cache
- attraverso l’utilizzo di plugin e strumenti è possibile gestire ed ottimizzare la cache dei browser per snellire e velocizzare il caricamento delle pagine web ad utenti che ritornano sulle stesse pagine o sullo stesso sito.
- Utilizzare sistemi di compressione codice per ottimizzare le pagine e la loro velocità
- i CMS con il passare degli anni diventano vere e proprie strutture dinamiche a cui si agganciano una serie di applicativi assumendo per qualità e quantità dimensioni notevoli che possono assere gestite attraverso l’utilizzo di sistemi di compressione del codice e di razionalizzazione delle risorse.
- Utilizzare site map
- una tipologia di sitemap, quella logica da fornire all’utente per semplificare fin dalla Home Page la navigazione del sito web
- la sitemap nel formato sitemap.xml da fornire al crawler per indirizzarlo all’indice del nostro sito web. Questo tipo di sitemap è un vero e proprio indice dei link presenti.
- I contenuti presenti sul nostro sito web
- i contenuti sono il fulcro di un sito web, spesso ne rappresentano il motivo principale per cui nasce la necessità di realizzare il sito web stesso e quindi fondamentale curare, attraverso le regole canoniche, la loro redazione.
- Promuovere il sito web sui Social Media
- sono attraverso ogni loro peculiarità veri e propri cuscinetti fra il sito web, l’azienda e gli utenti. I social media hanno assunto nella loro diversità ruoli che gli utenti utilizzano in base a come questi vengono proposti, uno dei più comuni è il servizio di customer care (assistenza clienti) piuttosto che social marketing o gestione sconti attraverso coupon, ecc..
- l’estensione del dominio
- un dettaglio spesso trascurabile per alcuni, ma fondamentale per altri, è la fruizione di un dominio con più estensioni, ma allo stato attuale il peso di una scelta nella direzione di utilizzare più estensioni (es. miodominio.com miodominio.it miodominio.eu ecc.) puo’ mutare in base alle necessità aziendali, alle disponibilità economiche paragonate ai benefici tecnici che questa cosa comporta.
- I backlinks del nostro sito web
- i link entranti o collegamenti entranti direttamente ad una nostra pagina web (link) determinano la crescita del pagerank, di conseguenza maggiore e la loro qualità e quantità, maggiore sarà l’importanza che il crawler vi assegna
- Usa una favicon
- la favicon 16×16 32×32 64×64 è uno dei molti elementi tecnici che rientrano negli standard tecnici e logici da osservare quando si sviluppa un sito web
- Ottimizzare i contenuti per avere tempi di caricamento adeguati
- è fondamentale avere una organizzazione logica e non ripetitiva dei contenuti all’interno del sito web per evitare che link doppi con contenuti simili o identici possano essere declassati dal crawler (creare contenuti originali e formalmente corretti è buona norma, non copiare contenuti dal web in maniera integrale è consigliato in quanto è fortissimo il rischio di vedere il proprio link declassato).
- Ottimizzare i contenuti per i dispositivi Mobile
- il mobile ha sicuramente cambiato il web e le previsioni future lo vedono in forte crescita è ormai diventata buona norma ottimizzare i propri contenuti in funziona anche di dispositivi come smatphone e tablet.
- Non utilizzare contenuti in Flash
- la tecnologia Flash per il web è stata superata da nuove soluzioni che ne agevolano soprattutto la fruizione su dispositivi mobile, è consigliabile non utilizzare o utilizzare al minimo i contenuti in Flash sui siti web
- Non utilizzare contenuti in Frameset, Frames ed iframe
- i motori di ricerca e i loro crawler si muovono e si comportano come i vecchi browser testuali, per capire come questi funzionano è fondamentale navigare qualche sito web con uno come il classico Lynx. Il suo utilizzo vi permetterà di capire come i crawler saltano determinati tag, uno di questi è Frameset, Frames ed iframe. Ovviamente è opportuno strutturare il codice in modo far sapere al crawler dove può trovare quel contenuto che a priori sappiamo che salterà.
- Utilizzo di un blog
- il blog è considerato da molti come uno strumento utile ad instaurare un rapporto proficuo e diretto con l’utente, ovviamente deve avere dei contenuti ad hoc.
- Utilizzo di Google Analytics
- Utilizzo di Keyword Cloud
- Inserimento in Dmoz
- Utilizzo di una pagina Custom 404 error
- Rendere stampabile le pagine del nostro sito web
- Utilizzo di Conversion Form
- Lingue dichiarate
- Utilizzo di Microformat Semantic Markup
- Utilizzo Dublin Core
- Sicurezza delle pagine web
- Email privacy
- W3C validation