Rel=canonical e troncamento URL in SERP: la fine di un’epoca dolorosa?Forse ancora no…
E' passato un po' di tempo da quando ho scritto questo articolo.
Il mondo del digital è sempre in evoluzione e potresti trovare delle informazioni non più aggiornate.
La parte tecnica di un progetto SEO ha come elemento classico di ottimizzazione di un CMS la razionalizzazione della gestione delle URL: molto spesso, infatti i CMS hanno una gestione dei nomi delle pagine non proprio ottimali e ci si trova davanti alla necessità di dover effettuare interventi di modifica del CMS per poter raggiungere dei risultati.
Vi sono casi di CMS che, a causa della loro gestione delle URL, rendono i siti sviluppati su di essi impromuovibili o quasi (un modo lo si trova sempre … :-) ).
Ora però ci sono delle novità interessanti che probabilmente hanno cambiato l’approccio alla risoluzione del problema.
I due classici problemi delle URL su CMS
I due fattori che fanno spesso storcere il naso ai SEO sono:
1- URL che generano contenuto duplicato: molto spesso, infatti, i CMS fanno corrispondere più URL (query string comprese) allo stesso contenuto.
Casi classici di questa gestione possono essere:
- generazione dell’id di sessione;
- generazione dell’URL sulla base del percorso di navigazione;
- presenza incontrollata di redirect HTTP;
- pagine con listati di elementi ordinabili in modo diversi;
- Versioni stampabili delle pagine web;
Questo aspetto ha delle gravi conseguenza sul posizionamento, come ad esempio il crollo dei fattori qualitativi dei contenuti del sito, difficoltà del motore di ricerca di comprendere la struttura del sito e di estrarne poi l’ambito semantico dei contenuti, ecc.
2- URL troppo lunghe e prolisse: molti CMS generano un numero consistente di cartelle (in realtà solo cartelle virtuali), come ad esempio:
www.sito.com/nomesito/lingua/applicazione/controller/categoria/variante/nomeprodotto.html.
Le URL lunghe sono considerate un aspetto negativo per due ragioni:
- presentano maggiore rischio di non avere la parola chiave pertinente con il contenuto grassettata nella SERP, con un conseguente calo del CTR;
- possono fungere da deterrente per il click dell’utente, come dimostra una famosa ricerca di Marketing Sherpa.
Come si risolvevano questi problemi?
Fino all’anno scorso per poter risolvere questi due problemi si doveva intervenire alla radice: ovvero andando a impostare un percorso di navigazione per lo spider che fosse contraddistinto da URL corte e che identificassero univocamente i contenuti.
Tralasciando certe tecniche di SEO di basso profilo, come ad esempio i famigerati link sul footer a pagine SEO, il modo di approcciare il problema spesso necessitava di interventi massivi nel CMS andando in qualche modo a forzare la gestione delle URL, talvolta senza possibilità di successo: molto soldi spesi nello sviluppo, snervanti incontri e scontri gli sviluppatori dei CMS…insomma un lavoro davvero faticoso, con un ROI in molti casi davvero poco soddisfacente.
Le novità da parte di Google
In questo ultimo periodo Google ha fatto registrare più di qualche novità, che ha cambiato le carte in tavola, dando vita ad un possibile approccio diverso al problema della gestione delle URL.
1- rel=canonical: la prima novità datata febbraio, permette di poter indicare a Google, l’URL principale associata ad un contenuto attraverso il tag link, inserendo come proprietà del documento l’URL desiderata.
Questa novità, assieme ad altri piccoli opportuni accorgimenti, possono considerarsi una buona soluzione per poter risolvere, o limitare il fenomeno del contenuto duplicato causato dalle URL con un impatto sui costi di gran lunga inferiore rispetto alle soluzioni che si adottavano in precedenza.
2- accorciamento delle URL: l’altra novità, notata da qualche blog già qualche giorno fa, mostra come Google in questi ultimi giorni stia iniziando a troncare le URL lunghe, mostrando agli utenti nella SERP la porzione di URL più rilevante per la ricerca effettuata dall’utente.
Questo aspetto permette in qualche modo di limare e di attutire gli effetti negativi di URL lunghe nella SERP. Il motivo principale di questa novità è da ricondurre principalmente alla user experience: nelle nuove SERP viene evidenziato ciò che gli utenti ritengono più rilevante aumentando i CTR dei risultati potenzialmente più pertinenti.
Concludendo…
Grazie a queste ultime due novità di Google, con c’è la possibilità di poter limitare gli effetti di una cattiva gestione delle URL da parte del CMS. Ci tengo a sottolineare, però, che questi strumenti sono dei workaround ed in quanto tali dal mio punto di vista non rappresentano la soluzione ottimale.
Non bisogna solo prendere in considerazione la SEO in quanto tale per battezzare queste novità come la risoluzione dei problemi della gestione delle URL, ma bisognerebbe pensare anche alla User Experience.
URL prolisse, o duplicate, che non rientrano nel caso della classica struttura consigliata, ad esempio:
www.sito.com/categoria-1°livello/
www.sito.com/categoria-1°livello/categoria-2°livello/
www.sito.com/categoria-1°livello/categoria-2°livello/pagina-foglia.html
rappresentano un ostacolo per l’usabilità (vi consiglio questo alert-box “URL as UI” di Jakob Nielsen datato 1999 ma sempre molto attuale).
…insomma…Google ci sta dando una mano ma nella scelta o sviluppo di un CMS valutate ancora molto attentamente la gestione delle URL per avere il prodotto migliore ;-)