URL lunghe e complesse, numero di parametri e sessioni

September 25th, 2007 by marcofontebasso Leave a reply »

Numero dei parametri

Iniziamo questo percorso di approfondimento dei temi principali dei capitoli del libro da un esame più puntuale della struttura delle URL dei siti e il loro rapporto con l’attività di SEO e la possibilità di posizionarsi in modo efficace su Google e più in generale sui motori di ricerca.

Uno degli aspetti più dibattuti da sempre nell’ambito del SEO e del SEM è proprio la “questione URL”, ovvero il numero e la tipologia dei parametri accettabili, e la necessità di mantenere URL brevi e leggibili.

Fino a pochi anni fa, nella breve ma significativa storia dei motori di ricerca, i siti dinamici e le URL complesse erano una sorta di nemesi, il nemico n°1 del SEO; ed infatti troverete ancora on-line tantissimi articoli che trattano i temi dell’URL rewriting e dell’uso efficace dei programmi di paid inclusion e feed submission per ovviare al problema della mancata indicizzazione.

Per questo si parlava della presenza di “stop sign” nelle URL, ovvero di tutti quegli elementi che suggerendo la presenza di contenuto dinamico bloccavano la visita dello spider, nascondendo in pratica il contenuto in questione, quando non l’intero sito dalla visita nel motore.

Ad un certo punto nella naturale evoluzione dei motori di ricerca, ci si è resi conto che la tradizionale definizione di “documento” per cui solo la pagina completamente “statica” rispondente ad uno specifico ed univoco file su file system era considerata indicizzabile creava pesanti limitazioni; si è quindi iniziato a lavorare per indicizzare contenuti dinamici.

Uno dei principali motivi per cui inizialmente Google in primis non indicizzava contenuto dinamico era per il timore dell’overload dei server su cui questi contenuti erano ospitati. Terminato anche questo timore, si è iniziato ad accedere a questi grandi DB di contenuti, ed anche su questo tema Google è stato pioniere.

Pertanto oggi la dinamicità dei siti e delle URL di per sé non costituisce un ostacolo di alcun tipo alla possibilità di ottenere un buon posizionamento sui motori; anzi molti sostengono che proprio per la maggior facilità di aggiornamento, per la tendenza ad avere più contenuto e un DB di informazioni utili, un sito “dinamico” sia in senso astratto potenzialmente più facile da posizionare di uno completamente statico.

È consigliabile, in senso generale, cercare di limitare il numero di parametri presenti nelle URL, quanto meno nella porzione di sito che intendiamo valorizzare al massimo sui motori ad un massimo di 3, in quanto test condotti sulle SERP hanno condotto alla convinzione diffusa che sino a 3 parametri non si riscontrino effetti di alcun tipo sull’efficacia nel ranking; è anche vero che un numero maggiore di parametri spesso indica una erogazione del contenuto sul front-end del sito piuttosto complesso, oppure una profondità di navigazione particolare. In entrambi i casi ci potremmo trovare in presenza di altre “controindicazioni SEO” e dunque la “regola del 3” va presa con il dovuto beneficio d’inventario trattandosi di una regola puramente empirica.

Queste considerazioni sono evidentemente fondamentali in fase di progettazione della propria presenza su web, guidandoci nella scelta di dettagli dell’architettura del sito su cui sarà poi più difficile tornare in seguito una volta ultimato lo sviluppo e pubblicato il progetto.

Può anche essere di indicazione nel momento in cui progettiamo una navigazione per directory/tassonomica oppure che rendiamo accessibile il contenuto attraverso un “sistema” di ricerca di cui vogliamo poi indicizzare i risultati; il numero di parametri attraverso il quale ricercare infatti, può essere molto spesso snellito se poniamo attenzione alla correlazione fra i parametri.

Partendo dal presupposto di lavorare su di un sito esistente, e dunque con un DB di informazioni e contenuti pre-esistente rispetto all’attività di SEO, invece, ci si pongono solitamente diversi problemi, legati alla lunghezza, alla complessità delle URL, al numero di pagine che vogliamo rendere indicizzabili, ed ai parametri necessari per comporre degli indirizzi validi ma anche per creare il contenuto (inclusi i meta-tag rilevanti per ciascuna “pagina”).

Sarà ad esempio possibile ristrutturare, accoppiare e legare parametri, in modo da condensarne il numero, oppure in caso davvero il numero sia eccessivo, procedere con operazioni di URL re-writing (diverso lo scenario se operiamo per esempio su webserver Apache oppure Windows/IIS).

ID di sessione

Diverso è il problema per quanto concerne i session_id. Non si tratta semplicemente di un problema legato alla loro presenza o meno nella URL, ovvero il passaggio in GET dell’id di sessione, in quanto lo spider block si può verificare, nel caso il nostro front-end gestisca questo dato, sia che lo passiamo in quel modo sia che lo posizioniamo in un cookie.

Il problema dell’id di sessione infatti si può presentare in entrambi i casi, con sintomi leggermente diversi, ma evidentemente con la medesima causa; l’anedottica riscontrabile anche nei siti e nei forum specializzati si concentra sul problema della ottimizzazione SEO di siti realizzati con i prodotti della famiglia Broadvision.

Il problema “reale” è che lo spider non è in grado di accettare il cookie per tenere l’id della sessione, ma anche la soluzione alternativa è in grado di crearci problemi; infatti, qualora l’id venga posto in GET nella URL quello che succede è che lo spider accederà al sito, registrerà le URL che però non potranno mai generare storico ed età, in quanto ad ogni passaggio e processo di indicizzazione le URL saranno nuove (nuove sessioni).

Questo tipo di impasse si risolve o affrontando il problema alla radice, oppure trovando dei workaround, delle soluzioni posticce per “bloccare” parte delle URL, rendendole accessibili senza la richiesta di un ID sessione, ma la sola attribuzione una volta che la navigazione viene proseguita.

Così facendo si può aggirare l’ostacolo, creando una struttura di link, prevalentemente esterna, che valorizzi i punti che abbiamo reso accessibili e indicizzabili allo spider; a quel punto il punto da tenere ben presente è quali keywords scegliere come target delle pagine così indicizzate, in quanto difficilmente potranno competere su aree troppo competitive.

Be Sociable, Share!
Advertisement

Leave a Reply