giovedì 2 aprile 2009

La Rete intasata dagli URL troppo lunghi

Sono ormai noti i vari stratagemmi che un web developer può adottare per rendere sempre più funzionale un sito. Sembra però che in questo campo si tenda a ignorare un fattore che in realtà appare addirittura ovvio: la lunghezza degli URL. Un recente articolo su o3 magazine analizza concretamente gli effetti di certe scelte implementative — e i vantaggi della loro ottimizzazione — proponendo alcune soluzioni.

Innanzitutto, si rinfrescano un po' le basi dell'accesso ai siti web: appena un browser visita una pagina, esegue una richiesta HTTP di tipo GET, la quale scarica il file principale eseguendo un'analoga richiesta per ogni oggetto presente (file CSS, script, immagini...). Dato che per ognuna di queste chiamate andrà specificato un indirizzo, più lunghi risulteranno gli URL, più grandi saranno i pacchetti contenenti la richiesta.

Per fare un esempio, mentre o3 magazine ha il file CSS al percorso ottimizzato /c/0.css, diversa è la situazione per TechCrunch, il cui foglio di stile si trova nel sotto-indirizzo /wp-content/themes/techcrunchmu/style.1238108540.css. Si è calcolato che, mentre per richiedere il primo CSS dobbiamo spendere 21 byte nella GET, la seconda richiesta risulta essere di ben 65 byte, ovvero si hanno circa 44 byte in sovrappiù. Considerando che la pagina principale di TechCrunch contiene altri 57 elementi da richiedere, e prendendo 44 come valor medio di byte sprecati, si ha un totale di 2508 byte di troppo, ai quali bisogna aggiungere gli 8008 dovuti ai 182 riferimenti HREF.

Assai peggiore la situazione di Facebook, il quale, eseguendo calcoli analoghi a quelli fatti in precedenza, si vede sprecare l'abnorme quantità di 783 GB in downstream e 469 GB downstream in una sola giornata, per questo futile motivo.

[fonte: programmazione.it]

Nessun commento:

Posta un commento