Ogni tanto, può risultare utile, scaricare un intero sito web sul proprio computer, per renderne disponibile la consultazione offline.
Scaricare un sito web è veramente semplice se si possiede un sistema linux like, infatti tutti i sistemi linux sono dotati del potentissimo tool “Wget”.
Passiamo alla pratica. Questo è il codice da eseguire in un terminale (ctrl + alt + t):
wget -k -r -p -D sitoweb.it --restrict-file-names=unix http://www.sitoweb.it/sito/
E, adesso, capiamo cosa significano tutti gli argomenti che abbiamo dato in pasto a wget.
-k (o --convert-links):
questo argomento fa si che, alla fine del processo di download, tutti i links alle pagine siano convertiti a links relativi, in modo da permettere la navigazione offline;-r (o --recursive):
questo argomento permette il download – in gergo – di tipo ricorsivo, così da scaricare sicuramente l’intero sito web;-p (o --page-requisites):
questo argomento permette di scaricare anche ciò di cui si ha bisogno per visualizzare correttamente la pagina (fogli di stile,immagini, javascripts eccetera eccetera);-D (o --domains):
questo è un argomento importantissimo, per non ritrovarvi la macchina piena di pagine web inutili: scarica soltanto i links interni al dominio (o ai domini, separati l’un l’altro da una virgola) da voi specificati, in genere si usa quello del sito stesso;--restrict-file-names:
altro argomento importante, permette di modificare i nomi dei files così da non andare in contrasto con il sistema operativo che state usando. I possibili parametri sono unix (se dovrete visualizzare il sito su un sistema Unix) o windows (se dovrete visualizzarlo su Windows).- L’ultimo parametro, come avrete capito, è l’url del sito web che andrete a scaricare.
Ovviamente per poter scaricare un sito dovrete cambiare “sitoweb.it” e “sitoweb.it/sito/” con l’url del sito che volete scaricare.
Lasciate eseguire il comando e poi troverete nella vostra “home” una cartella ( www.sitoweb.it ) con all’interno tutto il materiale per la visualizzazione online…