Su linux per scaricare un intero sito non c’è bisogno di nessun programma particolare, possiamo farlo con il nostro fido wget, installato di default in quasi tutte le distribuzioni di linux.
Per usarlo basta aprire una shell(Terminale) e digitare questo comando tutto su un unica riga:
wget –recursive –no-clobber –page-requisites –html-extension –convert-links –restrict-file-names=windows –domains sitoweb.org –no-parent www. sitoweb.org/tutorials/html/
Questo comando scarica per intero il sito www.sitoweb.org/tutorials/html/
Ecco le opzioni spiegate:
- –recursive: scarica tutto il sito web
- –domains sitoweb.org: non andare a scaricare pagine al di fuori dell’indirizzo specificato sitoweb.org
- –no-parent: non andare in cartelle al di fuori del percorso specificato (nel nostro caso tutorials/html)
- –page-requisites: scarica tutti gli elementi necessari alla pagina (immagini, CSS, …)
- –html-extension: salva i file con l’estensione .html
- –convert-links: convert links so that they work locally, off-line
- –restrict-file-names=windows: modifica i nomi dei file affinché possano funzionare anche con Windows (noi Linuxiani possiamo farne a meno, ghghgh !)
- –no-clobber: non sovrascrivere file esistenti (si usa nel caso in cui si faccia un resume del comando).
Unica raccomandazione: non giocate troppo con i parametri, perché rischiate di scaricarvi Internet a casa
Fonte: bubbakk
utile, bravo.
veramente se scarica qualcosa, tip 2 file, puoi accendere un cero. Insufficiente.