Si alguna vez necesita descargar un sitio web completo, quizás para verlo fuera de línea, wget puede hacer
trabajo, por ejemplo:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.web.org/tutorials/html/
Las opciones son:
--recursive: descargar todo el sitio web.
--domains website.org: no sigas enlaces fuera de website.org.
--no-parent: no seguir enlaces fuera del directorio tutorials / html /.
--page-requisites: obtiene todos los elementos que componen la página (imágenes, CSS, etc.).
--html-extension: guarda archivos con la extensión .html.
--convert-links: convierte enlaces para que funcionen localmente, fuera de línea.
--restrict-file-names = windows: modifique los nombres de los archivos para que también funcionen en Windows.
--no-clobber: no sobrescribir ningún archivo existente (utilizado en caso de que la descarga se interrumpa y
reanudado).
Aplicación:
$ cd ~/Descargas
$ mkdir web
$ cd web
$ wget --recursive www.web.org/tutorials/html/
Y eso sería todo.