Si alguna vez necesita descargar un sitio web completo, quizás para verlo fuera de línea, wget puede hacer
trabajo, por ejemplo:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.web.org/tutorials/html/
Las opciones son:
--recursive: descargar todo el sitio web.
--domains website.org: no sigas enlaces fuera de website.org.
--no-parent: no seguir enlaces fuera del directorio tutorials / html /.
--page-requisites: obtiene todos los elementos que componen la página (imágenes, CSS, etc.).
--html-extension: guarda archivos con la extensión .html.
--convert-links: convierte enlaces para que funcionen localmente, fuera de línea.
--restrict-file-names = windows: modifique los nombres de los archivos para que también funcionen en Windows.
--no-clobber: no sobrescribir ningún archivo existente (utilizado en caso de que la descarga se interrumpa y
reanudado).
Aplicación: $ cd ~/Descargas $ mkdir web $ cd web $ wget --recursive www.web.org/tutorials/html/ Y eso sería todo.
About the author