Este sitio utiliza cookies propias y de terceros. Si continúa navegando consideramos que acepta el uso de cookies. OK Más Información.

Cómo descargar una página web completa con HTTrack

  • 5 Respuestas
  • 3513 Vistas

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado 54NDR4

  • *
  • Underc0der
  • Mensajes: 68
  • Actividad:
    0%
  • Reputación 0
  • Mis Besos desencriptadores ven tu Codigo Fuente ♥
    • Ver Perfil
    • Email
« en: Marzo 22, 2013, 02:59:26 am »
HTTrack es una utilidad gratuita y de código abierto que nos permite descargar una página web completa para guardarla en nuestro equipo. Esto puede ser muy útil para poder consultar una web sin conexión a internet o para guardarla como copia de seguridad por si algún día cierra la web o desaparece un artículo que nos interesa.

HTTrack como hemos dicho es una aplicación gratuita y de código abierto disponible tanto para Windows como para Linux.

Para descargar la aplicación debemos acceder a su página web
( http://www.httrack.com/page/2/en/index.html ) y descargar el archivo que corresponda a nuestro sistema operativo ya seamos usuarios de Linux o de Windows.

En Linux la aplicación dispone de la posibilidad de ejecutarse desde un terminal por lo que podremos utilizarla también sin necesidad de interfaz gráfica. También dispone de una interfaz gráfica que facilita su uso y que se ejecuta desde el navegador de internet.



En primer lugar, en la parte derecha seleccionaremos el idioma que queremos establecer a la aplicación y pulsaremos sobre Next para continuar. En la siguiente pantalla nos preguntará por el nombre que queremos dar al proyecto. Seleccionaremos el que queramos y le asignaremos la categoría dónde lo queremos clasificar. También nos preguntará por la ruta donde queremos guardar nuestro proyecto.


Pulsamos sobre siguiente para continuar y nos preguntará por la web (o webs) que queremos descargar. Introducimos las URL haciendo click sobre el botón “añadir” o escribiéndolas directamente sobre el cuadro de texto que nos aparece. También posee la opción de cargar una lista de webs desde un archivo txt.


Una vez añadidas las páginas nos aparecerá de la siguiente manera


Pulsamos sobre siguiente para continuar y nos aparecerá una ventana de confirmación donde podemos elegir si descargar ahora la página o guardar la configuración para hacerlo más tarde. Seleccionamos descargar ahora y pulsamos sobre “comenzar”.


Comenzará a descargar la página.


Tras un tiempo de espera que dependerá del tamaño de la web que queremos descargar nos aparecerá una imagen de confirmación diciendo que la web se ha descargado con éxito.


Para acceder a la página web descargada no tenemos más que situarnos en la carpeta donde hemos especificado en el programa que se guarde y allí nos aparecerán los archivos descargados.


Con ejecutar el archivo html (en nuestro caso) ya podemos ver la página web sin necesidad de estar conectados a internet. Ideal para hacer una copia de tutoriales, por ejemplo.

Fuente: ADSLZONE

besos  :-*

Desconectado kr4n3

  • *
  • Underc0der
  • Mensajes: 15
  • Actividad:
    0%
  • Reputación 0
    • Ver Perfil
« Respuesta #1 en: Marzo 22, 2013, 08:26:45 am »
muchas Gracias

Desconectado zoro248

  • *
  • Underc0der
  • Mensajes: 242
  • Actividad:
    0%
  • Reputación 0
    • Ver Perfil
    • Email
« Respuesta #2 en: Marzo 22, 2013, 10:27:22 am »
Lo que se me hace raro es que pese mucho el archivo final

Desconectado baron.power

  • *
  • Underc0der
  • Mensajes: 290
  • Actividad:
    5%
  • Reputación 0
    • Ver Perfil
« Respuesta #3 en: Marzo 31, 2013, 09:40:43 am »
gracias, esta genial, saludos

Desconectado Typh0n

  • *
  • Underc0der
  • Mensajes: 22
  • Actividad:
    0%
  • Reputación 0
    • Ver Perfil
  • Skype: xtyphonx
« Respuesta #4 en: Enero 01, 2014, 01:29:09 pm »
Excelente, también pueden usar (wget)


wget -r http://www.abc.com


y se descargar la web de forma recursiva saludos ..

Desconectado Darvein

  • *
  • Underc0der
  • Mensajes: 36
  • Actividad:
    0%
  • Reputación 0
    • Ver Perfil
« Respuesta #5 en: Enero 01, 2014, 04:35:20 pm »
Excelente, también pueden usar (wget)


wget -r http://www.abc.com


y se descargar la web de forma recursiva saludos ..

+1
Es mucho mas cómodo el buen wget.
¿Ilusión o realidad?

 

¿Te gustó el post? COMPARTILO!



Como reparar tu PC (paso a paso) con CD

Iniciado por martinanonymo

Respuestas: 0
Vistas: 1569
Último mensaje Febrero 06, 2013, 10:07:50 am
por martinanonymo
Curso Multimedia Tutellus – Como Conseguir Trabajar desde Casa en Internet

Iniciado por larson32

Respuestas: 1
Vistas: 2603
Último mensaje Octubre 01, 2018, 01:22:23 pm
por Hacker fashion
[PDF] Web Hacking 101 en Español - Cómo hacer dinero hackeando éticamente

Iniciado por graphixx

Respuestas: 0
Vistas: 5633
Último mensaje Abril 29, 2017, 12:14:35 am
por graphixx
Cómo crear un servidor en DynDNS para acceder a FTP, VPN, o servidores Web

Iniciado por 54NDR4

Respuestas: 0
Vistas: 2473
Último mensaje Abril 01, 2013, 08:27:22 am
por 54NDR4
[LIBRO] HACKING ÉTICO: cómo hackear profesionalmente en 21 días

Iniciado por graphixx

Respuestas: 0
Vistas: 2497
Último mensaje Septiembre 21, 2015, 10:59:32 pm
por graphixx