Foros Club Delphi

Foros Club Delphi (https://www.clubdelphi.com/foros/index.php)
-   HTML, Javascript y otros (https://www.clubdelphi.com/foros/forumdisplay.php?f=38)
-   -   Descargar una web completa. Ayuda, por favor (https://www.clubdelphi.com/foros/showthread.php?t=39008)

Wonni 08-01-2007 16:28:23

Descargar una web completa. Ayuda, por favor
 
Hola :)

A la hora de descargar sitios web completos, con el programa WebCopier, todo parecia ir bien, pero en ocasiones surge un problemilla: Resulta que muchos links no funcionan, y estos son del propio dominio de la pagina que trato de descargar. Pero resulta que los archivos si estan en la carpeta donde he realizado la descarga, pero esos determinados links no funcionan. ¿Sabe alguien porque?, ¿Ha trabajado alguien con este programa?

Si conoceis algun otro programa mejor, por favor me lo haceis saber, ¿ok?



#saludos !!

mierda 08-01-2007 20:14:05

mira a ver este ...
 
Teleport pro ... a mi me parece bastante bueno

kayetano 09-01-2007 11:49:07

Hola

Yo utilizo "HTTrack Website Copier".
Por lo general todo aquel enlace que no sea directo, osea que se llame a través de javascript o culaquier otro sistema, no se descargará con ninguno de estos programas, al igual que los efectos de rollover con imágenes.

Wonni 09-01-2007 12:56:09

Gracias :)


He probado el Teleport Pro. Voy a ver el HTTrack. Pero efectivamente los javascript no se guardarn. ¿Porque? ¿No existe ningun programa que lo haga?



Saludos !!

kayetano 09-01-2007 13:06:01

Hola

Pues es posible que exista algún programa que descarge algunas páginas que se llamen por javascript, pero hay que tener en cuenta que hay muchas formas de cargar páginas desde javascript, además tambien pueden haber enlaces en menús Flash con lo que estarás en las mismas, los programas de descarga de webs no leen los enlaces en Flash.

Wonni 09-01-2007 15:09:00

He encontrado otro programa: BlackWidow.

En el sitio Web del programa especifica que es capaz de descargar la Web completa, incluidos javascripts, flash etc. . . .

El programa parece estar bastante bien. Primero se debe escanear el sitio. En diversas pestañas te indica la estructura del sitio, los links externos, los links rotos etc. . . .

Lo he estado probando con esta url: http://www.interhiper.com pero cuando ya lleva escaneados unos 50 directorios, más de 2000 archivos, se queda ahí colgado con un archivo y no termina el escaneo. La opción de descarga no se activa. Al parecer si no termina el escaneo, no se activa la opción de descargar.

Con el programa que yo he estado utilizando hasta ahora ( WebCopier Pro ), la Web que menciono en el párrafo anterior, la descargo y me ocupa unos 15 Megas. Como ya dije, muchos links fallan, ya que por ejemplo algunos son javascripts que muestran imágenes. El asunto es que en el escaneo realizado con el BlackWidow indica que lo que lleva escaneado son unos 90 Megas.

Pero, por desgracia no consigo bajar esta Web, que para mi era importante pasarla a un CD para un amigo.

Lo intentare con otra Web que tenga flash, java... y os cuento.



Saludos!!

Robert01 09-01-2007 22:21:32

Hola

podrías probar con Webzip

Creo que con este se puede bajar todo

saludos

Wonni 10-01-2007 01:10:04

Gracias Robert01 :)

He conseguido descargar la Web que tanta falta me hacia con el Webzip. Lo descarga todo, todo y todo :D y demás, te genera un informe muy detallado mostrando, entre otras cosas, todos los tipos de archivos que se han descargado.

Aparte de conseguir el propósito en cuestión, me ha gustado más que los otros en lo que se refiere a interfaz y modo de trabajo.

Gracias a todos por vuestra ayuda ;)


Saludos!!

Robert01 10-01-2007 01:28:26

Me alegra que hayas encontrado la solución.

Yo he bajado con ese programa sitios completos que me han sido de mucha utilidad.

saludos

Casimiro Notevi 10-01-2007 02:01:05

En Linux puedes usar wget, permite descargar webs completas, con sus enlaces internos o externos, muy potente, sencilla y open source.

jam 11-01-2007 16:16:22

Cita:

Empezado por Casimiro Notevi
En Linux puedes usar wget, permite descargar webs completas, con sus enlaces internos o externos, muy potente, sencilla y open source.

Tambien hay una versión para windows

Wonni 29-01-2007 16:32:36

En respuesta al privado de Deiv:

Para descargarse una sola pagina, con el propio WebZip puedes hacerlo. Creas una nueva tarea (new task) en las carpetas que ya trae el programa o en otra que tu crees ( mejor en otra que tu crees ). Despues, esa tarea la puedes configurar y decirle por ejemplo que solo descarge la pagina actual. Mirate bien las opciones de configuración. Por ejemplo, tipos de archivos (lo mejor es marcarlo todo).

Deiv, es mejor postear cualquier duda, ya que asi podra servir de ayuda a otros ;)


La franja horaria es GMT +2. Ahora son las 20:41:23.

Powered by vBulletin® Version 3.6.8
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Traducción al castellano por el equipo de moderadores del Club Delphi