PDA

Ver la Versión Completa : Descargar una web completa. Ayuda, por favor


Wonni
08-01-2007, 16:28:23
Hola :)

A la hora de descargar sitios web completos, con el programa WebCopier (http://www.maximumsoft.com/), todo parecia ir bien, pero en ocasiones surge un problemilla: Resulta que muchos links no funcionan, y estos son del propio dominio de la pagina que trato de descargar. Pero resulta que los archivos si estan en la carpeta donde he realizado la descarga, pero esos determinados links no funcionan. ¿Sabe alguien porque?, ¿Ha trabajado alguien con este programa?

Si conoceis algun otro programa mejor, por favor me lo haceis saber, ¿ok?



#saludos !!

mierda
08-01-2007, 20:14:05
Teleport pro ... a mi me parece bastante bueno

kayetano
09-01-2007, 11:49:07
Hola

Yo utilizo "HTTrack Website Copier".
Por lo general todo aquel enlace que no sea directo, osea que se llame a través de javascript o culaquier otro sistema, no se descargará con ninguno de estos programas, al igual que los efectos de rollover con imágenes.

Wonni
09-01-2007, 12:56:09
Gracias :)


He probado el Teleport Pro. Voy a ver el HTTrack. Pero efectivamente los javascript no se guardarn. ¿Porque? ¿No existe ningun programa que lo haga?



Saludos !!

kayetano
09-01-2007, 13:06:01
Hola

Pues es posible que exista algún programa que descarge algunas páginas que se llamen por javascript, pero hay que tener en cuenta que hay muchas formas de cargar páginas desde javascript, además tambien pueden haber enlaces en menús Flash con lo que estarás en las mismas, los programas de descarga de webs no leen los enlaces en Flash.

Wonni
09-01-2007, 15:09:00
He encontrado otro programa: BlackWidow (http://www.softbytelabs.com/).

En el sitio Web del programa especifica que es capaz de descargar la Web completa, incluidos javascripts, flash etc. . . .

El programa parece estar bastante bien. Primero se debe escanear el sitio. En diversas pestañas te indica la estructura del sitio, los links externos, los links rotos etc. . . .

Lo he estado probando con esta url: http://www.interhiper.com (http://www.interhiper.com) pero cuando ya lleva escaneados unos 50 directorios, más de 2000 archivos, se queda ahí colgado con un archivo y no termina el escaneo. La opción de descarga no se activa. Al parecer si no termina el escaneo, no se activa la opción de descargar.

Con el programa que yo he estado utilizando hasta ahora ( WebCopier Pro (http://webcopier.softonic.com/ie/31401) ), la Web que menciono en el párrafo anterior, la descargo y me ocupa unos 15 Megas. Como ya dije, muchos links fallan, ya que por ejemplo algunos son javascripts que muestran imágenes. El asunto es que en el escaneo realizado con el BlackWidow (http://www.softbytelabs.com/) indica que lo que lleva escaneado son unos 90 Megas.

Pero, por desgracia no consigo bajar esta Web, que para mi era importante pasarla a un CD para un amigo.

Lo intentare con otra Web que tenga flash, java... y os cuento.



Saludos!!

Robert01
09-01-2007, 22:21:32
Hola

podrías probar con Webzip (http://webzip.softonic.com/ie/4872)

Creo que con este se puede bajar todo

saludos

Wonni
10-01-2007, 01:10:04
Gracias Robert01 :)

He conseguido descargar la Web que tanta falta me hacia con el Webzip (http://webzip.softonic.com/ie/4872). Lo descarga todo, todo y todo :D y demás, te genera un informe muy detallado mostrando, entre otras cosas, todos los tipos de archivos que se han descargado.

Aparte de conseguir el propósito en cuestión, me ha gustado más que los otros en lo que se refiere a interfaz y modo de trabajo.

Gracias a todos por vuestra ayuda ;)


Saludos!!

Robert01
10-01-2007, 01:28:26
Me alegra que hayas encontrado la solución.

Yo he bajado con ese programa sitios completos que me han sido de mucha utilidad.

saludos

Casimiro Notevi
10-01-2007, 02:01:05
En Linux puedes usar wget, permite descargar webs completas, con sus enlaces internos o externos, muy potente, sencilla y open source.

jam
11-01-2007, 16:16:22
En Linux puedes usar wget, permite descargar webs completas, con sus enlaces internos o externos, muy potente, sencilla y open source.
Tambien hay una versión para windows

Wonni
29-01-2007, 16:32:36
En respuesta al privado de Deiv:

Para descargarse una sola pagina, con el propio WebZip puedes hacerlo. Creas una nueva tarea (new task) en las carpetas que ya trae el programa o en otra que tu crees ( mejor en otra que tu crees ). Despues, esa tarea la puedes configurar y decirle por ejemplo que solo descarge la pagina actual. Mirate bien las opciones de configuración. Por ejemplo, tipos de archivos (lo mejor es marcarlo todo).

Deiv, es mejor postear cualquier duda, ya que asi podra servir de ayuda a otros ;)