Hola compañeros!
Primero, creo que ese es el término para referirse a los robots de la Web (WebBots) ó "Spiders" ????
Voy directo al grano. La cosa es que administro un pequeño sitio en donde intercambiamos enlaces (
http://www.terramark-ip.com), la cosa es que ya estoy harto de estar metiendo cada enlace a mano, y más ahorita tengo como cincuenta que no he metido porque ese trabajo me parece aburrido y tampoco he tenido mucho tiempo. (algunos deben saber lo que implica hacer todo esto a mano)
Lo que ando buscando es hacer un sistema de automatización con PHP. Ya sé cómo hacer un sistema de registro de enlace conectados a una DB y cómo adnistrarlos y presentarlos en una página Web.
Ahora, invito a la señora "Complicación", o mejor, a la señora "Ignorancia" a que se haga presente: ¿Cómo puedo hacer un robot que verifique que el otro sitio tenga un enlace hacía mi sitio?
Y además, ¿Cómo puedo programar a un robot para que haga el checkeo de todos los sitios registrados para ver si éstos aún contienen un enlace hacía el mío? (Programar este checkeo semanalmente, por ejemplo. Tengo que recalcar que mi sitio está en un servidor compartido (1and1.com).
Les agradecería muchísimo cualquier ayuda al respecto. Ojalá esto sea un poco fácil y pequeño pues tengo planeado escribir código durante mis ratos libres.
Saludos.
PD.: Si el trabajo final vale la pena y puede ser de utilidad a alguien más, loo publicaré bajo GNU/GPL.