Ver Mensaje Individual
  #8  
Antiguo 04-05-2006
Avatar de Emilio
*Emilio* Emilio is offline
Capo
 
Registrado: may 2003
Ubicación: Palma de Mallorca
Posts: 2.635
Reputación: 10
Emilio Va por buen camino
Mick, creo que no entiendo bien todo lo que dices, a ver si me puede explicar con más amplitud las dudas que tengo sobre algunas cosas que nos comentas.

Cita:
Empezado por Mick
Si un sitio web es grande, es logico separar las cosas por directorios, esto no hace necesariamente las cosas mas complicadas sino al contrario.

Es mas sencillo tener organizados los scripts por funcionalidad en distintos directorios que tener cientos de archivos todos mezclados en un mismo sitio.
Totalmente de acuerdo.

Cita:
Empezado por Mick
Independientemente de esto ultimo, sí se puede utilizar el sistema que comentas sin necesidad de tener directorios, tampoco es necesario tener archivos de script separados. Esto lo hacen varios gestores de contenidos.
El truco esta en usar un unico script php por ejemplo index.php que recibira todas las peticiones de archivos no encontrados "Not found" y este script debe analizar la url recibida y ejecutar el codigo php necesario

Normalmente se pone en el .htccess una directiva como:

ErrorDocument 404 /index.php

Esto hace que, por ejemplo, cuando alguien pide algo como:

http://www.ejemplo.com/usuario/nuevo

Al no existir la url realmente, el servidor web da un error 404 no encontrado, y ejecuta automaticamente el index.php de la raiz de la pagina web, ahora es este script el que se tiene que encargar de analizar la url recibida y realizar la accion necesaria, cargando el script apropiado o lo que sea.

El gestor de contenido drupal utiliza este sistema, es una caracteristica que le llaman "clean_urls" , urls limpias: www.drupal.org
Entiendo que si se accede a una url no válida haya algo que lo gestione y se lo haga saber al visitante, por ejemplo http://www.clubdelphi.com/url-no-valida te muestra una página avisando del error, pero que tiene eso que ver con la forma de crear la url válidas de tu sitio?


Cita:
Empezado por Mick
Una ventaja del uso de urls limpias es que es mucho mas facil para los buscadores indexar las paginas de un sistio web, normalmente indexan muchas mas paginas. Por ejemplo si utilizamos una sintaxis del tipo siguiente para determinadas busquedas:

http://www.ejemplo.es/buscar/titulo/titanic
http://www.ejemplo.es/buscar/titulo/superman
http://www.ejemplo.es/buscar/titulo/spawn

Desde el punto de vista de los buscadores parecen distintas paginas estaticas, y normalmente las indexara todas.
Esto ya si que no lo entiendo.

Si a un buscador le pones en lugar de lo que dices

http://www.ejemplo.es/buscar.php?titulo=titanic
http://www.ejemplo.es/buscar.php?titulo=superman
http://www.ejemplo.es/buscar.php?titulo=spawn

también lo indexará como tres páginas ¿entonces cual es la ventaja?

Cita:
Empezado por Mick
Otra ventaja de tener un index.php centralizado se refiere al control de la web, al tener un unico punto de entrada se puede realizar operaciones que afecten a toda la pagina web de una forma sencilla modificando unicamente el script de entrada, por ejemplo añadir calculos estadisticas, visitas etc , cambios de apariencia globales, control de accesos para denegar la entrada a toda la web a determinados usuarios o ips, y todo esto sin tener que incluir nada en todos y cada uno de los scripts de la web.
Pues no me resultan muy convincentes esos argumentos, el uso de includes, te permiten todo lo que dices y además la ventaja de tener cada cosa en el fichero y directorio que corresponde, no obstante si hay algo que he pasado por alto para centralizarlo todo en un index.php me gustaría que me lo aclarases.
__________________
Saludos
Emilio
Responder Con Cita