FTP | CCD | Buscar | Trucos | Trabajo | Foros |
|
Registrarse | FAQ | Miembros | Calendario | Guía de estilo | Temas de Hoy |
|
Herramientas | Buscar en Tema | Desplegado |
|
#1
|
||||
|
||||
Pienso que es totalmente indistinto hacer uso de cualquiera de las formas que indicas, realmente no veo ningún motivo evidente para recomendar una u otra práctica, ambas son buenas.
__________________
Saludos Emilio |
#2
|
|||
|
|||
Si un sitio web es grande, es logico separar las cosas por directorios, esto no hace necesariamente las cosas mas complicadas sino al contrario.
Es mas sencillo tener organizados los scripts por funcionalidad en distintos directorios que tener cientos de archivos todos mezclados en un mismo sitio. Independientemente de esto ultimo, sí se puede utilizar el sistema que comentas sin necesidad de tener directorios, tampoco es necesario tener archivos de script separados. Esto lo hacen varios gestores de contenidos. El truco esta en usar un unico script php por ejemplo index.php que recibira todas las peticiones de archivos no encontrados "Not found" y este script debe analizar la url recibida y ejecutar el codigo php necesario Normalmente se pone en el .htccess una directiva como: ErrorDocument 404 /index.php Esto hace que, por ejemplo, cuando alguien pide algo como: http://www.ejemplo.com/usuario/nuevo Al no existir la url realmente, el servidor web da un error 404 no encontrado, y ejecuta automaticamente el index.php de la raiz de la pagina web, ahora es este script el que se tiene que encargar de analizar la url recibida y realizar la accion necesaria, cargando el script apropiado o lo que sea. El gestor de contenido drupal utiliza este sistema, es una caracteristica que le llaman "clean_urls" , urls limpias: www.drupal.org Una ventaja del uso de urls limpias es que es mucho mas facil para los buscadores indexar las paginas de un sistio web, normalmente indexan muchas mas paginas. Por ejemplo si utilizamos una sintaxis del tipo siguiente para determinadas busquedas: http://www.ejemplo.es/buscar/titulo/titanic http://www.ejemplo.es/buscar/titulo/superman http://www.ejemplo.es/buscar/titulo/spawn Desde el punto de vista de los buscadores parecen distintas paginas estaticas, y normalmente las indexara todas. Otra ventaja de tener un index.php centralizado se refiere al control de la web, al tener un unico punto de entrada se puede realizar operaciones que afecten a toda la pagina web de una forma sencilla modificando unicamente el script de entrada, por ejemplo añadir calculos estadisticas, visitas etc , cambios de apariencia globales, control de accesos para denegar la entrada a toda la web a determinados usuarios o ips, y todo esto sin tener que incluir nada en todos y cada uno de los scripts de la web. Saludos Miguel |
#3
|
|||
|
|||
otra cosa que hay que tomar en cuenta es la seguridad, al mandar direcciones de este tipo : www.pagina.com/login.php?pass=password
es claro que podriamos tener algun problemilla en google hay mucha informacion sobre los metodos post y get para envio de variables en php, excelente para no enviar urls de ese tipo saludos |
#4
|
||||||||
|
||||||||
Hola,
Bueno. Primero de todo, muchas gracias por responder a mi inquietud. Cita:
Lo que sí habría que dilucidar es si se trata de algo más que una moda o una forma de lograr URLs más "limpias" o "agradables", porque, de ser así, tal vez habría que tomarse la molestia de aprender un poco más sobre el tema. Cita:
Cita:
Cita:
Sin embargo, también podría extrañarme de mi extrañamiento, porque cosas así ya he visto algunas, y porque tal vez la idea de hacerlo así y los resultados funcionen perfectamente. Cita:
Cita:
Cita:
Cita:
Bueno. Que muchas gracias a todos. Que habéis sido muy amables respondiendo y que voy a ver si puedo sacar algo y aun algos en claro de todo lo que habéis dicho. Que tengáis un buen día y una buena noche también. Gracias otra vez. |
#5
|
||||
|
||||
Respecto al uso de index.php, me gustaría comentar que muchas personas opinan que este tipo de front controllers no es adecuado y uno de los argumentos que dan es el de que el servidor http es ya un controlador que se encarga de dirigir las peticiones a las distintas páginas. Yo no estoy ni a favor ni en contra necesariamente de eso. También, dicho desde mi ignorancia, creo que es importante entender que no todo es una cuestión meramente de gustos. Por ejemplo, el método POST y el método GET, no son, o no deberían ser intercambiables; cada uno está pensado y diseñado para un fin específico. Hay algo que llaman REST, que parece ser importante leer antes de adentrarse en una moda de urls. Como digo, yo no es que esté muy al tanto de estos temas pero los comento porque son cosas con las que me he encontrado últimamente al buscar este tipo de temas.
// Saludos |
#6
|
||||
|
||||
Bueno, pues me he decidido meterme a esta conversación para dar algunos puntos de vista al respecto, aunque no estoy 100% seguro si no me he perdido al leerlo.
Siempre que he visto este tipo de URLs me ha entrado mucha curiosidad, como esta URL que nos dio dec Cita:
Código PHP:
Código PHP:
Código:
Array ( [scheme] => http [host] => www.ejemplo.com [path] => /buscar/cadena ) Código PHP:
Código:
Array ( [0] => buscar [1] => cadena ) Código PHP:
Esto es lo que estoy utilizando actualmente (desde hace una semana ) y supongo que podría mejorarse, si a alguien se le ocurre una mejor idea, que la ponga aquí y la examinamos. Actualmente todos los scripts los tengo en el directorio ./http/ de la carpeta raíz, para asi no tener un monton de archivos en la raiz del sitio y que estos estén mas ordenados. Código PHP:
|
#7
|
||||
|
||||
Cita:
Cita:
No le veo ventajas a lo otro y realmente me gustaría saber cuales son.
__________________
Saludos Emilio |
#8
|
||||
|
||||
Mick, creo que no entiendo bien todo lo que dices, a ver si me puede explicar con más amplitud las dudas que tengo sobre algunas cosas que nos comentas.
Cita:
Cita:
Cita:
Si a un buscador le pones en lugar de lo que dices http://www.ejemplo.es/buscar.php?titulo=titanic http://www.ejemplo.es/buscar.php?titulo=superman http://www.ejemplo.es/buscar.php?titulo=spawn también lo indexará como tres páginas ¿entonces cual es la ventaja? Cita:
__________________
Saludos Emilio |
#9
|
||||
|
||||
Cita:
http://www.ejemplo.com/temas.php?tarea=ver&id=1 que seria una url en donde los valores posibles de la variable $tarea puedan ser ver, crear y editar, luego en id colocas el tema a ver o editar, la verdad es que si los indexan los buscadores, pero uno de los problemas que causa (digo de los problemas porque no se si es el único o hay mas, además me he enterado por terceros) es con el caracter "&", pues se supone que algunos robots-spiders pueden ignorarlo, mismo caso se dá con los sitemaps de google que detectan como url no válida todas aquellas que tienen este caracter. (no me meto a hablar mas del tema porque la verdad que la mayor parte de el la desconozco). Pero con lo otro que dices: Cita:
Saludos. |
#10
|
||||
|
||||
Es bueno ver este tipo de temas por aqui... MUY raro de ver entre desarrolladores netos
Lo de la URLs como lo mencionas de hecho es algo brutalmente importante. Imaginate que de hecho, no muy conocido, las URLS estan basados en un estandar, como este: http://www.w3.org/Provider/Style/URI.html.es En la movida hacia la construccion en sitios Web estandares, hay varios frentes: 1- El diseño como tal (que ya mucho estan moviendo a uso de CSS) 2- El reconocimiento de otros navegadores, no solo web(como el usado por personas invidentes) 3- El mejor manejo del contenido 4- La mejor estructuracion de los sitios (URLs no solo limpias sino utiles!) 5- El movimiento a formato de consumo diferentes a paginas html (ej: rss) y otros temas y subtemas que hacen de construir un sitio web con todos los jugetes un verdadero reto... Sin embargo, ya que estoy metido de lleno en este tema realmente hay muchos beneficios. Un buen sistema de URLs, no solo limpias sino con sentido ayuda de forma importante a un buen posicionamiento en los buscadores. El punto es este: Los buscadores tienen que usar tecnicas para darle un puntaje a un sitio. Por ejemplo, como sable Google que el clubdelphi maneja buenos chistes? No sabe. Google es verdaderamente estupido, como todos los programas en existencia. Pero se pueden inferir cosas, como la popularidad de la pagina, o en este caso, que tan habil es quien opera un sitio. Sitio con URLS alocadas: Quien lo opera no es muy habil. De pronto no es tan buen sitio Sitio con URLS limpias: Tiene chistes malisimos, pero hacer eso implica un peludo que sabe como es la movida actual, mejor puntaje. Y tonterias como estas... eso se llama SEO...
__________________
El malabarista. |
#11
|
||||
|
||||
Hola Mamcx, ccreo que has tocado el punto exacto de este problema, ahora espero que no te molesto, tomaré nota de lo que has dicho y a ponerlo en práctica.
Saludos. |
#12
|
||||
|
||||
Disculpa mi ignorancia, ¿cuál es el punto exacto del problema? Yo de verdad ya no entiendo. En estos foros de vBulletin, los url son "sucios", según colijo de su nomenclatura; más sin embargo tengo entendido que están bastante bien indizados por google.
// Saludos |
|
|
Temas Similares | ||||
Tema | Autor | Foro | Respuestas | Último mensaje |
Interconectar BD Diferentes en SQL | erasmorc | SQL | 1 | 21-11-2005 23:24:30 |
Parametros al ejecutar Aplicaciones + Aplicaciones en Mi PC | NeWNeO | Varios | 4 | 19-08-2004 14:01:30 |
Diferentes alineaciones para diferentes parrafos | ciscu | Servers | 0 | 15-03-2004 10:36:12 |
Unión con diferentes tipos de dato | Kafu | Firebird e Interbase | 2 | 09-02-2004 13:20:45 |
TDecisionGraph con tipos de diagramas diferentes a barras verticales | HombreSigma | Gráficos | 0 | 05-11-2003 04:11:10 |
|