viernes, 26 de septiembre de 2008

La importancia de código limpio en una página WEB

La manera de construir una página web puede repercutir sobre la capacidad de un robot para leerla e indexar sus contenidos, y, por lo tanto, puede afectar nuestro posicionamiento en Internet. Hay que imaginar que al robot solo le interesa el texto normal de nuestra página y que cualquier complicación, como Javascript, o Flash puede impedirlo en encontrar lo que busca.

Esto no quiere decir que abandonemos la idea de tener un sitio atractivo o fácil de manejar con el empleo de, por ejemplo, una navegación de javascript. Simplemente, hay que tener en cuenta que la simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano.

Puesto que el robot de un buscador lee una página de una manera parecida a una aplicación navegador, es fácil que se tropiece al encontrarse con un fallo en el código HTML. Los tag incompletos, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo. En estos momentos lo que suele pasar es que el robot dirá adiós y efectuará su salida.

Para evitar problemas, la mejor manera de crear nuestras páginas es escribir el código "a mano". Como las funciones WYSWIG de los editores HTML como MS FrontPage™ o Macromedia Dreamweaver™ suelen añadir líneas de código propias, es mejor no utilizarlas.

Otro consejo es el uso de un validator para comprobar que el código no tenga tag abiertos o incorrectos. Hay varios validator buenos y gratuitos disponibles en el internet. Él que utilizo yo es el de W3C (http://validator.w3.org) He encontrado este validator en español. Si alguien lo ha comprobado o conoce otro, que me envíe un email y lo publicaré aquí.

Fuente: http://www.1-en-buscadores.com

chicas con camara