viernes, 19 de noviembre de 2010

Anatomía de los buscadores!

Los buscadores cuentan con aplicaciones de software para realizar tareas específicas llamados spiders.
Generalmente, el "crawler" tiene una lista de URLs para visitar y almacenar los datos. 
Tienen la habilidad de seguir los enlaces,en las páginas web.
Lo primero que solicitan es el archivo robots.txt.
Los spiders funcionan con versiones de los navegadores muy básicas.
La funcionalidad de los spiders como Googlebot es que éstos visitan las mismas páginas,repetidamente.
Están en constante evolución y siempre adaptándose a los nuevos cambios

Mi mejor consejo: si tú o tu equipo está diseñando un nuevo sitio web o desarrollando uno existente, siempre ten en mente a los robots de los buscadores
 

No hay comentarios:

Publicar un comentario