Hoy han publicado un post en el Official Google Webmaster Central Blog donde nos dan varios consejos para mejorar la indexación de nuestras páginas a través de sus bots. Básicamente los tips se resumen en agilizar la tarea a las arañas de Google, indicándoles qué páginas pueden y no pueden ver; evitando crear distintas páginas dependiendo de los parámetros pasados por URL; y eliminar el contenido duplicado o utilizar la etiqueta canonical.
- Borra datos específicos de tus usuarios en las URL
Intenta eliminar de la URL los parámetros que no cambian el contenido de la página, por ejemplo, las sessions de usuario, que puedes meter en una cookie, o los filtros de las queries, como el SORT, que también puedes meter en una cookie. Una vez almacenada esta información en la cookie, puedes hacer una redirección (301) a la página original, de esta forma tendrás menos páginas con contenido similar pero con distinta URL. - Controla los links infinitos
Intenta no crear páginas que enlacen a cientos de páginas sin contenido. El típico ejemplo es un calendario con un botón de «Próximo mes», que puede pulsarse infinitamente. Con esto sólo conseguimos que las arañas de Google malgasten su tiempo y encima nos consuman más ancho de banda.
- Utiliza el fichero Robots.txt
Usa el robots.txt para indicar qué páginas no debe visitar el bot de google, como las páginas de login, formularios de contacto, carritos de la compra, etc.
- Evita el contenido duplicado
Utiliza el meta canonical en tus páginas para indicar la fuente original del contenido.
Más info | http://googlewebmastercentral.blogspot.com
[…] Optimiza la indexación en Google de tu página web – The n4gash Blog Tags: accesibilidad-web, cine, creative-commons, desarrollo-web, java, marketing-sem, opensource, promocionar-web, recursos-diseo, revista-digital, tutoriales, twitter-seo, videojuegos […]
[…] los botones Caché y Páginas similares y desde hace unos meses Google está probando los Rich Snippets, que permiten añadir más información social a los resultados de […]