1:52 | by admin

Es muy buena idea para webmasters y personas a cargo de SEO de un sitio dedicarle unos minutos de su tiempo a revisar el blog de Google, donde suelen dar buenos consejos en cuanto a la producción de sitios “seo-friendly”. En su última entrada, Google nos propone tener nuestro sitio analizado por sus expertos, a fin de comprobar si están efectivamente diseñados para potenciar su posicionamiento en buscadores.

Durante un mes se podrán enviar los sitios para revisión a través de un formulario especialmente diseñado. Además es posible obtener algunos tips extra acerca de esta temática en una serie de artículos que se irán publicando en los próximos meses.

Algunos de los consejos más interesantes que se pueden extraer de las directrices para webmasters son los siguientes:

• La necesidad de tener los atributos y etiquetas alt actualizados y en forma. Estos son uno de los elementos más importantes que los crawlers toman a la hora de indexar una página. Esto incluye componentes muchas veces olvidados como títulos de links y otras tags dejadas de lado a menudo por los programadores.

• Incluir la mayor cantidad posible de información en las imágenes. Es conveniente considerar hasta el mismo nombre del archivo de la imagen como relevante. Es decir, es preferible “nuevo-ipod-nano” que “jjsd333.jpg”. Es conveniente, asimismo, recordar optimizar las imágenes para facilitar una mejor navegación. Esto no va a influir directamente sobre el posicionamiento en buscadores, pero ayuda a que el tráfico fluya. Sería muy frustrante realizar una serie de acciones tendientes a incrementar el número de visitas, pero echar a perder los resultados sólo porque el header del sitio es un bmp imposible de digerir.

• Los crawlers son como bebés de menos de un año. No pueden comer cualquier alimento. El formato texto es su alimento favorito, y particularmente preparado como HTML. Recordar esto al sentirnos tentados de incluir excesiva cantidad de contenido en Java, Action Script, Flash, y demás. Para evitar problemas, lo mejor es probar el sitio en Lynx. Este es un navegador en el que, el contenido del sitio, inclusive las tablas, son mostradas en formato de texto. Ideal para ver si algún contenido relevante se nos escapa al estar en formatos no admitidos por los crawlers.

• La corrección en general del código es mandatoria, incluyendo los enlaces rotos. Asimismo, se desaconseja el uso de páginas dinámicas. Esto es relativo, dado a la inmensa cantidad de sitios que utilizan esta tecnología de almacenamiento de datos, de la mano de bases de datos como MySQL y PHP. Este factor puede ser compensado si el resto del sitio se encuentra en condiciones prístinas.

Si hay alguien que sabe de Google, es Google mismo. Por eso, para asegurarnos de que no estamos yendo en contramano del mundo, en necesario recordar y practicar estas directrices para webmasters, y así asegurar las mejores prácticas.

Deja una respuesta

Usted debe estar conectado para publicar un comentario.