BLOG DE WEBPOSITER

Los mejores amigos del SEO: Herramientas para webmasters de Google

Fecha: 07/08/2012 | Autor: María José Sánchez Valenzuela | En: Consejos SEO
1287369_60933722

Después de analizar las etiquetas metas esenciales para el SEO, estas próximas semanas abordaremos dos herramientas imprescindibles para todo webmaster o analista web, y ambas nos llegan por obra y gracia de Google: Webmaster Tools y Google Analytics.

Con las herramientas para webmaster, los de Mountain View ponen a nuestro servicio un «arma de destrucción masiva» de errores de rastreo e indexación. El buscador nos permite conocer así las incidencias que Googlebot detecta en nuestra página web y que limitan las posibilidades de éxito de nuestro posicionamiento en buscadores. Suena increíble, ¿verdad?

La política de Google pasa por indicar a los sitios lo que contraviene sus directrices, por dar pistas que nos permitan mejorarlos para sus motores de búsqueda, aunque generalmente sin aportar soluciones únicas, las cuales ya dependerán de las manos en las que caiga la información. Así lo demuestra una vez más con las Webmaster Tools, una serie de herramientas imprescindibles para conocer si nuestro sitio resulta «saludable» para Google y potenciar al máximo su visibilidad en Internet.

 

¿Por qué las herramientas para webmaster son la panacea para los errores de Googlebot?

Los que aún no hayan utilizado nunca las herramientas para webmasters de Google deberían saber que son la brújula que marca el rumbo de cualquier responsable técnico de una página web.

Cuando un sitio no logra el lugar que merece en las SERPs, lo primero que tenemos que analizar son las incidencias o errores en la información que estamos lanzándole a Google.

Nuestro sitio web puede ser muy superior al de nuestra competencia, puede ofrecer mejor información y servicios, más calidad pero… si el «rey de Internet» no lo sabe, ¿de qué nos sirve? Las visitas nunca aterrizarán en el site.

Si tu ROI está pidiendo a gritos «un rescate», las webmaster tools lanzan un salvavidas que te permitirá:

-Comprobar la indexación de las diferentes urls del sitio, la frecuencia de paso del robot de Google (Googlebot) y ajustar tus acciones a ello. Esta herramienta arroja estadísticas acerca de la indexación de nuestro sitio: Cómo lo indexa y qué errores detecta. En este sentido, si una página no está bien indexada, los buscadores no dispondrán de toda la información para poder valorarla y situarla en las SERPs; de tal forma que si para Google no existe, no estará aportando ningún beneficio al sitio y será trabajo baldío. :-/

-Enviarle a Google el sitemap o mapa de sitio de tu página web, donde le estás indicando las páginas que componen tu sitio y cómo está estructurado. Dichas páginas deberían estar organizadas jerárquicamente para ayudar a los robots y a los usuarios a buscar en nuestros contenidos. Un sitio sin sitemap es como un libro sin índice, así de fácil. Además, también estamos mostrando la autoría de esas páginas y los contenidos que las componen, de forma que si alguien nos lo copia, tomará el suyo como contenido duplicado en lugar de considerar el nuestro (como injustamente sucede a veces). *En caso de no disponer de uno, una alternativa viable podría ser incluir el feed RSS del sitio.

-Elaborar un archivo robots.txt y/o comprobar que es correcto. El robot.txt sirve para restringir el acceso a determinadas partes o archivos de un sitio por parte de los robots de los motores de búsqueda, y se elabora ad hoc para ellos.

Su creación no es obligatoria pero sí recomendable, porque permite otorgarle mayor relevancia a una información que puede mejorar nuestro SEO frente a otros archivos que podrían ser ignorados porque no aportan ningún beneficio al rastreo (e incluso podrían perjudicarlo). Antes de iniciar el rastreo del sitio, los robots buscan y consultan este archivo, por lo que una vez configurado dentro del panel de webmaster tools tenemos testearlo para garanzarnos que funciona correctamente.

- Conocer el tráfico de nuestra página web partiendo de las consultas de búsqueda recibidas, los enlaces internos y externos de nuestra web, así como los +1 obtenidos por nuestros contenidos.

- Controlar los enlaces entrantes e internos de la web.

-Descubrir las keywords que Google asocia a nuestra web y por las que muestra nuestro sitio en los resultados de búsqueda, así como la tasa de clics que obtenemos para esas palabras clave.

Desmontando Webmasters Tools: Métricas relevantes

Consultas: Palabras claves por las que Google muestra nuestra web, y por tanto por las que -mejor o peor- estamos posicionados dentro del buscador. Así conocemos qué palabras clave ha introducido el usuario para que Google muestre nuestro sitio en los resultados. Previamente, sus robots han clasificado nuestros contenidos dentro de esas categorías durante sus rastreos.

Impresiones: Se trata del número de veces que ha aparecido nuestra web en los resultados de búsqueda para una consulta concreta, es decir, la veces que Google ha mostrado nuestra web cuando otros han utilizado una keyword en cuestión, incluyendo su posición media, lo que no significa que hayamos obtenido visitas por ello, solo que Google le ha «sugerido» nuestra web en las consultas.

NO debemos confundir las impresiones con el número global de búsquedas con esa palabra clave -un error habitual-, ya que SOLO incluye las veces de ese global en que Google ha mostrado nuestra web en el ranking.

Cambios: En esta sección podemos seleccionar la opción «con cambios» para obtener una comparativa del dato actual con respecto al período anterior (si ha aumentado o descendido el porcentaje de impresiones, posición media, etc.).

Clics: número de veces que un usuario pincha sobre nuestra web en las SERPs.

CRT: El porcentaje de veces que pinchan sobre nuestra web en relación al número de veces que esta se muestra (impresiones) en los resultados. Cuanto más alto sea este porcentaje, más clics (ergo, visitas) estamos obteniendo en proporción al número de apariciones en los resultados. Esto también suele ser un indicador de que la página está bien optimizada, del mismo modo que la optimización de la misma puede aumentar este valor.

Posición media: Sería la media entre las diferentes posiciones entre las que ha fluctuado nuestra página en los resultados de búsqueda para unas palabras claves determinadas. Si vemos que ha cambiado mucho de posición, cayendo un porcentaje importante desde la última fecha, tendremos que REACCIONAR porque nuestra competencia ha movido ficha y ya no somos tan relevantes para el buscador por esos términos. Si nos interesa aparecer por dichas keywords, la nueva palabra clave en tu lista de objetivos es la OPTIMIZACIÓN.

Enlaces entrantes. Los backlinks son los enlaces desde otras páginas web hacia la nuestra, que en teoría implican una recomendación y por ello siguen siendo una de las patas del SEO. La estrategia para aumentarlos pasa por el linkbuilding o link bait. En este caso es importante analizar el texto ancla (anchor text) desde el que se apunta a nuestra página generando el enlace, el cual nos indicarán si estos enlaces aumentarán la relevancia de nuestro sitio dentro de nuestro nicho de mercado o son poco relevantes.

Los enlaces salientes son las páginas hacia las que nosotros enlazamos, «nuestras recomendaciones». Es muy habitual la compra e intercambio de enlaces, pero hay que huir de estas prácticas porque Google las penaliza.

Enlaces internos. A Google le gusta que nuestro sitio esté bien estructurado y vertebrado, esto implica que las páginas deben estar vinculadas entre sí en sus contenidos. Para potenciarlo, los contenidos de una página interna deben estar enlazados naturalmente hacia los de otra con la que estén relacionados. La coherencia es esencial.

Informes +1. Analiza cuántos +1 hemos recibido a través de Google + y el impacto en las búsquedas de estas recomendaciones.

Sitemap. Este subapartado de la optimización nos permite conocer cuántas páginas ha indexado del total que le hemos indicado a Google que tiene nuestra web. Si la indexación es baja deberíamos ver por qué no son accesibles a los robots, quizá el sitemap cuenta con un exceso de urls por página y debería dividirse en varias sucesivas, por ejemplo.

Eliminación de urls. Podemos indicarle al robot que determinadas páginas no deseamos que aparezcan en las SERPs, por ejemplo, páginas que son irrelevantes para nosotros y que no resultan atractivas para el usuario.

Mejorar HTML. Nos indica qué elementos de nuestras urls deberían optimizarse para mejorar su rendimiento y, por tanto, su posicionamiento: Metadescripción, etiquetas del título, páginas sin título, con título duplicado, demasiado largo, demasiado corto o con contenido irrelevante (no informativo), así como contenido no indexable.

Palabras clave de contenidos: Indica qué keywords considera Google que son más representativas para nuestro sitio, lo que influirá en las Impresiones que luego tengamos. En este listado aparecerán las palabras claves que el buscador vincula a nosotros en base a un análisis de nuestro contenido.

¿Cómo sacarle partido a estos datos y detectar oportunidades de negocio?

Después de ver mil datos sobre nuestra web, la pregunta ahora es… ¿realmente para qué me sirve todo esto? Detectar nuestros propios errores suena fantástico pero, además, podemos descubrir auténticas oportunidades de negocio para el website cuya, consecución empieza por SEO on page / off page.

Mi página tiene pocos clics, ¿cómo los aumento?

Esta es una pregunta habitual con la que se topan muchos consultores SEO cuando un webmaster lanza señales de humo SOS. Nos tememos que plantear algunas cuestiones básicas: ¿cuál es la posición media de mi página para las palabras clave relacionadas con mi sector? ¿Mis snippet resultan atractivos?…

a) Mejorar el posicionamiento en buscadores – Si no estás entre los primeros diez resultados / posiciones de Google, tus posibilidades de obtener visitas caen en picado porque pocos pasan de la primera página de Google y casi nadie de la tercera. ¿La solución? Optimizar mi página para buscadores y usuarios, porque ambos van de la mano. Pasó la época en que solo se miraba hacia los robots en SEO.

Si la web no es atractiva, el rebote se dispara; ¿de qué me sirve entonces la visita? La consecuencia es más grave que una oportunidad perdida, es una garantía de que no volverá a visitarnos.

Para la optimización para buscadores de nuestra página deberíamos seleccionar las palabras clave que aparecieran una posición media inferior (en otras palabras, podríamos seleccionar las 200 keywords que dispongan de mejor posición media, por ejemplo) y optimizar nuestras páginas valiéndonos de ellas: título, subtítulo, descripción, textos, snippet, url… En este apartado, no olvides tener cuidado con el keyword stuffing.

Si explotamos de forma inteligente esta táctica, lograremos mejorar nuestra posición en el ranking, a la par que aumentar los clics y visitas a nuestra web, al hacerla más atractiva y coherente con la búsqueda del usuario. ¡Todo ello se reflejará en el CRT!

¿Debo optimizar mi web para TODAS las 200 primeras palabras clave que indica webmaster tols? NO, solo las más interesantes para nuestro negocio y/o sector. Obvio, ¿no?

b) Optimización orientada a los clics – Posicionada la web, ahora hay que aumentar las visitas. El hecho de que nuestras impresiones sean altas lo único que nos está dando son MÁS oportunidades. Ese anuncio por palabras que es mi snippet se repite más veces y Google me está haciendo, en cierto modo, más «publicidad gratuita». Ahora bien, si aún anunciándome en prime time, no me visitan… la cosa se complica. ¡Hay que mejorar la oferta de contenidos! Entra en juego el title, la description, h1, h2, h3, body y, derivado de todo ello, el snippet será el objetivo último. No solo hay que incluir las palabras clave, hay que situarlas de tal forma que atraigan al visitante: Inbound marketing.

Pero… ¿cuál es la diferencia entre los datos arrojados por Webmaster Tools y por Google Analytics?

En el primer caso conocemos el proceso previo a la entrada en nuestra web, es decir, las palabras clave por las que nos han buscado y las veces en que Google muestra nuestra web o los clics que recibimos. En Analytics estudiamos las visitas una vez son efectivas y ya han ingresado en el website, es decir, el comportamiento del usuario una vez ha atravesado el pórtico de entrada. Por ello, ambas perspectivas son valiosísimas y estas herramientas se complementan entre sí a la perfección.

 

Artículos relacionados:

Los mejores amigos del SEO: El Title

Los mejores amigos del SEO: La Description

Los mejores amigos del SEO: La etiqueta rel=”canonical”

Los mejores amigos del SEO: Las palabras claves o keywords

SERVICIO RECOMENDADO
 
SOBRE EL AUTOR
Depto. Contenidos / Agencia Webpositer

NOS INTERESA TU OPINIÓN



Facebook

Webpositer
 Friday 11th of January 2013 07:20:21

Este artículo enlaza también con el de Google Analytics que complementa esta sección más analítica de una web. Un saludo y gracias por leerlos y comentarlos. :)

Payaso Biboba
 Thursday 30th of August 2012 08:38:32

me robaron más de 1000 €

  • Diagnóstico de penalizaciones
  •  
  •  
  •  
  • hace 16424 días
  •  
  •  
  • SEO (Optimización para buscadores)
    Optimización para buscadores
  • SMO (Optimización redes sociales)
    Optimización redes sociales
  • SEM (Marketing para buscadores)
    Marketing para buscadores
  •  
  • volver arriba