Posicionamiento SEO avanzado: Una auditoría en profundidad

No Comments

Si bien en anteriores artículos ya vimos cómo realizar una auditoría SEO en 5 minutos o también cómo calificar el posicionamiento de una página en 10 minutos, en este artículo vamos a ver como realizar una auditoría en profundidad de nuestro propio sitio web (o un sitio web al que nos den acceso). Por supuesto, este artículo entra dentro de lo que podríamos llamar artículos de posicionamiento SEO avanzado, por lo que a lo mejor deberías recurrir a una consultoría de posicionamiento profesional.

Posicionamiento SEO avanzado: Una auditoría en profundidad

Posicionamiento SEO avanzado: Una auditoría en profundidad

1. Comprobar enlaces rotos con Screaming Frog

Podemos usar Screaming Frog para rastrear todas las URLs del sitio y comprobar su integridad. Todos los enlaces que devuelvan un código 404 deben ser cambiados o borrados.

2. Comprobar la integridad del Sitemap

Debemos comprobar que contiene todas las páginas del sitio que queremos que los buscadores encuentren. Para hacer esto podemos utilizar la herramienta Xenu Link Sleuth.

Tenemos dos opciones: una es seguir este protocolo para comprobar nuestro sitemap actual. La segunda opción es generar un nuevo sitemap, preferiblemente una vez que hayamos terminada todo el proceso de auditoría y hayamos realizado todos los cambios.

3. Comprobar los errores 404 en Google Search Console (Webmasters Tools)

Lo haremos en la opción de Rastreo > Errores de rastreo. Aquí encontraremos todas las páginas que Googlebot ha intentado rastrear y se ha encontrado con que la página no existe. Si la página existe, el error puede ser viejo o a lo mejor nosotros podemos estar bloqueando al robot. Si la página no existe, podemos crear la página o hacer un redireccionamiento.

4. Comprobar contenido duplicado con Copyscape

El contenido duplicado, tanto de nuestro propio sitio como de otros sitios, puede afectar negativamente a nuestro posicionamiento. Copyscape es una gran herramienta para comprobar contenido duplicado online.

5. Comprobar contenido escaso (thin content)

No hay una definición exacta sobre lo que es “contenido escaso”, pero podemos pensar que todo lo que esté por debajo de 300 palabras probablemente sea considerado contenido escaso.

Cualquier página que tenga más contenido navegacional, en la cabecera o en el pie de página que en el cuerpo central va a ser una página de contenido escaso. Estas páginas deberían ser fusionadas con otras, borradas o dotadas de contenido para hacerlas más valiosas.

6. Comprobar los errores en el contenido

Hay dos tipos de errores que se pueden dar aquí: gramaticales y factuales o de hecho. Los errores gramaticales son fáciles de corregir haciendo una lectura en profundidad. Una vez arreglados debemos actualizar la “fecha de última actualización” en el sitemap para que Google lo sepa y reindexe la página.

Los errores factuales o de hecho son por ejemplo cuando una página tiene contenido desactualizado. En este caso podemos añadir una advertencia sobre ello o bien actualizar el contenido o crear uno nuevo.

7. Comprobar el número de páginas indexadas

En Google Search Console vamos a Índice de Google > Estado de indexación. Y por otro lado vamos a Google y ejecutamos el comando site:URLdominio.

Si los números concuerdan, Google está indexando lo que queremos que indexe. Por el contrario, si en GSC el número es más pequeño, podemos tener un problema de accesibilidad o con las directivas del archivo robots. Si en GSC el número es mayor, podemos tener problemas de contenido duplicado procedente de URLs dinámicas. Más adelante veremos como arreglar esto.

8. Comprobar las metaetiquetas o Metatags

Debemos comprobar las metaetiquetas de todas las páginas del sitio:

  • Metatítulo. Debe ser sucinto y siempre inferior a 70 caracteres. La información de marca siempre al final, no al principio. Debe ser descriptivo y no engañoso. Debe incluir alguna palabra clave pero no se debe sobreoptimizar. Cada página debe tener un título único para evitar duplicados.
  • Metadescripción. No afecta al SEO directamente pero es importante de cara al CTR: debe ser atractiva. También debe ser corta y relevante, con alguna palabra clave que concuerde con el metatítulo y el contenido.
  • Directivas metarobots. Podemos manejar la mayoría de las directivas robots en el archivo principal. Usarlas a nivel de página puede suponer contradicciones y problemas.

También debemos asegurar que las páginas páginadas usan las etiquetas rel=prev/next, y que usan la canonicalización adecuada. Además, si hay páginas que tienen metakeywords, debemos borrarlas: solo los sitios web spam usan esta etiqueta hoy en día 😉 .

9. Comprobar que tenemos una página 404 optimizada

Lo ideal sería que ningún visitante aterrizase en la página 404, pero por mucha atención que pongamos, esto va a ocurrir. Debemos optimizarla y no direccionar a la página de inicio.

10. Comprobar que haya una canonicalización adecuada

La canonicalización puede ser complicada. Cuando tenemos múltiples URLs para la misma página, por ejemplo cuando usamos parámetros en la URL o almacenamos datos de sesión en la URL o la página se genera dinámicamente, podemos acabar con docenas o cientos de URLs apuntando todas a la misma página. Google, sin embargo, funciona con la URL. Esto significa que dos URLs cualesquiera se supone que son diferentes páginas. Una docena de URLs dinámicas para la misma página, para Google, son como páginas diferentes con contenido duplicado. Este problema lo evitaremos canonicalizando las páginas.

11. Comprobar los tiempos de carga del sitio con Pingdom

Podemos usar Pingdom para comprobar los tiempos de carga y rendimiento del sitio en general y páginas concretas en particular. Idealmente ninguna página debería cargar en más de 2-3 segundos.

12. Comprobar posibles errores en robots.txt

Este archivo es muy importante para decirle a los buscadores lo que tienen que hacer. Debemos comprobar que no estamos bloqueando accidentalmente partes de nuestro sitio que no queremos. Si tenemos páginas bloqueadas, deben estarlo por alguna razón.

13. Comprobar que los redireccionamientos sean los adecuados

Para esto nos puede ayudar mucho Moz. Hay varios tipos de redireccionamientos, cada una con su propósito específico: por ejemplo, si cambiamos la estructura del sitio web o la estructura de las URLs.

14. Comprobar el formato de las URLs

Una estructura sana de URLs legibles para los humanos es un aspecto importante para el SEO. Se le suelen llamar URLs semánticas y son muy comunes hoy en día.

15. Comprobar las etiquets Alt de las imágenes

Toda imagen que usemos en el sitio web debe tener una descripción Alt. Las etiquetas Alt son importantes para la usabilidad, porque siempre que la imagen no se cargue, se cargará el texto en su lugar. Esto ayuda a los usuarios con problemas de accesibilidad y conexiones lentas. Las etiquetas Alt también ayudan a posicionar en la Búsqueda de Imágenes de Google y nos pueden aportar tráfico. Por todo ello, debemos utilizar etiquetas Alt optimizadas para alguna palabra clave en cada imagen de nuestro sitio web.

16. Comprobar la utilización adecuada de etiquetas H

Cada página debería tener una etiqueta H1 para su título primario. No es necesario usar ninguna otra etiqueta H, aunque usar etiquetas H2 para los subtítulos es una buena idea. Se deben evitar errores típicos como usar H2 para la primera subcabecera, H3 para la segunda, etc. Hay que pensar en ellas como elementos anidados, no como listas numeradas.

Debemos asegurarnos de “no saltarnos un número”: nunca utilizar una H3 en una página sin una H2 antes. De la misma forma, no usar ninguna etiqueta H si no tenemos una H1 primaria. Aunque pueda parecer un factor menor, un código formado adecuadamente es importante.

17. Comprobar la canibalización de palabras clave

La canibalización de keywords es un fenómeno que ocurre más a menudo en sitios grandes y “viejos” que en sitios pequeños y nuevos.

En un nicho determinado sólo hay un número limitado de palabras clave valiosas, por lo que los blogs acaban repitiéndose. Si se usan mucho esas palabras clave, el valor acumulado de SEO de las mismas se divide entre las diferentes páginas. De esta forma cada página individual es menos potente que lo que sería una página combinada.

El resultado es que podemos acabar teniendo el posicionamiento 6, 7 y 9 en Google con tres páginas canibalizadas en lugar de alcanzar la posición 1 con una única página enfocada.

Para encontrar la canibalización de palabras clave, necesitaremos averiguar que palabras clave buscamos posicionar para cada contenido relevante que tengamos en el sitio, y asegurarnos de que haya el menor número de duplicados y coincidencias posibles.

18. Comrprobar la arquitectura del sitio

Podemos dibujar un círculo que representa la página de inicio y otros círculos para las diferentes páginas del sitio. Y usar líneas para unir los diferentes círculos. No debe haber contenido “oculto”, a demasiados clics de la página de inicio, de lo contrario quizá tendríamos que plantearnos un rediseño del sitio.

19. Comprobar si hay penalizaciones de Google

Esto lo haremos en Google Search Console > Tráfico de búsqueda > Acciones manuales

  • Primero debemos comprobar si hay indicios de alguna penalización, como pérdida de posicionamiento o pérdida de indexación.
  • Si sospechamos que las páginas penalizadas simplemente están desindexadas, esto tiene fácil solución. Por el contrario, si de verdad estamos penalizados, habrá que trabajar duro.
  • Hay que arreglar el problema, que podría ser de enlaces, de contenido, de código, etc. Debemos arreglarlo para recuperar el posicionamiento.
  • Solicitar la reconsideración. En la mayoría de las penalizaciones, Google detectará los cambios y quitará la penalización automáticamente.

20. Comprobar la calidad de los enlaces externos

Primero debemos arreglar los enlaces rotos (404s).

El resto los debemos evaluar y determinar si los mantenemos: ¿apuntan a sitios que han cambiado, que están aparcados o que están hackeados? Si apuntan a sitios de baja calidad quizá nos interese eliminarlos o añadirles el atributo ‘nofollow’.

Y esto es todo, hasta aquí hemos visto 20 elementos que debemos comprobar si queremos hacer una auditoría en profundidad de posicionamiento SEO avanzado. 🙂

Este artículo es una adaptación libre del publicado en Search Engine Journal escrito por James Parsons: An Expert’s Guide to Auditing a Website’s Onsite SEO Health

Resumen
Nombre del Artículo
Posicionamiento SEO avanzado: Una auditoría en profundidad
Descripción
Aprende en este artículo como realizar una auditoría en profundidad de un sitio web para un posicionamiento SEO avanzado... y adelanta a la competencia 😉
Autor

Consultoría Posicionamiento Web SEO, Adwords y Analítica Web con base en A Coruña - Galicia. Ingeniero en Informática. Si quieres ver lo que podemos hacer por ti, puedes visitar nuestra página principal aquí.

Bienvenidos al blog !!!

Si deseas atraer nuevos clientes a tu negocio con una óptima estrategia de Marketing Online y rentabilizar tu inversión en Internet confiando en profesionales cualificados  y certificados con amplia experiencia en la gestión de proyectos en Internet haz clic en el botón

Suscríbete a nuestro Blog!

Sígueme en Google+

Blog de Posicionamiento Web SEO, Analítica Web & Conversión

Ver todos los posts
Anatomía de una landing page local óptima (Imagen)

Anatomía de una landing page local óptima (Infografía)

Hoy vamos a aparcar por un momento el fascinante mundo del posicionamiento en Google. Vamos a escribir un artículo sobre las características que debe tener una landing page óptima para…
Continuar leyendo
Mejores herramientas SEO Posicionamiento Web Imagen

Mejores herramientas SEO

Hace ya algún tiempo escribimos un artículo sobre las 25 Mejores Herramientas SEO gratis para optimización On-Page. Este artículo tuvo y sigue teniendo mucho "éxito", recibiendo muchas visitas. En esta…
Continuar leyendo
Imagen de 16 experimentos de posicionamiento web SEO 2016

13 experimentos de posicionamiento web SEO 2016

En este artículo vamos a comentar 16 experimentos de posicionamiento web SEO que James Reynolds acaba de publicar en su web y que sin duda son súper-interesantes si queremos seguir…
Continuar leyendo
Imagen de Posicionamiento web SEO 2016

Posicionamiento web SEO 2016

Acabamos de leer un interesante artículo que Brian Dean acaba de escribir tras analizar, junto a un grupo  de colaboradores, la nada despreciable cifra de 1 millón de resultados de…
Continuar leyendo