→ Artículo actualizado en noviembre 2021 ←
Si bien en anteriores artículos ya vimos cómo realizar una auditoría SEO en 5 minutos o también cómo calificar el posicionamiento de una página en 10 minutos, en este artículo vamos a ver como realizar una auditoría en profundidad de nuestro propio sitio web (o un sitio web al que nos den acceso). Por supuesto, este artículo entra dentro de lo que podríamos llamar artículos de posicionamiento SEO avanzado, por lo que a lo mejor deberías recurrir a una consultoría de posicionamiento profesional.
Índice de Contenidos
- Posicionamiento SEO avanzado: Una auditoría en profundidad
- 1. Comprobar enlaces rotos con Screaming Frog
- 2. Comprobar la integridad del Sitemap
- 3. Comprobar los errores 404 en Google Search Console
- 4. Comprobar contenido duplicado con Copyscape
- 5. Comprobar contenido escaso (thin content)
- 6. Comprobar los errores en el contenido
- 7. Comprobar el número de páginas indexadas
- 8. Comprobar las metaetiquetas o Metatags
- 9. Comprobar que tenemos una página 404 optimizada
- 10. Comprobar que haya una canonicalización adecuada
- 11. Comprobar los tiempos de carga del sitio con Pingdom
- 12. Comprobar posibles errores en robots.txt
- 13. Comprobar que los redireccionamientos sean los adecuados
- 14. Comprobar el formato de las URLs
- 15. Comprobar las etiquets Alt de las imágenes
- 16. Comprobar la utilización adecuada de etiquetas H
- 17. Comprobar la canibalización de palabras clave
- 18. Comprobar la arquitectura del sitio
- 19. Comprobar si hay penalizaciones de Google
- 20. Comprobar la calidad de los enlaces externos
Posicionamiento SEO avanzado: Una auditoría en profundidad
1. Comprobar enlaces rotos con Screaming Frog
Podemos usar Screaming Frog para rastrear todas las URLs del sitio y comprobar su integridad. Todos los enlaces que devuelvan un código 404 deben ser cambiados o borrados.
2. Comprobar la integridad del Sitemap
Debemos comprobar que contiene todas las páginas del sitio que queremos que los buscadores encuentren. Para hacer esto podemos utilizar la herramienta Xenu Link Sleuth.
Para comprobar la integridad del sitemap podemos usar esta herramienta de validación de sitemaps.
3. Comprobar los errores 404 en Google Search Console
Lo haremos en la opciones de Ajustes > Estadísticas de rastreo. Aquí encontraremos todas las páginas que Googlebot ha intentado rastrear y se ha encontrado con que la página no existe. Si la página existe, el error puede ser viejo o a lo mejor nosotros podemos estar bloqueando al robot. Si la página no existe, podemos crear la página o hacer un redireccionamiento.
4. Comprobar contenido duplicado con Copyscape
El contenido duplicado, tanto de nuestro propio sitio como de otros sitios, puede afectar negativamente a nuestro posicionamiento. Copyscape es una gran herramienta para comprobar contenido duplicado online.
5. Comprobar contenido escaso (thin content)
No hay una definición exacta sobre lo que es «contenido escaso», pero podemos pensar que todo lo que esté por debajo de 300 palabras probablemente sea considerado contenido escaso.
Cualquier página que tenga más contenido navegacional, en la cabecera o en el pie de página que en el cuerpo central va a ser una página de contenido escaso. Estas páginas deberían ser fusionadas con otras, borradas o dotadas de contenido para hacerlas más valiosas.
6. Comprobar los errores en el contenido
Hay dos tipos de errores que se pueden dar aquí: gramaticales y factuales o de hecho. Los errores gramaticales son fáciles de corregir haciendo una lectura en profundidad. Una vez arreglados debemos actualizar la «fecha de última actualización» en el sitemap para que Google lo sepa y reindexe la página.
Los errores factuales o de hecho son por ejemplo cuando una página tiene contenido desactualizado. En este caso podemos añadir una advertencia sobre ello o bien actualizar el contenido o crear uno nuevo.
7. Comprobar el número de páginas indexadas
En Google Search Console vamos a Índice de Google > Estado de indexación. Y por otro lado vamos a Google y ejecutamos el comando site:URLdominio.
Si los números concuerdan, Google está indexando lo que queremos que indexe. Por el contrario, si en GSC el número es más pequeño, podemos tener un problema de accesibilidad o con las directivas del archivo robots. Si en GSC el número es mayor, podemos tener problemas de contenido duplicado procedente de URLs dinámicas. Más adelante veremos como arreglar esto.
Debemos comprobar las metaetiquetas de todas las páginas del sitio:
- Metatítulo. Debe ser sucinto y siempre inferior a 70 caracteres. La información de marca siempre al final, no al principio. Debe ser descriptivo y no engañoso. Debe incluir alguna palabra clave pero no se debe sobreoptimizar. Cada página debe tener un título único para evitar duplicados.
- Metadescripción. No afecta al SEO directamente pero es importante de cara al CTR: debe ser atractiva. También debe ser corta y relevante, con alguna palabra clave que concuerde con el metatítulo y el contenido.
- Directivas metarobots. Podemos manejar la mayoría de las directivas robots en el archivo principal. Usarlas a nivel de página puede suponer contradicciones y problemas.
También debemos asegurar que las páginas páginadas usan las etiquetas rel=prev/next, y que usan la canonicalización adecuada. Además, si hay páginas que tienen metakeywords, debemos borrarlas: solo los sitios web spam usan esta etiqueta hoy en día 😉 .
9. Comprobar que tenemos una página 404 optimizada
Lo ideal sería que ningún visitante aterrizase en la página 404, pero por mucha atención que pongamos, esto va a ocurrir. Debemos optimizarla y no direccionar a la página de inicio.
10. Comprobar que haya una canonicalización adecuada
La canonicalización puede ser complicada. Cuando tenemos múltiples URLs para la misma página, por ejemplo cuando usamos parámetros en la URL o almacenamos datos de sesión en la URL o la página se genera dinámicamente, podemos acabar con docenas o cientos de URLs apuntando todas a la misma página. Google, sin embargo, funciona con la URL. Esto significa que dos URLs cualesquiera se supone que son diferentes páginas. Una docena de URLs dinámicas para la misma página, para Google, son como páginas diferentes con contenido duplicado. Este problema lo evitaremos canonicalizando las páginas.
11. Comprobar los tiempos de carga del sitio con Pingdom
Podemos usar Pingdom para comprobar los tiempos de carga y rendimiento del sitio en general y páginas concretas en particular. Idealmente ninguna página debería cargar en más de 2-3 segundos.
12. Comprobar posibles errores en robots.txt
Este archivo es muy importante para decirle a los buscadores lo que tienen que hacer. Debemos comprobar que no estamos bloqueando accidentalmente partes de nuestro sitio que no queremos. Si tenemos páginas bloqueadas, deben estarlo por alguna razón.
13. Comprobar que los redireccionamientos sean los adecuados
Para esto nos puede ayudar mucho Moz. Hay varios tipos de redireccionamientos, cada una con su propósito específico: por ejemplo, si cambiamos la estructura del sitio web o la estructura de las URLs.
14. Comprobar el formato de las URLs
Una estructura sana de URLs legibles para los humanos es un aspecto importante para el SEO. Se le suelen llamar URLs semánticas y son muy comunes hoy en día.
15. Comprobar las etiquets Alt de las imágenes
Toda imagen que usemos en el sitio web debe tener una descripción Alt. Las etiquetas Alt son importantes para la usabilidad, porque siempre que la imagen no se cargue, se cargará el texto en su lugar. Esto ayuda a los usuarios con problemas de accesibilidad y conexiones lentas. Las etiquetas Alt también ayudan a posicionar en la Búsqueda de Imágenes de Google y nos pueden aportar tráfico. Por todo ello, debemos utilizar etiquetas Alt optimizadas para alguna palabra clave en cada imagen de nuestro sitio web.
16. Comprobar la utilización adecuada de etiquetas H
Cada página debería tener una etiqueta H1 para su título primario. No es necesario usar ninguna otra etiqueta H, aunque usar etiquetas H2 para los subtítulos es una buena idea. Se deben evitar errores típicos como usar H2 para la primera subcabecera, H3 para la segunda, etc. Hay que pensar en ellas como elementos anidados, no como listas numeradas.
Debemos asegurarnos de «no saltarnos un número»: nunca utilizar una H3 en una página sin una H2 antes. De la misma forma, no usar ninguna etiqueta H si no tenemos una H1 primaria. Aunque pueda parecer un factor menor, un código formado adecuadamente es importante.
17. Comprobar la canibalización de palabras clave
La canibalización de keywords es un fenómeno que ocurre más a menudo en sitios grandes y «viejos» que en sitios pequeños y nuevos.
En un nicho determinado sólo hay un número limitado de palabras clave valiosas, por lo que los blogs acaban repitiéndose. Si se usan mucho esas palabras clave, el valor acumulado de SEO de las mismas se divide entre las diferentes páginas. De esta forma cada página individual es menos potente que lo que sería una página combinada.
El resultado es que podemos acabar teniendo el posicionamiento 6, 7 y 9 en Google con tres páginas canibalizadas en lugar de alcanzar la posición 1 con una única página enfocada.
Para encontrar la canibalización de palabras clave, necesitaremos averiguar que palabras clave buscamos posicionar para cada contenido relevante que tengamos en el sitio, y asegurarnos de que haya el menor número de duplicados y coincidencias posibles.
18. Comprobar la arquitectura del sitio
Podemos dibujar un círculo que representa la página de inicio y otros círculos para las diferentes páginas del sitio. Y usar líneas para unir los diferentes círculos. No debe haber contenido «oculto», a demasiados clics de la página de inicio, de lo contrario quizá tendríamos que plantearnos un rediseño del sitio.
19. Comprobar si hay penalizaciones de Google
Esto lo haremos en Google Search Console > Tráfico de búsqueda > Acciones manuales
- Primero debemos comprobar si hay indicios de alguna penalización, como pérdida de posicionamiento o pérdida de indexación.
- Si sospechamos que las páginas penalizadas simplemente están desindexadas, esto tiene fácil solución. Por el contrario, si de verdad estamos penalizados, habrá que trabajar duro.
- Hay que arreglar el problema, que podría ser de enlaces, de contenido, de código, etc. Debemos arreglarlo para recuperar el posicionamiento.
- Solicitar la reconsideración. En la mayoría de las penalizaciones, Google detectará los cambios y quitará la penalización automáticamente.
20. Comprobar la calidad de los enlaces externos
Primero debemos arreglar los enlaces rotos (404s).
El resto los debemos evaluar y determinar si los mantenemos: ¿apuntan a sitios que han cambiado, que están aparcados o que están hackeados? Si apuntan a sitios de baja calidad quizá nos interese eliminarlos o añadirles el atributo ‘nofollow’.
Y esto es todo, hasta aquí hemos visto 20 elementos que debemos comprobar si queremos hacer una auditoría en profundidad de posicionamiento SEO avanzado. 🙂
→ Artículo actualizado en noviembre 2021 ←
Este artículo es una adaptación libre del publicado en Search Engine Journal escrito por James Parsons: An Expert’s Guide to Auditing a Website’s Onsite SEO Health