¿Cuáles son los problemas habituales que sufre el SEO al publicar una nueva web?

Podemos sorprendernos de que son varios los problemas que el SEO puede encontrar al publicar una nueva web, que pueden provocar que el proyecto SEO tenga un mal comienzo.

Permitir indexación durante el desarrollo de la web

Que el desarrollador de la web no restrinja el acceso a Google durante su labor de creación de la web, no va a agilizar el trabajo de indexación para que cuando la web esté terminada eso que está adelantado. Todo lo contrario, permitir que Google rastree nuestro sitio web durante el desarrollo de este, puede ser un mal comienzo para el SEO ya que Google puede detectar contenido duplicado, escaso contenido, y un rastreo de multitud de páginas de pruebas que luego dejarán de existir y contarán como páginas no encontradas entre otras cosas.

URLs amigables

No dejar configuradas las URLs amigables no está bien visto en el SEO y mucho menos por Google que todo lo que persigue es darle mucha información de valor al usuario que usa sus motores de búsquedas. Las palabras clave en la URL también son importantes para mejorar la optimización On-Page.

Redireccionamientos y URLs canónicas

Tener el mismo contenido por ejemplo con www y sin www, es algo que Google miraría con muy malos ojos ya que lo interpretaría como contenido duplicado. Para evitarlo debemos crear redireccionamientos.

Repaso final

Creer que todo está listo y confiar en que nada falla sin revisar si el contenido es el correcto y no tenga faltas de ortografías, no comprobar que todos los enlaces funcionan bien, no probar la usabilidad y el diseño en la versión móvil, si hubiese traducciones, comprobar que estas son correctas, que los formularios envían toda la información completa correctamente, que las páginas que sobran se han borrado, que se ha optimizado toda la web y examinado las velocidades de carga, etc.

No realizar una auditoría SEO

Con una auditoría SEO podemos encontrar problemas que habíamos pasado por alto, por eso es bueno contar con la ayuda de WebSite Auditor y realizarle una auditoría a nuestro sitio en busca de posibles errores que pasan desapercibidos, por ejemplo páginas grandes, text alt vacíos, etc.

Siempre se nos puede escapar algún detalle incluso si estamos optimizando página por página. Por eso es recomendable el uso de programas de auditoría SEO.

Falta de Robots.txt y Sitemaps

Cuando se finaliza la web no se puede obviar ni olvidar mandar a Google toda la información para que sepa que nuestra web está lista para mostrarse y que contenido es el que debe aparecer en los buscadores. También es importante en este caso que se haya quitado ya la restricción de indexación por los motores de búsquedas que se activó durante el desarrollo de la web.

Es importante la inclusión de estos archivos a la hora de lanzar la web puesto que estamos dando a los buscadores una idea clara y estructurada de nuestro sitio web y al mismo tiempo estamos bloqueando páginas que no queremos que sean indexadas.

No eliminar el contenido que no va a ser usado

Cuando montamos una web (Sobre todo en WordPress) instalamos temas que suelen importar gran cantidad de imágenes o páginas de muestra que, a pesar de no ser accesibles desde el menú de navegación, están incrustadas en el sitemap y por lo tanto son rastreadas por Google dejando que interprete que parte de nuestro contenido es duplicado ya que otras personas probablemente estén cometiendo el mismo error que nosotros. Asimismo, estamos malgastando el Crawl Budget de nuestra web.

Caso práctico: Solución de problemas

Evitar la indexación durante el desarrollo de la web:

Desde WordPress podemos bloquear la indexación de nuestra web de un modo muy sencillo:

Entramos en el Escritorio / Ajustes / Lectura y activamos la opción de “Disuade a los motores de búsqueda de indexar este sitio”

Ya podemos realizar cambios en la web sin que Google esté revisando el contenido en intentando indexarlo.

Usar URL Amigables:

Debido a que estamos usando un CMS (WordPress) este nos asigna la URL de nuestras páginas automáticamente, aunque lo podemos cambiar con facilidad, siempre se nos puede olvidar y acabar publicando una página o entrada con esta URL:

 

https://midominio.com/?p=123

Esta clase de URLs no aportan nada al usuario ya que no pueden identificar el contenido que hay en su interior.

Sin embargo esto es lo que se considera una URL amigable.

https://midominio.com/pagina-ejemplo/

Podemos configurarlas de un modo muy sencillo, de nuevo , solo tenemos que ir a Ajustes / Enlaces permanentes y seleccionar la versión que más nos guste:

Redireccionamientos y URL canónicas:

Respecto a la versión con y sin “www”, WordPress se encarga de redireccionarla automáticamente según la versión preferida que tengamos establecida. (Ajustes / Generales)

En cuanto a la versión sin SSL y con SSL podemos instalar el plugin Really Simple SSL y nos creará la redirección de todo el sitio de http a https de forma dinámica. También podemos escribir nosotros la regla en htaccess.

Realizar auditoría SEO:

Desde programas como WebSite Auditor podemos conseguir un reporte completo del estado de la web y así conocer que posibles errores hemos pasado por alto para solucionarlos antes de publicar la web.

Robots.txt y Sitemaps

Al instalar un WordPress el robots.txt es creado automáticamente y el sitemap también por el plugin de Yoast SEO.

En caso de no estar usando un WordPress, podemos usar WebSite Auditor para generar ambos archivos.

En el menú superior de Website auditor encontramos ambas opciones para poder generar los archivos:

Para el Sitemap: Solo debemos hacer clic y seleccionar que páginas queremos integrar en nuestro sitemap, elegir la frecuencia de actualización y la prioridad de cada página. Lo guardamos en nuestro escritorio y posteriormente lo subimos mediante FTP a la raíz de nuestro sitio.

Para el Robots.txt:  El robots.txt se compone de reglas, lo más común es añadir reglas de Disallow para evitar el rastreo de ciertos robots, o indicar que directorios o URLs de nuestro sitio no se deben rastrear. Aunque es importante tener en cuenta que marcar un directorio o URL con la regla Disallow no lo exime de ser rastreado, así que si lo que queremos es evitar la indexación de algún contenido debemos etiquetar este con un no-index y así nuestro contenido no aparecerá en las SERPs.

Luego hacemos clic en directorio/página y seleccionamos las carpetas que queremos bloquear.

Vamos añadiendo bloqueos según necesitemos, luego lo guardamos y de nuevo, lo subimos mediante FTP a la raíz de nuestro sitio web.

No eliminar el contenido que no va a ser usado

Debemos de repasar los contenidos que tenemos en la sección de Medios (Archivos subidos) y si son archivos que no vamos a usar, es mejor eliminarlos.

Más atención aún debemos prestar a las páginas de muestra generadas por los temas y plugins de WordPress. Estas se deben eliminar ya que podemos estar incurriendo en contenido duplicado y malgastando el tiempo que las arañas de Google están en nuestro sitio.

O incluso nosotros mismos hemos podido crear contenido de prueba que finalmente luego no vamos a usar. Todo este tipo de contenido debe ser borrado ya que dejarlo solo traerá problemas: el usuario podrá acceder a él y confundirse durante su navegación, hace más lenta la página ya que tiene más contenido que cargar, los robots pierden más tiempo rastreando contenido irrelevante, etc.