fbpx

Principales errores a resolver para mejorar el SEO de tu web

Principales errores a resolver para mejorar el SEO de tu web

Principales errores a resolver para mejorar el SEO de tu web

1. Contenido Duplicado:

Se considera que las páginas web son duplicados si contienen el mismo o casi el mismo contenido. El exceso de contenido duplicado puede confundir a los motores de búsqueda en cuanto a la página para indexar y priorizar en los resultados de búsqueda. Usar contenido duplicado en varias páginas puede traer consigo la pérdida de tráfico y una mala posición en los resultados de búsqueda, e incluso que los motores de búsqueda prohíban tu página.

Para solucionarlo:

  • Ofrece algún contenido exclusivo en la página web.
  • Elimina contenido duplicado.
  • Añade un enlace rel=”canonical” a una de tus páginas duplicadas para informar a los motores de búsqueda qué página deben mostrar en los resultados de búsqueda.

Etiquetas de título y descripciones duplicadas.

Las etiquetas <title> duplicadas dificultan a los motores de búsqueda determinar cuáles de las páginas del sitio web son relevantes para una consulta de búsqueda concreta, y cuál de ellas debería tener prioridad en los resultados de búsqueda. Las páginas con títulos duplicados tienen menos probabilidades de obtener un ranking bueno y corren el riesgo de ser penalizadas.
Además, las etiquetas <title> idénticas confunden a los usuarios sobre qué páginas web deben seguir.

Al igual que con la etiqueta <title>, Una etiqueta <meta description> es un pequeño resumen de unos 160 carácteres del contenido de una página web que ayuda a los motores de búsqueda a comprender de qué se trata tu página y puede mostrarse a los usuarios en los resultados de búsqueda.
Tener metadescripciones duplicadas en diferentes páginas, son una oportunidad perdida de utilizar keywords más relevantes para enriquecer nuestra página.

Las metadescripciones duplicadas complican a los motores de búsqueda y a los usuarios diferenciar entre las diferentes páginas web. Es mejor no tener ninguna metadescripción que tener una duplicada.

También lo puedes consultar en este enlace de Google.

Faltan etiquetas de título.

Una etiqueta <title> es un elemento SEO integrado en la página. Aparece en navegadores y resultados de búsqueda y ayuda tanto a los motores de búsqueda como a los usuarios a comprender de qué se trata tu página.
Si a una página le falta un título, o una etiqueta <title> está vacía, Google puede considerarla de baja calidad. En caso de que promociones esta página en los resultados de búsqueda, perderás la oportunidad de obtener una mayor ranking y una mayor tasa de clics.

Lo mismo ocurre con las metadescripciones. Como ya hemos comentado anteriormente, es mejor no tenerlas que tenerlas duplicadas. Pero si las tenemos personalizadas, estaremos aprovechando este elemento para optimizar nuestro posicionamiento.

Etiquetas de Meta título y H1 duplicados.

No es la mejor opción que la etiqueta título y el H1 de la página coincida. Si las etiquetas <title> y <h1> de tu página coinciden, estas últimas puede que confundan a los motores de búsqueda, y nos las tengan en cuenta.

Además, si utilizas el mismo contenido en títulos y en H1 se pierde la oportunidad de añadir otras palabras clave relevantes para tu página.

Canibalización de palabras clave.

La canibalización de palabras clave es un problema bastante común, que en la mayoría de los casos sucede cuando se fuerza o se intenta optimizar para posicionar diferentes contenidos por las mismas palabras clave.

Un artículo que explica de lujo esto de la keyword cannibalization es el siguiente de SemRush. Te recomiendo leerlo.

Si analizamos una página concreta y vemos que hay otras páginas en su sitio web que compiten por las mismas palabras clave para obtener la primera posición en los resultados de búsqueda. Cuando se trata del blog de una web o sobre de una web informativa, la solución se puede encontrar muchas veces centrando la estrategía sobre una determinada página.

Normalmente le daremos prioridad a la página mejor posicionada. Podemos intentar usar un redireccionamiento 301, pero este proceso debe realizarse con sumo cuidado.

El problema de la canalibalización es mucho más complejo cuando se trata de páginas compitiendo que pertenecen a una tienda online. Es muy difícil a veces quitar contenido y ciertas palabras clave a páginas que son muy similares. Estos casos conviene dejarlo en manos expertas.

2. Enlaces internos rotos:

Errores 404

Un error 4xx significa que no se puede acceder a una página web. Esto suele ser el resultado de enlaces rotos. Estos errores impiden que los usuarios y robots de los motores de búsqueda accedan a tus páginas web y pueden influir negativamente tanto en la experiencia de usuario como en la rastreabilidad de los motores de búsqueda. Esto, a su vez, conlleva un descenso del tráfico dirigido a tu sitio web. Para evitar este tipo de errores con páginas rotas, una solución es crear redirecciones a otras páginas de nuestra página web. Por ejemplo Redirect 301 /pagina-rota/ www.pagina-correcta.com

Siempre que sea posible, intenta reutiliar esta página rota con nuevo contenido, evitando así la redirección, e intentando aprovechar su contenido.

Errores 5xx

Los errores 5xx indican problemas porque el servidor no puede satisfacer la solicitud del usuario o el rastreador. Impiden que los usuarios y robots de los motores de búsqueda accedan a tus páginas web y pueden influir negativamente en la experiencia de usuario y la rastreabilidad de los motores de búsqueda. Esto, a su vez, conlleva un descenso del tráfico dirigido a tu sitio web.

Errores 3xx

Esto seguro no te lo habían contado sobre los redireccionamientos 301. Aunque el uso de redirecciones permanentes (301 o 308) es adecuado en la mayoría de casos (por ejemplo, cuando mueve un sitio web de un dominio A  a  un dominio B, o para redirigir a los usuarios de una página eliminada a una nueva, o solucionar problemas de contenido duplicado), recomendamos que estés siempre en alerta y los tengas controlados con el menor nº de ellos posibles. Demasiados redireccionamientos permanentes pueden ser confusos para los usuarios y los motores de búsqueda.

3. Velocidad de carga lenta:

Uno de los factores más importantes para el ranking de tu web y la experiencia de usuario, es la velocidad de carga.

Cuanto menos tarde la página en cargar, más alta será su posición en los resultados de búsqueda. Ten en cuenta que la «velocidad de carga de la página» normalmente hace referencia a la cantidad del tiempo que tarda una página web en aparecer por completo en un navegador.

Las páginas que se cargan rápido influyen positivamente en la experiencia de usuario y pueden aumentar tus tasas de conversión.

La velocidad de un sitio puede ser lenta por diferentes motivos, pero los problemas directamente relacionados con ello son:

  • Imágenes poco optimizadas. Leer articulo importancia imágenes.
  • El código de la propia página. Html, JavaScript y Css. Compresión de ficheros etc.
  • El servidor y sus configuraciones. Te recomendamos un servidor que reúna una serie de características apropiadas para el buen rendimiento de tu web. Normalmente los servidores gratuitos o súper económicos, acaban saliendo muy caros para los proyectos serios.

4. Ficheros Robots.txt y sitemap.xml

Robots

No es la primera vez que nos ha sucedido de analizar una web con un estado de optimización bastante alto pero con problemas en su fichero robots. Si tu archivo robots.txt está mal configurado, puede generarte muchísimos problemas.
Es tan importante su correcta configuración que puede ocasionar que tus páginas principales quedan excluidas de los resultados de búsqueda y, que páginas privadas de tu tienda online o páginas web corporativa quedan abiertas al público.

Desde este fichero se controlan los accesos a las carpetas y ficheros de nuestra web.

Puedes comprobar tu fichero desde el probador de archivos robots.txt de Google

Otra herramienta útil que te avisa de posibles errores y advertencias en tu fichero robots nos la recomendó un lector de este post. En el siguiente enlace podrás encontrarlo: comprobador y validador de robots.txt de Google.

Sitemap

Los buscadores, como Google, leen estos archivos para rastrear los sitios web de forma más eficaz. Por lo general, este fichero bien configurado, ayuda notablemente a los buscadores.

El formato del protocolo de Sitemap consiste en las etiquetas XML de tu sitio web. Todos los valores deben estar codificados en UTF-8.

1 Star2 Stars3 Stars4 Stars5 Stars (10 votos, puntuación: 1,80 sobre 5)

Cargando...

Sin comentarios

Escribe tu comentario