<img height="1" width="1" style="display:none;" alt="" src="https://dc.ads.linkedin.com/collect/?pid=81693&amp;fmt=gif">
  1. Inicio
  2. Blog de Inbound Marketing

Estrategias de contenidos masivos y por qué Google no es capaz de rankear todos tus posts

Una de las cosas que yo daba por sentadas cuando empecé a trabajar en el mundo de los contenidos a través de internet es que era posible conseguir más visitas en función de la “cantidad” de contenidos que uno fuese capaz de producir.

Tenía “sentido”. Eso encajaba con lo que nos habían enseñado durante toda la vida, desde el colegio hasta nuestro entorno más cercano: cuanto más haces de una cosa de forma constante, más próximo estás a conseguir el éxito en ese ámbito. Pero ¿se cumple también esta premisa en el mundo online?

En nuestro universo offline, si voy todos los días al gimnasio durante 3 años conseguiré mejorar mi condición física. Si estudio todos los días durante 4 horas diarias seré el mejor de la clase y sacaré mejores notas que los demás. Y, del mismo modo, si publico un post (o varios) todos los días, conseguiré mayor cantidad de tráfico.

Pero Internet no sigue necesariamente las mismas reglas de la “vida real”, y eso es algo que iba a tardar un poco de tiempo aún en aprender, pero mientras tanto yo seguía escribiendo casi cada día con el mismo ímpetu, publicando posts en un blog de tecnología, en otro de coches, en otro de animales y en otros tantos para conseguir de ese modo una gran cantidad de visitas a largo plazo.

En SEO (si quieres aprender más sobre SEO para blogs, descárgate nuestro pack de optimización SEO para blogs), descárgate nuestro no sabes algo de verdad hasta que experimentas realmente con ello y te estampas contra la pared.

El problema de Googlebot

Googlebot es un robot que utiliza una serie de recursos limitados para poder acceder a todas las páginas que encuentra a su paso mientras rastrea la www. 

Googlebot-SEO.jpg

Esto implica que debe gestionar de la forma más eficaz posible sus recursos, la capacidad y el tiempo que dispone para rastrear URL dentro de cada página web, en un océano digital donde a cada segundo decenas de miles de páginas son creadas y lanzadas de nuevo al índice de resultados de Google. 

A Googlebot cada día se le añade más trabajo por llevar llevar a cabo y es un trabajo que nunca termina.

Debe crawlear de forma rápida y eficaz y de este modo servir a Google en su propósito de controlar todos los resultados de la red que pueda necesitar un determinado usuario en general. 

Influyen muchos factores a la hora de optimizar el crawleo de Googlebot una vez se encuentra dentro de nuestra página, pero podemos aglutinar la mayoría de ellos en la siguiente afirmación: ten un buen SEO on page y una correcta arquitectura de la información haciendo un uso lógico e inteligente de los enlaces internos.

Esto en gran medida determinará lo eficaz que podrá ser Google una vez se encuentre dentro de nuestra página y asignarnos un determinado ranking. 

Por lo tanto, si yo dispongo de una web con una gran cantidad de contenidos, cientos o incluso miles de posts, y esto no va acorde con una buena arquitectura web y un SEO on page optimizado, de poco me va a servir publicar cada vez más y más. 

La cantidad de contenidos que debo publicar para que Google los crawlee e indexe correctamente viene determinada por la autoridad de mi sitio web y por la estructura de SEO on page o eI que haya sido capaz de llevar a cabo dentro de mi página web.

Publicando cada día sin conseguir aumentar el tráfico

Durante los primeros años de mi trabajo como redactor SEO yo no tenía la menor idea de lo que significaba Googlebot ni de cómo actuaba Google de cara a rankear nuestros contenidos. 

Jamás había oído o leído nada al respecto y ese era el motivo principal de que por más que publicase más y más contenido, nunca era capaz de aumentar las visitas de una determinada web. 

A esto se le sumó el hecho de que había decidido comenzar con blogs que rivalizaban dentro de sectores muy competidos, y esto agravaba todavía más el asunto: ya no solo volcaba una cantidad de contenidos enorme con un SEO on page deficiente que Googlebot apenas era capaz de rastrear, sino que además pretendía competir con mis escasos recursos contra webs monstruosas de gran autoridad ya más que afianzadas en el sector.

Recuerdo especialmente toda la cantidad de contenidos que publiqué en lo que por aquel entonces era mi blog de tecnología. 

Además de los posts que escribía yo, contraté a varios redactores y durante una época llegamos a publicar entre 5 y 7 posts al día durante todos los días de la semana con el fin de aumentar el tráfico web.

Evidentemente, no ocurrió.

Incluso llegó un momento en el que el tráfico comenzó a bajar, y eso me llevó a preguntarme: "¿qué se supone que se está haciendo mal si cada vez se publican más y más artículos?".

Sacar más contenido no me iba a hacer ganar más tráfico. Necesitaba generar arquitecturas más amigables para Google y para el usuario, y es algo que tardé varios años en averiguar.

Atacando blogs con principio y fin: meganichos martillo

Esta fue la respuesta que yo encontré con el tiempo y no digo que sea la mejor, porque eso depende de cada persona y de cada situación, pero desde luego sí que fue lo mejor para mi caso en particular. 

Verás. Los blogs de “tecnología” o de “coches”, por citar dos ejemplos de blogs que yo comencé a trabajar, tienen una característica particular: no tienen fin. 

Están dentro de un nicho donde la actualidad manda y eso condiciona la “cantidad” de contenidos que hay que publicar para crecer… ¡Muchísimos!

Publicar toda esta cantidad de contenidos, a su vez, hace más difícil poder mantener una correcta arquitectura web y SEO on page controlado y manejable, justamente lo que necesitas para crecer con mayor velocidad durante los primeros meses de vida.

Por lo tanto, ahora me enfoco en trabajar webs “con principio y fin”, es decir, meganichos o blogs martillo, como yo les llamo, que puedan tratar sobre una determinada temática abierta en general pero que puedan llegar a un punto donde ya no haya más que publicar sobre ese determinado tema.

Al disponer de menor cantidad de contenido y, paralelamente, al poder enlazar a todos los posts con links internos desde (por ejemplo) la página home Googlebot, es capaz de rastrear con mucha mayor eficiencia todos los posts, y esto repercute en el tráfico en el medio y largo plazo. 

¡Ponle el trabajo fácil a Google y tus resultados no tardarán demasiado en mejorar! ¿Me cuentas cómo te ha ido a ti?

pack de optimizacion seo para tu blog

También te pueden interesar...

¿Qué es el marketing de guerrilla? Ventajas, tipos y ejemplos reales
Core Web Vitals de Google: qué son y cómo mejorarlas para el SEO
Marketing digital en Instagram: 7 beneficios de incorporarlo a tu estrategia

¿Y tú qué opinas? ¡Déjanos aquí tus comentarios!

Suscríbete al Blog
Suscríbete por email y recibe además un pack de bienvenida con nuestros 5 mejores artículos