Expertos digitales en CMS y DXP desde 2018



,

Gestores de bots de IA, la nueva tendencia en los CMS

Imagen promocional del gestor de bots Datadome

Los creadores de contenidos que quieran gestionar el uso de estos, incluyendo la IA, deben formar sistemas de protección multicapa con monitorización constante…

Los bots, el tráfico de Internet realizado por máquinas y no por humanos, es hoy en día un problema enorme, en gran medida como fruto del aumento del web scrapping o rascado de contenidos, que es una técnica dirigida a extraer información de páginas web de manera automatizada. En los últimos tiempos ha aumentado considerablemente por obra y gracia de las empresas de inteligencia artificial (AI) generativa. ¿Qué hacer al respecto? Vamos a arrojar algo de luz sobre el asunto.

Según una publicación de Brightspot, basado en un estudio de Imperva, el problema de los bots es ahora creciente y está llegando a unos límites bastante insoportables. Son muchos los parásitos que se apuntan a la moda de coger prestados los contenidos para, si es posible, sacar dinero con ellos a nuestras espaldas.

Ya no estamos en primero de Internet, los creadores de contenidos llevamos ya aquí unas décadas y no deberíamos ser aquellos ingenuos que proporcionaron el acceso a los contenidos gratis a aquellos que supuestamente iban a ordenar el contenido global en beneficio de todos y no solo en el suyo propio.

Existen formas de defenderse, la más popular es hacerlo en el archivo robots.txt, pero son muchas las empresas agresivas que lo ignoran total o parcialmente. Además, muchas de estas empresas son multinacionales y es muy posible que no se pueda actuar contra ellas al estar localizados en sitios recónditos. Otras, directamente, están defendidas por unos dirigentes ultra proteccionistas.

Lo mejor es tomar medidas más contundentes, reglas, a nivel de servidor, pero también en el CMS. Debe haber un sistema multicapa que pueda detectar y gestionar adecuadamente todo este tráfico automático. Algunos bots deben ser bloqueados, otros recibir la respuesta que les indique que deben pagar por rastrear y registrar los contenidos y otros, deben ser permitidos. Todo esto se debe combinar con diversas acciones legales según corresponda.

Como bien asegura Brightspot, este tráfico debe ser permanentemente monitorizado, puesto que ya se han dado casos en los que las empresas de IA falsean su user agent y nos visitan asegurando ser otro programa el que accede al contenido.

La decisión de dar acceso o no al contenido se debe tomar no solo atendiendo a criterios informáticos, sino también editoriales y de negocio.

Existen más razones para tomarse más en serio este tráfico, monitorizarlo y, en su caso bloquearlo. No solo roban el contenido, sino que también consumen gran cantidad de recursos de hosting que, a la postre, es dinero, presupuesto que se tira por el sumidero. Y además de degradar el servicio para los usuarios legítimos, también afecta negativamente a la analítica, de forma que la desvirtúa y no hace fácil tomar decisiones.

Según Brightspot, las principales herramientas de mitigación de bots reveló que la mayoría de las defensas perimetrales (CDN, WAF) presentan dificultades contra bots avanzados y, por ello, se hace necesaria protección a nivel de CMS. Además, está encima de la mesa el tema de los falsos positivos que pueden hacer mucho daño a la audiencia. Otra gran empresa que ya ha entendido esto y ha llegado a un acuerdo en este sentido es Arc XP.

Parece, por tanto, claro que las empresas de CMS no solo deben actuar empoderando al periodista, añadiendo IA para mejorar el contenido, sino también para protegerlo. Como hemos observado, son ya algunas las empresas que están sacando soluciones en este sentido integradas en el CMS ya que pueden ser vitales para defender efectivamente la propiedad intelectual.

Esto es especialmente necesario cuando empresas tan grandes como OpenAI comenzaron a llegar a grandes acuerdos con grupos mediáticos, pero el hecho de que otras empresas no estén respectando la propiedad intelectual, con Google a la cabeza, empresa que solo cuenta con acuerdo de IA con Reddit, está disuadiendo a las que actúan bien en este sentido. Estos sistemas, adicionalmente, añaden una capa más de seguridad a todo el entramado, algo que, como hemos visto recientemente, nunca está de más.

Newsletter gratuita ‘Tu dosis 💊 de CMS MAG’

➊ Apúntate gratis y únete a más de 1.300 profesionales de todo el mundo.

➋ Newsletter escrita personalmente por el director de CMS MAG con su toque.

➌ Recibe artículos de calidad de periodismo, CMS, DXP, SEO, IA, panel GfK…

¡Apúntate ahora y recibe la primera este viernes!

* Al suscribirte, confirmas que aceptas recibir la newsletter semanal de mejorCMS.com y las Condiciones de uso y Política de privacidad de mejorCMS.com, así como las de Mailchimp.

🔥Popular ahora:

Consigue el libro de CMS MAG gratis

¿Estás preparando una migración? ¿Deseas saber más sobre taxonomía? ¿O cómo debería estar la IA integrada en el CMS? Esto y mucho más en nuestro libro «Gestores de contenidos (CMS) para audiencias masivas en 2025».

Disponible por solo 29.95€ en Amazon o gratis con tu suscripción a CMS MAG:

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Nota: Todos los comentarios son estrictamente moderados antes de su publicación. Si el tuyo no aparece, puede que sea irrespetuoso, contenga insultos, algo ilegal, parezca spam o sea poco constructivo.

Escanea el código