La presencia de bots en el tráfico total de Internet se disparó un 400% en el segundo semestre de 2025.

Internet cambia rápidamente, y pronto las personas podrían dejar de ser sus principales «visitantes». Cada vez más tráfico lo generan no usuarios, sino programas autónomos basados en inteligencia artificial. Uno de los ejemplos más notables fue el asistente virtual OpenClaw, antes conocido como Moltbot y Clawdbot, que ganó popularidad rápidamente y mostró hasta qué punto los bots están ocupando la red.
El nuevo informe de la empresa TollBit, que monitorea la recolección masiva de datos de sitios, muestra que la proporción de estos bots ya se ha vuelto significativa. Los datos de la compañía de infraestructura Akamai confirman esta tendencia. No se trata solo del aumento del número de programas, sino de una auténtica confrontación tecnológica entre los sitios y los bots, que aprenden a evadir los mecanismos de protección.
El director de TollBit, Toshit Pangrahi, considera que en el futuro la mayor parte del tráfico de Internet corresponderá a los bots. Según él, esto ya no es solo una cuestión de derechos de autor. En la red aparece un nuevo tipo de visitante y los propietarios de sitios web tienen que tenerlo en cuenta.
Los grandes sitios intentan limitar la recopilación automatizada de materiales que luego se usan para entrenar sistemas de inteligencia artificial. Varios editores ya han presentado demandas contra los desarrolladores de esos sistemas, acusándolos de violación de derechos de autor. Al mismo tiempo, crece otro tipo de recolección automatizada. Los chatbots modernos y los servicios inteligentes cada vez obtienen con más frecuencia datos frescos directamente de la red. Esto puede incluir precios de productos, horarios de cines o resúmenes breves de noticias.
Según Akamai, el volumen de tráfico de bots que recopilan datos para entrenamiento ha estado creciendo de manera constante desde julio del año pasado. Al mismo tiempo, aumenta la actividad de los programas que cargan información para el funcionamiento de asistentes inteligentes en tiempo real. Akamai señala que la inteligencia artificial está cambiando la propia naturaleza de la red, y el resultado de esta carrera determinará la apariencia y los principios de funcionamiento de los servicios de Internet y del negocio digital.
Las estadísticas de TollBit muestran un aumento brusco de actividad. En el cuarto trimestre de 2025, cada 31.ª visita a los sitios de los clientes de la empresa era realizada por un bot de recolección de datos. En el primer trimestre fue solo una visita de cada 200. Más del 13 % de las solicitudes de esos bots ignoraron el archivo robots.txt, que indica qué secciones del sitio están prohibidas para el rastreo automatizado. La proporción de bots que violan estas restricciones aumentó un 400 % desde el segundo hasta el cuarto trimestre del año pasado.
Los propios sitios también han comenzado a protegerse con más vigor. En un año, el número de recursos que intentan bloquear bots inteligentes aumentó un 336 %. Al mismo tiempo, los métodos para eludirlos se vuelven más complejos. Algunos programas se hacen pasar por navegadores comunes o imitan el comportamiento de usuarios reales. En varios casos ya es casi imposible distinguir ese tráfico del humano.
TollBit y otras empresas ofrecen a los propietarios de sitios herramientas que permiten cobrar a los recolectores automáticos de datos. Soluciones similares también desarrolla Cloudflare. Según Pangrahi, lo sentirán todos los que dependen de la audiencia humana en los sitios, no solo los editores. Él considera que el mercado necesita un mecanismo más rápido y transparente para intercambiar valor entre los sistemas automáticos.
Algunas empresas dedicadas a recopilar datos para sistemas de inteligencia artificial han declarado que intentan respetar las limitaciones técnicas de los sitios, pero reconocieron que esas normas a menudo son complejas y contradictorias.
El director de Bright Data, Or Lenchner, afirma que su servicio no recopila datos cerrados. Anteriormente, grandes plataformas sociales presentaron demandas contra la compañía; sin embargo, parte de las reclamaciones fue retirada y otra parte fue desestimada por un tribunal. ScrapingBee declaró que las páginas abiertas están disponibles desde el principio tanto para personas como para máquinas. Oxylabs enfatizó que sus bots no acceden a secciones protegidas por contraseña ni a contenidos de pago, y que el servicio permite trabajar solo con información pública. También señalaron que la recolección automatizada se utiliza a menudo en tareas de ciberseguridad y en investigaciones periodísticas, y que los sistemas de defensa de los sitios con frecuencia no distinguen entre escenarios maliciosos y legítimos.
En el contexto de este conflicto se está formando también un nuevo mercado de servicios. Según TollBit, ya más de 40 empresas ofrecen bots para recopilar datos en interés de sistemas de inteligencia artificial. El crecimiento de la demanda lo facilitan los sistemas de búsqueda inteligentes y herramientas como OpenClaw. También surge la estrategia inversa, cuando las empresas no bloquean a los bots sino que, al contrario, buscan hacer el contenido más visible para los asistentes inteligentes. A este enfoque se le llama optimización para sistemas generativos. Los representantes del sector esperan que en 2026 esta dirección se convierta en un canal de marketing completo, que reúna búsqueda, publicidad, medios y comercio electrónico.