EE.UU.- La tecnológica Anthropic asegura que hackers patrocinados por China usaron su herramienta de inteligencia artificial (IA), Claude Code, para realizar ciberataques contra un grupo de empresas y agencias gubernamentales.
En un comunicado publicado en las últimas horas, la compañía relata que a mediados de septiembre detectó “una actividad sospechosa” que, tras una investigación posterior, calificó como “una campaña de espionaje muy sofisticada” en la que los atacantes “utilizaron sus agentes de IA para ejecutar ciberataques”.
Anthropic afirma que “el agente de la amenaza” era un grupo patrocinado por el Estado chino que manipuló su modelo Claude Code para intentar infiltrarse en unos treinta objetivos globales, que fueron exitosos en algunos casos.
La operación estaba dirigida contra grandes empresas tecnológicas, instituciones financieras, empresas de fabricación de productos químicos y organismos gubernamentales, indica la compañía.
Según el comunicado, los hackers ordenaron a Claude participar en su operación, al desglosar sus ataques “en pequeñas tareas aparentemente inocentes” que la herramienta ejecutó “sin conocer el contexto de su propósito”.
El grupo de atacantes también dijo a Claude que era empleado de una empresa de ciberseguridad y que la estaba utilizando “en pruebas defensivas”.
De esta manera, la IA identificó las vulnerabilidades de seguridad en los sistemas de las empresas atacadas, con lo que pudo recopilar credenciales -como nombres de usuarios y contraseñas- para extraer una gran cantidad de datos privados con una supervisión humana mínima.
En total, la tecnológica destaca que los supuestos agentes chinos utilizaron la IA para llevar a cabo entre el 80 % y el 90 % de su campaña de ataques, de manera que la intervención humana fue “esporádica”.
“En el momento álgido del ataque, la IA realizó miles de solicitudes, a menudo varias por segundo, una velocidad que habría sido simplemente imposible de igualar para los hackers humanos”, apunta al comunicado.
Anthropic reconoce que esta operación “supone una escalada” en materia de ciberataques y “refleja patrones de comportamiento consistentes en los modelos de IA de vanguardia”.
Pese a todo, la compañía dice que “las mismas capacidades que permiten utilizar Claude en estos ataques también lo convierten en una herramienta crucial para la ciberdefensa”.
El pasado agosto, Anthropic ya había advertido que sus herramientas de IA se habían usado en ciberataques y posteriormente acusó a hackers chinos de utilizar su IA para atacar a empresas de telecomunicaciones y entidades gubernamentales en Vietnam.
Con información de comunicado
EFE


