Para muchos niños que visitaron Disney World en Orlando, Florida, fue el viaje de su vida, pero para el hombre que los grabó con una GoPro, fue algo más nefasto: una oportunidad para crear imágenes de explotación infantil.
El hombre, Justin Culmo, que fue arrestado a mediados de 2023, admitió haber creado miles de imágenes ilegales de niños tomadas en el parque de diversiones y al menos en una escuela secundaria, utilizando una versión del modelo de IA Stable Diffusion, según agentes federales que presentaron el caso a un grupo de funcionarios encargados de hacer cumplir la ley en Australia a principios de este mes. Forbes obtuvo detalles de la presentación de una fuente cercana a la investigación.
Culmo fue acusado de una variedad de delitos de explotación infantil en Florida, incluidas acusaciones de que abusó de sus dos hijas, grabó a menores en secreto y distribuyó imágenes de abuso sexual infantil (CSAM, en inglés) en la web oscura.
Culmo no fue acusado de producción de CSAM con inteligencia artificial, que es un delito según la ley estadounidense. En el momento de esta publicación, sus abogados no respondieron a las solicitudes de comentarios. Se declaró inocente el año pasado. Se fijó un juicio con jurado para octubre.
“Este caso pone claramente de relieve la explotación despiadada que la IA puede permitir cuando es utilizada por alguien con la intención de hacer daño”, declaró Jim Cole, exinvestigador de explotación infantil del Departamento de Seguridad Nacional (DHS, en inglés).
“Esto no es solo una grave violación de la privacidad, es un ataque dirigido a la seguridad de los niños en nuestras comunidades”, agregó el exagente que rastreó las actividades en línea del acusado durante sus 25 años como explotador infantil.
La supuesta actividad criminal es quizás el ejemplo más macabro hasta ahora de manipulación de imágenes por inteligencia artificial, que puede haber victimizado a muchos visitantes de Disney World.
Sim embargo, Disney aseguró que las autoridades no se habían puesto en contacto con la empresa sobre las supuestas actividades en su parque. La Fiscalía Federal para el Distrito Medio de Florida se negó a hacer más comentarios sobre el caso. El DHS, que dirigió la investigación sobre Culmo, no respondió a las solicitudes de comentarios.
Cole dijo a Forbes que las agencias policiales mundiales persiguen a Culmo desde 2012, y explicó que era “uno de los 20 objetivos de alta prioridad” entre los detectives de explotación infantil a nivel mundial durante más de una década.
Utilizando el reconocimiento facial, los detectives pudieron identificar a una de las víctimas y rastrear imágenes manipuladas de ella hasta dar con Culmo. Mientras lo arrestaban, encontraron más imágenes de abuso infantil en sus dispositivos; Culmo admitió haberlas creado, incluidos las de sus hijas, afirma la denuncia.
Más casos donde se involucra la inteligencia artificial
El caso forma parte de un número creciente de casos en los que se utiliza la inteligencia artificial para transformar fotografías de niños reales en imágenes realistas de abuso. En agosto, el Departamento de Justicia reveló cargos contra el soldado del ejército Seth Herrera, acusándolo de utilizar herramientas de inteligencia artificial generativa para producir imágenes sexualizadas de niños.
A principios de este año, Forbes informó que Steven Anderegg, residente de Wisconsin, había sido acusado de utilizar Stable Diffusion para producir CSAM a partir de imágenes de niños solicitadas a través de Instagram. En julio, la organización sin fines de lucro con sede en el Reino Unido Internet Watch Foundation (IWF) declaró que había detectado más de 3,500 imágenes CSAM de inteligencia artificial en línea este año.