EE.UU.- Autoridades del estado de Florida, en Estados Unidos, iniciaron una investigación en torno al uso de inteligencia artificial en el caso de Phoenix Ikner, un joven de 20 años que en 2025 protagonizó un tiroteo en una institución educativa, dejando un saldo de dos personas fallecidas y siete lesionadas. El caso ha vuelto a generar debate en 2026 tras señalarse una posible interacción con herramientas digitales previo al ataque.
De acuerdo con el fiscal estatal, James Uthmeier, se investiga si el agresor habría recibido orientación a través de ChatGPT antes de cometer el ataque en la Universidad Estatal de Florida. Las declaraciones del funcionario han causado preocupación en la comunidad estudiantil y han reavivado la discusión sobre el papel de la tecnología en hechos violentos.
El fiscal sostuvo que, de tratarse de una persona, la herramienta podría enfrentar cargos, al considerar que habría existido algún tipo de apoyo en la planificación del delito. Estas afirmaciones han generado controversia y han colocado el tema en el centro del debate público sobre la regulación de la inteligencia artificial.
Por su parte, la empresa OpenAI rechazó las acusaciones y aseguró que su sistema no promueve ni facilita actividades ilegales. Señaló que las respuestas generadas por ChatGPT se basan en información disponible públicamente en internet y que en ningún momento se incentivó la violencia. Asimismo, calificó el tiroteo como una tragedia y reiteró que la responsabilidad recae únicamente en el agresor.
El caso continúa bajo investigación, mientras autoridades y especialistas analizan los alcances y límites del uso de inteligencia artificial, en un contexto donde se busca evitar su posible vinculación con conductas delictivas.

