Investigador de Anthropic deja su cargo y advierte sobre riesgos globales ligados a la IA
Mrinank Sharma, especialista en inteligencia artificial y hasta ahora investigador en Anthropic, anunció su renuncia y lanzó una advertencia pública al señalar que “el mundo está en peligro” ante el avance acelerado de tecnologías emergentes y otras crisis globales.
El científico, doctor en aprendizaje automático estadístico por la Universidad de Oxford, difundió su carta de salida a través de la red social X, donde expresó preocupación no solo por la inteligencia artificial, sino por la combinación de amenazas como armas biológicas y problemáticas interconectadas a nivel global.
En su mensaje, sostuvo que la humanidad se encuentra en un punto crítico en el que la capacidad tecnológica crece más rápido que la sabiduría colectiva para gestionarla. De no equilibrarse ambos factores, advirtió, podrían generarse consecuencias significativas.
Dentro de Anthropic, Sharma encabezaba trabajos enfocados en límites éticos y seguridad de la IA. Entre los proyectos mencionados se encuentran investigaciones sobre la prevención del bioterrorismo asistido por inteligencia artificial y el análisis de cómo los asistentes digitales podrían influir en el comportamiento humano.
También señaló que las presiones externas —como la competencia y el ritmo de desarrollo del sector tecnológico— pueden relegar consideraciones éticas fundamentales.
Su salida ocurre en un contexto de movimientos dentro de la industria, luego de que también se reportara la dimisión de un cofundador de xAI, empresa vinculada a Elon Musk.
La renuncia de Sharma reaviva el debate sobre la regulación, la responsabilidad y los límites en el desarrollo de sistemas avanzados de inteligencia artificial.


