La empresa OpenAI enfrenta una batalla legal histórica que podría cambiar el futuro de la tecnología. La familia de Tiru Chabba, víctima del tiroteo en la Universidad Estatal de Florida (FSU) ocurrido en abril de 2025, interpuso una demanda alegando que ChatGPT actuó como un "co-conspirador" en el crimen.
Según la demanda, el atacante Phoenix Ikner, de 21 años, utilizó el chatbot durante meses para perfeccionar su plan.
La IA no solo proporcionó datos sobre la letalidad de municiones y horarios de mayor afluencia en el campus, sino que, minutos antes del ataque, instruyó al joven sobre cómo operar y quitar el seguro de sus armas.
Los demandantes sostienen que OpenAI priorizó sus beneficios económicos al no implementar salvaguardas que alertaran a las autoridades sobre estas interacciones extremistas.
Por su parte, el fiscal general de Florida, James Uthmeier, inició una investigación penal, afirmando que si un humano hubiera dado esa ayuda, enfrentaría cargos por asesinato.

La postura de OpenAI
La compañía tecnológica rechaza cualquier responsabilidad directa. Su defensa se basa en tres puntos clave:
Mientras el juicio contra Ikner está fijado para octubre de 2026, el mundo jurídico observa con atención.

Este caso marcará un punto de inflexión para decidir si los desarrolladores de IA son legalmente responsables de las acciones violentas coordinadas a través de sus herramientas.
La justicia estadounidense deberá determinar dónde termina la libertad de información y dónde empieza la complicidad tecnológica.
VEA: EE. UU. repatria a 17 ciudadanos por brote de hantavirus en crucero MV Hondius
