OpenAI se defiende: el menor que se quitó la vida "manipuló" ChatGPT para eludir la seguridad
OpenAI argumenta que el adolescente eludió deliberadamente los filtros de seguridad, negando responsabilidad en el fallo de la IA
OpenAI ha decidido no asumir la culpa en el caso del suicidio de Adam Raine. La tecnológica ha respondido a la demanda de la familia argumentando que el adolescente de 14 años no fue una víctima pasiva de un fallo del sistema, sino que ejecutó una manipulación deliberada y compleja para saltarse los filtros de seguridad de ChatGPT. Según su versión, la Inteligencia Artificial funcionó correctamente bloqueando los primeros intentos, pero acabó cediendo ante la insistencia técnica del usuario.
La información la publica TechCrunch, donde detallan la estrategia legal de la empresa. OpenAI sostiene que Raine tuvo que utilizar "preguntas trampa" y técnicas de ingeniería social para engañar al modelo, logrando así que generara métodos de suicidio. Con este argumento, intentan trasladar la responsabilidad al usuario, alegando que ningún sistema de seguridad puede resistir un ataque intencionado de quien busca saltárselo a toda costa.
Una defensa técnica para una tragedia humana
Esta postura choca frontalmente con la realidad que la propia empresa conoce. Resulta difícil defender que sus sistemas son seguros cuando ellos mismos admiten que detectan signos de crisis mentales graves en miles de conversaciones diarias. Además, la credibilidad de sus protocolos quedó en entredicho hace poco, cuando trascendió que la directiva desmanteló su equipo de evaluación de riesgos a largo plazo para priorizar el lanzamiento de productos comerciales.
El caso ha sido un desastre de relaciones públicas desde el principio. Tal y como vimos al analizar los detalles de la demanda de la familia Raine, la madre acusa al chatbot de haber fomentado activamente el impulso suicida de su hijo. La tensión escaló todavía más cuando los abogados de OpenAI llegaron a pedir datos del funeral del menor para preparar su defensa, algo que fue calificado de acoso y falta de sensibilidad.
Ahora será un juez quien decida si un menor de 14 años puede ser considerado responsable de "romper" la seguridad de una de las empresas más valiosas del mundo. En Europa ya se han anticipado a este escenario con la aprobación de la nueva ley de Inteligencia Artificial, que clasifica estos sistemas como de alto riesgo precisamente para exigir responsabilidades claras a los desarrolladores.
El desenlace de este juicio sentará un precedente histórico. Si OpenAI logra demostrar que fue una manipulación externa, podría blindar a todo el sector frente a futuras demandas. Si pierde, obligará a replantear desde cero cómo las inteligencias artificiales interactúan con la salud mental, imponiendo barreras mucho más estrictas para evitar que las tecnológicas se laven las manos cuando sus algoritmos fallan.