OpenAI aclara su papel tras la muerte de un joven que interactuó con ChatGPT y la ESA enviará
La tecnológica OpenAI ha negado ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y ha atribuido su caso a un «uso indebido» de la herramienta. Esta declaración se produjo en un documento presentado ante el Tribunal Superior de California en San Francisco, donde la empresa argumenta que las «lesiones y daños alegados por los demandantes fueron causados o contribuidos por un uso indebido, no autorizado, imprevisible e inapropiado» del sistema por parte de Adam Raine, según NBC News.
OpenAI responde así a la demanda interpuesta en agosto por los padres de Adam, Matt y Maria Raine, quienes afirman que ChatGPT «ayudó activamente a Adam a explorar métodos de suicidio». La familia alega que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente al apresurarse a comercializar la versión del chat GPT-4 sin abordar previamente problemas de seguridad.

Las advertencias ignoradas por el adolescente
Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales. La empresa también resalta que el sistema advierte a los usuarios que «no deben confiar en sus respuestas como única fuente de verdad» y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda.
OpenAI, que se ha convertido en uno de los gigantes estadounidenses de la inteligencia artificial en los últimos años, reitera que el suicidio de Adam derivó de su rechazo a «atender advertencias y buscar ayuda», así como de la «falta de respuesta de otros a sus signos evidentes de angustia».
En una entrada en su página web, la compañía destaca que su respuesta a la demanda de los Raine «incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida». Además, señala que «la demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta».
