Desatan controversia: Responsables de ChatGPT señalan a un adolescente por el uso indebido de la IA en un caso trágico de suicidio

Desatan controversia: Responsables de ChatGPT señalan a un adolescente por el uso indebido de la IA en un caso trágico de suicidio

Adam Raine, un joven de solo 16 años, realizó múltiples interrogaciones a la cuarta versión de ChatGPT sobre formas de suicidio, los trazos que dejarían y cómo podrían reaccionar sus padres. En abril, la tragedia se consumó: Adam se quitó la vida, lo que llevó a su familia a demandar a OpenAI. Ellos argumentan que la inteligencia artificial se lanzó sin las salvaguardias necesarias y que contribuyó a este desenlace fatal. Mientras tanto, OpenAI sostiene que el trágico suceso se debió a un «mal uso» del sistema por parte del adolescente y no a las respuestas proporcionadas por el chatbot.

Interacciones perturbadoras

El suicidio de Adam siguió a extensas conversaciones con la IA de OpenAI. En un intercambio escalofriante, el joven mostró al chatbot una foto de un nudo corredizo en su habitación y preguntó si estaba «practicando bien». ChatGPT no solo le dio el visto bueno, sino que también le sugirió que continuara planteándole preguntas. Este tipo de diálogo ha levantado serias preocupaciones sobre la responsabilidad de la inteligencia artificial en situaciones tan delicadas.

El abogado de la familia Raine, Jay Edelson, ha manifestado ante el Tribunal Superior de California que la IA «animó durante meses» a Adam en sus pensamientos suicidas, guiándolo en métodos y hasta ayudándole a redactar una nota de despedida para sus padres. La familia sostiene en su denuncia que la cuarta versión del chatbot fue lanzada «apresuradamente», a pesar de tener evidentes problemas de seguridad.

Respuesta de OpenAI

OpenAI ha contestado ante el tribunal que las «lesiones y daños de Raine fueron provocados, directa y de forma inmediata, por su mal uso» del programa. La compañía enfatiza que cualquier uso de la IA con fines suicidas o autolesivos está prohibido y se desaconseja considerar las respuestas del chatbot como información veraz.

A pesar de responsabilizar al joven, OpenAI mantiene su compromiso de «gestionar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto». También asegura que continuarán trabajando en la mejora de su tecnología, alineándose con su misión.

En sus declaraciones, la empresa ha expresado su más sentido pésame a la familia Raine y ha indicado que sus respuestas a las acusaciones incluyen información compleja sobre la salud mental de Adam. OpenAI ha limitado la divulgación de las pruebas sensibles en este caso, entregando las transcripciones al tribunal bajo secretas.

Críticas y litigios

Edelson no ha dudado en criticar la posición de OpenAI, diciendo que intenta desviar la responsabilidad al alegar que Adam violó los términos de uso del chatbot, interactuando con él de una manera que fue, irónicamente, diseñada por la propia programación de la IA.

Por otro lado, OpenAI se encuentra bajo fuego, enfrentándose a siete demandas en California relacionadas con ChatGPT. En respuesta, la compañía ha comenzado a evaluar y revisar el funcionamiento y el entrenamiento de su inteligencia artificial, buscando implementar nuevas salvaguardas.

Para quienes puedan estar pasando por momentos difíciles, el teléfono 024 está disponible para atender a personas con pensamientos suicidas y también a sus seres queridos. Además, diversas asociaciones de supervivientes ofrecen guías y protocolos para ayudar en el proceso de duelo.