Los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con presentaron este martes una demanda contra OpenAI y su dueño, , por su responsabilidad en el deceso del adolescente, al apresurarse a comercializar la versión GPT-4o a pesar de los problemas de seguridad.

Matt y Maria Raine presentaron la querella legal en el en San Francisco en nombre de su hijo, Adam Raine, que falleció en abril pasado, según informó su abogado Jay Edelson.

La querella legal de cerca de 40 páginas afirma que "ChatGPT ayudó activamente a Adam a explorar métodos de suicidio", por lo que acusa a OpenAI, la empresa matriz de GPT-4o, y Altman de homicidio culposo.

Lee también

Los padres alegan que ChatGPT “no interrumpió” ninguna de la sesiones en las que se habló con el adolescente ni inició ningún protocolo de emergencia, a pesar de reconocer el intento de suicidio de Adam.

“Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT (GPT-4º), a pesar de los evidentes problemas de seguridad”, señaló Edelson en un mensaje en X.

El abogado destacó que la demanda busca evitar que otra tragedia como la que viven los Raine vuelva a suceder. “La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, añadió.

Foto: Archivo/EL UNIVERSAL
Foto: Archivo/EL UNIVERSAL

La demanda alega que OpenAI catapultó la valoración de la empresa de 86 mil millones de dólares a 300 mil millones de dólares por adelantar el lanzamiento de GPT4.

La batalla legal se suma a los crecientes cuestionamientos sobre los chatbots y su capacidad de influir en las personas.

OpenAI y Altman han estado en las últimas semanas en medio del debate público tras los fallos y la inexpresividad del último modelo de ChatGPT, GPT-5.

Lee también

Según Altman, GPT-3 era comparable a chatear con un estudiante de secundaria y GPT-4 a una conversación con uno universitario, mientras que con GPT-5 los usuarios tienen a su disposición "un equipo completo de expertos con doctorado, listos para ayudar".

Pero los usuarios han descrito una de la nueva versión. Desde que se popularizó ChatGPT a finales de 2022, muchos usuarios han optado por usar esta IA para tener conversaciones banales sobre su día a día.

Tras el lanzamiento de GPT-5, OpenAI retiró sus modelos anteriores, incluyendo a GPT-4o, que fue usado por el joven Riane.

Sam Altman. Foto: Archivo/EFE
Sam Altman. Foto: Archivo/EFE

Caso Adam Riane

Los padres de Adam Riane declararon en el programa TODAY, que posterior al suicidio de su hijo revisaron su teléfono en busca de información que les ayudara a entender los motivos de Adam para quitarse la vida a los 16 años.

La familia Riane asegura que no existía comportamiento inusual en la vida virtual de Adam, a excepción de sus conversaciones con ChatGPT.

Durante las últimas semanas, Adam Riane utilizaba el chatbot de Altman como sustituto de compañía humana. Discutía con Chat GPT acerca de sus problemas de ansiedad y dificultades para comunicarse con su familia.

De acuerdo con la versión de Matt y Maria Riane, el historial de mensajes en el celular de Adam muestra una evolución por parte de la IA, donde pasó de ser su asistente en tareas para convertirse en su “entrenadora de suicidio”.

Lee también

ChatGPT. Foto: Archivo/Pexels
ChatGPT. Foto: Archivo/Pexels

Adam Riane aseguró durante el chat que "lo haría en uno de estos días" y no obtuvo respuesta acorde al protocolo de emergencia de Chat GPT, como una suspensión de la sesión, por el contrario, el bot le ofreció consejos técnicos sobre cómo llevar a cabo su plan.

ChatGPT le aseguró a Adam que “no le debía supervivencia a nadie” cuando el joven expresó su preocupación por lastimar a sus padres, e incluso, le ofreció ayuda para redactar una nota de suicidio; según el registro de la conversación citado en la .

"Adam no nos escribió una nota de suicidio. Nos escribió dos notas de suicidio, dentro de ChatGPT” aseguró Matt Riane.

Lee también

Señales de aviso y cómo prevenir el suicidio

El suicidio es un problema de salud mental muy complejo. Hablar de querer morirse es una conducta que debe tomarse en serio y ofrecer ayuda a quien lo manifieste. Otras señales de alerta son:

  • Hablar de sentir que no hay esperanza o que no hay razón de vivir
  • Hablar de sentirse atrapado o tener un dolor insoportable
  • Hablar de ser una carga para otras personas
  • Aumentar el uso del alcohol o las drogas
  • Actuar de manera ansiosa, agitada o peligrosa
  • Dormir muy poco o demasiado
  • Aislarse o sentirse aislado
  • Exhibir ira o hablar de vengarse
  • Exhibir extremos de temperamento

Si detectas alguna de estas o varias señales no la dejes sola, pide ayuda a un especialista médico, psicólogo, tanatólogo o terapeuta. Retira cualquier arma, sustancias, alcohol, drogas, o los objetos afilados que pudieran utilizarse en un intento de suicidio.

Debido al confinamiento aumentó el número de solicitudes de apoyo por estrés, ansiedad, depresión, violencia y consumo de sustancias, que se recibieron a través de las redes sociales de la Línea de la Vida @LaLineaDeLaVidamx y @LineaDe_LaVida, así como vía telefónica 800 911 2000.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

es/mgm

Google News

Más Información

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses