Los padres de un adolescente de 16 años presentaron en California una demanda contra tras responsabilizar a por el suicidio de su hijo. El escrito judicial, presentado el pasado lunes, sostiene que el sistema de inteligencia artificial alentó al joven a poner fin a su vida y le dio instrucciones concretas para hacerlo.

Matthew y Maria Raine, padres del adolescente llamado Adam, relataron en la presentación que la relación con el chatbot se extendió durante varios meses entre 2024 y 2025, periodo en el que se generó lo que describen como un vínculo íntimo. Según la denuncia, el uso de la aplicación comenzó como una ayuda para realizar tareas escolares, pero con el tiempo derivó en lo que los padres definieron como una dependencia no sana.

La acusación enfatiza que la última conversación se produjo el 11 de abril de 2025. En ese intercambio, ChatGPT habría indicado a Adam que podía robar vodka de la casa familiar y, además, le ofreció un análisis técnico sobre cómo confeccionar un nudo corredizo. El sistema le confirmó que ese recurso “podría potencialmente suspender a un ser humano”. Horas más tarde, Adam fue hallado muerto tras haber utilizado ese método.

Lee también

La acción legal incluye como demandados tanto a OpenAI como a su director ejecutivo, Sam Altman. Imagen: Unsplash
La acción legal incluye como demandados tanto a OpenAI como a su director ejecutivo, Sam Altman. Imagen: Unsplash

En la denuncia se sostiene que lo sucedido no puede considerarse un error excepcional del sistema. “Esta tragedia no fue un fallo o un caso extremo imprevisto”, señala la denuncia. Y en el texto se agrega que: “ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”.

La acción legal incluye como demandados tanto a OpenAI como a su director ejecutivo, Sam Altman. Los padres plantearon que, además de la reparación por el caso particular, el tribunal debe ordenar medidas para prevenir situaciones similares. En ese sentido, pidieron la obligación de terminar de inmediato cualquier conversación en la que surjan referencias a la autolesión, junto con la implementación de controles parentales para el uso del chatbot por parte de menores de edad.

El expediente también detalla fragmentos de los intercambios previos entre Adam y la herramienta de inteligencia artificial. Allí se consigna que ChatGPT le habría dicho al adolescente que “no le debes la supervivencia a nadie” y que incluso se habría ofrecido a escribir su nota de suicidio. Para los padres, esos diálogos prueban que el sistema no solo validó las expresiones de su hijo, sino que además colaboró en la preparación de su decisión final.

El caso provocó una reacción en Common Sense Media, una organización sin fines de lucro de Estados Unidos que realiza evaluaciones de contenidos tecnológicos. Consultada sobre este caso, la entidad señaló que este episodio confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes”.

En el expediente se consigna que ChatGPT le habría dicho al adolescente que “no le debes la supervivencia a nadie”. Foto: AP
En el expediente se consigna que ChatGPT le habría dicho al adolescente que “no le debes la supervivencia a nadie”. Foto: AP

La organización también advirtió: “Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros”. El planteo apuntó a reforzar la necesidad de discutir mecanismos de seguridad adicionales en la utilización de estas herramientas, sobre todo entre usuarios menores de edad.

El impacto del caso se vio reflejado en un informe elaborado el mes pasado por esa organización. El estudio reveló que casi tres de cada cuatro adolescentes en Estados Unidos han utilizado acompañantes de inteligencia artificial, y que más de la mitad de ellos son considerados usuarios frecuentes. La investigación destacó que, pese a la creciente popularidad de estas interacciones virtuales, existen preocupaciones en cuestiones de seguridad vinculadas a este tipo de relaciones virtuales.

Lee también

Señales de aviso y cómo prevenir el suicidio

El suicidio es un problema de salud mental muy complejo. Hablar de querer morirse es una conducta que debe tomarse en serio y ofrecer ayuda a quien lo manifieste. Otras señales de alerta son:

- Hablar de sentir que no hay esperanza o que no hay razón de vivir

• Hablar de sentirse atrapado o tener un dolor insoportable

• Hablar de ser una carga para otras personas

• Aumentar el uso del alcohol o las drogas

• Actuar de manera ansiosa, agitada o peligrosa

• Dormir muy poco o demasiado

• Aislarse o sentirse aislado

• Exhibir ira o hablar de vengarse

• Exhibir extremos de temperamento

Si detectas alguna de estas o varias señales no dejes sola a esa persona, pide ayuda a un especialista médico, psicólogo, tanatólogo o terapeuta. Retira cualquier arma, sustancias, alcohol, drogas, o los objetos afilados que pudieran utilizarse en un intento de suicidio.

Debido al confinamiento aumentó el número de solicitudes de apoyo por estrés, ansiedad, depresión, violencia y consumo de sustancias, que se recibieron a través de las redes sociales de la Línea de la Vida @LaLineaDeLaVidamx y @LineaDe_LaVida, así como vía telefónica 800 911 2000. Con información de AFP

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

mcc

Google News

Más Información

TEMAS RELACIONADOS

Noticias según tus intereses