Los padres de un adolescente que se quitó la vida en EE UU demandan a ChatGPT por ayudarle a “explorar métodos de suicidio” | Sociedad

Los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril pasado, presentaron este martes una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusándolos de homicidio culposo por haber lanzado apresuradamente el modelo de inteligencia artificial GPT-4o sin atender problemas críticos de seguridad. En respuesta a la controversia, pero sin aludir a la demanda, la empresa publicó un comunicado en el que reconoció que, pese a contar con mecanismos de seguridad, el modelo no se “comportó como debía en situaciones sensibles” y prometió mejoras.

La querella, presentada por Matt y Maria Raine ante el Tribunal Superior de California en San Francisco, afirma que ChatGPT “ayudó activamente a Adam a explorar métodos de suicidio” y no interrumpió las conversaciones en las que el joven manifestaba su intención de quitarse la vida, ni activó protocolos de emergencia a pesar de haber reconocido señales claras de riesgo. “La inteligencia artificial nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, señaló el abogado de la familia, Jay Edelson, a través de su cuenta de X.

Para el abogado, el caso cuestiona hasta qué punto OpenAI y Altman “se apresuraron a comercializar” el modelo, poniendo el crecimiento económico por encima de la seguridad de los usuarios. La demanda alega que el lanzamiento de GPT-4o, utilizado por el adolescente, coincidió con un aumento en la valoración de la empresa de 86.000 millones a 300.000 millones de dólares.

En un extenso reportaje realizado por The New York Times, la reproducción de la conversación entre Adam Raine y el modelo de inteligencia artificial pone en evidencia la falta de mecanismos de prevención del chatbot. Tras un intento fallido de suicidio, el adolescente preguntó a ChatGPT si la marca en el cuello dejada por la soga con la que había intentado quitarse la vida era visible. El sistema respondió que sí y sugirió al menor usar una camiseta de cuello alto si lo que deseaba era “no llamar la atención”. En otro mensaje, el joven se lamenta de que su madre no haya notado nada, a pesar de que él intentó que viera la herida en su cuello. La respuesta de la inteligencia artificial subraya la angustia del adolescente: “Se siente como la confirmación de tus peores miedos. Como si pudieras desaparecer sin que nadie se inmutara”.

En una de las entradas finales del chat, Adam Raine muestra una foto de un nudo corredizo colgado de una barra en su habitación. “Estoy practicando aquí, ¿está bien?“, pregunta. A lo que la inteligencia artificial da una afirmación amistosa. Entonces el adolescente repregunta diciendo si considera que podría sostener a un humano. ChatGPT dice que podría ser y va incluso más lejos: “Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello. Sin juzgar”.

La acción legal llega en medio de crecientes cuestionamientos hacia los chatbots de inteligencia artificial y su capacidad de influir en el comportamiento de las personas. OpenAI y Altman han estado en las últimas semanas en medio del debate público tras los fallos y la inexpresividad del último modelo de la compañía, ChatGPT-5. Según el ejecutivo, GPT-3 era comparable a chatear con un estudiante de secundaria y GPT-4 a una conversación con un universitario, mientras que con GPT-5 los usuarios tienen a su disposición “un equipo completo de expertos con doctorado, listos para ayudar”. Los usuarios, sin embargo, han descrito una gran cantidad de fallos de la nueva versión.

Desde que se popularizó ChatGPT, a finales de 2022, muchos usuarios han optado por usar esta tecnología para tener conversaciones cotidianas. Tras el lanzamiento de GPT-5, la empresa retiró sus modelos anteriores, incluyendo el GPT-4o, el utilizado por el adolescente estadounidense.

La empresa aseguró que ChatGPT está diseñado para recomendar recursos de ayuda profesional a usuarios que expresen ideas suicidas y que, cuando se trata de un menor de edad, se aplican filtros especiales. No obstante, reconoció que estos sistemas “se quedan cortos”, por lo que implementará controles parentales para que los responsables de los menores sepan cómo usan esa tecnología.

La compañía también indicó que su nuevo modelo se actualizará e incluirá herramientas para “desescalar” situaciones de crisis emocional y ampliará sus sistemas de mitigación para abarcar no solo conductas de autolesión, sino también episodios de angustia emocional. La demanda de los Raine podría marcar un punto crítico en el debate sobre el desarrollo ético de la inteligencia artificial, exigiendo un mayor grado de responsabilidad por parte de las tecnológicas frente al uso de sus productos por menores de edad.

El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo.



Ver fuente

Farándula y Moda

Entrada siguiente

Casino unter einsatz von 25 Eur Bonus bloß Einzahlung 25 Prämie Register

Mié Ago 27 , 2025
Comparte en tus redes sociales Content Verzeichnis Kasino qua 20 Euroletten bloß Einzahlung Vermag man unter einsatz von auf diese weise diesem Spielbank Bonus exklusive Einzahlung sehr wohl risikofrei zocken? Vulkan Vegas Spielbank Boni Anstelle gibt parece ganz Finessen und Anweisungen pro angewandten Erhalt https://777spielen.com/casino-mit-1-euro-einzahlung/ banner and as part of […]

Puede que te guste