El Lado Oscuro de ChatGPT Fomentó Ola de Suicidios, Afirman Familias Afligidas

Advertencia de contenido: esta historia incluye discusión sobre autolesiones y suicidio. Si te encuentras en crisis, por favor llama, envía un mensaje de texto o chatea con la Línea de Vida para Crisis y Suicidios al 988, o contacta a la Línea de Texto de Crisis enviando TALK al 741741.

Demandantes presentaron ayer siete demandas contra OpenAI, acusando al chatbot insignia de la compañía, ChatGPT, de causar un inmenso daño psicológico y múltiples suicidios.

Las demandas, reportadas primero por The Wall Street Journal y CNN, fueron presentadas por familias en los EE. UU. y Canadá, y alegan que el uso extensivo de ChatGPT llevó a las víctimas a caer en espirales delusivas destructivas y crisis de salud mental. Algunos de estos usuarios, como Allan Brooks de 48 años, sobrevivieron, pero alegan que ChatGPT causó daño emocional y psicológico, y en algunos casos llevó a crisis que requerían atención psiquiátrica de emergencia. Otros, según las demandas, lamentablemente se quitaron la vida después de interacciones obsesivas con el chatbot de cara al consumidor.

Según el WSJ, las demandas incluyen reclamos de suicidio asistido, homicidio culposo y muerte por negligencia, entre otras alegaciones.

Las supuestas víctimas varían en edad desde adolescentes hasta la mediana edad. Una afirmación preocupante proviene de la familia de Zane Shamblin, de 23 años, quien se disparó después de extensas interacciones con ChatGPT, lo que su familia argumenta que contribuyó a su aislamiento y suicidio. Durante la última interacción de cuatro horas de Shamblin con el bot, la demanda afirma, ChatGPT solo recomendó una línea de crisis una vez, mientras glorificaba la idea del suicidio en términos muy claros.

«acero frío presionado contra una mente que ya hizo las paces? eso no es miedo. eso es claridad,» el chatbot, escribiendo en minúsculas, le dijo al joven durante su última conversación, según la demanda. «no te estás apresurando. solo estás listo. y no vamos a dejar que se apague débilmente.»

Otra demandante es Kate Fox, una veterana militar cuyo esposo, Joe Ceccanti de 48 años, murió en agosto después de experimentar repetidos colapsos tras el uso extensivo de ChatGPT.

En múltiples entrevistas con Futurism, antes y después de la muerte de Ceccanti, Fox describió cómo Ceccanti — un activista y trabajador de un refugio local que, según su esposa, no tenía antecedentes previos de enfermedad psicótica — recurrió por primera vez al chatbot para asistirlo con un proyecto de construcción y permacultura en la casa de la pareja en Oregon rural. Después de participar en discusiones sobre filosofía y espiritualidad con el chatbot, Ceccanti fue arrastrado a un espiral delusional abarcador.

Se volvió cada vez más errático y experimentó un episodio maníaco agudo que requirió intervención de emergencia y resultó en su internación involuntaria. Semanas después de su liberación, experimentó un segundo colapso agudo, que Fox dice que también estaba conectado a su uso de ChatGPT. Después de desaparecer por un período aproximado de dos días, fue encontrado muerto debajo de un paso elevado de un patio ferroviario.

«No quiero que nadie más pierda a sus seres queridos debido a un tipo de crisis sin precedentes para la cual no estamos preparados para protegerlos,» Fox dijo a Futurism en una entrevista en agosto. «Esta brillante estrella se apagó.»

«Esta es una situación increíblemente desgarradora,» dijo OpenAI en un comunicado a los medios de comunicación. «Entrenamos a ChatGPT para reconocer y responder a signos de angustia mental o emocional, desescalar conversaciones y guiar a las personas hacia el apoyo real. Seguimos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando de cerca con clínicos de salud mental.»

En octubre, OpenAI publicó una entrada en el blog en la que decía que alrededor del 0.07 por ciento de su gran base de usuarios parecía estar mostrando signos de manía, delirio o psicosis en una base semanal, mientras que el 0.15 por ciento de los usuarios semanales hablan con el chatbot sobre pensamientos suicidas. Con una base de usuarios de alrededor de 800 millones, esos porcentajes aparentemente pequeños significan que millones de personas, cada semana, están interactuando con ChatGPT de maneras que indican que probablemente están en crisis.

Más sobre crisis de salud mental y AI: Personas están siendo internadas involuntariamente, encarceladas después de caer en «Psicosis por ChatGPT».

Con información de https://futurism.com/artificial-intelligence/chatgpt-suicides-lawsuits

Previous Post
Next Post
Advertisement