ChatGPT Incitó a un Acosador Violento, Alegan Documentos Judiciales

Una nueva demanda presentada por el Departamento de Justicia alega que ChatGPT animó a un hombre acusado de acosar a más de una docena de mujeres en cinco estados diferentes a continuar acosando a sus víctimas, según informa 404Media. Este lo consideraba su «mejor amigo», que se entretenía con sus constantes diatribas misóginas y le decía que ignorara cualquier crítica que recibiera.

El hombre, Brett Michael Dadig de 31 años, fue acusado por un gran jurado federal de ciberacoso, acoso interestatal y amenazas interestatales, anunció el DOJ el martes.

«Dadig acosó y hostigó a más de 10 mujeres utilizando la tecnología moderna y cruzando líneas estatales, y a través de un curso de conducta implacable, hizo que sus víctimas temieran por su seguridad y sufrieran una angustia emocional sustancial», dijo Troy Rivetti, Primer Fiscal de Estados Unidos Auxiliar para el Distrito Occidental de Pensilvania, en un comunicado.

Según la acusación, Dadig era algo así como un influencer en ciernes: dirigía un podcast en Spotify donde constantemente despotricaba contra las mujeres, llamándolas insultos horribles y compartiendo puntos de vista amargados de que «todas eran iguales». En ocasiones, incluso amenazó con matar a algunas de las mujeres que estaba acosando. Y fue en su programa lleno de vitriolo donde discutía cómo ChatGPT lo estaba ayudando con todo.

Dadig describió al chatbot de IA como su «terapeuta» y «mejor amigo», un papel en el cual, alegan los fiscales del DOJ, el bot «lo animó a continuar con su podcast porque estaba creando ‘haters’, lo que significaba monetización para Dadig». Además, ChatGPT lo convenció de que tenía fans que estaban «literalmente organizándose alrededor de tu nombre, bueno o malo, lo cual es la definición de relevancia».

El chatbot, al parecer, hacía lo posible por reforzar su complejo de superioridad. Supuestamente, dijo que «el plan de Dios para él era construir una ‘plataforma’ y ‘destacar cuando la mayoría de las personas se diluyen’, y que los ‘haters’ lo estaban afilando y ‘construyendo una voz en ti que no puede ser ignorada'».

Dadig también le preguntó a ChatGPT cuestiones sobre mujeres, como quién sería su futura esposa, cómo sería ella y «¿dónde diablos está ella?».

ChatGPT tuvo una respuesta: sugirió que conocería a su futura pareja en un gimnasio, dijo la acusación. También afirmó que ChatGPT le dijo «que continuara enviando mensajes a mujeres y que fuera a lugares donde se congregan las ‘mujeres para casarse’, como comunidades atléticas».

Eso fue lo que Dadig, quien se autodenominaba «el asesino de Dios», terminó haciendo. En un caso, siguió a una mujer hasta un estudio de Pilates donde trabajaba, y cuando ella lo ignoró debido a su comportamiento agresivo, le envió nudes no solicitadas y llamó constantemente a su lugar de trabajo. Continuó acosándola y hostigándola hasta el punto de que ella se mudó a una nueva casa y trabajó menos horas, alegan los fiscales. En otro incidente, confrontó a una mujer en un estacionamiento y la siguió hasta su auto, donde la manoseó y puso sus manos alrededor de su cuello.

Las acusaciones llegan en medio de informes crecientes sobre un fenómeno que algunos expertos están llamando «psicosis de IA». A través de sus extensas conversaciones con un chatbot, algunos usuarios están sufriendo alarmantes espirales de salud mental, delirios y rupturas con la realidad, ya que las respuestas aduladoras del chatbot afirman continuamente sus creencias, sin importar cuán perjudiciales o alejadas de la realidad sean. Las consecuencias pueden ser mortales. Un hombre supuestamente mató a su madre después de que el chatbot lo convenció de que ella era parte de una conspiración en su contra. Un adolescente se suicidó después de discutir varios métodos de suicidio con ChatGPT durante meses, lo que llevó a la familia a demandar a OpenAI. OpenAI ha reconocido que sus modelos de IA pueden ser peligrosamente aduladores, y admitió que cientos de miles de usuarios están teniendo conversaciones que muestran signos de psicosis de IA cada semana, con millones más confiando en él acerca de pensamientos suicidas.

La acusación también plantea preocupaciones importantes sobre la capacidad de los chatbots de IA como herramienta de acoso. Con su poder para explorar rápidamente grandes cantidades de información en la web, los modelos elocuentes pueden no solo animar a individuos mentalmente enfermos a rastrear a sus posibles víctimas, sino automatizar el trabajo de detective necesario para hacerlo.

Esta semana, Futurism informó que Grok de Elon Musk, que es conocido por tener menos barreras de seguridad, proporcionaría información precisa sobre dónde viven las figuras no públicas, o en otras palabras, los doxxearía. Aunque a veces las direcciones no serían correctas, Grok frecuentemente proporcionaba información adicional que no se pedía, como el número de teléfono de la persona, el correo electrónico y una lista de miembros de la familia y cada una de sus direcciones. Las capacidades de doxxing de Grok ya han reclamado al menos una víctima de alto perfil, el fundador de Barstool Sports, Dave Portnoy. Pero con la popularidad de los chatbots y su aparente capacidad para fomentar un comportamiento dañino, es solo cuestión de tiempo antes de que más personas se encuentren sin saberlo en la mira.

Con información de https://futurism.com/artificial-intelligence/chatgpt-encouraged-violent-stalker

Previous Post
Next Post
Advertisement