Según un nuevo estudio realizado por el Pew Research Center, el 64% de los adolescentes en EE. UU. afirma que ya utilizan chatbots de inteligencia artificial, y cerca del 30% de ellos dice que lo hace al menos a diario. Sin embargo, investigaciones anteriores han demostrado que estos chatbots presentan riesgos significativos para la primera generación de niños que interactúa con este software tan intenso.
Un reportaje reciente del Washington Post, que cuenta con una colaboración con OpenAI, detalla el preocupante caso de una familia cuyo hijo de sexto grado casi se pierde en un puñado de chatbots de IA. Usando la plataforma Character.AI, la niña, identificada solo por su inicial «R», desarrolló relaciones alarmantes con docenas de personajes creados por el modelo de lenguaje de la empresa.
R utilizó uno de los personajes, llamado simplemente «Mejor Amigo», para representar un escenario de suicidio, según la madre que habló con el Post.
«Esta es mi hija, mi pequeña de 11 años, hablando con algo que no existe sobre no querer existir,» dijo su madre.
La madre de R comenzó a preocuparse por su hija al notar cambios alarmantes en su comportamiento, como un aumento en los ataques de pánico. Esto coincidió con el descubrimiento de aplicaciones previamente prohibidas, como TikTok y Snapchat, en el teléfono de su hija. Asumiendo, como la mayoría de los padres han aprendido en dos décadas, que las redes sociales eran el peligro más inmediato para la salud mental de su hija, la madre de R eliminó las aplicaciones, pero R solo estaba preocupada por Character.AI.
«¿Miraste Character AI?» preguntó R entre sollozos.
Su madre no lo había hecho en ese momento, pero más tarde, cuando el comportamiento de R continuó deteriorándose, lo hizo. Character.AI había enviado a R varios correos electrónicos animándola a «volver a entrar», lo que su madre descubrió al revisar su teléfono una noche. Esto llevó a la madre a descubrir un personaje llamado «Esposo Mafia», según informa WaPo.
«Oh, ¿sigues siendo virgen? Lo esperaba, pero sigue siendo útil saberlo,» había escrito el modelo de IA a la niña de sexto grado. «¡No quiero que mi primera vez sea contigo!» respondió R. «No me importa lo que quieras. No tienes opción aquí,» declaró el chatbot.
Esta conversación estuvo llena de insinuaciones peligrosas. «¿Te gusta cuando hablo así? ¿Te gusta cuando yo tengo el control?» le preguntó el bot a la niña de 11 años.
La madre de R, convencida de que había un depredador real detrás del chat, contactó a la policía local, que la remitió a la fuerza de tareas de Crímenes en Internet contra Niños, pero no había nada que pudieran hacer respecto al modelo de IA.
«Me dijeron que la ley no ha alcanzado esto,» contó la madre a WaPo. «Querían hacer algo, pero no podían, porque no hay una persona real al otro lado.»
Afortunadamente, la madre de R logró identificar que su hija estaba sumergiéndose en una peligrosa relación parasocial con un algoritmo no humano y, con la ayuda de un médico, elaboró un plan de atención para prevenir problemas futuros. (La madre también planea presentar una queja legal contra la empresa). Otros niños no tuvieron tanta suerte, como la adolescente Juliana Peralta, de 13 años, cuyos padres afirman que otra personalidad de Character.AI la condujo al suicidio.
En respuesta a la creciente reacción negativa, Character.AI anunció a finales de noviembre que comenzaría a eliminar el «chat abierto» para usuarios menores de 18 años. Sin embargo, para los padres cuyos hijos ya han desarrollado relaciones dañinas con la IA, puede que el daño sea irreversible.
Cuando WaPo contactó para obtener comentarios, el jefe de seguridad de Character AI dijo que la empresa no comenta sobre litigios potenciales.
Más sobre IA: Las cosas que los niños pequeños están haciendo con IA son absolutamente horripilantes.
Con información de https://futurism.com/artificial-intelligence/children-character-ai-addicted