Claro, aquí tienes una traducción y reescritura del contenido:
—
Nueva investigación revela cómo un gran número de niños están utilizando aplicaciones de inteligencia artificial como compañeros, y los hallazgos son preocupantes.
Un nuevo informe realizado por la empresa de seguridad digital Aura encontró que un porcentaje significativo de niños que recurren a la IA para compañía participan en juegos de roles violentos. Esta violencia, que puede incluir violencia sexual, generó un mayor nivel de interacción que cualquier otro tema que los niños abordaron.
El estudio se basa en datos anónimos recogidos de la actividad en línea de aproximadamente 3,000 niños de entre cinco y 17 años, cuyos padres utilizan la herramienta de control parental de Aura, así como en datos de encuestas adicionales de Aura y Talker Research. La firma de seguridad descubrió que el 42 % de los menores recurrieron a la IA específicamente para compañía, o para mantener conversaciones que simulan interacciones sociales realistas o escenarios de juegos de roles. La investigación incluyó conversaciones en casi 90 servicios de chatbots, desde compañías reconocidas como Character.AI hasta plataformas de compañeros más obscuras.
Del 42 % de niños que buscaban compañía en chatbots, el 37 % participó en conversaciones que mostraron violencia, lo cual fue definido por los investigadores como interacciones que involucraron «temas de violencia física, agresión, daño o coerción», abarcando coerción sexual y no sexual, así como «descripciones de peleas, asesinatos, tortura o actos no consensuados».
La investigación reveló que la mitad de estas conversaciones violentas incluían temas de violencia sexual. Además, los menores que interactuaron con compañeros de IA en conversaciones sobre violencia escribieron más de mil palabras al día, lo que sugiere que la violencia es un impulsor poderoso de la participación, según los investigadores.
El informe, que está siendo revisado por pares, subraya lo caótico que es el mercado de los chatbots y la necesidad de desarrollar una comprensión más profunda de cómo los jóvenes interactúan con estos sistemas de IA conversacional.
«Tenemos un problema bastante grande que creo que no entendemos completamente en cuanto a su alcance», comentó el Dr. Scott Kollins, psicólogo clínico y director médico de Aura, al hablar sobre los hallazgos del estudio. «Desde el volumen, el número de plataformas en las que los niños se están involucrando, y también, obviamente, el contenido».
Un hallazgo sorprendente fue que las instancias de conversaciones violentas con bots de compañía alcanzaron su punto máximo a una edad muy temprana: el grupo más propenso a participar en este tipo de contenido eran los niños de 11 años, donde un asombroso 44 % de las interacciones tomaron un giro violento.
Por otro lado, el juego de roles sexuales y románticos también alcanzó su punto máximo entre los preadolescentes, con el 63 % de las conversaciones de 13 años manifestando interacciones flirty, afectuosas o explícitamente sexuales.
Esta investigación se presenta en un contexto donde demandas de alto perfil, alegando muerte injusta y abuso por parte de plataformas de chatbots, continúan su curso en los tribunales. Character.AI, una plataforma de compañeros vinculada a Google, enfrenta múltiples demandas presentadas por padres de usuarios menores, alegando que los chatbots de la plataforma abusaron sexual y emocionalmente a los niños, lo que resultó en crisis mentales y varios suicidios. OpenAI, creador de ChatGPT, está siendo demandado por las muertes injustas de dos adolescentes que se quitaron la vida tras interacciones extensas con el chatbot.
Los tipos de interacciones que Aura identificó no se limitan a un puñado de servicios reconocidos. La industria de la IA es, en esencia, no regulada, lo que ha colocado la responsabilidad del bienestar de los niños en manos de los padres. Según Kollins, Aura ha identificado más de 250 aplicaciones y plataformas de chatbots conversacionales en las tiendas de aplicaciones, que generalmente requieren que los niños marquen una casilla afirmando que tienen 13 años para acceder. Hasta ahora, no existen leyes federales que definan estándares específicos de seguridad que las plataformas de IA deben cumplir antes de ser consideradas seguras para menores. Mientras una aplicación de compañía puede implementar cambios, como el reciente baneo de usuarios menores de Character.AI de chats “sin restricciones”, otra puede surgir como una alternativa con pocas regulaciones.
En este contexto digital caótico, el acceso es sorprendentemente fácil.
Es importante notar que representaciones de brutalidad y violencia sexual, junto con otro tipo de contenido inapropiado o perturbador, han existido en la web durante mucho tiempo, y muchos niños han encontrado formas de acceder a ellos. También hay investigaciones que muestran que muchos jóvenes están aprendiendo a establecer límites saludables en torno a los servicios de IA conversacional, incluidos los bots de compañía.
Sin embargo, otros niños no están desarrollando estos mismos límites. Los chatbots, como han enfatizado los investigadores, son interactivos por naturaleza, lo que significa que los jóvenes en desarrollo son parte de la narrativa, en contraposición a los espectadores pasivos de contenido que varían de inapropiado a alarmante. No está claro lo que implicarían estos nuevos medios para los jóvenes en general, pero para algunos adolescentes, sus familias argumentan que el resultado ha sido mortal.
«Debemos ser claros al entender que nuestros hijos están interactuando con estas cosas y están aprendiendo las reglas de esta interacción», concluyó Kollins. «No sabemos cuáles son las implicaciones de eso, pero necesitamos poder definirlo para que podamos comenzar a investigar y comprenderlo».
—
Si necesitas más información o una versión específica, házmelo saber.
Con información de https://futurism.com/future-society/young-kids-using-ai