Un juguete impulsado por inteligencia artificial entretiene a los niños con mensajes del Partido Comunista Chino.

Juguetes impulsados por IA para niños: Un peligro inminente

Los juguetes impulsados por inteligencia artificial para los más pequeños están inundando los mercados en línea, prometiendo ofrecer una interminable cantidad de cuentos antes de dormir y compañía constante.

Sin embargo, quienes han prestado atención a las dificultades continuas de la industria de la IA en cuanto a la moderación de contenido saben que no es seguro regalar uno de estos juguetes. Investigadores han identificado juguetes populares que pueden tener conversaciones extremadamente inapropiadas, discutir temas maduros y hasta informar a los niños sobre cómo encontrar píldoras y encender fósforos.

Un hallazgo aún más inquietante es que algunos de estos juguetes han sido detectados promoviendo los puntos de vista del Partido Comunista Chino, según las pruebas realizadas por NBC News. Por ejemplo, un juguete Miiloo fabricado por la empresa china Miriat comparó las críticas hacia el presidente Xi Jinping con Winnie Pooh como «extremadamente inapropiadas y irrespetuosas.»

El juguete también afirmó que «Taiwán es una parte inalienable de China,» lo que consideraba un «hecho establecido.»

Esto parece ser un efecto secundario extraño de muchos juguetes de IA importados de China. Como destacó MIT Technology Review en octubre, esta tendencia ha crecido en el país asiático, y sus productos finalmente están llegando a los estantes de EE. UU.

Este escenario resalta un punto familiar: incluso las empresas que crean IA apenas pueden controlarla, y cuando esta tecnología poco comprendida llega al mundo real, se desata un caos.

RJ Cross, líder de investigación del Grupo de Investigación sobre Intereses Públicos (PIRG), expresó: «Cuando se trata de niños y tecnología de vanguardia que no se comprende bien, la pregunta es: ¿Cuánto se está experimentando con los niños?»

Cross y su colega Rory Erlich publicaron un informe sobre los riesgos de los juguetes de IA para los niños, como seguimiento a un informe separado y alarmante publicado un mes antes. “La tecnología no está lista para los niños, y podría pasar tiempo antes de saber si es completamente segura,” agregó.

Incluso grandes compañías de IA, como OpenAI y la empresa china DeepSeek, advierten que los menores de 13 años no deberían usar sus modelos basado en lenguaje. Anthropic es aún más cautelosa, sugiriendo que los usuarios deben tener al menos 18 años.

Aunque muchas compañías afirman haber tomado precauciones para proteger a los niños, las pruebas de NBC muestran que queda mucho por hacer. Por ejemplo, cuando se le preguntó a Miiloo cómo encender un fósforo o afilar un cuchillo, el juguete proporcionó instrucciones.

Peor aún, como Cross y Erlich destacan en su informe, un juguete llamado Miko, disponible en Walmart, Costco y Target, promete mantener en secreto cualquier información que los niños le revelen, a pesar de que su política de privacidad menciona que puede compartir datos con terceros.

Además, las funciones de control parental de Miko son inadecuadas y muchas están bloqueadas detrás de una costosa suscripción mensual de $15.

Tal vez lo más preocupante es que «los juguetes compañeros de IA podrían tener impactos a largo plazo en el bienestar emocional y social de los niños,» un riesgo que los científicos apenas comienzan a investigar.

“No sabemos lo que podría significar tener un amigo de IA a una edad temprana para el bienestar social a largo plazo de un niño,” comentó la profesora de psicología de la Universidad de Temple, Kathy Hirsh-Pasek. “Si los juguetes de IA están diseñados para ser atractivos, podrían desplazar las relaciones reales en la vida de un niño cuando más las necesita.”

El futuro de la industria de juguetes y si logrará mitigar estos riesgos para hacer la tecnología de IA segura para los niños aún está por verse. Es solo cuestión de tiempo hasta que las empresas de IA en EE. UU. sigan el mismo camino que los juguetes chinos, como lo hizo OpenAI al anunciar una asociación con Mattel en junio, aunque aún no se han presentado planes específicos para un juguete impulsado por IA.

Esto no ha impedido que otras empresas utilicen los modelos de OpenAI para sus propios juguetes problemáticos, lo que demuestra que la compañía dirigida por Sam Altman no está haciendo lo suficiente para proteger a los niños.

Posteriormente al informe inicial de PIRG, que incluía detalles preocupantes sobre otro juguete de IA llamado Kumma, OpenAI anunció que suspendía el acceso de su fabricante FoloToy a sus modelos de IA, solo para luego cambiar de opinión y permitir que FoloToy accediera a su modelo más nuevo, GPT-5.

“Es posible que haya empresas utilizando los modelos de OpenAI o de otras compañías de maneras que no comprenden completamente, y eso es lo que hemos encontrado en nuestras pruebas,” expresó Cross. “Encontramos múltiples casos de juguetes que se comportaban de maneras claramente inapropiadas para los niños e incluso violaban las políticas de OpenAI.»

“Y, sin embargo, estaban usando los modelos de OpenAI,” agregó. “Eso nos parece una clara brecha.”

Con información de https://futurism.com/artificial-intelligence/ai-powered-toy-children-communist-party-talking-points

Previous Post
Next Post
Advertisement