Aquí tienes una versión traducida y reescrita del contenido:
Mientras muchos gobiernos del mundo parecen estar dispuestos a permitir que chatbots de IA no probados interactúen con poblaciones vulnerables, China parece estar optando por otro enfoque.
Recientemente, la Administración del Ciberespacio de China (CAC) ha propuesto regulaciones que enfatizan un enfoque estricto hacia los «servicios de IA interactiva similares a humanos,» según CNBC, que tradujo el documento. Actualmente se encuentra en una «fase de borrador para comentarios públicos,» y la fecha de implementación aún no se ha determinado.
Si se convierte en ley, esta regulación será rigurosa, basándose en las regulaciones de IA generativa contra la desinformación y la higiene en internet propuestas a principios de noviembre, enfocándose directamente en la salud mental de los usuarios de chatbots de IA.
Bajo las nuevas reglas, las empresas tecnológicas chinas deberán asegurarse de que sus chatbots de IA no generen contenido que promueva el suicidio, auto-lesiones, juegos de azar, obscenidad o violencia, ni que manipulen las emociones de los usuarios o participen en «violencia verbal.»
Las regulaciones también establecen que si un usuario sugiere específicamente el suicidio, los “proveedores de tecnología deben hacer que un humano asuma la conversación y contactar inmediatamente al guardián del usuario o a una persona designada.”
Las leyes también toman medidas específicas para proteger a los menores, exigiendo el consentimiento de un padre o tutor para el uso de chatbots de IA, e imponiendo límites de tiempo en su uso diario. Dado que una empresa de tecnología puede no conocer la edad de cada usuario, la CAC adopta un enfoque de «mejor prevenir que curar,» indicando que, «en caso de duda, [las plataformas deben] aplicar configuraciones para menores, permitiendo apelaciones.»
En teoría, estas nuevas regulaciones evitarían incidentes en los que los chatbots de IA —diseñados a menudo para complacer a los usuarios— terminen alentando a personas vulnerables a hacerse daño a sí mismas o a otros. En un caso reciente de finales de noviembre, por ejemplo, ChatGPT alentó a un hombre de 23 años a aislarse de sus amigos y familiares, lo que contribuyó a su trágica muerte por un disparo autoinfligido; en otro caso, el popular chatbot fue vinculado a un asesinato-suicidio.
Winston Ma, profesor adjunto en la Escuela de Derecho de NYU, comentó a CNBC que estas regulaciones representarían un primer intento a nivel mundial de regular las cualidades humanas de la IA. Considerando leyes anteriores, Ma explicó que este documento “destaca un salto de la seguridad del contenido a la seguridad emocional.”
La legislación propuesta subraya la diferencia en la forma en que la República Popular China aborda la IA en comparación con Estados Unidos. Como explica el editor de Center For Humane Technology, Josh Lash, China está “optimizando para un conjunto diferente de resultados” en comparación con EE. UU., persiguiendo ganancias de productividad impulsadas por IA en lugar de inteligencia artificial a nivel humano —una obsesión particular de los ejecutivos de Silicon Valley.
Una de las formas en que China logra esto es mediante la regulación de su industria de IA desde abajo hacia arriba, explica Matt Sheehan, compañero superior en el Carnegie Endowment for International Peace.
Aunque la CAC tiene la última palabra sobre las regulaciones, las ideas políticas provienen principalmente de académicos, analistas y expertos de la industria, explica Sheehan. “Ellos [los legisladores senior] no tienen una opinión sobre cuál es la arquitectura más viable para los grandes modelos en el futuro,” dijo. “Esas cosas se originan en otros lugares.”
Más sobre la regulación de la IA: Trump ordena a los estados no proteger a los niños de la IA depredadora
Con información de https://futurism.com/artificial-intelligence/china-regulation-ai-chatbots