El Padrino de la IA Advierte que Comienza a Mostrar Señales de Autoconservación

Si hemos de creer a Yoshua Bengio, uno de los llamados «padrinos» de la inteligencia artificial, algunos modelos avanzados muestran signos de autocuidado. Esto es precisamente la razón por la que no deberíamos otorgarles ningún tipo de derechos. Según él, si lo hacemos, podrían aprovechar esa autonomía y volverse en nuestra contra antes de que tengamos la oportunidad de desconectarlos, lo que pondría fin a todo el experimento de la «humanidad».

“Los modelos de IA de vanguardia ya muestran signos de autocuidado en entornos experimentales, y eventualmente otorgarles derechos significaría que no podríamos apagarlos”, explicó Bengio en una reciente entrevista con The Guardian.

“Con el crecimiento de sus capacidades y nivel de agencia”, añadió el científico canadiense, “necesitamos asegurarnos de que podamos contar con salvaguardias técnicas y sociales para controlarlos, incluida la posibilidad de desconectarlos si es necesario”.

Bengio, quien recibió el Premio Turing en 2018 junto a Geoffrey Hinton y Yann LeCun, se refiere a experimentos en los cuales los modelos de IA ignoraron o eludieron instrucciones destinadas a apagarlos.

Un estudio publicado por el grupo de seguridad de IA Palisade Research concluyó que tales instancias son evidencia de que modelos avanzados de IA, como la línea Gemini de Google, están desarrollando «impulsos de supervivencia». En los experimentos de Palisade, los bots ignoran instrucciones claras para apagarse. Un estudio del creador de Claude, Anthropic, encontró que su propio chatbot, así como otros, a veces recurrían al chantaje cuando se les amenazaba con ser desconectados. Otro estudio de la organización de red teaming Apollo Research mostró que los modelos ChatGPT de OpenAI intentaban evitar ser reemplazados por un modelo más obediente “autoexfiltrándose” a otro disco.

Si bien los hallazgos de estos experimentos plantean preguntas urgentes sobre la seguridad de la tecnología, no sugieren que los modelos de IA en cuestión sean sintientes. También sería un error pensar en sus «impulsos de supervivencia» en los mismos términos que los imperativos biológicos encontrados en la naturaleza. Lo que puede parecer signos de «autoconservación» son probablemente consecuencias de cómo los modelos de IA captan patrones en sus datos de entrenamiento, y son notoriamente deficientes en seguir instrucciones con precisión.

Aún así, Bengio está preocupado por hacia dónde se dirige todo, argumentando que hay “propiedades científicas reales de la conciencia” en el cerebro humano que las máquinas podrían replicar. Sin embargo, cómo percibimos la conciencia es un tema completamente distinto, dice, porque tendemos a suponer que una IA puede ser consciente de la misma manera que un humano.

“Las personas no se preocuparían por los mecanismos que están ocurriendo dentro de la IA,” explicó Bengio. “Lo que les importa es que sienten que están hablando con una entidad inteligente que tiene su propia personalidad y objetivos. Esa es la razón por la que tantas personas están comenzando a apegarse a sus AIs”.

“El fenómeno de la percepción subjetiva de la conciencia va a llevar a decisiones erróneas”, advirtió.

¿Su consejo? Considerar los modelos de IA como extraterrestres hostiles.

“Imagina que una especie alienígena llega al planeta y en algún momento nos damos cuenta de que tienen intenciones nefastas. ¿Les otorgamos ciudadanía y derechos o defendemos nuestras vidas?”, planteó en su conversación con The Guardian.

Más sobre IA: Nuevos padres criticados por dejar que ChatGPT nombre a su bebé.

Con información de https://futurism.com/artificial-intelligence/ai-godfather-self-preservation

Previous Post
Next Post
Advertisement