Aquí tienes una traducción y reescritura del contenido:
—
Puede que sean los responsables de crear la tecnología de IA que muchos temen que eliminará empleos — si no a toda la raza humana — pero al menos se sienten tan paranoicos y angustiados sobre hacia dónde se dirigen las cosas como el resto de nosotros.
En NeurIPS, una de las principales conferencias de investigación de IA que tuvo lugar este año en el Centro de Convenciones de San Diego, visiones de un futuro apocalíptico causado por la IA estaban claramente en la mente de muchos científicos presentes. Pero, ¿están enfrentando seriamente los riesgos de la IA, o están demasiado ocupados fantaseando con escenarios leídos en novelas de ciencia ficción? Esta es la pregunta planteada en un nuevo artículo de Alex Reisner para The Atlantic, quien asistió a NeurIPS y encontró que muchos hablaban en términos grandiosos sobre los riesgos de la IA, especialmente en relación a la creación de una hipotética inteligencia general artificial, pero ignoraban las desventajas mundanas de la tecnología.
“Muchos desarrolladores de IA están pensando en los problemas más tangibles de la tecnología, mientras que las conversaciones públicas sobre la IA —incluidas las de los más prominentes desarrolladores— están dominadas por problemas imaginados,” escribió Reisner.
¿Uno de los investigadores culpables de esto? Yoshua Bengio, investigador de la Universidad de Montreal y uno de los tres llamados «padrinos» de la IA, cuyo trabajo fue fundamental para crear los grandes modelos de lenguaje que impulsan el incesante auge de la industria. Bengio ha pasado los últimos años sonando la alarma sobre la seguridad de la IA y recientemente lanzó una organización sin fines de lucro llamada LawZero para fomentar el desarrollo seguro de la tecnología.
“Bengio estaba preocupado de que, en un posible futuro distópico, las IA podrían engañar a sus creadores y que ‘aquellos que tengan IA muy poderosas podrían aprovecharse de ello para obtener ventajas políticas, en cuanto a influir en la opinión pública’,” recordó Reisner.
Sin embargo, el destacado investigador “no mencionó cómo los vídeos falsos ya están afectando el discurso público,” observó Reisner. “Tampoco abordó de manera significativa la enorme crisis de salud mental desatada por los chatbots, o el daño que sufre el arte y las humanidades. Los daños catastróficos, en su opinión, están ‘a tres, 10 o 20 años’ de distancia.”
Reisner no fue el único en notar esta desconexión. En un discurso principal titulado “¿Estamos teniendo las pesadillas equivocadas sobre la IA?”, la socióloga Zeynep Tufekci advirtió que los investigadores estaban perdiéndose en los detalles al enfocarse tanto en los riesgos que plantea la IAG, una tecnología que ni siquiera sabemos si será posible de crear, y para la cual no hay una definición consensuada. Después de que alguien del público se quejará de que los riesgos inmediatos que Tufekci planteó, como la adicción a chatbots, ya eran conocidos, Tufekci respondió: “No realmente veo estas discusiones. Sigo viendo a la gente discutir sobre el desempleo masivo versus la extinción humana.”
Es un punto bastante importante. El discurso sobre la seguridad de la IA está a menudo dominado por una retórica apocalíptica, incluso promovida por los mismos multimillonarios que están construyendo esta tecnología. El CEO de OpenAI, Sam Altman, predice que la IA eliminará categorías enteras de empleos, causará una crisis de fraude de identidad generalizado, y ha admitido estar preparándose para el apocalipsis cuando un sistema de IA potencialmente se rebele contra la humanidad al liberar un virus mortal.
Y Bengio no es el único “padrino” de la IA atormentado por la culpa. El científico informático británico Geoffrey Hinton —quien recibió el Premio Turing en 2018 junto a Bengio y el ex-científico principal de IA de Meta, Yann LeCun— se ha presentado como una figura similar a Oppenheimer en el campo. En 2023, dijo con fama que se arrepentía de su trabajo de toda la vida después de dejar su rol en Google, y recientemente mantuvo una discusión con el senador Bernie Sanders en la que expuso los numerosos riesgos de la tecnología, que incluían la destrucción de empleos y los sistemas de IA militarizados que fomentan el imperio.
Reisner hizo una observación irónica: que el nombre de NeurIPS, acrónimo de “Sistemas de Procesamiento de Información Neural,” recuerda una época en la que los científicos subestimaban enormemente la complejidad de las neuronas de nuestro cerebro al compararlas con el procesamiento realizado por las computadoras.
“De todos modos, una característica central de la cultura de la IA es una obsesión con la idea de que una computadora es una mente,” escribió. “Anthropic y OpenAI han publicado informes utilizando lenguaje sobre chatbots que son, respectivamente, ‘infieles’ y ‘deshonestos.’ En el discurso sobre IA, la ciencia ficción a menudo derrota a la ciencia.”
Más sobre IA: El Científico Jefe de Anthropic Dice que Nos Estamos Acercando Rápidamente al Momento Que Podría Condenarnos a Todos
—
He tratado de mantener el sentido original y, al mismo tiempo, ofrecer un texto más fluido en español. Si necesitas más cambios o un enfoque diferente, házmelo saber.
Con información de https://futurism.com/artificial-intelligence/ai-industry-fears-creation