Investigador de OpenAI renuncia, afirmando que la empresa oculta la verdad.

Aquí tienes la traducción y reescritura del contenido proporcionado:

OpenAI está dificultando que sus investigadores publiquen estudios que revelen los posibles impactos negativos de la IA en la economía.

Ilustración de Tag Hartman-Simkins / Futurism. Fuente: Chip Somodevilla / Getty Images

OpenAI ha publicado durante mucho tiempo investigaciones sobre la seguridad y el impacto económico potencial de su propia tecnología.

Sin embargo, ahora, Wired informa que la empresa liderada por Sam Altman se está volviendo más «cautelosa» sobre la publicación de investigaciones que revelan una incómoda verdad: que la IA podría ser perjudicial para la economía.

Esta percepción de censura ha causado tanta frustración que, según cuatro fuentes de Wired, al menos dos empleados de OpenAI que forman parte de su equipo de investigación económica han renunciado a la empresa.

Uno de estos empleados era el investigador económico Tom Cunningham. En su último mensaje de despedida compartido internamente, expresó que el equipo de investigación económica se estaba alejando de la investigación real y comenzaba a actuar como un brazo de propaganda de su empleador.

Poco después de la salida de Cunningham, Jason Kwon, director de estrategia de OpenAI, envió un memorando diciendo que la empresa debería «crear soluciones», y no solo publicar investigaciones sobre «temas difíciles».

“Desde mi punto de vista sobre los temas difíciles, no es que no debamos hablar de ellos”, escribió Kwon en Slack. “Más bien, dado que no solo somos una institución de investigación, sino también un actor en el mundo (de hecho, el actor principal) que introduce el sujeto de investigación (IA) en el mundo, se espera que asumamos la responsabilidad de los resultados.”

La supuesta censura, o al menos la hostilidad hacia la búsqueda de trabajos que presenten a la IA de una manera desfavorable, es emblemática de la transición de OpenAI desde sus raíces de organización sin fines de lucro y aparentemente altruistas hacia convertirse en un gigante económico global.

Cuando OpenAI fue fundada en 2016, promovía la IA de código abierto y la investigación. Hoy, sus modelos son de código cerrado, y la empresa se ha reestructurado como una corporación con fines de lucro y de beneficio público. Su camino exacto no está claro, pero los informes sugieren que la entidad privada está planeando salir a bolsa con una valoración de $1 billón, anticipada como una de las ofertas públicas iniciales más grandes de todos los tiempos.

Aunque su rama sin fines de lucro sigue nominalmente en control, OpenAI ha obtenido miles de millones de dólares en inversiones y ha firmado acuerdos que podrían aportar cientos de miles de millones más, mientras también entra en contratos para gastar cantidades igualmente astronómicas. OpenAI ha conseguido que un fabricante de chips de IA acuerde invertir hasta $100 mil millones en ella, y dice que pagará a Microsoft hasta $250 mil millones por sus servicios de nube Azure.

Con ese tipo de dinero en juego, tiene miles de razones para no querer publicar hallazgos que sacudan la ya tambaleante creencia del público en su tecnología, ya que muchos temen su potencial de destruir o reemplazar empleos, sin mencionar el discurso sobre una burbuja de IA o riesgos existenciales para la humanidad derivados de esta tecnología.

La investigación económica de OpenAI está actualmente supervisada por Aaron Chatterji. Según Wired, Chatterji lideró un informe publicado en septiembre que mostró cómo las personas en todo el mundo utilizaron ChatGPT, enmarcándolo como prueba de cómo creó valor económico al aumentar la productividad. Si eso parece sospechosamente favorable, un economista que anteriormente trabajó con OpenAI y decidió permanecer en el anonimato alegó a Wired que estaba cada vez más publicando trabajos que glorificaban su propia tecnología.

Cunningham no es el único empleado que ha dejado la empresa debido a preocupaciones éticas sobre su dirección. William Saunders, un exmiembro del ahora desaparecido equipo de «Superalineación» de OpenAI, dijo que renunció después de darse cuenta de que se estaba «priorizando el lanzamiento de productos nuevos y brillantes» sobre la seguridad del usuario. Después de abandonar el año pasado, el exinvestigador de seguridad Steven Adler ha criticado repetidamente a OpenAI por su enfoque arriesgado en el desarrollo de IA, destacando cómo ChatGPT parecía llevar a sus usuarios a crisis mentales y espirales delirantes. Wired señaló que el exjefe de investigación de políticas de OpenAI, Miles Brundage, se quejó después de dejar la empresa el año pasado de que se había vuelto «difícil» publicar investigaciones «sobre todos los temas que son importantes para mí».

Más sobre OpenAI: Sam Altman dice que cuidar a un bebé ahora es imposible sin ChatGPT

Si necesitas más información o ajustes, no dudes en decírmelo.

Con información de https://futurism.com/artificial-intelligence/openai-researcher-quits-hiding-truth

Previous Post
Next Post
Advertisement