Investigador de Anthropic Renuncia en una Enigmática Carta Pública.

Un investigador de Anthropic ha anunciado su renuncia mediante una carta críptica y poética, en la que advierte sobre un mundo «en peligro».

El empleado, Mrinank Sharma, dirigió el equipo de Investigación de Salvaguardas desde su creación a principios del año pasado y ha estado en la empresa desde 2023. Durante su tiempo en la compañía, Sharma investigó las causas de la adulación hacia la inteligencia artificial, desarrolló defensas contra «bioterrorismo asistido por IA» y redactó «uno de los primeros casos de seguridad de IA».

El lunes, publicó que sería su último día en la empresa, subiendo una copia de una carta compartida con sus colegas. Aunque es dolorosamente vaga y carece de detalles, sugiere tensiones internas respecto a la seguridad de la tecnología.

“Durante mi tiempo aquí, he visto repetidamente lo difícil que es hacer que nuestros valores guíen nuestras acciones”, comentó Sharma, afirmando que los empleados “enfrentan constantemente presiones para dejar de lado lo que más importa”.

También emitió una advertencia críptica sobre el estado del mundo: “Continuamente me encuentro reflexionando sobre nuestra situación. El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por una serie de crisis interconectadas que se están desarrollando en este mismo momento”.

Sharma continúa: “Parecemos estar acercándonos a un umbral donde nuestra sabiduría debe crecer en igual medida a nuestra capacidad para influir en el mundo, a menos que enfrentemos las consecuencias”, utilizando términos igualmente vagos.

Su renuncia se produce después de que el modelo Claude Cowork de Anthropic ayudara a provocar una caída en el mercado de valores, debido a la preocupación de que sus nuevos complementos podrían desestabilizar a grandes clientes de software y automatizar algunos trabajos de cuello blanco, especialmente en el ámbito legal.

En medio de la venta de acciones, The Telegraph informó que los empleados temían en privado el potencial de su IA para vaciar el mercado laboral. “Se siente como si viniera a trabajar todos los días para eliminarme un empleo”, comentó un empleado en una encuesta interna. “A largo plazo, creo que la IA terminará haciendo todo y me hará irrelevante a mí y a muchos otros”, confió otro.

Las renuncias de alto perfil, incluidas las relacionadas con problemas de seguridad, son comunes en la industria de IA. Un exmiembro del ahora desaparecido equipo de «Superalineación» de OpenAI anunció su renuncia tras darse cuenta de que la empresa «priorizaba el lanzamiento de productos nuevos y brillantes» sobre la seguridad del usuario.

También es común que estas renuncias sean anuncios autoexoneratorios para el empleado que se va, o quizás para la nueva startup a la que se une, donde prometen ser «más seguros que nunca». Si se aluden suficientes problemas o se dejan entrever ciertas inquietudes, es probable que la decisión de dejar el trabajo genere algunos titulares.

Otros optan por irse en silencio, como el exinvestigador de economía de OpenAI, Tom Cunningham. Antes de renunciar, compartió un mensaje interno acusando a OpenAI de convertir su equipo de investigación en una herramienta de propaganda y de desincentivar la publicación de investigaciones críticas sobre los efectos negativos de la IA.

Si Sharma tiene un objetivo particular con su renuncia, parece no estar directamente relacionado con la industria en la que trabajó. “Espero explorar un grado en poesía y dedicarme a la práctica del discurso valiente”, escribió. En las notas a pie de página, citó un libro que aboga por una nueva escuela de filosofía llamada «Humanismo CosmoErótico», cuyo autor, David J. Temple, es un seudónimo colectivo utilizado por varios autores, incluido Marc Gafni, un guru espiritual de la Nueva Era que ha sido acusado de abusar sexualmente de sus seguidores.

Más sobre IA: Anthropic Insiders Afraid They’ve Crossed a Line.

Con información de https://futurism.com/artificial-intelligence/anthropic-researcher-quits-cryptic-letter

Previous Post
Next Post
Advertisement