Aquí tienes la traducción y reescritura del contenido:
—
Un estudio de hace unos meses, que hasta ahora había pasado desapercibido, fue recientemente presentado en Wired. Este sugiere que los modelos de lenguaje grandes “son incapaces de realizar tareas computacionales y de agencia más allá de una cierta complejidad”, siendo este nivel de complejidad, crucialmente, bastante bajo.
El artículo, que no ha sido revisado por pares, fue escrito por Vishal Sikka, ex CTO de la gigante de software alemana SAP, y su hijo Varin Sikka. Vishal tiene experiencia en el campo de la IA, ya que estudió con John McCarthy, el científico informático ganador del premio Turing, quien fundó el campo de la inteligencia artificial y ayudó a acuñar el término.
“No hay manera de que sean confiables”, declaró Vishal Sikka en Wired.
Cuando el entrevistador le preguntó, Sikka concordó en que deberíamos dejar de lado la idea de que los agentes de IA pueden manejar plantas de energía nuclear y otras promesas exageradas que los defensores de la IA suelen hacer.
Si ignoras la retórica de los CEO tecnológicos y prestas atención a lo que los investigadores que trabajan para ellos están descubriendo, encontrarás que incluso dentro de la industria de la IA hay un reconocimiento de que la tecnología presenta algunas limitaciones fundamentales en su estructura. Por ejemplo, en septiembre, científicos de OpenAI admitieron que las alucinaciones de la IA, donde los modelos de lenguaje grandes inventan hechos de manera confiada, seguían siendo un problema común, incluso en sistemas cada vez más avanzados, y que la precisión del modelo nunca alcanzaría el 100%.
Esto parece poner una gran traba en la viabilidad de los llamados agentes de IA, que son modelos diseñados para realizar tareas de manera autónoma sin intervención humana, y que la industria decidió el año pasado que serían su próximo gran avance. Algunas empresas que adoptaron agentes de IA para reducir su personal rápidamente se dieron cuenta de que los agentes no eran lo suficientemente buenos para reemplazar a los empleados humanos que se iban, quizás porque tenían muchas alucinaciones y apenas podían completar las tareas que se les asignaban.
Los líderes de la IA insisten en que se pueden establecer regulaciones más estrictas fuera de los modelos de IA para filtrar las alucinaciones. Pueden ser propensos a alucinar, pero si estos errores son lo suficientemente raros, eventualmente las empresas confiarán en ellos para realizar tareas que anteriormente confiaban en humanos. En el mismo artículo donde los investigadores de OpenAI admitieron que los modelos nunca alcanzarían la precisión perfecta, también descartaron la idea de que las alucinaciones son “inevitables”, porque los modelos de lenguaje grande “pueden abstenerse cuando no están seguros”. (A pesar de esto, sería difícil encontrar un solo chatbot popular que realmente haga eso, ya que casi seguramente lo haría parecer menos impresionante y menos atractivo para usar).
A pesar de estar convencido de que los modelos de lenguaje grandes tienen un límite superior, Sikka coincide con algunas figuras de la industria de la IA que afirman que se pueden controlar las alucinaciones.
“Nuestro artículo afirma que un LLM puro tiene esta limitación inherente, pero al mismo tiempo es cierto que se pueden construir componentes alrededor de los LLM que superen esas limitaciones”, le dijo a Wired.
Más sobre IA: Rival de OnlyFans aparentemente sucumbe a la psicósis de IA, lo que te retamos a explicarles a tus padres
—
Si necesitas más ajustes o un enfoque diferente, no dudes en decírmelo.
Con información de https://futurism.com/artificial-intelligence/ai-agents-incapable-math