Con tantos artículos superficiales sobre lo que la IA puede hacer, es raro ver una historia sobre lo que no puede hacer. Y como algunos investigadores lo cuentan, la IA está quedando terriblemente corta en lo que muchos de nosotros encontramos como una de las tareas más fáciles de todas: entrar en discusiones en las redes sociales.
Primero detectado por Ars Technica, un equipo de investigadores de Suiza, Países Bajos y EE.UU. recientemente publicó un estudio analizando publicaciones en redes sociales generadas por modelos de lenguaje grandes (LLMs).
Para llevar a cabo el estudio aún no revisado por pares, los investigadores aplicaron lo que llaman un «test de Turing computacional» a publicaciones de LLMs en X-formerly-Twitter, Reddit y Bluesky. Encontraron que las publicaciones generadas por bots de IA —todos modelos de peso abierto, desde DeepSeek hasta Qwen— eran todas «fácilmente distinguibles» de las hechas por usuarios humanos con una precisión del 70-80 por ciento, lo cual está «muy por encima [del umbral de] la casualidad».
En otras palabras, es ridículamente fácil atrapar a un IA en el acto de publicar tonterías aplicando un filtro universal a cualquier texto que produzca, por no hablar de usar un poco de juicio humano básico.
Una de las principales razones de esto, según los académicos, es que la IA solo puede imitar la profundidad emocional, lo que podríamos llamar el «calor del momento» vitriólico de una típica guerra de palabras. Cuando nos metemos en ello, realmente nos metemos, con un nivel de «toxicidad» y «sentimiento» que permanece inconfundiblemente humano.
«Incluso después de la calibración, las salidas de LLM permanecen claramente distinguibles del texto humano, particularmente en tono afectivo y expresión emocional», escribió el equipo.
Curiosamente, encontraron que el tamaño y la complejidad de un LLM no necesariamente se correlacionan con vitriólico más realista. Por ejemplo, «el gran Llama-3.1-70B se desempeña a la par con, o incluso por debajo de, modelos más pequeños», escribieron los investigadores. «Esto sugiere que escalar no se traduce en una comunicación más auténticamente humana».
Los hallazgos son particularmente irónicos dado que uno de los usos más prominentes de la IA en este momento parece ser el spam en redes sociales, particularmente las plataformas bien transitadas de X-formerly-Twitter, Facebook e Instagram (aunque otros sitios, como Reddit, también están siendo invadidos).
Incluso los aspirantes a CEOs tecnológicos están subiéndose al carro, con startups como Doublespeed ofreciendo a los clientes acceso a un ejército de bots potenciado por IA adaptado a sus necesidades publicitarias.
De cierta manera, los hallazgos del estudio son buenas noticias para cualquiera preocupado por la rapidez con la que la IA se estaba volviendo indistinguible, aunque algo nos dice que no hará mucha diferencia mientras los fanáticos de la IA continúen inundando internet con porquería algorítmica.
Más sobre IA: Científicos Crearon una Red Social Entera Donde Cada Usuario es un Bot, y Algo Salvaje Sucedió.
Con información de https://futurism.com/artificial-intelligence/ai-turing-language-spam