OpenAI lanzó el mes pasado su navegador con inteligencia artificial Atlas, construyendo efectivamente una interfaz de navegación web alrededor de su exitoso chatbot ChatGPT.
El «modo agente» del navegador ha capturado la mayor parte de la atención hasta ahora. La función puede navegar por la web en nombre del usuario, como un humano, para realizar tareas como investigación o compras en línea.
Además de algunas preocupaciones de seguridad serias —y un ritmo glacial que socava su efectividad—, otro problema llamativo con el modo agente ha comenzado a surgir: en lugar de comportarse como un bibliotecario útil que siempre identificará los recursos más útiles para un problema, el agente está evitando ciertas partes de la web como si fueran la peste. Específicamente, las batallas legales de OpenAI parecen estar limitando la visión de internet de Atlas: como recientemente encontró el Centro Tow de Periodismo Digital de la Universidad de Columbia, “Atlas parece evitar leer contenido de compañías mediáticas que actualmente están demandando a OpenAI”.
Por ejemplo, evitó a PCMag, cuya empresa matriz Ziff Davis demandó a OpenAI por infracción de derechos de autor a principios de este año, y el New York Times, que presentó una demanda similar en 2023.
“Era como una rata encontrando pastillas de comida en un laberinto, sabiendo que las ubicaciones de ciertas pastillas están electrificadas”, escribió Gizmodo.
Aún más controvertido, en lugar de admitir que no estaba dispuesto a acceder a los artículos de los medios debido a litigios en curso, el agente está encontrando soluciones dudosas. Por ejemplo, el Centro Tow descubrió que “reconstruyó” la información de NYT apoyándose en la cobertura del mismo tema por publicaciones con acuerdos de licencia existentes con OpenAI.
El agente también fue capturado recurriendo a otras fuentes, incluyendo tuits, versiones sindicadas del mismo artículo y citas en otras publicaciones, para “reconstruir ingeniosamente” material de fuente prohibida.
Y eso no es todo, muchos editores, como National Geographic o MIT Technology Review, implementaron muros de pago que superponen un cuadro de diálogo sobre el texto existente, que está fuera de la vista para los visitantes humanos, pero aún puede ser leído por el agente de IA.
Navegadores con IA con agentes, incluyendo Atlas y Comet de Perplexity, accedieron y resumieron felizmente los artículos de las publicaciones, incluso cuando sus contrapartes de chatbot no podían hacer lo mismo.
“Por ejemplo, cuando le pedimos a Atlas y Comet que recuperaran el texto completo de un artículo exclusivo para suscriptores de nueve mil palabras en MIT Technology Review, los navegadores pudieron hacerlo”, encontró el Centro Tow. “Cuando emitimos la misma solicitud en las interfaces estándar de ChatGPT y Perplexity, ambos respondieron que no podían acceder al artículo porque la Review había bloqueado los rastreadores de las compañías”.
La tendencia destaca cómo los agentes de IA actúan mucho más como humanos mientras navegan por la web, lo que podría tener implicaciones importantes para los titulares de derechos.
Los agentes de IA, como el incorporado en el navegador Atlas de OpenAI, pronto podrían obligar a las publicaciones a buscar formas de ejercer un mayor control sobre cómo estos agentes acceden a su contenido.
“Los navegadores con IA aún son nuevos, y no sabemos si reemplazarán las formas existentes de buscar en la web”, escribió el Centro Tow. “Pero si estas herramientas logran o no una adopción generalizada, una cosa está clara: las defensas tradicionales, como muros de pago y bloqueadores de rastreadores, ya no son suficientes para evitar que los sistemas de IA accedan y reutilicen artículos de noticias sin consentimiento”.
Más sobre Atlas: Se descubrió un nuevo y serio hackeo contra el nuevo navegador de IA de OpenAI.
Con información de https://futurism.com/artificial-intelligence/openai-browser-avoids-web-lawsuit