Claro, aquí tienes el contenido traducido y reescrito:
—
Google ha utilizado una gran cantidad de material sin permiso para entrenar sus modelos de IA Gemini. La compañía, junto a muchos de sus competidores en el ámbito de la IA, ha estado extrayendo contenido indiscriminadamente de la internet, sin compensar a los titulares de derechos, lo que les ha acarreado numerosos juicios por infracción de derechos de autor.
Sin embargo, cuando se trata de la copia de su propia tecnología, Google no duda en señalar con el dedo. Esta semana, la empresa acusó a “actores motivados comercialmente” de intentar clonar su IA Gemini.
En un informe publicado el jueves, Google señaló que estaba siendo objeto de “ataques de destilación”, con agentes consultando Gemini hasta 100,000 veces para “extraer” el modelo subyacente — un equivalente en la industria de la IA a copiar los deberes de alguien.
Google calificó estos ataques como un “método de robo de propiedad intelectual que viola los términos de servicio de Google” — lo cual, seamos honestos, es un claro doble rasero considerando su enfoque despreocupado con respecto a la extracción de otros IP sin remuneración.
La compañía se mostró vaga sobre la identidad de los culpables, más allá de señalar a “entidades del sector privado” y “investigadores que buscan clonar la lógica propietaria.”
Los riesgos son altos, ya que las empresas continúan invirtiendo decenas de miles de millones de dólares en infraestructura de IA para hacer sus modelos más potentes. No es de extrañar que Google esté preocupado por perder su ventaja competitiva a medida que las ofertas comienzan a converger en la cima. La salida de un modelo pionero se ha vuelto casi indistinguible de otro, obligando a las empresas a intentar diferenciar sus productos.
No es la primera vez que el tema de la destilación de modelos genera polémica. La startup china DeepSeek conmovió Silicon Valley a principios de 2025 al presentar un modelo de IA mucho más barato y eficiente. En ese momento, OpenAI sugirió que DeepSeek podría haber violado sus términos de servicio al destilar sus modelos de IA.
El creador de ChatGPT rápidamente se convirtió en objeto de burla generalizada tras esos comentarios, con los internautas acusando a la empresa de hipocresía, señalando que OpenAI también había copiado el trabajo de otros durante muchos años.
Las últimas dificultades de Google probablemente no serán las últimas que escucharemos sobre actores más pequeños tratando de extraer modelos de IA convencionales mediante la destilación.
El jefe de análisis del Grupo de Inteligencia de Amenazas de Google, John Hultquist, dijo a NBC News que “seremos el canario en la mina de carbón para muchos más incidentes.”
Sin embargo, la posibilidad de que puedan defenderse en los próximos meses y años sigue siendo incierta. Las empresas de IA siguen estando significativamente expuestas, ya que sus modelos están disponibles para el uso público.
“Históricamente, los adversarios que buscan robar capacidades de alta tecnología usaban operaciones intrusivas convencionales habilitadas por computadora para comprometer organizaciones y robar datos que contenían secretos comerciales,” dice el informe de Google. “Para muchas tecnologías de IA donde los LLM se ofrecen como servicios, este enfoque ya no es necesario; los actores pueden usar acceso legítimo a la API para intentar ‘clonar’ capacidades selectas de modelos de IA.”
Google presentó un estudio de caso, tras descubrir que los atacantes estaban utilizando “más de 100,000 consultas”, lo que sugiere un “intento de replicar la capacidad de razonamiento de Gemini en idiomas no ingleses a través de una variedad de tareas.”
Sin embargo, los sistemas de la compañía “reconocieron este ataque en tiempo real y redujeron el riesgo de este ataque particular.”
Es un momento particularmente vulnerable, ya que las empresas de IA están desesperadas por encontrar formas de monetizar la tecnología a través de diversos modelos de ingresos, desde costosos modelos de suscripción hasta publicidad. Con costos iniciales mucho más bajos, es completamente posible que entidades mucho más pequeñas puedan sobresalir, similar a lo que vimos con DeepSeek a principios de 2025.
Más sobre la destilación: Las Empresas de IA Tiemblan al darse cuenta de que es Fácil para los Competidores Robar su Trabajo Carísimo por Centavos
—
Si necesitas más ayuda con algo específico, házmelo saber.
Con información de https://futurism.com/future-society/google-copying-ai-permission