Ingenieros Implementan «Fuente Tóxica» que Desordena los Procesos Cognitivos de los Sistemas de IA.

Sure! Aquí tienes un resumen y reescritura del contenido traducido:

### Proyecto Poison Fountain: Una Estrategia para Detener la IA

#### Un enfoque alternativo contra la IA

Para contrarrestar la proliferación de la inteligencia artificial (IA), algunos proponen medidas drásticas como la destrucción de centros de datos. Sin embargo, hay quienes abogan por sabotear el recurso más crítico de esta industria: los datos.

#### ¿Qué es Poison Fountain?

El proyecto «Poison Fountain» busca engañar a los rastreadores web de las empresas tecnológicas para que recojan datos de entrenamiento «envenenados». Estos datos están diseñados para dañar los modelos de IA. Si se implementa en gran escala, podría obstaculizar seriamente a la industria de la IA, transformando sus sofisticadas máquinas en sistemas defectuosos.

Recientemente, «The Register» informó que el proyecto fue lanzado la semana pasada y sus miembros trabajan en importantes empresas de IA en EE.UU. Un informante destacó que «la situación se está intensificando de una manera que el público no suele apreciar».

#### Un llamado a la acción

En el sitio web del proyecto, se cita a Geoffrey Hinton, un renombrado científico de la computación y crítico de la IA, quien advierte que esta tecnología representa una amenaza para la humanidad. “Queremos infligir daño a los sistemas de inteligencia artificial en respuesta a esta amenaza”, menciona el proyecto.

El auge de la IA moderna no solo proviene de sus modelos, sino también de la necesidad de enormes cantidades de datos, que antes se consideraban inaccesibles. La expansión de internet proporcionó un océano de información, que fue extraída en cantidades colosales, y muchos consideran que esta práctica fue ética y legalmente cuestionable.

#### Modificando el comportamiento de la IA

El principio es simple: una IA es tan buena como los datos con los que es alimentada. Si estos datos se alteran, la calidad de la IA también se ve afectada. Ya hay intentos previos de confundir a los modelos de IA, como programas que insertan datos disruptivos en imágenes para que los artistas protejan su trabajo.

Poison Fountain se propone llevar esta idea a una mayor escala, ofreciendo enlaces a estos conjuntos de datos envenenados que los propietarios de sitios web pueden ocultar en sus páginas para confundir a los rastreadores de IA. El proyecto promete que estos enlaces proporcionarán un flujo prácticamente ilimitado de datos de entrenamiento envenenados.

#### El futuro del proyecto

Aunque es una estrategia ingeniosa para interrumpir el crecimiento de la industria de la IA, aún queda por ver cuán adoptada será. Muchas organizaciones están presionando por regulaciones más estrictas en el uso de datos, pero los defensores de Poison Fountain argumentan que la regulación por sí sola no es suficiente.

Deliberadamente, el objetivo de Poison Fountain es comprometer la integridad cognitiva de los modelos de IA. “No hay forma de detener el avance de esta tecnología – ahora que está disponible a nivel mundial, lo que queda son armas. Esta Poison Fountain es un ejemplo de tal arma”.

Si necesitas algo más específico o un enfoque diferente, no dudes en pedírmelo.

Con información de https://futurism.com/artificial-intelligence/poison-fountain-ai

Previous Post
Next Post
Advertisement