Hombre confundido por informes generados por IA que dicen que está muerto.

Claro, aquí tienes el contenido traducido y reescrito:


¿Conoces el viejo dicho «no creas todo lo que ves en internet»? En la era de la inteligencia artificial, nunca ha sido tan relevante.

A finales de diciembre, el periodista deportivo de los Denver Broncos, Cody Roark, se sorprendió al enterarse de que estaba muerto, dejando atrás a un hijo de 5 años. Hasta donde sabía, nunca había sido padre y estaba muy vivo.

Sin embargo, eso no era lo que afirmaba una publicación en Facebook. Allí, una imagen compartida por la página “Wild Horse Warriors” mostraba una imagen generada por IA del periodista sosteniendo a un niño, con un gran “RIP” destacado.

Aunque la página de Facebook ya ha sido eliminada, el Denver Post informa que describía a Roark como un “analista de los Denver Broncos” que había “dedicado más de una década a proteger al equipo”, antes de fallecer debido a un “trágico incidente de violencia doméstica”.

Por supuesto, todo resultó ser un producto de la IA, como Roark concluiría más tarde.

“Fue una de esas cosas que odias ver”, comentó posteriormente a la DP en una entrevista. “Simplemente no tiene sentido. Siempre pensé que eso le pasaba a personas famosas”.

“Que esto me ocurriera a mí fue realmente extraño. Muy, muy raro”, afirmó Roark.

La cuenta en cuestión, Wild Horse Warriors, había acumulado alrededor de 6,200 seguidores en los últimos meses. Según el DP, antes de ser eliminada por Facebook, publicaba aproximadamente cuatro historias completamente ficticias sobre los Denver Broncos cada día. Muchas de ellas contenían información que podría afectar la reputación de las personas, como una afirmación falsa de que el receptor de los Broncos, Courtland Sutton, se había negado a usar un brazalete en apoyo a las personas LGBTQ durante un partido.

Aunque Roark parece estar bien, el incidente sigue un patrón que se observa en otros sistemas de IA. Por ejemplo, en diciembre, el resumen AI de Google —ese pequeño resumen que ahora aparece en la parte superior de cualquier búsqueda en Google— afirmó incorrectamente que un músico folk canadiense era un delincuente sexual convicto.

Ese comentario le costó al músico al menos una actuación y un daño reputacional difícil de reparar, lo que es una clara señal de que, a través de la IA, las corporaciones tecnológicas han proporcionado una poderosa herramienta para la difusión de desinformación.

Más sobre desinformación: China planea una represión contra la IA que perjudica la salud mental de los usuarios


Si necesitas algún ajuste adicional, ¡házmelo saber!

Con información de https://futurism.com/artificial-intelligence/ai-generated-dead

Previous Post
Next Post
Advertisement