Traducción y Reescritura del contenido:
La inteligencia artificial no solo identifica a sospechosos criminales desde detrás de una cámara; ahora está generando imágenes fotorrealistas de ellos para que la policía las difunda en las redes sociales.
Introduciendo a ChatGPT, el último integrante del Departamento de Policía de Goodyear, ubicado en las afueras de Phoenix. Un nuevo reporte del Washington Post reveló que los policías de Goodyear están utilizando esta herramienta de IA generativa para producir fotos de sospechosos en lugar de los tradicionales bocetos policiales a mano.
“Esperamos que estas nuevas técnicas y la tecnología de IA nos ayuden a resolver casos más complejos en el futuro, aquí en Arizona y en todo el país,” escribió el Departamento de Policía de Goodyear en su cuenta de redes sociales cuando presentaron su primer perfil. Esa imagen de IA fue creada para ayudar a localizar a un sospechoso en un caso de secuestro, lo cual, según el departamento, resultó en un enorme flujo de pistas.
Sin embargo, es importante señalar que las fotos de IA no han llevado a ningún arresto hasta ahora.
Lo extraño de esta iniciativa es la razón detrás de ella. Hablando con el WaPo, Mike Bonasera, el artista de bocetos del Departamento de Policía de Goodyear, dijo que tiene mucho que ver con el compromiso en las redes sociales.
“Estamos en una era donde si publicamos un dibujo a lápiz, la mayoría de la gente no lo va a reconocer,” admitió el artista de bocetos. Básicamente, el Departamento de Policía de Goodyear cree que los residentes locales, especialmente los más jóvenes, interactuarán mucho más probablemente con un renderizado hiperrealista creado por IA.
“Las personas son muy visuales, y eso es lo que hace que esto funcione,” dijo Bonasera.
El Departamento de Policía de Goodyear insiste en que sus renderizados de IA no son “fabricaciones de IA”. Esto se debe a que las imágenes de IA comienzan como dibujos compuestos tradicionales — que ya se consideran poco fiables — antes de ser procesadas por ChatGPT.
Esta es una afirmación controvertida. Cuando un generador de imágenes como ChatGPT produce la foto de una persona, está utilizando una extensa base de datos de fotos de personas reales. Esto significa que los sesgos presentes en la colección de fotos, por ejemplo, la proporción de caras blancas frente a negras, se reflejarán en la imagen final.
“Eso fue algo que vimos desde el principio con algunos de estos generadores,” Bryan Schwartz, un profesor de derecho en la Universidad de Arizona, le dijo a WaPo. “Eran realmente buenos creando caras blancas y no tan buenos creando caras de otras razas.”
Cuando hablamos de crear imágenes de personas reales, este tipo de sesgo sistémico puede tener resultados devastadores, especialmente cuando la policía se niega a reconocerlo. Los departamentos de policía que confían en el reconocimiento facial de IA para rastrear sospechosos, por ejemplo, ya han conducido a numerosos arrestos falsos en ciudades como Detroit, Nueva York y Atlanta.
Afortunadamente, parece que Goodyear es el único departamento de policía en EE. UU. que usa IA para difundir composiciones sesgadas de sospechosos, o al menos el único que lo admite. Sin embargo, a los policías les encanta su tecnología, lo que significa que podría ser solo cuestión de tiempo antes de que veamos más de esto a nivel nacional.
Más sobre la policía: Uso policial de un sistema de reconocimiento facial defectuoso, arresto de un hombre al azar y acusación de un crimen horrible.
Nota: La fecha «2025» en las URL y algunas referencias futuristas pueden ser incorrectas o parte de la ficción original del contenido. La traducción y reescritura se han realizado siguiendo las directrices y manteniendo el contenido original lo más fiel posible al contexto presentado.
Con información de https://futurism.com/artificial-intelligence/police-chatpgt-composite-sketch