Flock Safety y la Resistencia Comunitaria a la Vigilancia AI
La empresa de vigilancia AI, Flock Safety, está expandiendo agresivamente su red de cámaras de vigilancia en toda EE.UU. Sin embargo, la opinión pública no es favorable.
Este martes, durante cuatro horas, los residentes de Longmont, Colorado, donde Flock ya ha instalado al menos 23 cámaras y lectores de matrículas, expresaron su descontento ante los concejales de la ciudad por el contrato que tienen con la compañía. Según la revista local Yellowscene, casi todos los asientos de la reunión estaban ocupados, y el 90% de los asistentes se encontraban allí para manifestar sus inquietudes sobre la privacidad y la transparencia en relación con Flock.
Andrew Gentry, ingeniero de software y residente, destacó que el sitio web de Longmont afirma que las cámaras de seguridad de la comunidad no realizan análisis predictivos ni reconocimiento facial. Sin embargo, en la página de Flock, no se ofrece la misma seguridad, lo que le lleva a creer que este estándar de privacidad podría haberse omitido con la adopción de Flock. Además, comentó que la política de retención de datos de Flock ha duplicado el tiempo de retención, elevándolo de 14 a 30 días, lo que sugiere que el programa de Flock ha sido una forma conveniente de extender los estándares de privacidad existentes.
Finalmente, el consejo de la ciudad votó 5-1 a favor de rechazar cualquier futura expansión del contrato con la compañía. Aunque el destino de las 23 cámaras existentes sigue en el aire, este es un claro triunfo para los críticos de la tecnología en la zona de Boulder.
No son los únicos. A lo largo del país, comunidades y activistas se están levantando en contra de las cámaras, que han sido instaladas principalmente a petición de los departamentos de policía. Los programas de Reconocimiento Automático de Matrículas (ALPR) de la empresa han sido objeto de intensos debates debido a múltiples falsos positivos generados por su programa de reconocimiento AI no probado.
Además, hay casos preocupantes en los que el sistema sí ha funcionado, como el de un jefe de policía de Atlanta que utilizó el ALPR de Flock para acosar a personas, o un oficial de Texas que utilizó datos de 83,000 cámaras ALPR para rastrear a una mujer sospechosa de buscar un aborto en otro estado.
Los ciudadanos en áreas como Yakima (Washington), Cleveland (Ohio) y Eugene (Oregón) han protestado contra las cámaras, que operan como nodos en una red interconectada. Algunos han organizado manifestaciones públicas, convirtiéndose, irónicamente, en probables objetivos del monitoreo policial a través de las cámaras de reconocimiento facial de Flock.
No todos optan por métodos oficiales. Esta semana, un hombre fue acusado de usar herramientas para destruir 13 cámaras de Flock en Suffolk, Virginia. Mientras tanto, un proyecto de código abierto llamado DeFlock ha adoptado un enfoque de crowdsourcing para mapear las ALPR en todo el país, a pesar de que Flock envió una orden de cese y desistimiento al activista detrás de DeFlock, quien hasta ahora ha desafiado la amenaza legal con la ayuda de la Electronic Frontier Foundation.
El tiempo dirá cuáles tácticas resultarán más efectivas, pero dada la gran cantidad de actividades anti-Flock, no faltará datos para analizar.
Más sobre vigilancia:
Con información de https://futurism.com/future-society/opposition-ai-surveillance-cameras