En lo que respecta al trabajo, fue un turno bastante típico para Johnny. Conductor de entregas de Amazon, la ruta de hoy llevó su pequeña furgoneta de carga a través de las colinas boscosas de Big Bear Lake, en las afueras rurales de San Bernardino, California. Solo había una salvedad: sus entregas lo estaban llevando peligrosamente cerca de las fauces de un violento incendio forestal.
Al evaluar su itinerario en la aplicación Amazon Flex mientras el humo lo rodeaba, Johnny se dio cuenta de que su ruta completa de entrega estaba en llamas. Se comunicó por radio con la central para informar sobre el obvio dilema, asumiendo que le ordenarían regresar al almacén.
En lugar de eso, Amazon le dijo que se armara de valor y hiciera lo mejor posible.
«Amazon dijo, ‘Sé que no es seguro, entrega lo que puedas'», recordaría más tarde. «Pero [Amazon] aún así nos envió a un fuego activo para entregar.»
Si se negaba, Johnny sabía que podría enfrentar repercusiones: ser forzado a realizar capacitación en su propio tiempo, la reducción de sus horas o incluso perder su trabajo por completo. El conjunto de software en su teléfono —compuesto por la aplicación Amazon Flex, la aplicación eDriving Mentor y la aplicación DSP Workplace— junto con los sensores a bordo de la furgoneta, el software de ruteo y las cámaras potenciadas por IA, monitorean constantemente su trabajo, alertando a Amazon sobre cualquier desviación que pueda requerir corrección.
Sin embargo, cuando se trata de reportar violaciones de seguridad, riesgos o errores de ruteo como el que lo llevó directo al peligro, el panóptico tecnológico que rodea a los casi 400,000 conductores como Johnny se queda corto, como cuando se le instó a volver al camino del incendio forestal en llamas.
La cuestión de la vigilancia de los conductores de Amazon y el bienestar laboral fue el tema de una extensa investigación por parte del Instituto de Investigación de IA Distribuida (DAIR), un grupo de investigación dirigido por la ex eticista de Google Timnit Gebru.
En su último informe, DAIR entrevistó a conductores de entregas de Amazon de todo Estados Unidos —incluido Johnny, aunque todos los nombres fueron cambiados para protegerlos de represalias— para investigar cómo la gestión algorítmica y la vigilancia laboral permite a la compañía explotar a los conductores en una red de vigilancia intransigente mientras evita la responsabilidad por su seguridad y bienestar.
Uno de los problemas clave que enfrenta la línea de fondo de Amazon es su dependencia del trabajo humano. Hasta que pueda automatizar completamente a los conductores de entrega —un objetivo en el que actualmente está invirtiendo mucho dinero— Amazon opera a través de una red de Socios de Servicio Directo (DSPs), contratistas de terceros que se encargan de contratar, gestionar y despedir conductores de entrega. Esto desplaza la estructura de costos de Amazon, liberándola de la carga costosa de pagar por beneficios para los conductores, uniformes o equipos.
Por mucho que ahorre dinero, este arreglo también presenta un desafío para Amazon cuando se trata de ejercer autoridad total sobre quienes visten los chalecos azules. Hablando con Futurism, Alex Hanna, director de investigación de DAIR, dijo que el panóptico tecnológico de Amazon es «central para mantener el control» sobre sus trabajadores.
«Amazon está más interesada en tratar a los trabajadores como autómatas en lugar de seres humanos», dijo Hanna. «Amazon se desharía de los conductores por completo si pudiera.»
Por ahora, su arsenal de dispositivos paternales le da lo más cercano a eso.
A medida que la tecnología ha mejorado a lo largo de los años, también lo ha hecho el despliegue de tecnología invasiva de Amazon. Uno de sus añadidos más recientes a los vehículos DSP, por ejemplo, es el sistema de cámaras AI de Netradyne. Amazon dice que los dispositivos se instalan para la seguridad de los empleados, pero los conductores cuentan una historia diferente.
Por un lado, las cámaras de Netradyne tienen la costumbre de penalizar a los conductores al azar. «A veces, la cámara se bloqueaba y me decía que estaba distraído cuando estaba mirando directamente al camino», dijo Johnny, según el documento de DAIR.
Incluso cuando Netradyne funciona como está previsto, puede parecer arbitrario. Los conductores entrevistados por DAIR informaron que no se les dijo cómo mitigar las infracciones automáticas, por lo que aprender las peculiaridades del sistema se convierte en un juego de prueba y error frustrante. Muchas de las lecciones son peligrosas.
«Vas por un semáforo que se pone amarillo y quieren que frenes inmediatamente para no arriesgarte a pasar en rojo, porque si te pasas el rojo te penalizan en Netradyne», dijo una conductora llamada Madeline a los investigadores. «No importa qué coches haya detrás de ti, quieren que frenes en seco.»
En muchos vehículos DSP, la cantidad de cámaras a bordo significa que los trabajadores tienen prácticamente cero privacidad. Debido a que los conductores están bajo una intensa presión para cumplir con una enorme cantidad de paradas de entrega, a menudo se enfrentan a situaciones difíciles cuando necesitan usar el baño o cambiar un tampón durante un turno típico. Las cámaras omnipresentes de Amazon han empeorado un problema bien conocido en el que los trabajadores recurren a orinar en botellas para cumplir con su cuota de entregas.
«Lleva aún más tiempo para las chicas cuando es ese momento del mes», dijo Elizabeth sobre el notorio problema del baño de Amazon. «Así que simplemente lidiamos con eso en la parte de atrás, especialmente si tenemos una ruta más pesada. Así que cuando me di cuenta de eso [cámaras en la parte trasera de las furgonetas] ¡diablos! Realmente ahora tengo que ir al baño».
Con tantos dispositivos vigilando, no es raro que la tecnología les dé a los conductores retroalimentación contradictoria.
«Había un camión semi. Supongo que el tipo se quedó dormido», contó un conductor llamado Pablo a DAIR en el informe. «Iba en sentido contrario en mi carril, hacia mí. Tuve que frenar muy fuerte, realmente, muy fuerte. Y el tipo, supongo que finalmente abrió los ojos. Hizo que su camión se apartara del camino y volcó. Lo próximo que sé, me penalizaron por frenar fuerte.»
Pablo recibió inmediatamente un mensaje de texto regañándolo de su DSP, a quien le dijo que comprobara la cámara de Netradyne. «Eso es lo que me salvó», dijo. Pero otro sistema, la aplicación Mentor, lo penalizó.
«Mi puntuación en [Mentor] pasó de 850 a 650 o algo así», continuó Pablo. Para los conductores, Mentor es la aplicación responsable de puntuar la seguridad en la carretera basada en GPS. «Le dije a mi gerente, ‘Entonces, ¿qué hago? ¿Cómo cambio mi puntuación? Porque no fue mi culpa,» dijo Pablo. Su gerente de DSP, que también puede perder el pago o incluso todo el contrato de Amazon si sus puntuaciones de empleados bajan demasiado, no tenía idea.
«Así que la próxima vez solo me estrellaré para mantener mi puntuación en 850», recordó Pablo. «Eso es básicamente lo que me estás diciendo.»
Otros conductores también informaron que recibieron amonestaciones por comportamientos perfectamente razonables, como beber agua en la cabina o frenar repentinamente cuando aparecen peligros de tráfico de repente.
Johnny, por ejemplo, dice que finalmente fue despedido después de que los sensores de cinturón de seguridad fallaran en la flota de furgonetas de su DSP. Aunque su DSP informó a Amazon del problema, los golpes resultantes en su puntuación de seguridad general aparentemente lo empujaron más allá del punto de corte de la compañía.
«El sensor del cinturón de seguridad falló en mí siete veces supuestamente», dijo. «Pero tenía mi cinturón de seguridad puesto. Me despidieron unos días después a través de una llamada telefónica y un buzón de voz.»
La brecha entre estos sistemas resalta una contradicción entre Amazon y los DSP. Cuando los conductores entregan paquetes, Amazon espera velocidades y precisión increíbles. Sin embargo, los DSP tienen un incentivo para mantener baja la rotación y los conductores seguros —si no por los conductores mismos, entonces al menos por su seguro. Aquellos que lo hacen a menudo son anulados por Amazon, o terminan siendo despedidos por completo.
«Nuestros propietarios de DSP pondrían reglas, y a veces a Amazon no le gustaría. Pasarían por encima de nuestro DSP y nos despedirían», contó Johnny a DAIR. «Dirían, ‘Oh, Amazon despidió a esta persona por alguna razón’. Y, estaríamos como, vale eso es una tontería, pero está bien. Teníamos que ser salvajes para sobrevivir a este trabajo.»
Que estos dispositivos tecnológicos a menudo dificultan la vida de los conductores no se le escapa a Amazon, que tiene algunos canales para que los trabajadores expresen sus preocupaciones o quejas. El problema, explica Adrienne Williams de DAIR, autora principal del informe y ella misma una ex conductora de Amazon, es que esos sistemas no están diseñados para ser tomados en serio.
«Tenían una pregunta que aparecía en nuestros teléfonos escáner Rabbit al final de nuestro turno que preguntaba si experimentamos algún problema o peligro en nuestras rutas ese día», explica Williams. «Siempre llenaba esa pregunta. Nunca vi ninguna respuesta ni ningún cambio a los peligros discutidos.»
No hace mucho tiempo, Amazon comenzó a apoyarse en un sistema llamado Proyecto Cheetah, un formulario web destinado a escalar quejas de conductores y DSP para que la compañía las aborde. Williams había dejado el trabajo antes de poder experimentar Cheetah, al cual describió como un «señuelo» diseñado para mantener un registro de trabajadores descontentos interesados en sindicalizarse (Amazon rutinariamente despide a grupos enteros de conductores de DSP por cometer ese pecado). Los trabajadores familiarizados con el sistema dicen que no se pierde de mucho.
«Escanearías tu insignia y te haría preguntas», dijo Johnny. «Nunca lo hice. Nunca funcionó.» Elizabeth le dijo a DAIR que pueden pasar meses para que Amazon resuelva un problema señalado a Cheetah, si es que alguna vez lo hacen.
Mientras que las quejas durante la jornada laboral pueden tomar la forma de direcciones defectuosas o mala planificación de rutas, también pueden abarcar demandas extremadamente razonables para la seguridad personal del conductor. De cualquier manera, la respuesta de Amazon tiende a ser la misma.
«Hemos tenido encuentros con nazis en la ruta y nos han apuntado con armas muchas veces», recordó Johnny en el informe, hablando de su tiempo entregando en las colinas de California, que tienen una historia de albergar a grupos de extrema derecha. «Amazon no puso en la lista negra su casa. Nos dijeron que lo harían, pero no lo hicieron. Tuvimos un chico. Era judío. Llevaba su [Estrella de David]… y el nazi vio eso, salió con un arma y lo retuvo a punta de pistola.»
Hay innumerables otras historias, todas las cuales surgen de la inherente contradicción que burbujea dentro de Amazon: tiene un interés material en automatizar completamente el trabajo, pero las limitaciones tecnológicas actuales le impiden hacerlo.
Ante esta situación, su próximo movimiento más lucrativo es hostigar a los conductores para que trabajen al capricho de algoritmos, un nivel alejado de Amazon a través del arreglo de los DSP, pero constantemente monitoreados y acosados por un arsenal de tecnología de la compañía cada vez mayor.
«Todo lo que Amazon hace cuando se trata de trabajadores es maximizar la eficiencia hasta tasas físicamente peligrosas e irrealistas o para gestionar la disidencia y reducir la resistencia», explica Williams. «Todo mientras afirma no ser el verdadero empleador de sus conductores de entrega.»
Para mejorar las prácticas explotadoras de Amazon y priorizar la seguridad y el bienestar de los trabajadores, DAIR tiene cinco recomendaciones. Primero, Amazon debe ser responsable directamente de sus trabajadores, como también argumentó la Junta Nacional de Relaciones Laborales en el sur de California. La tecnología de vigilancia también debe ser altamente restringida, y la planificación de rutas algorítmica debe ser estrictamente examinada por humanos, si no planificada por humanos en su totalidad.
Además, los conductores deben poder expresar sus quejas contra clientes problemáticos, sin miedo a penalizaciones, y con la seguridad de que se tomarán medidas para eliminar a esas personas de la lista de clientes. Finalmente, debe haber supervisión humana de las quejas de los clientes, en lugar del sistema actual, en el que los algoritmos determinan las penalizaciones y los conductores no tienen oportunidad de defender su caso contra un panóptico multifacético.
Desafortunadamente, actuar según cualquiera de esas recomendaciones significaría que Amazon ponga a los trabajadores antes que las ganancias, algo que no tiene ningún incentivo para hacer pronto.
Más sobre Amazon: Planes secretos revelan la trama de Amazon para reemplazar a 600,000 trabajadores con un ejército de robots.
Con información de https://futurism.com/future-society/amazon-ai-drivers-report