Traducción y reescritura del contenido:
Si eres uno de los 28 por ciento de estadounidenses que han compartido una relación íntima con un chatbot de IA, quizás tengamos malas noticias.
Un reciente testimonio recogido por la Encuesta de Trabajadores de Datos, una iniciativa internacional de investigación que empodera a los trabajadores temporales a documentar sus industrias, revela detalles impactantes sobre uno de los nichos de consumo de más rápido crecimiento en el sector de la IA.
Durante un período de desesperación en el que luchó por encontrar trabajo en su campo de entrenamiento en aviación global, un hombre keniano llamado Michael Geoffrey Asia escribe para la iniciativa que fue introducido al mundo de la etiquetación de datos y la moderación de chats. En el caso de Asia, los «chats» resultaron ser «conversaciones románticas e íntimas en plataformas que nunca había escuchado».
Aunque estaba lejos de lo que había planeado hacer después de graduarse de la escuela de aviación, aceptó un trabajo como «operador de chat de texto» con la firma australiana New Media Services para alimentar a su familia. Hizo su hogar, escribe, en las barriadas de Mathare en Nairobi, y era todo lo que podía hacer para mantener un techo sobre sus cabezas.
«Lo que no sabía era que el rol me requeriría asumir múltiples identidades fabricadas, y usar perfiles pseudo creados por la compañía para participar en conversaciones íntimas y explícitas con hombres y mujeres solitarios», escribe Asia.
Para hacer el trabajo, Asia tenía que asumir varias identidades, adoptando historias de fondo extensas para jugar el rol de «chatbot» para alguien al otro lado del mundo. «A veces me asignaban una conversación que había estado en curso durante varios días y tenía que continuarla sin problemas para que el usuario no se diera cuenta de que la persona respondiendo había cambiado», escribió.
En cualquier día laboral dado, Asia asumía «tres a cinco diferentes personalidades» simultáneamente, todas de géneros variados. Se le pagaba por mensaje, una tarifa fija de $0.05 por cada uno, que debía cumplir con un conteo de caracteres requerido. También tenía que escribir al menos 40 palabras por minuto, y seguir un tablero que mostraba el número total de mensajes enviados.
«Quedarse atrás en métricas podría llevar a advertencias, asignaciones reducidas, o terminación», explicó Asia.
El trabajo era emocionalmente agotador, con usuarios de chat confiando detalles íntimos sobre sus relaciones en la vida real, así como su propio trauma emocional, creyendo falsamente que estaban hablando con un chatbot de IA sin sentimientos.
«Mi fe me enseñó que el amor debería ser real, la intimidad sagrada, y que el engaño era destructivo tanto para el mentiroso como para el engañado», escribió Asia. «Sin embargo, aquí estaba, engañando profesionalmente a personas vulnerables que buscaban genuinamente conexión –tomando su dinero, su confianza, su esperanza, y dándoles nada real a cambio.»
Para ocultar su degradante trabajo, Asia utilizó una historia de cobertura con su familia: que era un trabajador de TI remoto, tomando tickets para arreglar servidores rotos. «Poco sabían que acababa de decirle a otro hombre, ‘Te amo'», escribió Asia.
También había un acuerdo de no divulgación, un contrato obligatorio que significaba que Asia no podía contarles a sus seres queridos incluso si quisiera. «¿Cómo explicas que te pagan por decirle a extraños que los amas mientras tu verdadera familia duerme a tres metros de distancia?», escribe.
La historia de la lucha laboral y vital de Asia es desgarradora, y está lejos de estar solo. Aunque los números exactos son difíciles de encontrar debido a la naturaleza secreta de la subcontratación tecnológica, las estimaciones sugieren que hay entre 154 y 435 millones de trabajadores temporales comprometidos en trabajo en línea. No todos están haciendo el trabajo de Asia, aunque trabajos de alto estrés y bajo pago como la etiquetación de datos de IA, moderación de contenido y operación de chat de texto tienden a estar ocupados por trabajadores de naciones subdesarrolladas africanas, sudamericanas y del sudeste asiático.
Así que la próxima vez que sientas una conexión con un chatbot, recuerda: podrías estar cayendo en la mentira guionizada de un trabajador mal pagado.
Más sobre IA: Startup de Vigilancia de IA Atrapada Usando Trabajadores de Taller de Sudor para Monitorear Residentes de EE.UU.
Con información de https://futurism.com/artificial-intelligence/ai-companion-chatbots-kenya