¿Qué significa trabajar bajo la supervisión de algoritmos?
Inteligencia Artificial y Trabajo
Por Lynn Parramore
La vigilancia mediante IA y la gestión algorítmica amenazan la autonomía y la dignidad de los trabajadores. Es hora de replantearse los derechos. Este artículo forma parte de «La IA y el futuro del trabajador estadounidense», una serie sobre cómo la inteligencia artificial está impactando el trabajo, el poder y el significado del trabajo.
«Alguien debió de estar mintiendo sobre Joseph K., pues sin haber hecho nada malo fue arrestado una mañana.» ~ El Proceso (1925), Franz Kafka
Ahí estás, mirando fijamente la pantalla. El cursor se congela, así que lo mueves ligeramente, por si acaso. ¿Acaso parecías estar ocioso? No pasa nada. Aun así, actúas como si algo anduviera mal.
Un programa informático silencioso te vigila constantemente. La empresa lo llama «ayuda». Un «socio» de IA para que seas más rápido, más inteligente, más productivo e incluso más feliz. Sin embargo, intuyes que algo ha cambiado bajo la atenta mirada de este inquisidor digital. Quizás ni siquiera sepas qué se está vigilando o midiendo, ni adónde va toda esa información.
Esto se está convirtiendo rápidamente en la nueva normalidad en las oficinas, donde los algoritmos nos vigilan constantemente. Este cambio ejerce una presión real sobre nuestra concepción de los derechos. Algunos ya están consagrados —aunque no siempre sean fáciles de hacer cumplir— como los límites a la vigilancia intrusiva, la protección de la privacidad y el debido proceso en la evaluación y el despido. Otros son más difíciles de definir, aunque las personas los experimenten a diario: la necesidad de un margen de confidencialidad y la comprensión de que poseemos una identidad que no se reduce a datos. Estos derechos son la base de la dignidad y el trabajo significativo, vitales para una fuerza laboral exitosa, empresas prósperas y una sociedad floreciente.
Los empleadores siempre han buscado el control; los trabajadores siempre han luchado por la autonomía y la dignidad. La IA es el capítulo más reciente, y quizás el más intenso hasta ahora: más íntimo y omnipresente que cualquier sistema de vigilancia anterior. El rumbo que tomará la historia es incierto, pero sin una intervención rápida y deliberada, la tendencia apunta a la normalización de sistemas incontrolables que resultan francamente kafkianos.
Ojos sin rostro
Los sistemas de monitorización con IA actuales se presentan en dos variantes: herramientas que rastrean tu comportamiento y sistemas que toman decisiones automatizadas al respecto. En conjunto, se les suele denominar «software de control», un término que guarda una incómoda similitud con el ya conocido «software espía».
No contento con observar y medir, el software de gestión empresarial predice, sugiere e interviene: Krista, mantente dentro de las aplicaciones aprobadas durante el horario laboral. Dave, toma medidas correctivas para mejorar tu puntuación de compromiso.
Ya no basta con entregar las tareas. El trabajo puede sentirse como un juego en un tablero invisible. Cuanto más escribes, más aprende el algoritmo. Solo él sabe realmente lo que pasa.
Muchos trabajadores a tiempo completo, a tiempo parcial y autónomos se enfrentan ahora a un nivel de vigilancia que algunos describen como « deshumanizante ». La mayoría, especialmente los empleados de oficina y los contratistas con escasa protección sindical o acuerdos claros, se encuentran en una zona gris legal. Incluso para aquellos que tienen la suerte de pertenecer a un sindicato, las antiguas medidas de protección se han quedado obsoletas frente a la tecnología. Los empleados se ven obligados a improvisar, intentando desenvolverse en sistemas de espionaje que no comprenden del todo.
Cada vez más, la monitorización se basa en el análisis de tareas, un software que registra cómo interactúan los empleados con sus ordenadores y flujos de trabajo para determinar cómo se realiza el trabajo y dónde se puede optimizar o automatizar. Tu comportamiento digital cotidiano se convierte en un conjunto de datos continuo sobre productividad.
En esencia, se trata del taylorismo del siglo XXI. Los empleadores lo presentan como eficiencia, pero los trabajadores suelen experimentarlo como exposición y humillación. Para algunos, no se trata tanto del seguimiento de los resultados, como los paquetes entregados o las ventas cerradas. Eso sí que lo toleran. Se trata del escrutinio de los datos: los minutos de inactividad marcados, las pausas para ir al baño cronometradas, el tono y la cadencia analizados minuciosamente en las llamadas. Si a esto le sumamos políticas poco transparentes, la expectativa de estar siempre conectados y las constantes capturas de pantalla que hacen que uno tema buscar una receta de pescado al vapor, lo que podría haberse ganado en productividad se pierde en una creciente ola de estrés.
Imaginemos que un barista de Starbucks, o cualquier otro trabajador de oficina o autónomo, se encuentra bajo la atenta mirada de una IA llamada "Aware", que analiza Slack, Teams y Zoom en busca de interacción, opiniones o cualquier otro comportamiento que pueda considerarse de riesgo, y luego envía sus evaluaciones a los paneles de control de los gerentes. Los trabajadores solo ven los resultados, no la lógica que los generó. Es la lógica de Kafka adaptada al software.
¿Dio el consentimiento el barista a este sistema? No en el sentido habitual. El algoritmo no es opcional, y los contratos y las protecciones laborales comunes no preveían un supervisor tan opaco y con tanta influencia.
Con herramientas más sofisticadas a su disposición, los empleadores buscan registrar no solo lo que haces, sino también cómo te sientes mientras lo haces. Los sistemas de IA interpretan las expresiones faciales, los movimientos oculares e incluso la postura, convirtiendo tu estado de ánimo en una métrica. Lo que ya se estaba infiltrando en el ámbito laboral como biovigilancia se ha transformado en inteligencia artificial emocional, presente en todas partes, desde centros de atención telefónica hasta oficinas financieras.
Los programas de IA pretenden utilizar datos de dispositivos portátiles, texto y actividad informática para detectar cómo te sientes, pero en realidad, solo infieren: nunca reflejan tu experiencia real. Numerosas empresas ya utilizan IA emocional, a pesar de que los expertos advierten que la ciencia que la sustenta es, en el mejor de los casos, dudosa. ¿Era escepticismo o interés? Empresas como Azure Vision parecen saberlo, pero los investigadores de la Universidad de Western Ontario lo expresan sin rodeos : «No deberíamos creer a los informáticos cuando afirman que los paradigmas que han desarrollado para las emociones humanas pueden ofrecer información veraz sobre ellas».
Parte del problema radica en que las máquinas tienen sesgos. Las mujeres, los empleados mayores, los trabajadores neurodiversos y las personas de color tienen muchas más probabilidades de ser malinterpretados y evaluados erróneamente. Lo que el algoritmo identifica como "desconexión" puede ser simplemente fatiga, diferencias culturales o, peor aún, un momento de reflexión. Sin embargo, estas interpretaciones erróneas pueden influir en las evaluaciones de desempeño, los ascensos y los despidos.
¿Yo preocuparme?
Incluso en el mejor de los casos, la vigilancia mediante IA puede ser contraproducente, generando mayor precariedad laboral, peores condiciones de trabajo, salarios y horarios injustos, y más discriminación, a la vez que profundiza la desigualdad. Sin embargo, algunos empleadores están presentando la vigilancia mediante IA como una herramienta de bienestar en lugar de un Gran Hermano en el escritorio.
En JPMorgan Chase, por ejemplo, cada movimiento digital de los banqueros junior ahora se rastrea para detectar el exceso de trabajo. La empresa afirma que todo se trata de "conciencia" y "bienestar". Pero incluso cuando la supervisión se presenta como útil, el monitoreo y la gestión algorítmica pueden generar problemas. En un experimento , los participantes abordaron la misma tarea bajo dos condiciones: observados por un humano o por un sistema de IA llamado "AI Technology Feed". Incluso cuando la retroalimentación fue la misma, el grupo de IA se sintió estresado, impotente y menos creativo, y se resistió más a la IA que al observador humano. Un estudio de 2025 descubrió que la vigilancia digital intensificada erosiona la confianza y mantiene a los trabajadores en tensión.
Katharina Klug, investigadora de psicología empresarial en la Universidad de Bremen, advierte que la vigilancia laboral mediante IA «podría tener efectos desmotivadores… si se realiza de forma poco transparente: no se sabe qué datos se recopilan ni qué hace el empleador con ellos». Señala que esto podría derivar en un cambio en la motivación hacia recompensas extrínsecas y en una situación en la que los empleados se sientan presionados y ansiosos. La economista Nadia Garbellini, de la Universidad de Módena (Italia), ha advertido que la IA podría disminuir la calidad de los empleos, relegando a los trabajadores a un grado de autonomía cada vez menor.
También es un problema de salud . La vigilancia constante por parte de la IA genera anticipatorio estrés : uno se preocupa por cómo se interpretará cada acción en el futuro. Esto puede provocar agotamiento, disminución de la capacidad creativa e incluso síntomas físicos. Alex Rosenblat ha escrito sobre jefes controlados por IA que, además de propiciar problemas como el robo de salarios, a veces fomentan actividades de riesgo, como presionar a los conductores de Uber para que sigan trabajando cuando están cansados.
Incluso cuando los empleados comprenden las métricas, surgen problemas imprevistos. Por ejemplo, a veces manipulan lo que se mide, a menudo a expensas del panorama general, lo que lleva a un cumplimiento superficial y a irregularidades en las métricas. En algunos lugares de trabajo, el personal se ve obligado a recurrir a contramedidas como los famosos "dispositivos de simulación de movimiento del ratón", que simulan un ligero movimiento del cursor para que los empleados puedan tomarse un descanso para fumar sin ser detectados. Wells Fargo despidió a más de una docena de empleados tras detectar este tipo de tácticas.
¿Y qué ocurre con los datos de los empleados una vez recopilados? Es posible que no se queden dentro del lugar de trabajo. Los empleadores pueden compartirlos con proveedores, servicios en la nube y empresas de análisis, mientras que herramientas como Slack o Zoom generan flujos de datos de comportamiento que se transmiten a través de múltiples terceros mediante amplios acuerdos de servicio.
Las políticas laborales permiten cada vez más la recopilación y reutilización generalizada de métricas de productividad, metadatos de comunicaciones y otros rastros digitales, a menudo ampliados mediante actualizaciones que ofrecen poca claridad sobre su uso posterior. En algunas jurisdicciones, leyes como la Ley de Privacidad del Consumidor de California (CCPA) ofrecen derechos limitados para acceder a ciertos datos o excluirse de ellos, incluyendo la venta de información personal, aunque su aplicación es desigual y las exclusiones rara vez son sencillas. En otros lugares, buena suerte.
Aunque una empresa no tenga intención de vender tus datos, estos pueden escaparse de sus manos. La aplicación de vigilancia WorkComposer dejó expuestas más de 21 millones de capturas de pantalla de empleados en un bucket de Amazon S3 sin seguridad. Se filtraron imágenes confidenciales de la actividad de los empleados, poniendo a los trabajadores en riesgo de robo de identidad y otros perjuicios. ¡Ups!
La IA también ha intensificado un riesgo laboral que podríamos denominar «evaluación encubierta». Tu jefe lo llama «programa de formación», pero, en realidad, la IA está analizando tus puntos débiles. Para cuando termines la sesión, el algoritmo ya habrá emitido su recomendación sobre ti, y al gerente humano solo le quedará pulsar «aprobar».
Mientras tanto, el sistema crea una imagen más completa de tu desempeño, lo que permite evaluar con mayor precisión si la empresa puede prescindir de ti. Thomas Ferguson, director de investigación de INET, señala que los analistas del sector advierten en privado que los empleados que intentan familiarizarse con las herramientas de IA podrían preferir experimentar con el software en su tiempo libre, en lugar de compartir sus conocimientos con sus empleadores. «Las prácticas laborales estadounidenses tratan a la mayoría de los trabajadores como herramientas desechables», comenta, «con consecuencias previsiblemente desastrosas en la rapidez con la que el beneficio social de la IA puede extenderse a muchos sectores». Ferguson prevé que la introducción de la IA en los países del norte de Europa, con una mayor protección laboral, será más sencilla.
Sin tales protecciones, terminamos con el tribunal de Kafka en su versión más eficiente: cargos invisibles procesados en tiempo real por burócratas invisibles.
El software de gestión empresarial también puede reducir tu salario mediante lo que se conoce como "pago por vigilancia". Un informe del Washington Center for Equitable Growth, que examinó a 500 proveedores de IA, revela que, bajo los sistemas de IA, "diferentes personas pueden recibir salarios distintos por prácticamente el mismo trabajo, y los trabajadores individuales no pueden predecir sus ingresos a lo largo del tiempo". El resultado es una "desvinculación entre el trabajo duro y una remuneración justa y segura", una dinámica que afectó primero a los trabajadores de la economía colaborativa, como los conductores de servicios de transporte y reparto de comida, y que ahora se está extendiendo a otros sectores y empleos.
Finalmente —y apenas hemos arañado la superficie de los riesgos de la vigilancia mediante IA— las empresas están utilizando inteligencia artificial para mantener a raya a los sindicatos. Herramientas diseñadas para el ejército patrullan las oficinas y los pasillos de los almacenes, asegurándose de que la organización sindical nunca logre abrirse paso. Algunas empresas incluso utilizan IA para rastrear las redes sociales fuera del lugar de trabajo y descubrir quién tiene intención de sindicalizarse. Empleados de Amazon , e incluso de la Universidad de Boston , han experimentado de primera mano la represión sindical impulsada por la IA. El uso antisindical de la IA se ha convertido en una característica siniestra de lo que se ha denominado la « amazonización de la fuerza laboral estadounidense ».
De una forma más insidiosa, la gestión algorítmica tiende a transformar el lugar de trabajo, pasando de ser un espacio político compartido a un entorno aislado donde las personas compiten contra sus propios datos individuales. La experiencia se centra en métricas individuales en lugar de condiciones colectivas, erosionando así el sentido de autonomía.
Diseñando para la dignidad
En la era de la IA, nos enfrentamos a problemas tanto regulatorios como conceptuales. Existe una necesidad imperiosa de definir con mayor precisión las implicaciones humanas e insistir en que la eficiencia, por muy útil que sea, no define el propósito del trabajo ni el alcance total de los derechos de los trabajadores.
El problema de fondo es que el trabajo se realiza cada vez más a través de sistemas que van más allá de simplemente recopilar información sobre las personas, sino que convierten esa información en juicios, a menudo sin explicación y con muy poco margen —y prácticamente sin derechos legales— para rebatirlos.
Algunos gobiernos están empezando a tomar medidas. En la Unión Europea, la Ley de Inteligencia Artificial considera que la IA aplicada a la contratación, el despido, la remuneración y la evaluación del desempeño en el ámbito laboral es de "alto riesgo". Esto implica que las empresas deben documentar el funcionamiento de estos sistemas, someterlos a pruebas para detectar sesgos y mantener la supervisión humana. El Reglamento General de Protección de Datos (RGPD) también otorga a los trabajadores derechos básicos para acceder a sus datos y cuestionar las decisiones totalmente automatizadas que les afecten de forma significativa.
En cambio, Estados Unidos sigue lidiando con un sistema fragmentado. Las leyes laborales y de privacidad vigentes a veces se pueden interpretar de forma flexible para abarcar la vigilancia en el lugar de trabajo o la evaluación algorítmica, pero su aplicación es desigual y las normas no se diseñaron para sistemas que delegan el juicio en modelos. La mayor parte del marco legal aún presupone que hay una persona real en algún lugar tomando una decisión que se puede identificar. Sin embargo, cada vez más, no hay ningún ser humano involucrado.
Esa brecha es importante, porque la ley por sí sola no va a reequilibrar la situación. Los trabajadores necesitan sindicatos, convenios colectivos y capacidad de organización que les permita influir en cómo se utilizan estos sistemas en la práctica. Donde los sindicatos son fuertes, han comenzado a oponerse: exigen transparencia en torno a las herramientas de monitoreo, limitan el uso de puntuaciones algorítmicas en la disciplina y la remuneración, e insisten en la revisión humana cuando los sistemas automatizados señalan o clasifican a los trabajadores.
Nada de esto es abstracto. Es la diferencia real entre tener voz y voto en cómo te evalúan y descubrir, a posteriori, que siquiera te evaluaron.
Es fundamental quién ve los datos y quién los controla, así como el impacto que tiene en las personas la sensación de ser interpretadas constantemente por sistemas que no comprenden el contexto. La mayor parte del trabajo humano no consiste en una serie de resultados claros y medibles. Es complejo. Hay días malos, periodos de recuperación, curvas de aprendizaje, distracciones, improvisación y decisiones que no se traducen fácilmente en datos concretos.
En última instancia, está en juego una especie de derecho a la indeterminación: el derecho a no ser encasillado por sistemas que intentan constantemente inferir qué tipo de trabajador eres a partir de cualquier rastro que dejes. Nadie espera estar completamente libre de mediciones —eso no es realista—, pero podemos y debemos exigir un límite en lo que se les permite significar y en la autoridad que se les otorga.
Sin esos límites, el trabajo empieza a sentirse menos como algo que uno hace y más como algo en lo que se te transforma constantemente. Una vez que eso sucede, el trabajador se reduce a un simple perfil que se actualiza continuamente y se califica eternamente.
Esto no significa que la IA no tenga cabida en el lugar de trabajo. Esa oportunidad ya pasó, y muchas herramientas pueden ser útiles si se aplican de forma reflexiva y transparente, con amplia participación de los trabajadores. La pregunta es: ¿serán herramientas que apoyen a los seres humanos y la prosperidad compartida, o permitiremos que se conviertan en el nuevo medio por el cual la gerencia ejerce más control y menos resistencia?
Solo uno de esos caminos deja espacio para la dignidad.
Sobre la autora:
Comentarios
Publicar un comentario