¿qué pasa cuando los que trabajan en ella se ven reemplazados? » Enrique Dans

Publicado por Emprendimiento en

IMAGE: Silhouette of a man facing a glowing AI microchip symbol above a futuristic city skyline

Caben pocas dudas acerca de que estamos presenciando un cambio silencioso en el trabajo: la inteligencia artificial ya no se limita a los laboratorios experimentales o a los chatbots de consumidores, ahora está erosionando las bases del trabajo humano en formas que son menos visibles, pero potencialmente más importantes, que los titulares sobre «asistentes de inteligencia artificial» o «superinteligencia».

La semana pasada, Google despidió abruptamente a doscientos contratistas de inteligencia artificial, muchos de ellos involucrados en tareas de anotación y evaluación. Oficialmente, la compañía lo describió como parte de una reducción gradual de personal, pero los trabajadores señalaron principalmente los bajos salarios y la precariedad laboral. Lo importante es que los puestos que se están eliminando son precisamente los que garantizan la supervisión humana de los sistemas de inteligencia artificial: los evaluadores, anotadores y revisores que conforman el andamiaje invisible de los productos «inteligentes».

En paralelo, en un evento de Axios, el director ejecutivo de Anthropic, Dario Amodei, advirtió que la inteligencia artificial va camino de desplazar muchos empleos administrativos en cinco años. No en décadas. No en un futuro especulativo. En el próximo ciclo de planificación corporativa, el mundo del trabajo profesional, desde el derecho hasta las finanzas, la consultoría o incluso la administración, podría ser muy diferente.

Contenido

Del trabajo invisible a la pérdida invisible

Durante años, el trabajo humano que impulsa la inteligencia artificial ha permanecido bastante oculto: anotadores mal pagados en países en vías de desarrollo, moderadores expuestos a contenido traumático, contratistas que limpian y estructuran datos silenciosamente para que los modelos puedan entrenarse… estos trabajos rara vez se reconocían, y mucho menos se respetaban. Ahora se están eliminando por completo, a medida que las empresas pasan de la intervención humana a la automatización.

La cuestión no se limita al empleo. Se trata de lo que desaparece cuando eliminamos el juicio humano del sistema. Los anotadores detectan ambigüedades, señalan casos extremos peligrosos y aplican un razonamiento moral que los modelos no pueden replicar. Los evaluadores aportan matices culturales y lingüísticos. Cuando se automatizan estas funciones, los sistemas pueden seguir funcionando, pero los puntos ciegos se profundizan, los errores se multiplican y los sesgos se amplifican. La eficiencia aumenta, pero la resiliencia disminuye.

Trabajo de oficina… a destajo

La advertencia de Amodei apunta a una realidad más amplia: la inteligencia artificial está ascendiendo en la cadena de valor: ya no se limita a tareas de apoyo, sino que está invadiendo el análisis, la escritura, el diseño e incluso la toma de decisiones. Las clases profesionales que antes se consideraban aisladas de la automatización ahora están en el punto de mira. Si los trabajadores manuales fueron la primera ola de desplazamiento tecnológico en el siglo XX, los trabajadores de oficina podrían ser la segunda en el siglo XXI.

La retórica de los líderes tecnológicos a menudo presenta esto como una oportunidad: liberación del trabajo pesado, creación de nuevos roles, aumento de la productividad… pero el historial de cambios tecnológicos previos es bastante desalentador. Sí, surgen nuevos roles, pero no necesariamente para las mismas personas, en los mismos lugares o con los mismos salarios. Los dolorosos costes de la transición no los asumen los accionistas, sino los trabajadores.

Regulación fragmentada

Los gobiernos están empezando a notarlo: Italia acaba de presentar un paquete legislativo sobre inteligencia artificial que busca combatir los deepfakes dañinos, establecer estándares laborales y mejorar la protección infantil. Es uno de los primeros intentos de ir más allá de las barreras reactivas e imponer controles preventivos sobre el uso de la inteligencia artificial. Aún no se sabe si esto se convertirá en un modelo para otros.

España, en cambio, está implementando un modelo mixto: por un lado, ha promulgado leyes que exigen el etiquetado de todo el contenido generado por inteligencia artificial con fuertes multas y ha creado la AESIA (Agencia Española de Supervisión de la inteligencia artificial) para supervisar su cumplimiento; por otro, también está subvencionando considerablemente el desarrollo y la innovación en inteligencia artificial. La tensión es real: las medidas destinadas a proteger la verdad y la transparencia pueden imponer cargas a las pequeñas empresas emergentes, la capacidad de aplicación está lejos de estar garantizada, y la claridad legislativa va, como siempre, por detrás del cambio tecnológico. El caso español ejemplifica una zona fronteriza: se fomenta la regulación y la innovación, pero no siempre se concilian. La ironía es que la regulación avanza con mayor rapidez en los daños visibles que generan alarma social, como los deepfakes, la desinformación y la seguridad infantil, mientras que la erosión invisible de la mano de obra pasa prácticamente desapercibida. Es más fácil prohibir un video falso que enfrentarse a un modelo de negocio que trata el juicio humano como un gasto innecesario.

La eficiencia no es ética

Este momento plantea una pregunta más profunda: el hecho de que la inteligencia artificial pueda reemplazar un rol humano, ¿significa que debería hacerlo? No toda mejora en la eficiencia implica una mejora en la ética. Eliminar moderadores puede reducir costes, pero ¿a qué precio en términos de seguridad? Automatizar la evaluación puede acelerar la implementación, pero ¿con qué riesgo de error? Desplazar a los empleados administrativos podría mejorar el margen, pero los costes para la estabilidad social son bastante claros. ¿Nos comportamos ahora como Meta nunca ha dejado de hacer, «moviéndonos rápido y rompiendo cosas«, centrándonos en la rentabilidad sin prestar atención a otras posibles consecuencias?

Deberíamos ser cautelosos ante un futuro en el que la inteligencia artificial no solo media en nuestra información, sino que también dicta nuestros mercados laborales, reestructurando silenciosamente lo que significa ser útil. Las empresas no deberían externalizar esa responsabilidad a los reguladores. Deben reconocer que la revolución invisible que impulsan tiene importantes consecuencias humanas, y esas consecuencias eventualmente repercutirán en su propia legitimidad.

La verdadera mano invisible

La «mano invisible» en la economía actual de la inteligencia artificial no es la del mercado que enunciaba Adam Smith. Es la mano de obra invisible que ha impulsado el aprendizaje automático, y las pérdidas invisibles que se producen cuando se descarta esa mano de obra. Los despidos en Google y las advertencias de Anthropic son señales, no excepciones. Estamos presenciando las primeras etapas de una transformación que podría redefinir no solo cómo trabajamos, sino también qué tipos de trabajo aún valora la sociedad.

Si las empresas quieren que la inteligencia artificial sea sostenible, deben tratar el juicio humano no como un andamiaje temporal que debe eliminarse, sino como un componente central de los sistemas que aspiran a interactuar con el mundo. Sin eso, corremos el riesgo de construir una economía donde los empleos sean intercambiables o directamente prescindibles, la supervisión sea completamente opcional, y el coste humano de la eficiencia se oculte hasta que sea demasiado tarde.


(This article was previously published on Fast Company

Ver fuente

Categorías: Emprendimiento