una posible amenaza para tu empresa » Enrique Dans
Hace meses advertí sobre el «shadow AI»: empleados que se movían más rápido que sus compañías, usando inteligencia artificial
sin permiso ni formación corporativa, mientras los directivos miraban hacia otro lado.
La respuesta adecuada a ese fenómeno nunca fue la prohibición, sino la educación y una mejor gobernanza. Aquello era solo la primera señal de algo mayor: BYOA o BYOAI, «bring your own algorithm» o «bring your own AI».
Hoy la tendencia es visible cada vez más compañías: trabajadores que van incorporando sus propios agentes en el flujo de trabajo diario, mientras las compañías improvisan controles a posteriori. La comparación con el viejo y conocido BYOD es engañosa: no se trata de llevar un dispositivo, sino de incorporar una capa cognitiva que decide, infiere y aprende con nosotros. Ahora, las evidencias recientes hacen que la brecha sea imposible de ignorar.
Los datos lo confirman: el Work Trend Index de Microsoft ya señalaba en 2024 que tres de cada cuatro empleados usaban inteligencia artificial, y que el 78% de ellos «se la traía de casa», sin esperar a las herramientas corporativas. No es algo marginal: es la nueva normalidad en un entorno saturado donde la IA se convierte en atajo cognitivo. El informe de 2025 va más allá, advirtiendo que la carga de trabajo actual «empuja los límites de lo humano» y que las organizaciones «frontera» serán aquellas que adopten la colaboración humano–agente como arquitectura por defecto. Mientras tanto, la gobernanza sigue llegando tarde.
Aun así, el discurso tranquilizador («ya daremos acceso oficial y formaremos a todos») ignora un hecho incómodo: el BYOAI no es una moda, es una asimetría de poder. La mitad de los trabajadores admite usar herramientas no aprobadas, y no dejarían de hacerlo aunque se prohibieran. El incentivo es obvio: menos fricción, más rendimiento y, con ello, mejores evaluaciones y oportunidades. Esta «shadow AI« es la extensión natural del «shadow IT«, pero esta vez con consecuencias cualitativas: un modelo externo puede filtrar datos, sí, pero también puede acumular conocimiento tácito de la organización… y marcharse con el empleado el día que decida irse. La amenaza no es el BYOAI, es el hecho de que si no lo permites, puedes convertirte en una compañía que no atraiga ni retenga al mejor talento.
Contenido
No es tecnología, es sociología
El cambio fundamental no es tecnológico, sino sociológico. La mayoría de los usuarios, los no expertos, adoptarán sin más lo que les ofrezcan OpenAI, Google, Microsoft, Perplexity, Anthropic u otros, usando esos modelos como electrodomésticos cognitivos: enchufar y usar, nada más. Y compartirán con esas compañías todos los datos que generen, que estas explotarán hasta el límite de lo imaginable.
Pero está emergiendo otro tipo de profesional: el verdaderamente competente, el usuario experto en inteligencia artificial que construye o ensambla sus propios agentes, los alimenta con sus datos, los ajusta, los ejecuta en su propia infraestructura y los convierte en parte de su capital personal. Esa persona ya no «usa software»: trabaja con su inteligencia artificial personal. Sin ella, su productividad, su método y hasta su identidad profesional se derrumban. Pedirle que renuncie a su agente para cumplir con una lista corporativa de «herramientas aprobadas» es como pedirle a un guitarrista profesional que toque con una guitarra de juguete. El resultado siempre será peor. Y el problema es evidente: con casi total seguridad, esos empleados son los verdaderamente difíciles de conseguir y los que más interesa retener.
Esta realidad obliga a las compañías a replantear sus incentivos: si quieres atraer a ese talento, no puedes esperar a limar su ventaja con memos de política interna. Igual que el BYOD terminó en dispositivos corporativos dentro de contenedores seguros, el BYOA acabará en enclaves de cómputo confiable dentro del perímetro corporativo: espacios donde el agente personal de un profesional pueda operar con atestación de modelos, pesos sellados, perímetros de datos bien definidos, telemetría transparente y límites criptográficos. El objetivo no será estandarizar agentes, sino hacer posible su coexistencia: seguros para la empresa, libres para el profesional.
El pronóstico
Mi pronóstico es claro: los contratos también evolucionarán. Habrá «cláusulas algorítmicas» que regulen el uso de agentes personales: declaración de modelos y datasets, requisitos de aislamiento, derechos de auditoría sobre salidas que influyan en decisiones clave, y compromisos de portabilidad y borrado al finalizar la relación laboral. Junto a eso, surgirán nuevos beneficios en especie: bolsas de cómputo, créditos de inferencia, subvenciones para hardware local o nodos perimetrales.
En segundo lugar, la seguridad y el cumplimiento pasarán de la fantasía de “erradicar el shadow AI” a la realidad de gestionarlo: explícito, inventariado y auditable. Las empresas que lo entiendan antes capturarán el valor. Las que no, seguirán perdiendo talento.
En tercer lugar, esto intensificará la competencia por el talento, y la cultura de gestión tendrá que madurar. El directivo que se aferre a la uniformidad de herramientas expulsará precisamente a los empleados que convierten la inteligencia artificial en multiplicador de su productividad. La métrica que importa no será la obediencia a la lista corporativa de software, sino un rendimiento verificable y trazable. ¿Tienes empleados así en tu empresa? Si los tienes, protégelos a toda costa. Si no, preocúpate: el mejor talento ni siquiera se planteará trabajar contigo.
Los líderes tendrán que aprender a evaluar resultados humano–máquina, a decidir cuándo delegar en el agente y cuándo no, y a diseñar procesos en los que los equipos híbridos sean la norma. Ignorar esto no es prudencia: es un regalo a tus competidores.
Negar lo evidente es perder el tiempo
Por eso el BYOAI no es un problema de disciplina, sino el reconocimiento de que el trabajo del conocimiento ya está mediado por agentes. Negarlo es perder el tiempo. Aceptarlo implica mucho más que licencias y prohibiciones: supone redefinir confianza, responsabilidad y propiedad intelectual en una economía en la que el capital humano llega, literalmente, con su propio algoritmo bajo el brazo.
Las organizaciones que lo entiendan dejarán de preguntarse si deben «permitir» que la gente traiga su propia inteligencia artificial personal bajo el brazo, y empezarán a preguntarse cómo convertir ese hecho en una ventaja estratégica. Las demás seguirán preguntándose por qué el mejor talento no quiere – o simplemente no puede – trabajar sin la suya.
This article was previously published on Fast Company