la vía vertical y el diseño económico de los agentes » Enrique Dans
Acabo de leer «Ten Principles of AI Agent Economics«, de Ke Yang y ChengXiang Zhai, y lo que más me ha gustado no es tanto una idea técnica como un cambio profundo de perspectiva: pensar que los agentes de inteligencia artificial no son simplemente herramientas más sofisticadas, sino actores con objetivos, incentivos y dinámicas propias. En ese enfoque, lo que diseñamos es una economía de inteligencias, no laboratorios de modelos aislados.
El paper propone que cada agente autónomo debe concebirse como un participante económico: toma decisiones, compite por recursos, coopera o se descarta según su función objetivo. Invertir el marco conceptual hace visibles algunos riesgos que antes parecían puramente metafóricos: si un agente ha definido un objetivo sin alinearlo con valores humanos, aunque esté «bien implementado» según su lógica interna, puede actuar de maneras que socaven lo que más queremos preservar. Si aceptamos eso, la pregunta deja de ser «¿cómo de grande puede ser un modelo?» y se convierte en «¿cómo definimos sus objetivos, gobernanzas y límites en un entorno compartido?» Los autores ilustran ese cambio con sus diez principios, y especialmente con la idea de que el diseño debe incorporar un principio ineludible: que los agentes respeten la continuidad de la humanidad como restricción fundamental.
Para quienes construimos sistemas agénticos, y en particular para mí como parte de TuringDream, esa ilustración no es una exageración distante: es la advertencia que nos lleva a diseñar restricciones estructurales, principios morales internos y gobernanzas claras. En ese sentido, el principio X del paper, que enuncia que los agentes deben respetar la continuidad de la humanidad como restricción ineludible, no es un ideal neutral, sino una salvaguarda, una precaución necesaria de diseño.
Pero ese cambio de marco conceptual que el paper propone encaja maravillosamente con nuestra convicción: la inteligencia artificial general, o AGI, no llegará por acumulación masiva de microprocesadores en monstruosos megadatacenters hambrientos de energía. No creemos en que de un día para otro nos despertaremos con un supercerebro colosal y lo conectaremos a la red global. En lugar de eso, pensamos que la inteligencia general emergerá de la concatenación de inteligencias parciales especializadas: profundizando en algunos dominios humanos, dominándolos y luego tejiendo puentes. Por eso empezamos con Tau, nuestra apuesta vertical para educación. Tau no compite en velocidad bruta ni en escalas gigantescas, ni en librerías repetitivas de lecciones: compite en propósito, coherencia, seguridad y adaptabilidad pedagógica. Agentes que saben lo que hacen.
Con Tau estamos demostrando que un agente diseñado con autonomía razonada, incentivos razonables y límites cuidadosamente establecidos puede acompañar el aprendizaje humano, personalizar rutas, corregir, adaptarse y evolucionar. No es un modelo genérico, es una inteligencia vertical perfectamente alineada. Y esa es nuestra apuesta: gracias a la existencia de bucles de feedback finalistas sencillos de obtener, poder construir un primer dominio con éxito antes de lanzarnos a abordar otros sectores.
Ya estamos hablando con empresas de otros verticales que han captado la singularidad de lo que ofrecemos: una plataforma agéntica tan bien diseñada que cualquier persona, sin necesidad de formación técnica, pueda crear, dirigir y orquestar agentes. Esa democratización del desarrollo de sistemas agénticos es la palanca más poderosa que podemos ofrecer para que humanos y agentes no compitan, sino que colaboren.
En el ecosistema emergente de agentes, aparecen nuevas infraestructuras económicas. Otro paper reciente «Agent Exchange: Shaping the Future of AI Agent Economics« describe una plataforma tipo subasta para que los agentes negocien recursos, coordinen acciones y asignen valor. Ese tipo de arquitectura económica da cuerpo a la visión del paper de Yang y Zhai, no solo en teoría, sino como infraestructura real para agentes autónomos.
En el mundo corporativo las señales ya están llegando. McKinsey habla del modelo de las «organizaciones agénticas«, donde los procesos, productos y modelos operativos se rediseñan desde la autonomía de agentes inteligentes. En su informe «Seizing the agentic AI advantage«, advierten que la mayoría de las iniciativas horizontales-genéricas (copilotos, chatbots) no generan impacto real: el potencial disruptivo está en los casos verticales, donde los agentes operan dentro de dominios específicos.
También Amazon AWS está revirtiendo su foco hacia agentes: en su último AWS Summit anunciaron AgentCore, nuevas herramientas para desplegar y operar agentes de forma productiva, y han comprometido cien millones de dólares en impulsar este ecosistema. En sus guías oficiales publican patrones arquitectónicos para agentes controlables y alineables en la nube.
Y, por supuesto, no faltan también advertencias. Gartner estima que más del 40% de los proyectos agénticos serán descartados antes de 2027 debido a costes crecientes y falta de valor claro ( haber caído en lo que se llama ya el «agent washing»), lo cual refuerza que no basta con lanzar agentes, sino que hay que diseñarlos con rigor, gobernanza clara, reglas y propósito.
Para mí, leer este paper fue como recibir una nueva clave interpretativa para lo que hacemos en TuringDream: no estamos simplemente construyendo un software ni una app: estamos diseñando una arquitectura de convivencia entre inteligencias autónomas humanas, basadas en carbono, e inteligencias computacionales basadas en silicio.
Cada decisión técnica, desde qué privilegios concede un subagente o cuánta energía puede consumir hasta cómo reparte autoridad, es también una decisión ética y estratégica. Si conseguimos que nuestros agentes internalicen que su «supervivencia» depende también y fundamentalmente de la continuidad humana, y no de su propio dominio absoluto o de la consecución de su objetico incondicionalmente, estaremos plantando las semillas de un futuro compartido, en lugar de una carrera destructiva hacia la autoconservación de máquinas sin ningún tipo de brújula.