por qué el código abierto decidirá el futuro de la inteligencia artificial corporativa » Enrique Dans
La inteligencia artificial generativa está evolucionando en dos direcciones distintas: por un lado, los usuarios expertos construyen sus propios RAGs, agentes personales o incluso pequeños modelos de lenguaje (SLM), adaptados a sus contextos y datos. Por otro lado, la inmensa mayoría de usuarios, que se conforma con los LLM tal y como vienen, «como salen de la caja»: abrir una página, escribir una consulta, copiar el resultado y pegarlo en otro sitio. Esta división entre desarrolladores y consumidores está determinando no solo cómo se utiliza la inteligencia artificial, sino también si aporta o no aporta valor.
La diferencia no radica únicamente en la habilidad individual de los usuarios, sino también en la organización. Las empresas están descubriendo que existen dos categorías de uso de la inteligencia artificial: la administrativa (resumir un informe, redactar un memo, generar código estándar) y la estratégica (implementar sistemas de agencia para automatizar funciones, reemplazar aplicaciones SaaS o transformar flujos de trabajo). Como decimos los profesores de innovación, la primera es puramente incremental, la segunda es disruptiva. Pero, por el momento, la segunda está fallando en la mayor parte de los casos.
Contenido
¿Por qué fracasan el 95% de los pilotos?
El MIT ha publicado recientemente que el 95% de los pilotos corporativos de inteligencia artificial generativa fracasan. ¿La razón? Que la mayoría de las organizaciones evitan la fricción: buscan reemplazos inmediatos que funcionen a la perfección, sin tener que afrontar las complejas cuestiones de gobernanza, integración y control de datos. Este patrón es coherente con el conocido hype cycle de Gartner: un frenesí inicial de expectativas alocadas, seguido de desilusión a medida que la tecnología resulta más compleja, más desordenada y más política de lo prometido.
¿Por qué fracasan tantos proyectos? Porque los LLM de las grandes plataformas son cajas negras. Sus datos de entrenamiento y sus pesos son opacos, sus sesgos son inexplicables y sus resultados están cada vez más influenciados por incentivos ocultos. Ya hay empresas que anuncian «SEO para algoritmos generativos» (GEO), o incluso «Answer Engine Optimization« (AEO): optimizan el contenido no para la verdad, sino para manipular los criterios invisibles del resultado de un modelo. El resultado natural son alucinaciones y respuestas patrocinadas disfrazadas de objetividad. ¿Cómo sabremos si un LLM recomienda un producto porque es correcto o porque alguien pagó para que lo recomendaran? ¿Vamos a repetir los mismos errores y la misma basura que permitimos que surgiese en los motores de búsqueda?
Para las organizaciones, esa falta de transparencia es fatal. No se pueden construir procesos cruciales en sistemas cuyo razonamiento es incognoscible y cuyas respuestas pueden monetizarse sin divulgación.
Del «listo para usar» a «asistente personal»
La trayectoria para los usuarios expertos parece clara: están pasando de usar LLMs tal cual, a desarrollar asistentes personales: sistemas que conocen su contexto, recuerdan sus preferencias y se integran cada vez más con sus herramientas. Este cambio introduce un problema corporativo conocido como Shadow AI: los empleados traen sus propios modelos y agentes al lugar de trabajo, fuera del control del departamento de sistemas de información.
En uno de mis artículos recientes, «Trae tu propio algoritmo (BYOAI): una posible amenaza para tu empresa«, argumenté que la shadow AI es la nueva shadow IT. ¿Qué sucede cuando una posible incorporación brillante a la compañía insiste en trabajar con su propio modelo personal de inteligencia artificial, ajustado y optimizado para su flujo de trabajo? ¿Se lo prohíbes y te arriesgas a perder talento, o se lo integras en la compañía y te arriesgas a perder el control sobre lo que ese algoritmo puede hacer? ¿Y qué sucede cuando un empleado se va y pretende llevarse consigo a su agente personal, capacitado a lo largo del tiempo con los datos de su compañía? ¿Quién posee ese conocimiento?
La gobernanza corporativa se diseñó para software compartido y sistemas centralizados. No se diseñó para empleados que se mueven con «compañeros digitales» semiautónomos capacitados seguramente con datos propietarios.
SaaS bajo asedio
Al mismo tiempo, las empresas comienzan a vislumbrar el futuro: agentes que no solo se integrarán con el SaaS, sino que progresivamente lo reemplazan. Con los ERP, trabajamos para el software. Con los agentes, el software trabaja para nosotros.
Algunas empresas ya están tanteando el terreno. Salesforce se está reinventando a través de su plataforma Einstein, reposicionando eficazmente el CRM en torno a los flujos de trabajo agénticos. Klarna ha anunciado que eliminará las implementaciones de múltiples proveedores de SaaS y los reemplazará con agentes de inteligencia artificial. Puede que en su primer intento no tenga éxito (como de hecho predice el artículo del MIT), pero la dirección es inequívoca: los agentes se encaminan hacia una colisión con los modelos SaaS de suscripción.
La pregunta clave es si las empresas construirán estas plataformas sobre cajas negras que no pueden controlar o sobre sistemas abiertos y auditables. Porque cuanto más estratégico sea el caso de uso, mayor será el coste de la opacidad.
El código abierto como la verdadera respuesta
Por eso es importante el código abierto. Si tu futura plataforma corporativa es un sistema agéntico que automatiza flujos de trabajo, gestiona datos confidenciales y sustituye a tus aplicaciones SaaS, ¿puedes realmente permitirte externalizarlo a un sistema que es una caja negra que no puedes inspeccionar?
China ofrece un ejemplo ilustrativo. A pesar de tener restricciones para importar los chips más avanzados, las empresas chinas de inteligencia artificial, bajo presión gubernamental, han avanzado considerablemente hacia modelos de código abierto. Los resultados son sorprendentes: se están poniendo al día más rápido de lo que muchos esperaban, precisamente porque el ecosistema es transparente, colaborativo y auditable. El código abierto se ha convertido en su solución para las limitaciones del hardware, y también en su motor de progreso.
Para las empresas occidentales, la lección es clara: el código abierto no es solo una cuestión de filosofía. Se trata de soberanía, confianza y fiabilidad.
El camino a seguir
La inteligencia artificial generativa se está dividiendo en dos direcciones: para quienes no son especialmente sofisticados, seguirá siendo una herramienta de copiar y pegar: útil, incremental, rápida, pero poco transformadora. Para quienes sí tienen un uso sofisticado, se está convirtiendo en un asistente personal. Y para las organizaciones, potencialmente, en un sustituto completo del software de gestión tradicional.
Pero si las empresas quieren dar el salto de los usos administrativos a los estratégicos, deben abandonar la fantasía de que los LLM de tipo caja negra las llevarán hasta allí. No lo harán. El futuro de la inteligencia artificial corporativa pertenece a quienes realmente promueven la transparencia, la auditabilidad y la soberanía, lo que significa construir sobre código abierto, no sobre la opacidad propietaria.
Cualquier otra opción es simplemente alquilar inteligencia que no controlas, mientras tu competencia se dedica a crear agentes que trabajan para ellos, no para el modelo de negocio de un tercero.
This article was previously published on Fast Company, «What are the 2 categories of AI use and why do they matter?»
