La web está empezando a hablar en «agéntico» » Enrique Dans

Publicado por Emprendimiento en

IMAGE: The image illustrates the concept of the "dual-interface web." It is split into two halves: the left side shows a stylish, colorful fashion website designed for human eyes, featuring high-quality photography and shopping buttons. The right side shows a digital, structured blueprint of the same site, made of glowing data nodes and code protocols intended for AI agents. The two sides blend together, showing how the web is evolving to serve both people and machines simultaneously

Durante años, las empresas han asumido que internet estaba construido para las personas.

Los sitios web se diseñaban para captar la atención humana, explicar, persuadir, generar confianza y, finalmente, convertir. El SEO, la experiencia de usuario, el merchandising digital y el diseño del checkout se apoyaban en una premisa básica: el usuario era una persona sentada frente a una pantalla.

Esa premisa está empezando a resquebrajarse.

No porque las personas desaparezcan, sino porque están empezando a delegar. Cada vez más, el primer sistema que leerá tu web, comparará tu oferta, interpretará tus políticas o incluso iniciará una compra no será un ser humano. Será un agente de software actuando en nombre de alguien. Esa es la dirección que apuntan el Model Context Protocol de Anthropic, el protocolo Agent2Agent de Google, su guía de protocolos de agentes y su Universal Commerce Protocol, así como el trabajo creciente de empresas como Visa, Mastercard o Cloudflare para hacer que el comercio agéntico sea fiable y operativo a escala.

No se trata solo de chatbots mejores o interfaces más bonitas. Es una historia sobre cómo la web está adquiriendo una segunda interfaz: una para humanos y otra para máquinas.

De páginas a acciones

La web tradicional giraba en torno a páginas. Publicabas información, las personas la encontraban y luego recorrían una secuencia que tú controlabas. La web emergente gira cada vez más en torno a acciones. A los agentes les importa poco tu homepage, tu jerarquía visual o el arco emocional de tu embudo de conversión. Les importa si pueden entender tu catálogo, verificar tus políticas, acceder a datos fiables y completar una tarea sin fricción innecesaria.

Por eso los avances más relevantes en inteligencia artificial ya no son solo los modelos, sino los protocolos. Anthropic describe MCP como «un estándar abierto y universal para conectar sistemas de inteligencia artificial con fuentes de datos», pensado para sustituir integraciones fragmentadas por un único protocolo. El A2A de Google describe un mundo en el que los agentes publican sus capacidades a través de una «Agent Card», se descubren entre sí y colaboran en tareas. Y el trabajo de Google en comercio va un paso más allá: el UCP está diseñado explícitamente para integrar la lógica de checkout directamente con Google AI Mode y Gemini, donde el «checkout nativo» se plantea como la vía por defecto para desbloquear todo el potencial agéntico. En otras palabras, el stack se está desplazando del contenido a la ejecución.

El próximo SEO no será SEO

Durante dos décadas, las empresas aprendieron que la visibilidad dependía de ser legibles para los motores de búsqueda. Lo que emerge ahora es más exigente. Ya no basta con ser indexable. Hay que ser utilizable.

Por eso conceptos como llms.txt empiezan a cobrar importancia. Como argumenté en un artículo reciente, las webs se construyeron para humanos, mientras que los modelos de lenguaje funcionan mejor con un punto de entrada conciso, limpio de ruido y ambigüedad. La propuesta de llms.txt es simple: colocar un archivo en formato markdown en /llms.txt que actúe como un mapa curado para modelos de lenguaje, señalando qué es importante, qué es canónico y dónde están los recursos útiles. La propuesta oficial lo plantea como una forma de proporcionar información para ayudar a los LLM a usar un sitio web en tiempo de inferencia, precisamente porque las ventanas de contexto son limitadas y convertir HTML complejo en texto útil es a menudo impreciso.

Eso no convierte a llms.txt en un truco mágico de posicionamiento. No lo es. Es más bien higiene digital para un mundo en el que cada vez más descubrimiento, resumen y recomendación están mediadas por sistemas de inteligencia artificial. El objetivo no es engañar a un algoritmo. Es reducir la confusión de las máquinas. Y esa diferencia es clave.

La misma lógica se aplica a ideas más experimentales como identity.txt. Su planteamiento es definir un archivo de identidad portátil que diga a las herramientas de inteligencia artificial quién eres, cómo piensas y en qué términos. Si llms.txt habla de webs, identity.txt habla de personas. Que este estándar se adopte o no es casi secundario. Lo relevante es la dirección: la web empieza a generar descripciones de sí misma pensadas explícitamente para máquinas, en lugar de dejar que modelos y agentes deduzcan todo a partir de HTML ruidoso y fragmentos de metadatos.

Y esto no se quedará ahí. La propia guía de protocolos de Google explica que cada agente A2A puede publicar una «Agent Card» describiendo su nombre, capacidades y endpoint. El mensaje es claro: los sistemas empiezan a anunciarse a otros sistemas de forma estandarizada. Una vez que esa lógica se impone, es fácil imaginar un ecosistema más amplio de archivos legibles por máquinas para políticas, permisos, procedencia, logística, precios, devoluciones o identidad verificada.

Las marcas seguirán importando. Pero ya no bastarán

Muchas empresas siguen tratando la inteligencia artificial como una capa adicional sobre la web: un chatbot en atención al cliente, algo de contenido generado en marketing, un asistente en la app. Esa visión es superficial.

Lo que está ocurriendo realmente es que se está añadiendo una capa orientada a máquinas por debajo de la web visible y, en algunos casos, delante de ella. Cuando un usuario pide a un agente que le encuentre una americana negra por debajo de cierto precio, con entrega rápida, condiciones de devolución razonables y un ajuste similar a compras anteriores, la interacción no empieza en una homepage. Empieza en la interpretación de una máquina.

Eso cambia la base de la competencia. Las marcas seguirán importando porque la confianza sigue siendo clave. Pero esa confianza tendrá que expresarse cada vez más en formas procesables por máquinas: atributos estructurados, inventario actualizado, políticas de devolución claras, promesas de entrega verificables, identidad del vendedor autenticada y sistemas de pago capaces de distinguir entre un agente legítimo y un bot malicioso. Visa habla de «garantizar que solo los agentes aprobados puedan transaccionar». Mastercard insiste en que los protocolos son esenciales para escalar el comercio agéntico porque permiten gestionar intención, credenciales y verificación. Cloudflare lo plantea aún más claro: los comercios necesitarán permitir el acceso a agentes legítimos mientras bloquean el tráfico fraudulento desde el inicio.

Qué significa esto para las empresas: el caso de Inditex

Un grupo global como Inditex permite entender bien este cambio porque está en la intersección entre marca, logística, comercio electrónico y escala.

Inditex llegó relativamente tarde al comercio online frente a los nativos digitales, pero terminó construyendo uno de los sistemas integrados más eficaces del mercado. En sus resultados de 2025, reportó ventas de 39,900 millones de euros, de los cuales 10,700 millones fueron online, destacando la integración entre tiendas físicas y online como base de una experiencia omnicanal fluida.

Eso le da una ventaja clara en un entorno mediado por agentes. Zara y el resto del grupo ya tienen muchos de los atributos que los agentes valorarán: marca fuerte, rotación rápida de inventario, logística integrada, cobertura geográfica amplia y coordinación entre canales.

Pero también hay riesgo. La moda siempre ha dependido de la presentación, la aspiración y cierto grado de fricción comercial. Los agentes eliminan gran parte de eso. Reducen el merchandising a una capa de decisión donde precio, disponibilidad, talla, fecha de entrega, devoluciones e identidad verificable pueden pesar más que la estética del sitio.

En ese contexto, la pregunta deja de ser «¿es tu web atractiva?» y pasa a ser «¿puede un agente utilizarte de forma eficiente?» Para Inditex, la respuesta no puede ser cosmética. Tiene que ser estructural.

Por tanto, ¿qué debería hacer Inditex?

  • Primero, debe empezar a tratar sus webs no solo como destinos para humanos, sino como superficies estructuradas para agentes: catálogos más legibles por máquinas, mejores señales de talla y ajuste, datos de inventario y entrega más claros, políticas más accesibles y capas de autenticación más robustas.
  • Segundo, debería experimentar seriamente con descripciones orientadas a máquinas. Un llms.txt bien diseñado a nivel de grupo y de marca tendría sentido para clarificar estructura, contenidos y fuentes oficiales. No sería un truco de SEO. Sería una capa de usabilidad para agentes.
  • Tercero, debe prepararse para un comercio basado en protocolos. Si Google impulsa UCP y las redes de pago construyen capas de confianza para agentes, los grandes retailers deberían asumir que el descubrimiento, la verificación y el pago orientados a agentes serán estratégicos.

Inditex está bien posicionada para ese cambio. Pero en la próxima fase del comercio, no ganarán necesariamente quienes tengan las interfaces más bonitas, sino quienes sean más fáciles de entender, confiar y usar para los agentes.

La web empieza a exponer su capa de máquina

Es tentador ver conceptos como llms.txt, identity.txt, las Agent Cards o las capas de políticas legibles por máquina como curiosidades técnicas marginales. Sería un error.

Son señales tempranas. No, llms.txt no es todavía un estándar universal. Y no, implementarlo no transformará una empresa de la noche a la mañana. Pero ese no es el punto. Estos pequeños artefactos importan porque muestran hacia dónde evoluciona la infraestructura.

La web ha pasado décadas perfeccionando interfaces para ojos humanos. Ahora empieza, de forma torpe pero clara, a exponer interfaces para agentes de software. Ese es el cambio profundo.

La web original conectaba documentos. La web de plataformas conectó usuarios y servicios. La siguiente conectará agentes, herramientas, comercios, sistemas de pago e identidades verificadas. Y cuando eso ocurre, la pregunta estratégica cambia: ya no es solo «¿cómo llevo usuarios a mi web?» Pasa a ser «¿cómo hago que mi empresa sea comprensible, fiable y accionable para los sistemas que cada vez se interponen entre yo y mis clientes

No es un ajuste de diseño. Es una nueva capa de estrategia digital.


This article was previously published on Fast Company

Ver fuente

Categorías: Emprendimiento