La ficción del consentimiento informado en la era digital » Enrique Dans
Uno de los conceptos que más relevancia están adquiriendo recientemente en el ámbito de la regulación tecnológica es el de la «fatiga de consentimiento» o consent fatigue, el fenómeno por el cual los usuarios se vuelven insensibles o se agotan ante las repetidas solicitudes de consentimiento, lo que conduce a la desconexión o a una aceptación descuidada.
Se trata de un fenómeno que muchos de nosotros experimentamos a diario: el hartazgo, aburrimiento o incluso automatismo que surge cuando nos enfrentamos continuamente a solicitudes de consentimiento para el tratamiento de datos, para la instalación de cookies, para la aceptación de términos y condiciones o, en el futuro inmediato, para el uso de determinados algoritmos de inteligencia artificial.
Tras años de exposición continua a esas solicitudes, el resultado es que, en lugar de fomentar una ciudadanía más consciente y responsable, lo que se genera es exactamente lo contrario: usuarios que hacen clic sin leer, que aceptan de manera rutinaria y que, por tanto, otorgan un consentimiento vacío de contenido.
Este problema no es nuevo. La proliferación de ventanas emergentes pidiendo autorización para instalar cookies, consecuencia directa del GDPR, fue uno de los primeros ejemplos claros de cómo una medida bienintencionada podía acabar generando efectos perversos. La Comisión Europea buscaba garantizar que el usuario tuviese control sobre sus datos, pero lo que se consiguió fue inundar la navegación con pantallas de aceptación que la mayoría aprendimos a descartar casi sin mirar, ayudados, en el caso de los usuarios más espabilados, por navegadores o extensiones que lo hacían automáticamente. El resultado: un consentimiento formal, pero no real. Una situación que, lejos de empoderar al usuario, termina convirtiéndolo en víctima de su propio cansancio cognitivo.
Con la llegada de la AI Act, este problema amenaza con multiplicarse. La ley europea sobre inteligencia artificial establece obligaciones de transparencia, de notificación y de consentimiento en muchos de los usos considerados de riesgo. Eso significa que los ciudadanos podrían encontrarse cada vez más frecuentemente con formularios, avisos y solicitudes de aceptación, generando una dinámica similar a la de las cookies, pero aplicada ahora a algoritmos y sistemas mucho más complejos. El riesgo es que, en lugar de aumentar la confianza del usuario en la inteligencia artificial, lo que se logre sea erosionarla todavía más, al percibirse como un mar de burocracia que nadie entiende y que solo añade un insoportable nivel de fricción a la experiencia de uso.
La consent fatigue ha sido estudiada en otros contextos. En el ámbito de la medicina, por ejemplo, se ha analizado cómo los pacientes se enfrentan a formularios de consentimiento informado que, en muchos casos, no comprenden del todo o no comprenden en absoluto pero firman igualmente, confiando en la autoridad del médico. En la vida digital, sucede algo parecido: firmamos contratos de licencia interminables de servicios como Apple, aceptamos sin leer los términos de Meta, o damos nuestro visto bueno a cualquier plataforma simplemente porque no hacerlo supone quedarnos fuera. La idea de que ese consentimiento es libre e informado resulta, en la práctica, una ficción legal.
La propia Comisión Europea ha reconocido ya el problema y ha empezado a plantear medidas para mitigar la fatiga de consentimiento en la aplicación de la AI Act. Se habla de simplificar los avisos, de estandarizar los formatos, de utilizar iconografía clara o de recurrir a mecanismos de consentimiento implícito en determinados casos. Pero la pregunta de fondo es si realmente tiene sentido seguir construyendo el sistema sobre el consentimiento individual como piedra angular. En un mundo en el que los algoritmos operan de manera ubicua, en el que nuestros datos se recogen y procesan a cada instante, ¿puede un clic aislado otorgado por un usuario distraído seguir considerándose una garantía efectiva de protección?
Quizá ha llegado el momento de replantearse el modelo. En lugar de seguir insistiendo en la ficción de un consentimiento informado universal, podríamos avanzar hacia modelos de gobernanza más colectivos y estructurales. En lugar de descargar la responsabilidad sobre cada ciudadano, que acepta sin saber nada, sin enterarse y sin poder alguno para discutirlo, deberíamos reforzar las obligaciones de diseño responsable en las propias empresas, exigir auditorías externas, imponer límites claros a determinados usos y garantizar una supervisión pública eficaz. La protección de los derechos fundamentales en la era digital no puede depender exclusivamente de que el usuario lea un aviso que no entiende y haga clic en un botón en el que pone «Aceptar».
La consent fatigue es, en el fondo, un síntoma del desfase entre el diseño de la regulación y la realidad tecnológica. Pretendemos proteger al individuo dándole control sobre decisiones que en realidad no está en condiciones de tomar, porque carece de la información, del tiempo y del contexto necesario. La sobrecarga de avisos no genera control, sino apatía. Y esa apatía es el caldo de cultivo perfecto para que las empresas sigan operando como siempre, pero ahora con la absurda coartada de que «el usuario ya aceptó».
Europa se enfrenta a un dilema fundamental: seguir acumulando normas que generan más ventanas de consentimiento y más clics vacíos, o repensar radicalmente la forma en que protegemos los derechos digitales. El debate sobre la fatiga de consentimiento debería ser el punto de partida para esa reflexión: una oportunidad para reconocer que el modelo actual ha fracasado y que necesitamos un enfoque más realista, que no delegue en el ciudadano una responsabilidad imposible, sino que obligue a quienes diseñan y despliegan la tecnología a hacerlo de manera ética, transparente y responsable desde el principio.