La IA no tiene alma, solo hambre de datos y peligros invisibles de los que debemos protegernos

Publicado por Emprendimiento en

Experta en ciberseguridad, perito judicial y directora de la agencia OnBranding, Selva Orejón advierte sobre los peligros invisibles de la inteligencia artificial en plataformas como WhatsApp e Instagram. Desde hace años estudia cómo la identidad digital se convierte en una mercancía y cómo el avance de las nuevas tecnologías nos empuja hacia una hiperexposición sin precedentes.

Selva Orejón (Barcelona, 1981) es una figura clave en el ámbito de la ciberseguridad y la reputación digital. Perito judicial especializada en identidad digital, profesora en universidades y en el Institut de Seguretat Pública de Catalunya, además de colaboradora habitual en programas de televisión como La Red, Ahora Sonsoles o Expediente Marlasca, es también autora de diversos ensayos sobre ciberinteligencia. Desde OnBranding, la agencia que fundó y dirige, asesora a instituciones, empresas y personas en la gestión de crisis digitales. En esta entrevista analiza las consecuencias —muchas veces invisibles— de la integración de la inteligencia artificial de Meta en las plataformas más utilizadas del mundo.

PMK: Has comentado en otras ocasiones que la integración de Meta AI en plataformas como Instagram o WhatsApp no es algo mágico, sino un proceso calculado. ¿Cómo crees que afectará esto a la privacidad de los usuarios a largo plazo?

Selva Orejón: La integración de la inteligencia artificial en estas plataformas es una evolución lógica del modelo de negocio que llevan años desarrollando. No responde a una mejora altruista de los servicios, sino a una sofisticación creciente en la capacidad de recoger y analizar datos. A largo plazo, lo que estamos viviendo es una pérdida progresiva del control sobre nuestra privacidad. La mayoría de los usuarios ya no saben con claridad qué parte de su información se está utilizando, para qué fines exactos ni quiénes son los receptores últimos de esos datos. Y aunque muchas de estas empresas tienen oficinas o incluso sedes en Europa, la realidad es que el sistema legal no siempre puede responsabilizarlas de forma efectiva.

Creo firmemente en el potencial transformador de la inteligencia artificial. No es una amenaza en sí misma, sino una herramienta con una capacidad asombrosa para mejorar procesos, optimizar recursos y ampliar nuestras posibilidades como sociedad. La clave está en cómo la utilizamos y quién marca las reglas del juego. La IA bien diseñada, bien regulada y usada con propósito ético puede ser una de las mejores aliadas para la innovación, la educación, la salud o la protección ciudadana.

La transparencia debería ser una obligación básica, pero precisamente porque el negocio se basa en la opacidad, no tienen ningún incentivo para cambiarlo. Si una empresa gana millones gracias a esa falta de claridad, es poco probable que decida voluntariamente romper con ese modelo.

Selva Orejón

PMK: ¿Para qué se utilizan realmente nuestros datos? ¿Es solo para entrenar modelos de inteligencia artificial o hay algo más?

Selva Orejón: Decir que se usan solamente para entrenar inteligencia artificial es quedarse muy corto. Sí, por supuesto que los datos sirven para alimentar modelos que permiten automatizar procesos, personalizar experiencias o simular conversaciones. Pero el objetivo final es mucho más amplio. Esos mismos datos se utilizan para afinar estrategias de marketing, para manipular tendencias, para intervenir en procesos de influencia —no necesariamente políticos, también de consumo o culturales—. Hay una capacidad tremenda para modelar lo que deseamos antes incluso de que seamos conscientes de ello. Nos sugieren productos, ideas, comportamientos… sin que hayamos pedido nada.

Además, se hace a través de algoritmos que no están a disposición pública, no son de código abierto y en muchos casos ni siquiera están bien auditados. Los términos y condiciones que aceptamos para acceder a estas plataformas son tan extensos y complejos que ni siquiera muchos profesionales del derecho digital se los leen por completo. Solo algunas asociaciones especializadas lo hacen de forma sistemática. El problema es estructural.

PMK: ¿Cómo afecta ese entrenamiento de IA con nuestros datos personales a la seguridad de nuestras cuentas y a nuestra identidad digital? ¿Estamos regalando el alma, como se dice a veces?

Selva Orejón: La frase “la IA no tiene alma, tiene hambre de datos” resume una realidad incómoda, no una condena. Soy consciente de los riesgos, y precisamente por eso defiendo una IA que respete la privacidad y los derechos digitales. No podemos romantizar el avance tecnológico sin cuestionar qué sacrificamos por él. La IA no es un ente maligno; el problema está en los sistemas que la alimentan sin ética ni supervisión. Y como sociedad, tenemos derecho a decidir qué alimentamos y con qué límites. Sin embargo, estamos regalando algo muy valioso. Y, además, lo estamos haciendo sin saberlo del todo. Cada dato que entregamos, de forma activa o pasiva, puede formar parte de un patrón. Esos patrones permiten crear perfiles hiperprecisos, simulaciones digitales de nuestra personalidad, incluso reconstrucciones faciales, vocales y conductuales gracias a técnicas como los deepfakes o los deepvoices.

Lo que entregamos hoy puede utilizarse mañana para suplantar nuestra identidad de manera convincente. Por tanto, si no protegemos la información desde el origen, estamos facilitando las herramientas con las que podrían atacarnos después. La inteligencia artificial no tiene alma, tiene hambre de datos. Y cada empresa le impone una moral distinta según sus propios intereses. Por eso, no estamos vendiendo el alma al diablo, estamos alimentando a un sistema que ni siquiera entiende qué significa tener alma.

PMK: ¿Crees que las empresas y marcas que utilizan estos datos son conscientes de que muchas veces se obtienen sin el consentimiento real del usuario?

Selva Orejón: Sí, muchas son perfectamente conscientes. Pero prefieren actuar como si no lo fueran. Les conviene no saberlo o no preguntarse demasiado. Es una especie de “yo solo seguía órdenes”, muy similar al que hemos escuchado en otros contextos. Mientras las métricas funcionen y las tasas de conversión sean buenas, pocos se detienen a pensar de dónde vienen los datos o qué implicaciones éticas tienen. Algunos comienzan ahora a cuestionárselo, a raíz de la presión social o de nuevas normativas, pero la mayoría sigue cómoda en la ignorancia. El problema es que esa ignorancia no exime de responsabilidad. Hacer como que no ves no te libra del daño que puedes estar generando.

PMK: ¿Qué pasa con quienes no quieren interactuar con IA? ¿Están realmente a salvo?

Selva Orejón: Esa es una gran ilusión. El hecho de que tú no busques interactuar con inteligencia artificial no significa que ella no interactúe contigo. Está ahí, en segundo plano, leyendo tus patrones de comportamiento, analizando tus conversaciones, sugiriendo contenidos, organizando lo que ves o dejas de ver. Es una presencia silenciosa, pero constante. Y además es casi imposible desactivarla. No todos los usuarios tienen la opción de desinstalarla, y ni siquiera todos pueden silenciarla. Nos han convertido en beta testers sin avisarnos. No tenemos la posibilidad real de decir “no, gracias”. Eso es lo más preocupante.

PMK: ¿Qué opciones tenemos para limitar su uso sin renunciar a las funciones básicas de estas plataformas?

Selva Orejón: Lo primero sería aprovechar al máximo las opciones de configuración de privacidad, mientras aún estén disponibles. Porque no me sorprendería que en un futuro estas opciones se conviertan en servicios de pago. También es recomendable usar, siempre que se pueda, las versiones web o apps alternativas menos invasivas, aunque el problema es que nos movemos en función de lo que hace nuestro entorno: si todos están en WhatsApp, es difícil renunciar a él. Otro paso clave es dejar de compartir datos sensibles en plataformas cuya lógica es la monetización de nuestra información. Activar opciones como el “no seguimiento” en los dispositivos puede ayudar un poco, pero lo más importante es despertar una conciencia crítica. Y eso es lo más difícil. Educar en esto lleva tiempo y esfuerzo, y no siempre hay interés en hacerlo.

PMK: ¿Podrías explicarnos cómo se usan nuestros clics para entrenar IA y cómo podemos ser más conscientes al respecto?

Selva Orejón: Cada clic cuenta, y educar es revolucionar. La inteligencia artificial no es un oráculo, es un reflejo de nuestros patrones. Cada clic que hacemos moldea su comportamiento, por eso defiendo la necesidad de educar digitalmente desde edades tempranas. Empoderar a las personas con conocimiento sobre cómo funciona la IA es tan importante como legislarla. Si queremos una IA que nos represente con dignidad, tenemos que enseñarle bien. Y eso empieza por enseñar bien a las personas.

Cada clic es una forma de validación. Es como emitir un voto sin darnos cuenta. Cuando haces clic en una noticia, en un vídeo, en un anuncio… estás diciéndole a la IA: “esto me interesa”. Y eso va alimentando sus decisiones futuras. Tus tiempos de lectura, tus reacciones, incluso tus pausas, todo se convierte en información útil. Y no solo a nivel individual, sino colectivo. Las IA aprenden de nosotros como comunidad, detectan patrones a gran escala y los replican. Por eso es importante pensar dos veces antes de hacer clic. Preguntarnos si realmente queremos apoyar ese contenido, si queremos que se nos defina por ese gesto. A veces no se trata de no hacer nada, sino de hacerlo con más intención.

PMK: ¿Cuáles consideras que son los mayores desafíos para proteger nuestra privacidad en este contexto?

Selva Orejón: Uno de los desafíos más grandes es la falsa sensación de control. Creemos que porque cambiamos un ajuste ya estamos a salvo, pero en realidad seguimos expuestos. Otro es la sobrecarga de información: cada semana aparecen nuevas funciones, términos, actualizaciones, y es imposible seguir el ritmo. También hay una normalización preocupante de la vigilancia. Nos han convencido de que ser espiado es el precio que pagamos por tener acceso gratuito. Y, por último, hay una carencia enorme de alfabetización digital. No sabemos cómo funcionan los sistemas que usamos a diario, y eso nos deja indefensos frente a ellos. El conocimiento sigue siendo la mejor herramienta de defensa, pero aún estamos lejos de tenerlo al alcance de todos.

PMK: ¿Una última reflexión?

Selva Orejón: El tema me apasiona porque afecta a lo más íntimo de nuestra identidad. No estamos hablando solo de datos, sino de narrativas, de cómo se construye la realidad digital que habitamos. Si no entendemos eso, estaremos cediendo el relato de nuestras vidas a empresas que solo buscan optimizar sus beneficios. Y eso, tarde o temprano, tiene consecuencias muy reales.

Defender la IA no significa aplaudir todo lo que se haga en su nombre. La defiendo porque creo en su valor, pero también porque sé que necesita vigilancia, crítica constructiva y responsabilidad. No podemos dejar que se convierta en un agujero negro de opacidad. La transparencia, el control del dato y la soberanía digital deben formar parte inseparable de cualquier estrategia de desarrollo basada en IA. Y eso no se logra con palmaditas, sino con exigencia.

Ver fuente

Categorías: Emprendimiento