Meta, la fábrica de abusos digitales que nadie se atreve a cerrar » Enrique Dans

Publicado por Emprendimiento en

IMAGE: A dark, dystopian illustration of a monstrous mechanical creature made of gears and tentacles, reaching out toward silhouettes of vulnerable people: a child, a teenager, an adult, and two elderly figures

Hoy toca Meta, y toca porque lo de esta compañía es un no parar: lo del uso de fotos de niñas vestidas de colegio para anunciar a adultos que se unan a Threads, como hoy denuncia The Guardian, no es un error aislado. Es el resultado inevitable de un modelo de negocio irresponsable, avaricioso, sin escrúpulos y amparado por leyes débiles o por la impunidad total.

Meta ha dejado de satisfacer solamente criterios funcionales o de innovación para convertirse en una maquinaria completamente peligrosa e inmoral cuyo único motor real es exprimir datos de usuarios, exponerlos, monetizarlos, jugar con ellos sin importar el daño colateral. Lo que se critica como supuestos abusos aislados es en realidad la lógica estructural de la compañía: recolección masiva, publicidad dirigida, frontera borrosa entre lo público y lo privado, efecto del algoritmo sin responsabilidad.

Ya en su momento sugería que deberíamos considerar penas de cárcel para determinados comportamientos cuando es evidente que se corresponden con un patrón reiterado: las sanciones económicas, por grandes que sean, no cambian la conducta si la empresa gana mucho más haciendo lo que hace: lo ven simplemente como un coste operativo, no como un castigo.

¿Cuántas veces más puede Meta hacer cosas peligrosas e inmorales como usar fotos de niñas sin consentimiento real para publicidad dirigida, sin enfrentar consecuencias graves? ¿Cuánto daño acumulado, cuántas denuncias, cuántas «políticas revisadas» van a ser toleradas antes de que haya algo más que multas que la empresa paga como si fueran un impuesto mínimo?

¿Qué sabemos hasta ahora? Meta admite que las fotos usadas en campañas de promoción (recomendaciones y sugerencias de Threads) eran públicamente compartidas por adultos en Instagram. Los padres están indignados: nunca consintieron conscientemente su uso en anuncios, y por supuesto, jamás imaginaron que se usarían para atraer a adultos extraños, como es evidente que se ha hecho. Las evidencias señalan que este uso de imágenes escolares es explotador, es buscar carnaza deliberada, con obvios riesgos de sexualización, grooming y exposición indebida de menores.

Es simplemente un ejemplo más de muchos: Meta ha sido sancionada repetidamente por vulneraciones de GDPR y privacidad de datos en Europa con multas importantes, pero que obviamente no parecen detener su modelo. Como la multa récord de 1.2 mil millones de euros por violar el GDPR, o las que enfrenta en España por competencia desleal ante medios de comunicación. También son conocidas las acusaciones de que las políticas de sus herramientas de inteligencia artificial permiten comportamientos inaceptables, como conversaciones sensuales con menores, ofrecer desinformación médica, etc.

Meta ingresa miles de millones. Las multas que le impongan, aunque cuantiosas, son a menudo un porcentaje menor frente a sus ingresos. Esto convierte sanciones legales en simples «costes operativos» que soportan sin perder su modelo de negocio. Las leyes de protección de datos, derechos digitales o regulación de redes sociales son débiles o ambiguas en muchos países, con lo que demostrar daño real, responsabilidad individual de ejecutivos, intencionalidad, o que una actividad concreta viola una norma, suele requerir largos procesos legales, recursos, pruebas técnicas complejas. Por lo tanto, la mayoría de casos quedan apenas en multas administrativas, cambios cosméticos, falsos arrepentimientos y promesas de mejora.

Meta se escuda con que sus políticas lo permiten, en que las imágenes estaban «públicas», que los sistemas de recomendaciones funcionan automáticamente, que los usuarios pueden hacer «opt-out» o cambiar privacidad, etc. Todo esto crea una capa de protección legal y retórica que dificulta responsabilizar penalmente o cerrar operaciones. A menudo, además, los reguladores no tienen recursos, no priorizan suficientemente los casos con menores, o no persiguen penalmente a personas físicas, sino que se limitan a multas contra la empresa. Los ejecutivos de Meta raramente pagan consecuencias personales (más allá de posibles sanciones económicas), y no hay riesgo visible real de cárcel u otras medidas que asusten realmente. Todo esto generan una normalización social del abuso tecnológico: mucha gente ya asume que «lo que subes en redes puede ser usado», que «si lo compartes públicamente, estás expuesto», o que «los términos de servicio lo permiten». Eso reduce la presión social, la indignación real, y también la voluntad de muchos usuarios de exigir responsabilidades.

Ya deberíamos estar viendo investigaciones penales contra quienes diseñan, aprueban o supervisan estas políticas dentro de Meta, dado que hay evidencia de que sabían que el uso de imágenes de menores, en ciertas configuraciones, podría generar daño, explotación o riesgo, y aun así lo mantuvieron como práctica aceptada. Deberíamos ver, además, responsabilidades personales: que no solo la empresa, sino sus directivos rindan cuentas, con posibilidades reales de sanciones graves (multas enormes, impedimentos de gestión, inhabilitaciones, incluso prisión si la legislación lo permite). Porque si siempre es la empresa la que paga, sin nadie que lo haya decidido de forma consciente, nada cambia.

Además, necesitaríamos leyes que impidiesen de raíz este tipo de prácticas, de uso comercial o publicitario de imágenes de menores, incluso cuando han sido públicamente compartidas, sin consentimiento explícito para ese uso comercial, y que las recomendaciones y algoritmos no puedan explotarlas como recurso publicitario para adultos. Meta tiene que dar datos públicamente de cuántas veces ha usado contenido de menores, en qué campañas, cuántas personas fueron afectadas, qué decisiones arbitrarias se tomaron, etc. Y por supuesto, tiene que haber sanciones proporcionales al daño y a la capacidad económica de Meta: no basta con multas que resultan absurdas comparadas con sus beneficios. Si ganan mucho más con las prácticas que con las multas, las multas se vuelven irrelevantes. Debe haber sanciones que verdaderamente duelan.

Mi conclusión cabreada, porque no puede ser de otra forma, es que esto ya no es una discusión ética abstracta: estamos en un punto en que Meta ya ha demostrado que no se arrepiente, que no tiene planes reales de cambiar su forma de actuar, y que continuará empujando los límites de lo permisible. Cada vez que se descubre un nuevo abuso, la respuesta es: «oh, lo sentimos, lo revisamos, pero no hemos violado nuestras políticas», «es público», «puedes cambiar tu privacidad», etc. Pero ¿y cuando eso no basta? Meta es un peligro real para los más vulnerables: niñas, adolescentes, personas mayores, quien sea que tenga menor poder de decisión, menor conocimiento técnico, menor capacidad de resistir coerciones sutiles. El hecho de que puedan exhibir imágenes de niñas en uniformes escolares, y usarlas para publicidad que llegue a adultos sin consentimiento expreso, sin una advertencia clara, y sin asumir responsabilidad real, es absolutamente obsceno.

Y lo peor: siguen libres de consecuencias reales. Sanciones económicas que pagan, juicios que tardan, cambios cosméticos que no alteran el modelo. Si no se hace algo YA, y con medidas verdaderamente drásticas, esto seguirá empeorando. Y la sociedad, nuestras leyes, nuestros reguladores, están permitiendo que esto ocurra.

¿Habría que cerrar Meta mañana? Sin duda, un mundo sin Meta sería un mundo muchísimo mejor. Hay que exigir desde ya consecuencias que no permitan a esta empresa operar como si estuviera por encima de cualquier norma moral o legal. Que dejen de pensar que con una multa millonaria «ya lo pagaron y pueden seguir». Que se les ponga delante una puerta de salida real de ese modelo abusivo, y que cada responsable, por pequeño que sea, sepa que podría llegar a responder penalmente, no solo económicamente, no solo con mala prensa.

¿Ocurrirá? No.

Ver fuente

Categorías: Emprendimiento