La impopularidad de la inteligencia artificial ya no se puede maquillar » Enrique Dans

Publicado por Emprendimiento en

IMAGE: A large, angry crowd protests against artificial intelligence in a burning city, while a giant glowing-eyed robot looms over the scene

Mi columna de esta semana en Invertia se titula «¿Cae mal la inteligencia artificial? El problema político frente al problema tecnológico» (pdf), y trata sobre una evidencia cada vez más difícil de negar: la inteligencia artificial empieza a caer mal.

No porque haya dejado de ser útil, ni porque haya perdido capacidad transformadora, sino porque a medida que deja de ser una promesa abstracta y se convierte en una infraestructura de poder muy concreta, su imagen pública se deteriora. The Guardian
lo resumía muy bien al explicar cómo las grandes compañías del sector están tratando de corregir ese problema de imagen financiando think tanks, documentos de política pública e instrumentos de influencia. Cuando una tecnología necesita construir con tanta urgencia su propia legitimidad, es que esa legitimidad ya no viene dada.

Eso explica también que OpenAI haya publicado un texto en el que propone cosas tan interesantes como un fondo público de riqueza para repartir parte de los beneficios del crecimiento impulsado por la inteligencia artificial o incluso pilotos de semana laboral de cuatro días, y que Anthropic haya lanzado
su propio instituto
para intervenir en el debate. No son movimientos inocentes: son intentos de presentar a estas compañías como actores responsables justo en el momento en que mucha gente empieza a percibirlas como estructuras privadas con un poder cada vez más desmesurado. Incluso The Guardian contaba hace unos días cómo OpenAI compraba un popular talk show tecnológico, en una operación que encaja perfectamente en esa necesidad de controlar también el relato.

La cuestión es que el deterioro de imagen no nace de una campaña de desinformación ni de una tecnofobia irracional. Tiene raíces bastante comprensibles. Pew Research mostraba una distancia muy clara entre expertos y ciudadanía: mientras los primeros se declaran mayoritariamente más entusiasmados, el público se inclina bastante más por la preocupación. En otro estudio, también de Pew, más de la mitad de los trabajadores se declaraban preocupados por el impacto futuro de la inteligencia artificial en el trabajo, y casi un tercio creía que terminará reduciendo sus oportunidades laborales. En una síntesis más reciente, la institución insiste en la misma idea: la opinión pública se está moviendo hacia posiciones crecientemente incómodas con respecto a la inteligencia artificial.

Tampoco ayuda que la inteligencia artificial ya no pueda entenderse únicamente como software. Es también consumo energético, presión sobre las redes eléctricas, uso intensivo de agua, concentración territorial de centros de datos y captura de recursos estratégicos. La Agencia Internacional de la Energía
viene advirtiendo de que la demanda eléctrica asociada a la inteligencia artificial y a los centros de datos va a crecer con enorme rapidez, mientras que un informe británico sobre agua y centros de datos
subraya que el consumo hídrico de estas infraestructuras es ya significativo y está creciendo con rapidez, con centros hiperescalables capaces de consumir alrededor de 2,500 millones de litros al año, que por mucho que sean devueltos a sus cauces o al ciclo, pueden generar tensiones de suministro. Cuando una tecnología empieza a percibirse como una amenaza para el precio de la electricidad, para el acceso al agua o para el equilibrio territorial, deja de verse como progreso y empieza a verse como invasión.

A todo ello se suma el comportamiento político del sector. No hablamos ya de empresas que innovan y esperan ser reguladas, sino de empresas que intentan diseñar por anticipado el terreno regulatorio en el que van a operar. Wired explica cómo OpenAI apoya una propuesta para limitar la responsabilidad legal de los laboratorios incluso en casos de daños graves. Y TechCrunch documenta el dinero desplegado por empresas del sector para intentar frenar candidaturas más proclives a regular la inteligencia artificial. Todo ello refuerza la sensación de que la inteligencia artificial no está siendo gobernada democráticamente (algo que ya sabemos dadas las connivencias con Donald Trump), sino empujada por una combinación de capital, influencia y urgencia estratégica.

En ese clima enrarecido, no sorprende que aparezcan manifestaciones de rechazo mucho más extremas. Wired da cuenta del ataque con cóctel molotov contra la casa de Sam Altman, y el San Francisco Standard informó poco después de un segundo ataque contra la misma vivienda, mientras la policía de San Francisco detallaba las detenciones relacionadas con el caso. Antes de eso, el mismo medio había seguido la evolución de algunos activistas anti-inteligencia artificial, como Sam Kirchner, en una deriva que resulta inquietante. Evidentemente, nada de eso es justificable, pero sí es revelador. Cuando los líderes de una industria se convierten en objetivos físicos de la ira social, lo que aflora no es solo radicalismo: aflora también una crisis profunda de legitimidad.

Mi argumento en la columna es que esa impopularidad tiene motivos de sobra para crecer, pero que convertirla en una posición anti-inteligencia artificial cerrada y reactiva sería un error de enormes proporciones. Que una tecnología vaya a destruir una gran cantidad de empleos, o incluso a vaciar de sentido muchas tareas que hoy identificamos con la vida laboral, no implica necesariamente que debamos oponernos a ella. Implica, más bien, que debemos repensar de arriba abajo el contrato social. El FMI lleva tiempo planteando exactamente esa cuestión: la inteligencia artificial puede agravar desigualdades y desestabilizar mercados laborales, pero también puede disparar la productividad y generar una prosperidad muy superior si somos capaces de redistribuirla con algo de inteligencia política. El problema, por tanto, no es tecnológico. El problema es quién controla la tecnología, quién captura sus beneficios y quién paga sus costes.

Por eso me interesaba escribir esta columna: porque creo que hemos entrado en una fase del debate sobre inteligencia artificial en la que ya no basta con elegir entre entusiasmo ingenuo y rechazo visceral. La inteligencia artificial puede caer mal, y de hecho empieza a caer mal por razones bastante sólidas. Pero lo importante no es odiarla ni santificarla, sino discutirla políticamente antes de que quede definitivamente encerrada en manos de unos pocos. Ese es, en realidad, el fondo de la cuestión. No si la inteligencia artificial gusta o disgusta, sino si vamos a permitir que una tecnología con capacidad de redefinir el trabajo, la riqueza y el poder se desarrolle como proyecto colectivo o como simple instrumento de concentración.

Ver fuente

Categorías: Emprendimiento