inteligencia artificial y paranoia » Enrique Dans
Llevamos ya un tiempo viviendo un giro inquietante en la cultura de la escritura: muchas personas ya no sólo desconfían de las herramientas de inteligencia artificial, sino de la propia autoría humana. El uso de chatbots generativos ha proliferado, y con ello surgió una nueva forma de paranoia estilística: hoy, basta usar guiones tipográficos, un vocabulario algo refinado, un espacio antes de un signo de porcentaje o un uso elegante del español o del inglés para levantar sospechas de que «esto lo escribió una inteligencia artificial»… y que además, te acusen públicamente de ello sin importarles quién seas o el tiempo que llevas escribiendo.
Ese pánico no es un mero rumor de internet. Estudios recientes muestran que la adopción de inteligencia artificial generativa ha transformado prácticas de lectura y escritura en entornos académicos, educativos y profesionales. Algunos investigadores alertan de que esta transformación dificulta mantener una integridad intelectual clara: el uso de la inteligencia artificial resulta muy difícil de detectar con los métodos tradicionales de control de plagio, pues estos están diseñados para identificar copia directa, no texto nuevo producido por inteligencia artificial.
Pero lo más insólito quizá es el efecto social: para evitar ser acusados de «escribir usando un chatbot«, muchos autores optan por autocensurarse, ya no necesariamente cuando escriben artículos, sino incluso cuando comentan en foros como Reddit. Descartan el uso de la guión largo, renuncian a giros sintácticos cuidados, evitan términos que suenen demasiado «sofisticados» o formales, y rehuyen recursos estilísticos que alguna comunidad asocie con el uso de inteligencia artificial. Es un gesto defensivo, incluso paranoico, con consecuencias reales: empobrece el estilo, limita la riqueza expresiva y convierte la escritura en un acto defensivo más que creativo.
Ese temor, y la consiguiente autocensura resultante, vulnera lo que la escritura auténtica siempre ha sido: un espacio de libertad, de matices, de voz propia. Cuando el guión, un adverbio preciso o un giro bien construido se convierten en supuestas «pruebas incriminatorias» de autoría automatizada, lo que se pone en juego no es sólo la reputación del autor, sino su libertad lingüística.
Al mismo tiempo, la evidencia sugiere que la integración de la inteligencia artificial en la escritura no es necesariamente una condena al empobrecimiento de la palabra. En el contexto académico, por ejemplo, muchas revistas han comenzado a definir políticas para reconocer el uso de inteligencia artificial como una ayuda, no como autor, y demandan transparencia, revisión humana y atribución responsable. Otra vertiente de investigación propone entender la inteligencia artificial como una herramienta más, un colaborador provisional, siempre que el autor humano mantenga su rol crítico, de corrector, de editor, de traductor o de guardián de la intención.
Lo que está realmente en debate no es si la inteligencia artificial «es mala» per se, sino cómo conviven la eficiencia, la creatividad, la autenticidad y la ética en una era donde lo algorítmico ya no es marginal: es parte del paisaje. Pero mientras ese debate madura, el síntoma que más me llama la atención es el miedo estético: el miedo a que un guión, una coma o una palabra distinta supongan una condena social.
Si terminamos escribiendo todos igual, en «dialecto chatbot«, y no por convicción, sino por temor, habremos perdido algo mucho más valioso que un guión: habremos perdido nuestra voz.
