Evaluar con inteligencia (y no con detectores) » Enrique Dans
Me han publicado una entrevista en ¡Hola! titulada «Enrique Dans, experto en innovación educativa: ‘Usar detectores de IA para sancionar a un alumno es irresponsable, casi criminal’» (pdf). Hasta ahora había escrito en sitios como Forbes, Fast Company, The Wall Street Journal y muchos más, pero en este país hay dos tipos de personas, los que han sido entrevistados en el ¡Hola! y los que no, así que a partir de ahora, tratadme de usted 😉
En la entrevista defiendo algo muy simple: si la escuela quiere preparar a los alumnos para un mundo en el que la inteligencia artificial es ubicua, no puede seguir evaluando como si no existiese. Y, sobre todo, no puede delegar la toma de decisiones disciplinarias en herramientas que la propia industria reconoce como poco fiables.
El punto de partida es incontestable: los «detectores de texto escrito por inteligencia artificial» no son una base válida para castigar a ningún estudiante. La evidencia lo deja claro: la propia OpenAI retiró su «AI Text Classifier« por su bajo índice de acierto, una admisión explícita de que el enfoque no funcionaba como prometía. La razón de fondo es clara: abundantes falsos positivos y gran facilidad para «engañar» a los detectores.
El problema no es solo técnico; es ético y pedagógico. Confiar en un detector con un margen significativo de error para acusar de trampa a un alumno vulnera principios básicos de debido proceso y genera daños difíciles de reparar, especialmente cuando los sesgos del propio detector golpean más a quienes escriben en una segunda lengua. Investigadores de Stanford Human-Centered Artificial Intelligence AI mostraron que muchos clasificadores penalizan injustamente a estudiantes no nativos por la forma en que miden la métrica de perplejidad del texto, entendida como la medida en la que una distribución o modelo de probabilidad es capaz de predecir una muestra. Incluso algunos proveedores comerciales, como el ubicuo Turnitin han tenido que publicar guías internas sobre la existencia de falsos positivos y cómo gestionarlos, una admisión implícita de que estos sistemas no sirven en absoluto como prueba concluyente de nada.
Mientras algunos titulares aseguran que millones de trabajos muestran «rastros» de inteligencia artificial, las propias cifras de esos estudios vienen llenas de asteriscos metodológicos: distinguir de forma fiable qué parte es generada por máquina y cuál es humana sigue siendo extremadamente difícil, y varias instituciones han decidido pausar el uso punitivo de estos detectores por riesgo de sesgo y error. En paralelo, los campus constatan lo obvio: la mayoría del alumnado ya usa inteligencia artificial de algún modo y, por tanto, el foco no puede ser «cazar» sino «enseñar a usar bien y evaluar mejor». De hecho, muchos de esos casos detectados son simplemente estudiantes que han utilizado la herramienta para corregir su escritura, para traducirla o para tareas como poner a prueba la solidez de sus argumentos. Un informe reciente en el Reino Unido alertó a las universidades para que sometan a pruebas de estrés sus evaluaciones ante el dato evidente de que más del 90% de los estudiantes ya emplea habitualmente inteligencia artificial generativa.
Que las escuelas integren inteligencia artificial no significa necesariamente renunciar a los valores. De hecho, organismos que marcan agenda internacional piden justo lo contrario: unir ética y práctica. La UNESCO pide políticas centradas en el ser humano y desarrollo de capacidades docentes y estudiantiles para un uso responsable, con recomendaciones concretas para rediseñar enseñanza y evaluación. En la misma línea, el Departmento de Educación norteamericano (Office of Educational Technology) propone pasar del miedo a la competencia: formar a docentes, rediseñar tareas y crear evaluaciones auténticas donde la inteligencia artificial se use con propósito pedagógico y transparencia. Y el sistema británico viene recopilando buenas prácticas para «evitar, adelantar o abrazar» la inteligencia artificial en evaluación, con pilotos sectoriales y herramientas para rediseñar tareas en un contexto con inteligencia artificial.
El giro práctico ya está en marcha también fuera de las aulas universitarias: grandes actores del sector están financiando formación de docentes específicamente orientada a integrar inteligencia artificial con criterios de seguridad, privacidad y ética, lo que confirma que la cuestión no es prohibir, sino enseñar y acompañar. La ciencia, por su parte, sigue señalando límites y riesgos de fiarse de “detectores mágicos” en ámbitos académicos: revisiones y estudios recientes subrayan la falta de fiabilidad en la discriminación entre texto humano y sintético y alertan sobre consecuencias éticas si se usan con fines sancionadores.
¿Qué implica todo esto para escuelas y universidades? Primero, abandonar la ilusión tecnológica de «detectar» automáticamente el plagio de la era generativa. Simplemente, no es posible ni posiblemente lo será. En su lugar, hay que rediseñar tareas para que el uso de inteligencia artificial esté permitido, declarado y guiado, y la evidencia de proceso (borradores, prompts, iteraciones, referencias) forme parte de la evaluación. Segundo, desplazar el peso de la nota desde el producto final hacia el razonamiento, la oralidad, la resolución situada de problemas, el trabajo con fuentes y la reflexión metacognitiva. Tercero, dotar a los docentes de competencias y tiempo: sin formación y apoyo institucional, la supuesta «integración responsable» de la inteligencia artificial se convierte en un eslogan vacío. La literatura especializada y las guías públicas lo vienen diciendo desde 2023: la inteligencia artificial llegó para quedarse en educación: lo responsable no es prohibirla, sino aprender a usarla bien.
Por eso sostengo vehementemente que sancionar alumnos utilizando esos «detectores» es irresponsable. No porque la honestidad académica no importe, sino porque la mejor garantía de integridad hoy pasa por diseño pedagógico, transparencia y cultura de aprendizaje, no por semáforos algorítmicos que confunden mucho más de lo que aclaran. La evaluación hoy en día requiere docentes formados, rúbricas claras y tareas que sitúen a la inteligencia artificial como un instrumento sujeto a unas reglas didácticas, no como un supuesto enemigo invisible. Lo contrario, criminalizar el uso y «externalizar» el juicio a una caja negra que falla más que una escopeta de feria, no protege el aprendizaje: lo erosiona.
A continuación, el listado de preguntas y respuestas que intercambié con Ana Merodio, redactora de la revista:
- ¿Qué herramientas o métodos utilizan hoy los profesores para detectar un plagio en cuestión de segundos?
Las herramientas tradicionales de detección de plagio, como Turnitin o similares, comparan textos con grandes bases de datos para encontrar coincidencias. Son útiles cuando alguien copia y pega, pero no sirven cuando hablamos de inteligencia artificial, ya que el texto se genera desde cero. Aplicar los métodos de detección de plagio a algo que no es plagio es un error conceptual grave. Es como tratar de encontrar ADN en un holograma. El problema no es técnico, sino mental; seguimos utilizando métodos de otro tiempo para abordar un fenómeno completamente nuevo. - ¿Hasta qué punto la inteligencia artificial está cambiando la forma de “hacer trampa” en trabajos o exámenes?
Hablar de “hacer trampa” ya no tiene mucho sentido. Usar una herramienta de inteligencia artificial, como Tau, no es hacer trampa, sino aprovechar el conocimiento disponible, de la misma forma en que antes usábamos Google o una calculadora científica. Lo que está cambiando no es la forma de copiar, sino lo que entendemos por aprender. El alumno que usa la IA no necesariamente engaña; de hecho, puede estar aprendiendo de una forma más rápida, estructurada y profunda. El verdadero problema está en los sistemas educativos que se niegan a aceptar la existencia de la IA y quieren seguir con prácticas obsoletas. En TuringDream, creemos que la IA debe ser vista como una aliada en el proceso educativo. Con plataformas como Tau, que utilizan IA avanzada para ofrecer educación personalizada, estamos facilitando el aprendizaje de los estudiantes de una forma más adaptada a sus necesidades y estilo de aprendizaje. - ¿Qué señales levantan sospechas en un texto que ha podido ser generado con IA?
No existen señales fiables que permitan identificar si un texto fue generado por IA. Algunos profesores piensan que los textos «demasiado perfectos» o «demasiado impersonales» son sospechosos, pero eso es un error. Hay estudiantes que escriben de manera impecable, y la IA puede adoptar cualquier tono. Las señales que se suelen buscar son intuiciones sin base científica. Lo único que logran es generar desconfianza y confusión. Al final, lo relevante no es saber quién escribió un texto, sino qué aprendió el alumno al producirlo. - ¿Existen programas o software capaces de identificar automáticamente contenido creado con ChatGPT u otras IA? ¿Son realmente fiables?
Sí, existen, pero todos fallan estrepitosamente. Ningún detector de IA es mínimamente fiable. Estos programas generan falsos positivos constantes, lo que ya ha llevado a acusaciones erróneas contra estudiantes inocentes. Usarlos para sancionar a un alumno es irresponsable, casi criminal. Estas herramientas no miden lo que dicen medir. Es como decidir si alguien mintió basándose en el horóscopo. Lo más preocupante es que algunos docentes lo confunden con “rigor académico”, cuando en realidad es un claro ejemplo de pseudociencia. - ¿Qué riesgos corren los estudiantes que recurren a la IA para entregar trabajos como propios?
El riesgo no está en usar la IA, sino en no saber cómo utilizarla. Quien copia sin pensar está desaprovechando una oportunidad increíble para aprender con el mejor profesor que jamás haya existido: una IA que se adapta a tu ritmo, nivel y curiosidad, y que te responde de forma personalizada, paciente y constante. En el futuro, la IA será ese “profesor perfecto” que conoce a cada estudiante mejor que cualquier ser humano. Los estudiantes que aprendan a usarla bien dominarán el aprendizaje personalizado, mientras que los que la rechacen se quedarán atrás en un mundo que ya está aquí. Tau, la plataforma educativa de TuringDream, es un claro ejemplo de cómo la IA puede ser un aliado para mejorar el aprendizaje, no solo facilitando la comprensión, sino también ajustando el proceso educativo al ritmo y estilo único de cada alumno. - ¿Cómo deberían los centros educativos adaptarse a esta nueva realidad: prohibir el uso de la IA o integrarla en el aprendizaje?
Prohibir la IA es una aberración intelectual. El futuro de la educación no estará basado en memorizar datos, sino en saber cómo hacer preguntas, analizar y contextualizar respuestas. La IA debe ser una herramienta de aprendizaje omnipresente, y los centros educativos deben adaptarse para enseñar a los estudiantes a usarla con criterio. Los profesores no desaparecerán, pero su papel cambiará, y se convertirán en guías que enseñan valores, pensamiento crítico, empatía y adaptación social. La IA enseña los contenidos; los humanos enseñan a ser personas. Quien no entienda eso, está condenando a sus alumnos a la irrelevancia. - ¿Qué estrategias recomiendas a los docentes para enseñar a diferenciar entre usar la IA como apoyo y caer en el plagio?
La línea no está en el uso, sino en la comprensión. Si un alumno utiliza la IA para entender mejor, explorar ideas o corregir errores, está aprendiendo. Si la usa para entregar un trabajo que no comprende ni podría defender, se está engañando a sí mismo. Los profesores deben pedir a los alumnos que expliquen cómo usaron la IA, qué aprendieron del proceso y qué criterio aplicaron. En lugar de cazar “tramposos”, deberían evaluar la calidad del pensamiento. Enseñar con IA no es renunciar al rigor, sino llevarlo al siguiente nivel. Lo que debemos hacer es enseñar a los estudiantes a usar la IA como una herramienta que complementa su aprendizaje, tal como lo hace Tau, que guía y personaliza el estudio de manera efectiva y sin juicios. - ¿Qué mensaje daría a los alumnos sobre su futuro académico y profesional si basan sus estudios en trabajos generados por inteligencia artificial?
El futuro será de quienes sepan trabajar con la inteligencia artificial, no de quienes intenten ignorarla. La IA no sustituye la inteligencia humana, la amplifica. Es una extensión de nuestra capacidad de aprender, de razonar y de crear. Quien hoy aprenda a usarla como herramienta de aprendizaje, tendrá mañana una ventaja inmensa en cualquier profesión. Y cuando llegue el momento en que una IA pueda adaptarse a cada estudiante, enseñarle justo lo que necesita y reforzar justo donde falla, habremos alcanzado algo que ningún sistema educativo humano logró nunca: la personalización total del conocimiento. Los profesores humanos seguirán siendo imprescindibles, pero para enseñar lo más importante: a ser humanos, a convivir, a pensar éticamente y a entendernos como sociedad. Todo lo demás, la IA lo hará mejor.