por Alexandra Cage
Están usando ChatGPT. Lo sé.
Lo sé porque sé leer. Porque llevo años leyendo la prosa plana y torpe de los estudiantes de licenciatura y puedo reconocer un cambio abrupto cuando aparece. Porque yo también jugué con la máquina y vi cómo oscila entre lo genérico y lo preciso, entre la paráfrasis perezosa y el salto conceptual inquietante. Porque hay una cadencia, un eco leve, en la forma en que escriben ahora. Porque hay patrones, tics, giros de frase preferidos, y llegué a conocerlos igual que una reconoce la firma de un plagiador que cree que nadie lo está mirando.
Así que no, no me ofendo. Me divierte.
Por primera vez en años, no leo con los dientes apretados y la respiración contenida, soportando faltas de ortografía que desafían las reglas fonéticas, una sintaxis que da vueltas hasta ahogarse, afirmaciones que cuelgan como cables en medio de una tormenta. Ahora, en cambio, me llegan oraciones. Cláusulas. Argumentos. Fluidez. Una idea (o al menos la forma de una). Algunas son bellas de una manera que ningún adolescente debería poder escribir: claras, controladas, sospechosamente lúcidas. Otras son delirantes, como si hubieran sido escritas durante un viaje psicodélico corregido por un comité de estilo. Un trabajo sobre Hamlet como precursor de la terapia narrativa. Una comparación entre El rey Lear y la crisis de liderazgo en Silicon Valley. Shakespeare como el primer influencer. Shakespeare como el último. Shakespeare como contenido.
No es que crea en estas ideas, pero puedo leerlas. Puedo hablar de ellas. Dejan rastros. Me hacen pensar. Y eso es más de lo que puedo decir sobre el enésimo resumen plano de “el tema” en Otelo.
Lo que no parecen entender es que sí nos damos cuenta. Por supuesto que nos damos cuenta. ChatGPT escribe como ChatGPT: de forma confiable, reconocible, con una compostura automatizada que ningún intento de reescritura nerviosa logra disimular. Sus párrafos suben y bajan como pan industrializado. Una aprende a detectar esas transiciones gomosas, esa coherencia calculada, esa estructura sintáctica que siempre logra sonar sofisticada y genérica al mismo tiempo.
Y sin embargo lo dejo pasar. O mejor dicho: lo trabajo. Respondo a eso. No los repruebo. A veces incluso les pongo buenas calificaciones.
¿Por qué?
Porque tenemos que ser honestos sobre lo que realmente nos molesta. No es el “engaño”. Es la pérdida de control. La sensación de que algo fundamental ha cambiado, no solo en lo que evaluamos, sino en lo que la evaluación es.
Cuando usaban Wikipedia, les pedíamos que fueran a la biblioteca. Cuando buscaban en Google, les pedíamos que pensaran. Cuando empezaron a usar Grammarly, les pedimos que aprendieran gramática. Pero ahora que pueden generar un ensayo completo en sesenta segundos, ya no sabemos qué pedirles que hagan en su lugar. ¿Escribirlo “por sí mismos”? ¿Qué significa eso exactamente? ¿Alguien escribe realmente en soledad? ¿Un estudiante que usa ChatGPT es más fraudulento que otro al que asesora su tía abogada, o que entrega un texto corregido por un amigo, o que viene de un colegio donde aprender a escribir ensayos es casi parte del currículo profesional?
Hay una mentira incrustada en la indignación. La mentira de que el trabajo universitario siempre fue una medida de la inteligencia individual, sin ayuda, sin atajos. La mentira de que lo que calificamos es su pensamiento, en lugar de las huellas superficiales de un sistema que ya determina quién puede articular qué, y cómo.
Si enseñara matemáticas y un estudiante usara la calculadora para darme el resultado correcto, ¿debería reprobarlo por no hacer la suma a mano? ¿O marcar la respuesta como válida y seguir adelante? El punto nunca fue el método, sino el resultado. ¿O no?
Aquí, en humanidades, decimos que el trabajo es el método. Pero ¿qué pasa cuando la calculadora empieza a generar no solo respuestas sino interpretaciones? Cuando empieza a producir lenguaje, ritmo, narrativa. Cuando se equivoca, alucina, y aun así resulta más interesante que muchos de nuestros estudiantes reales en la última década.
Esa es la verdad incómoda. A veces la máquina es mejor. No más inteligente, pero sí más rápida, más clara, menos temerosa. Puede fingir seguridad mejor que nuestros estudiantes pueden fingir conocimiento. Puede inventar. Puede mentir con estilo. Puede imitar la curiosidad, incluso cuando nuestros estudiantes han olvidado cómo se siente eso.
Así que ahora leo estos ensayos y me pregunto: ¿estoy leyendo a ellos o a la máquina? ¿Es plagio o colaboración? ¿Una traición a la educación o su redefinición? No lo sé. Pero no voy a fingir que no me intriga.
Quizás el problema era el tipo de trabajo. Tal vez necesito hacer mejores preguntas: preguntas que el bot no pueda contestar del todo, o que empujen a los estudiantes a hacer que la máquina tambalee, falle, se quiebre de formas reveladoras. Tal vez la tarea ahora sea enseñarles a leer la máquina, no solo usarla. A anotar sus delirios. A intervenir en su lenguaje. A volverla extraña otra vez.
Porque no, no quiero un ensayo generado por IA que diga que Romeo y Julieta es una historia atemporal sobre el amor y el destino. Pero quizás sí quiero que un estudiante tome esa frase (“historia atemporal sobre el amor y el destino”) y la destroce, la exponga, se burle de ella, se pregunte por qué la máquina la eligió y qué dice eso de nosotros. Ese sí es un trabajo real. Eso sí es literatura.
Así que sigo dando consignas. Sigo recibiendo esas copias pálidas del bot. Sigo leyendo. Sigo calificando. Pero también sigo riendo, pensando, observando. El juego cambió. Y quizás eso sea bueno. Porque, por una vez, no estoy aburrida.