Source: The Conversation – (in Spanish) – By Miren Gutiérrez, Investigadora, Universidad de Deusto

La adopción masiva y acrítica de la inteligencia artificial generativa (IAG), con grandes modelos de lenguaje como ChatGPT y otros similares, puede degradar la experiencia universitaria y socavar la misión de la universidad. Aunque esta tecnología ofrece aplicaciones interesantes, cuando se utiliza sin reflexión ni encaje pedagógico, estudios emergentes indican que tiende a vaciar el aprendizaje de contenido, precarizar el trabajo académico y reforzar las desigualdades y las formas de control.
De la innovación a la enshitificación
Las IAG se han introducido en la docencia con la promesa de personalizar el aprendizaje y aumentar la eficiencia, pero pueden acabar por homogeneizar tareas y evaluación y degradar la experiencia pedagógica. Hay ya indicios de que las AIG producen trabajos suficientes –que no excelentes–, plantillas repetitivas y evaluaciones rutinarias que incentivan adaptarse al formato más que reflexionar.
La AIG se vende a las universidades como una herramienta capaz de personalizar la evaluación, ahorrar tiempo, al analizar miles de textos, y generar comentarios inmediatos. Sin embargo, en la práctica, tienden a favorecer estructuras estandarizadas (introducción–tres argumentos–conclusión, frases cortas, vocabulario neutro). Al mismo tiempo, penalizan estilos más complejos, creativos o arriesgados porque sus modelos se han entrenado con textos convencionales.
Como consecuencia, el alumnado aprende qué tipo de redacción gusta al sistema y ajusta sus trabajos para maximizar su puntuación, aunque ello implique empobrecer el contenido y evitar posiciones originales. Es decir, una tecnología presentada como personalización termina por homogeneizar las tareas, estandarizar la evaluación y animar a escribir para la máquina.
El concepto de enshitificación, acuñado por el periodista tecnológico Cory Doctorow a partir de la palabra anglosajona shit (“mierda”), ayuda a entenderlo: al principio, la tecnología parece aportar valor, pero poco a poco su funcionamiento se orienta hacia métricas, extracción de datos y dependencia de proveedores, de modo que sirve más a los intereses corporativos que a los pedagógicos.
Así, las aulas digitales se vuelven espacios saturados de automatismos mediocres, donde se enseña, sobre todo, a generar prompts eficaces y contenidos que pueden rastrearse.
Daños cognitivos
El uso intensivo de la IAG para generar tareas puede desencadenar un proceso de externalización y deuda cognitiva. Algunos estudios asocian un mayor uso de IAG con un deterioro del pensamiento crítico. Su empleo continuado para escribir ensayos podría reducir la implicación cognitiva y generar un peor rendimiento a nivel neuronal, aunque la tarea se perciba como más fluida y fácil.
Surge, así, el concepto de chatversity –una contracción de “universidad” y “chatbot” en inglés–: el objetivo deja de ser comprender el mundo y se transforma en cumplir plazos y producir textos solventes rápidamente. Esta dinámica puede erosionar la tolerancia a la ambigüedad y al esfuerzo intelectual sostenido, pilares de una educación emancipadora, y debilitar los hábitos de verificación, lectura profunda y discusión argumentativa.
Creatividad domesticada
La IAG trabaja recombinando datos históricos que reflejan una sociedad imperfecta, por lo que tiende a reforzar patrones dominantes, sesgos y cánones consolidados, en lugar de impulsar rupturas o perspectivas minoritarias. Esto se traduce en textos pulidos, pero conformistas, poco abiertos a imaginar soluciones radicales o a otorgar centralidad a epistemologías feministas, decoloniales o del Sur Global.
Relacionado con esto, la inteligencia artificial parece aumentar la creatividad percibida, pero limitar la diversidad de las historias producidas. Además, la AIG recomienda menos trabajos de mujeres y reproduce jerarquías de género en la visibilidad de la autoría.
De esta forma, los sistemas educativos basados en IA incorporan supuestos normativos que tienden a privilegiar perfiles y saberes hegemónicos, mientras que su uso acrítico en la docencia puede reforzar exclusiones. En la misma línea, la UNESCO confirma que la IAG en la educación tiende a invisibilizar el trabajo de las autoras y a reforzar estereotipos, lo que alimenta una ecología del conocimiento menos plural.
Cuando docentes y estudiantes la usan para elegir lecturas y generar casos, los sesgos de los datos se cuelan en la selección de referencias y voces. Así, se corre el riesgo de profundizar la invisibilidad de autoras, disciplinas críticas y comunidades marginadas, normalizando una universidad más homogénea.
Autoría fantasma
Redactar trabajos, resolver problemas, escribir código y elaborar comentarios con esta tecnología también pone en cuestión qué significa ser autor o autora. Si una parte sustancial del trabajo la realiza la máquina, los títulos universitarios pueden convertirse en credenciales de pega, cada vez menos vinculadas al esfuerzo intelectual de quien los obtiene.
Para ponerle freno, muchas instituciones están recurriendo a detectores de IA y sistemas de vigilancia poco fiables y discriminatorios que pueden generar falsos positivos y afectar a estudiantes que escriben en una segunda lengua o con estilos no normativos. Esto puede erosionar la confianza entre profesorado y alumnado, en lugar de fortalecer la responsabilidad, la integridad y el acompañamiento.
Extractivismo de datos
Otra preocupación es política y económica: se está viendo cómo algunas universidades norteamericanas se convierten en proveedoras de datos, legitimidad y usuarios/as cautivos/as para grandes empresas de IA, a menudo mediante contratos opacos. Los comportamientos, contenidos docentes y tareas se usan como materia prima para entrenar modelos, con cláusulas de uso indiscriminado o cuyo consentimiento es difícil de ejercer, lo que debilita la autonomía académica.
Además, el mantenimiento de estos sistemas descansa en cadenas de trabajo precarizado en el Sur Global (etiquetado de datos, moderación de contenidos traumáticos) y daño medioambiental. Mientras, en el Norte Global, se justifican recortes de personal y el cierre de programas, en nombre de la modernización. En este escenario, la universidad corre el riesgo de ser reconfigurada como un nodo de distribución y entrenamiento para infraestructuras corporativas, lo que desvía recursos de la docencia y del empleo estable hacia la financiación de plataformas privadas.
Erosión de la misión democrática
Por otro lado, los chatbots y asistentes de IA de apoyo al estudio también pueden generar dependencia emocional, incluso situaciones extremas de autolesión. Para estudiantes vulnerables, la simulación de empatía, las respuestas inadecuadas y la falta de una detección fiable del riesgo pueden agravar la soledad y retrasar el acceso a la ayuda profesional.
En el plano epistemológico y democrático, la expansión de contenidos sintéticos, la cultura posalfabética (leer por encima, centrar las habilidades en la creación de resúmenes y prompts) y la dependencia de infraestructuras cerradas pueden minar la capacidad de la universidad para ser un espacio de reflexión crítica.
Tengamos en cuenta que, en algunos casos, los acuerdos con proveedores de IA a veces se toman sin la participación de estudiantes, sindicatos y profesorado, mientras se recortan precisamente las áreas más capacitadas para cuestionar estos procesos, como los estudios de género, la filosofía o los estudios críticos de medios.
¿Qué hacer desde la universidad?
No se trata de desterrar la IAG de la universidad, sino de subordinarla a un proyecto centrado en el pensamiento crítico, la creatividad y la igualdad. Esto implica al menos tres cosas:
-
Reforzar la alfabetización digital crítica y el trabajo sobre desinformación, sesgos, límites y formas de contestación a los outputs de IA en todos los niveles formativos.
-
Desarrollar marcos de gobernanza de los sistemas de IA basados en derechos fundamentales, transparencia, participación y responsabilidad, especialmente en usos de alto riesgo como la evaluación o el apoyo psicológico.
-
Proteger y financiar las disciplinas y pedagogías que sostienen la lectura profunda, la creatividad, la imaginación política y las perspectivas alternativas. Se trata de resistir el giro hacia una universidad entendida como fábrica de credenciales optimizadas por plataformas.
Hay evidencias de que el abuso de la IAG en la universidad puede causar daños que van más allá del plagio: las AIG pueden reconfigurar qué significa aprender, enseñar e investigar. Esto obliga a decidir si las instituciones se plegarán a la lógica corporativa de la enshitification o si transformarán esta tecnología desde un compromiso con la justicia.
![]()
Miren Gutiérrez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
– ref. IA en la universidad, una bomba para el pensamiento crítico: ¿cómo podemos evitar que nos explote en la cara? – https://theconversation.com/ia-en-la-universidad-una-bomba-para-el-pensamiento-critico-como-podemos-evitar-que-nos-explote-en-la-cara-273920
