Source: The Conversation – (in Spanish) – By Anita Feridouni Solimani, Profesora y apoyo a la coordinación en el Departamento de Tecnologías de la Información y Comunicación Aplicadas a la Educación de la UNIR. Docente en Tecnologías Educativas y Competencias Digitales., UNIR – Universidad Internacional de La Rioja

Imaginemos que un día dejásemos de pensar. No porque alguien nos lo prohibiese ni porque fuésemos incapaces, sino porque ya no hiciese falta, porque existiese algo que decidiese por nosotros de forma más rápida, amable y peligrosamente convincente. Elegir se volvería innecesario; dudar, una pérdida de tiempo.
Esta idea aparece en una serie popular reciente, Pluribus, creada por Vince Gilligan, que plantea un mundo en el que las decisiones individuales se diluyen en una especie de mente colectiva. No como una amenaza violenta, sino como una solución cómoda y funcional.
Algo muy parecido empieza a suceder con nuestra forma de pensar. La incorporación de la inteligencia artificial (IA) a la vida cotidiana no es solo un avance tecnológico que optimiza tareas. Es también una transformación profunda de los procesos mediante los cuales decidimos, razonamos y creamos. Así, la IA generativa comienza a ocupar un lugar ambiguo: es a la vez una herramienta poderosa y una muleta tentadora.
Delegar en ella puede llevarnos antes a la meta, pero abre una pregunta más inquietante: ¿qué ocurre con nuestras capacidades cognitivas cuando dejamos de recorrer el camino?
El riesgo de pensar en modo de bajo esfuerzo
La ficción de Gilligan no presenta esta disolución como una elección consciente, sino como una irrupción súbita: una inteligencia ajena que se propaga y uniformiza el pensamiento. A partir de ese hecho, la duda deja de actuar como motor del pensar y el conflicto interior se apaga. La subjetividad no se anula por imposición, sino por sustitución.

Apple TV
En el plano de lo real, la neurociencia comienza a identificar un fenómeno inquietantemente similar bajo el concepto de sedentarismo cognitivo. La delegación sistemática de tareas cognitivas no solo amenaza nuestra autonomía y pensamiento crítico, sino que permite a la IA operar como una infraestructura que accede al inconsciente para condicionar el comportamiento. Resulta entonces imperativo proteger los derechos del yo inconsciente, una advertencia que resuena en numerosos estudios y críticas de la literatura actual. Esta preocupación no es solo teórica: la evidencia científica reciente aporta datos que la respaldan.
Un estudio del MIT Media Lab ofrece una pista empírica sobre lo que ocurre cuando el pensamiento se delega por completo. Los participantes que confiaron íntegramente en herramientas de IA generativa para escribir mostraron una menor activación de las áreas cerebrales implicadas en la memoria y el razonamiento. El efecto más revelador fue conductual: la mayoría no logró recordar ni explicar el contenido que acababa de producir. Sin esfuerzo cognitivo, la información no se integra; simplemente pasa.
El propio estudio pone estos resultados en perspectiva al compararlos con investigaciones previas sobre el uso de buscadores. Buscar información obliga a leer, evaluar, descartar y tomar decisiones, un proceso que mantiene activa la mente y refuerza la sensación de autoría. Cuando ese recorrido desaparece y el resultado llega ya cerrado, no solo cambia lo que sabemos sino cómo aprendemos a pensar.
La trampa de la pereza metacognitiva
El problema, por tanto, no es solo el olvido de datos, sino una transformación más profunda en la forma de procesar la información. La literatura científica describe este fenómeno como pereza metacognitiva: la tendencia a delegar no solo la ejecución, sino también la planificación y el control del propio pensamiento.
Un estudio experimental, publicado en el British Journal of Educational Technology, muestra con claridad esta paradoja. Los estudiantes que utilizaron ChatGPT obtuvieron mejores calificaciones en sus trabajos, pero no aprendieron más que quienes no lo usaron. El producto final mejora, pero la formación no progresa. La explicación apunta a una alteración del aprendizaje autorregulado (SRL): al recibir respuestas ya estructuradas, los sujetos reducen el esfuerzo de planificación y elaboración cognitiva, limitándose a una edición superficial.
Desde una perspectiva sociológica, esta dinámica se refuerza con lo que Michael Gerlich denomina “descarga cognitiva” (cognitive offloading). A partir del análisis de 666 participantes, su estudio muestra una correlación clara: cuanto mayor es la delegación de tareas mentales en la IA, menor es el uso del pensamiento crítico. El riesgo, concluye Gerlich, no es que la tecnología piense por nosotros, sino que nos acostumbre a evitar el esfuerzo analítico necesario para evaluar la información de forma independiente.
¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.
No todo está perdido: diseñar fricciones deseables
La solución no es el rechazo, sino introducir intencionalmente fricciones deseables: utilizar la IA para generar retos y contraejemplos que nos obliguen a cuestionar la información y a resistir la aceptación automática de los patrones que los algoritmos refuerzan. Estos patrones tienden a crear cámaras de eco y a homogeneizar opiniones, no porque la IA piense por sí misma, sino porque somos nosotros quienes la usamos de forma cómoda y confirmatoria.
Para superar este riesgo, algunos estudios sobre epistemologías alternativas proponen estrategias para diversificar y confrontar la producción de conocimiento frente a la tendencia de los algoritmos a homogeneizar el pensamiento.
Desde esta perspectiva, resulta especialmente relevante la propuesta de Lara y Deckers sobre la “mejora socrática”. Su objetivo no es atribuir agencia moral a la tecnología, sino reintroducir la responsabilidad humana en la interacción. El riesgo no es que la máquina decida por nosotros, sino que dejemos de decidir al aceptar respuestas alineadas con la media o con aquello que confirma nuestra posición.
La resistencia no consiste en oponerse a la tecnología, sino en cambiar nuestra forma de usarla. En lugar de pedirle a la IA una confirmación cómoda –como “explícame por qué esta medida política es positiva”–, que suele generar respuestas previsibles, resulta más útil interactuar de forma crítica. Por ejemplo, pedirle que analice supuestos implícitos, identifique contradicciones entre efectos sociales y valores defendidos, y formule objeciones o preguntas que nos hagan reconsiderar nuestra postura. Así, la IA no sustituye el juicio humano, sino que lo activa.
La soberanía de la individualidad
La estandarización algorítmica tiende a crear una uniformidad digital que deja de lado lo auténtico en favor de lo predecible.
Si no reclamamos nuestra autonomía mental, corremos el riesgo de convertirnos en la versión simplificada de usuarios que la tecnología espera que seamos. El desafío no es competir con la capacidad de cálculo de la máquina, sino utilizarla de un modo que libere nuestra reflexión crítica, permitiendo que la eficiencia tecnológica enriquezca la experiencia humana sin reemplazar el pensamiento propio.
![]()
Anita Feridouni Solimani no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
– ref. La mente en modo ‘bajo consumo’: ¿para qué pensar si la IA ya lo hace? – https://theconversation.com/la-mente-en-modo-bajo-consumo-para-que-pensar-si-la-ia-ya-lo-hace-273316
