¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela?

Source: The Conversation – (in Spanish) – By Esther Nieto Moreno de Diezmas, Catedrática y Directora del Departamento de Filología Moderna, Universidad de Castilla-La Mancha

Pese a que la mayoría no entendemos cómo lo consigue, lo cierto es que la capacidad de la inteligencia artificial para resumir un texto más o menos largo (novela, ensayo, informe o paper académico) resulta asombrosa. Cuando el tiempo apremia, las exigencias son muchas y variadas y, como es tan fácil recurrir a ello, ¿cómo no pedir un poco de ayuda a una tecnología tan rápida, fácil y gratuita?

Un resumen de un texto hecho por la inteligencia artificial puede ser muy útil para obtener una orientación rápida sobre su contenido. Pero conviene pararse a analizar en qué estamos ahorrando exactamente y cuáles son las contrapartidas. No es lo mismo que, en un contexto profesional o de investigación, se aprovechen estos resúmenes para elegir bibliografía relevante o seleccionar materiales docentes, que utilizar ChatGPT para evitar una lectura obligada en la escuela.

Cuándo sí es útil la IA

Hay contextos escolares en los que puede tener mucho sentido apoyarnos en la IA. Por ejemplo, si nos piden que escojamos un libro para leerlo, podemos obtener resúmenes o recomendaciones que nos den criterios para la elección. O nos puede servir para obtener informaciones puntuales para un trabajo, como guía para luego profundizar.

Pero si la tarea consiste, precisamente, en leer un libro y resumirlo con el fin de trabajar la competencia lectora (algo imprescindible en primaria, pero también necesario practicar y seguir desarrollando en secundaria y la universidad), acudir a la IA nos ahorrará tiempo, pero nos hará perder algo que es incluso más preciado: el desarrollo del pensamiento crítico y de capacidades cognitivas y socioemocionales fundamentales para el aprendizaje.

Problemas de fiabilidad

Para empezar, los resúmenes de la IA no son siempre totalmente fiables. Existen las llamadas “alucinaciones”, es decir, información inventada, pero verosímil, que no aparece en ningún momento en el texto original. La IA puede generar inexactitudes como confusión de personajes, fechas, datos, etc.

A un nivel más profundo, puede incluir sesgos, al darle más peso a interpretaciones más probables estadísticamente o que se hayan expuesto en primer lugar en el texto. Además, la IA tiende a simplificar la riqueza interpretativa, quedándose en lo literal y ofreciendo una visión incompleta o distorsionada.

Una tarea que permite crecer al cerebro

Pero aún más importante es el papel que tiene la lectura profunda de libros completos y la elaboración de resúmenes como parte del proceso de aprendizaje, especialmente cuando se trata de estudiantes que todavía están adquiriendo sus habilidades lectoras.

En estos casos, si confiamos en la IA para elaborar resúmenes y dejamos de leer los libros completos, podemos estar limitando nuestro desarrollo cognitivo y afectivo y nuestra capacidad de aprender.

Leer un libro en su totalidad implica mucho más que extraer información: es una actividad compleja que activa la atención, la memoria, el razonamiento y la imaginación. El proceso de lectura profunda nos permite percibir matices, estructuras y capas de significado que se pierden inevitablemente en un resumen.

Al privilegiar los atajos y la lectura superficial, debilitamos las conexiones cognitivas que sostienen la concentración prolongada y la comprensión de alto nivel.

El papel del pensamiento crítico

Más allá de la comprensión, la lectura íntegra fomenta el pensamiento crítico, ya que enfrentarse a los argumentos en toda su complejidad invita a evaluar, cuestionar y elaborar juicios propios, en lugar de absorber pasivamente contenidos ya digeridos.

El contacto directo con un texto estimula la creatividad y la interpretación personal. Cada lector construye significado a partir de un diálogo activo con la obra, un proceso que es central en la experiencia literaria.

Cuando leemos el libro completo y lo resumimos sin ayuda tecnológica, estaremos fortaleciendo habilidades metacognitivas, que son las que nos ayudan a decidir qué incluir, qué omitir y cómo articular las ideas de forma coherente. Estas capacidades favorecen la retención y el aprendizaje profundo. Resumir no es solo acortar un texto, es aprender a pensar, y esta capacidad no se puede delegar en la IA.




Leer más:
Daniel Innerarity, filósofo: “La IA es un desafío y no una anulación de la creatividad humana”


La dimensión afectiva de leer

Además, la dimensión estética y emocional de la lectura y el placer que reporta el ritmo de la prosa, la tensión narrativa o la identificación con los personajes no puede ser replicada en un resumen. Este componente afectivo constituye un elemento clave para despertar y mantener la motivación intrínseca por leer.

Diversos estudios apuntan a que la lectura nos hace más felices y contribuye al desarrollo de la empatía y el bienestar emocional, tanto en la adolescencia como a lo largo de la vida. Leer por placer desde edades tempranas se asocia con un mejor desempeño cognitivo, mejor salud mental, disminución del estrés, menos problemas de conducta y mayor atención.

La lectura, la comprensión, la capacidad de síntesis y el pensamiento crítico se desarrollan de forma gradual a lo largo de la escolaridad. El uso de herramientas como la IA desde edades tempranas puede interferir en ese proceso. Además de impedir o ralentizar la consolidación de competencias esenciales, recurrir a ella como solución rápida contribuye a la tecnodependencia y a la consecuente pérdida de autonomía.




Leer más:
Cómo desarrollar una mirada crítica hacia la tecnología desde las aulas


Un uso moderado y responsable

La inteligencia artificial puede ser una herramienta valiosa para apoyar la comprensión, orientar la lectura o facilitar el acceso a ciertos contenidos. Pero no conviene usarla como sustituto del acto de leer y menos aún en edad escolar. Este es un periodo crucial para la adquisición de competencias lectoras, críticas y analíticas y para promover el hábito lector.

La lectura es una experiencia profunda, personal y formativa que no se reduce a datos ni a resúmenes; implica reflexión, interpretación y conexión emocional. Usar la IA con criterio puede enriquecer el proceso, pero nunca reemplazar el valor insustituible de enfrentarse directamente con el texto.


La versión original de este artículo ha sido publicada en la Revista Telos, de Fundación Telefónica.

The Conversation

Esther Nieto Moreno de Diezmas recibe fondos de la Universidad de Castilla-La Mancha.

ref. ¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela? – https://theconversation.com/por-que-no-deberiamos-pedir-a-la-ia-que-nos-resuma-un-libro-para-la-escuela-265302

Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte

Source: The Conversation – (in Spanish) – By Josep M. Trigo Rodríguez, Investigador Principal del Grupo de Meteoritos, Cuerpos Menores y Ciencias Planetarias, Instituto de Ciencias del Espacio (ICE – CSIC)

El cometa interestelar 3I/ATLAS capturado por el espectrógrafo multiobjeto Gemini (GMOS) en Gemini Sur, Cerro Pachón, Chile, el 27 de agosto de 2025. International Gemini Observatory/NOIRLab/NSF/AURA/Shadow the Scientist Image Processing: J. Miller & M. Rodriguez (International Gemini Observatory/NSF NOIRLab), T.A. Rector (University of Alaska Anchorage/NSF NOIRLab), M. Zamani (NSF NOIRLab)

Entre los esfuerzos realizados a nivel internacional por estudiar la naturaleza y la composición del cometa interestelar 3I/ATLAS, la Agencia Europea del Espacio (ESA) desveló ayer los primeros resultados obtenidos por varios ingenios espaciales que orbitan Marte.

Las imágenes de ExoMars desmontan rumores infundados

Eran muy esperadas estas imágenes. Sobre todo, por las especulaciones sobre la presunta naturaleza artificial del objeto, a pesar de que todas las observaciones obtenidas desde su descubrimiento indican que se trata de un cometa.

ExoMars capturó con su Sistema de Imagen de Superficie en Color y Estéreo (CaSSIS) una serie de imágenes que permitieron construir esta secuencia donde la apariencia difusa y cometaria del 3I/ATLAS es perfectamente visible, entre las estrellas de fondo.
Sistema de imagen de superficie en color y estéreo (CaSSIS), ExoMars

De hecho, en una escalada potenciada por los amantes de las pseudociencias y ciertos medios de comunicación, una imagen tomada por el rover Perseverance desde la superficie de Marte alentó teorías surrealistas por su forma oblonga.

Los profesionales que nos dedicamos a seguir estos cuerpos nos hacíamos cruces, pues dicha forma es consecuencia del movimiento aparente de un objeto luminoso durante una exposición prolongada. De hecho, cualquier persona puede hacer fotos similares de estrellas o planetas si no conecta los motores de su telescopio para contrarrestar el movimiento de rotación terrestre. Debemos tener en cuenta que las cámaras de Perseverance no están diseñadas para corregir el efecto de rotación del planeta rojo ni mucho menos seguir el movimiento propio de los objetos en el cielo.




Leer más:
La violenta explosión de rayos gamma que nadie puede explicar


Desgraciadamente –quizás por la falta de medios y personal a consecuencia de los recortes gubernamentales–, hasta la propia NASA cometió por unas horas el error de no desmentir que esa imagen deformada correspondía al cometa 3I/ATLAS, muchísimo más débil y difuso. Posteriormente, el experto Simeon Schmauß confirmó que se trataba del satélite Fobos.

Imagen del cometa 3I/ATLAS obtenida por el orbitador ExoMars-TGO.
ExoMars-Trace Gas Orbiter (ESA)

Avances en la comprensión sobre la naturaleza del cometa 3I/ATLAS

Además, recientemente se descubrió que la coma del 3I/ATLAS posee una alta tasa de producción de átomos de níquel ionizado. También presenta un cociente de níquel y hierro no vista anteriormente ni en cometas del sistema solar ni en el también interestelar 2I/Borisov, caracterizado por una actividad cometaria restringida. No se puede descartar que la naturaleza de ese cuerpo kilométrico que es 3I/ATLAS fuese rocosa, con significante presencia de granos de hierro y níquel. En nuestro sistema solar, algunos meteoritos primigenios denominados condritas son más ricos en esos granos metálicos que otros.

Las primeras observaciones polarimétricas del 3I/ATLAS, lideradas por el finlandés Zury Gray, también arrojan datos interesantes. Según las conclusiones de este estudio, el objeto posee una polarización negativa sin precedentes claros entre asteroides y cometas, incluido 2I/Borisov. Su comportamiento podría indicar que porta hielo de agua y que se asemeja en cierto modo a objetos helados –en la categoría de los objetos transneptunianos pequeños– y a un centauro (un tipo de cometas que cruzan las órbitas de los planetas gigantes) llamado (5145) Pholus.

La presencia de hielo de agua en la coma del 3I/ATLAS ha sido confirmada por otro trabajo basado en datos obtenidos por el telescopio Gemini Norte desde Hawái.

Veremos lo que deparan las observaciones futuras, pero algunas de esas propiedades anómalas quizás sean indicadoras de la prolongada estancia del cometa en el frío espacio interestelar. Durante ese tiempo podría haber acumulado sobre su superficie motas de polvo y hielos que se haya ido encontrando tras vagar cientos, o quizás miles, de millones de años.

Para comprender mejor la composición química del visitante, los científicos de la ESA también han intentado captar su espectro de luz mediante los espectrómetros OMEGA y SPICAM, ambos de la sonda Mars Express (ESA), y NOMAD, del ExoMars-Trace Gas Orbiter. En este punto, no está claro si la coma y la cola eran lo suficientemente brillantes como para obtener una caracterización espectral.

En noviembre, nuevas observaciones de la sonda Juice

Justo a finales de octubre, 3I/ATLAS alcanzará su mínima distancia al Sol; se espera que entonces la sublimación de la componente de hielos sea máxima. Justo pocos días después, la sonda espacial Jupiter Icy Moons Explorer (Juice) comenzará sus observaciones detalladas del objeto.

Lo cierto es que todos esperamos que el cometa 3I/ATLAS vuelva a colocarse en una geometría adecuada para poder ser seguido con nuestros telescopios. La segunda semana de noviembre, su distancia angular al Sol será ya suficiente para “recuperarlo”, probablemente como un objeto difuso de magnitud estelar +12, es decir, un billón de veces más débil que las estrellas más luminosas y sólo al alcance de telescopios de tamaño mediano. Hará falta buscar un cielo oscuro y emplear cartas celestes detalladas indicando su posición exacta, como las que facilita Sky Live.

El 19 de diciembre se encontrará a 268 millones de kilómetros de la Tierra, su mayor proximidad a nuestro planeta. Tras ese fugaz y lejano encuentro podremos seguir observando cómo pierde brillo y regresa finalmente al frío espacio interestelar. Un estudio reciente apunta a que 3I/ATLAS podría llevar vagando por la Vía Láctea cientos de millones de años, ya que no ha sufrido encuentros significativos con estrellas de la galaxia en los últimos diez millones de años.

La misión Comet Interceptor, a la espera del próximo visitante interestelar

Mientras ocurre todo esto, la ESA está desarrollando una nueva misión espacial dedicada al futuro encuentro de este tipo de cuerpos espaciales, llamada Comet Interceptor. Está previsto que la nueva sonda despegue en 2029 para mantenerse en el espacio hasta que surja la oportunidad de ser lanzada con destino a otro cometa interestelar.

El interés por aprender de 3I/ATLAS es enorme. De hecho, a finales de octubre presentaré el seguimiento realizado del objeto en una reunión de la misión Comet Interceptor en el Centro Europeo de Investigación y Tecnología Espacial (ESTEC), la sede de la ESA en Holanda.

Gracias a los actuales programas de seguimiento podríamos llegar a descubrir un cometa interestelar cada pocos años y se espera que, teniendo una sonda preparada en el espacio, alguno alcanzase el sistema solar con una geometría y velocidad adecuada para ser visitado por Comet Interceptor. Una aventura que podría estar a la altura de lo que cuenta la novela Cita con Rama, de Arthur C. Clarke.

The Conversation

Josep M. Trigo Rodríguez recibe fondos del proyecto del Plan Nacional de Astronomía y Astrofísica PID2021-128062NB-I00 financiado por el MICINN y la Agencia Estatal de Investigación.

ref. Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte – https://theconversation.com/las-ultimas-noticias-sobre-el-cometa-extrasolar-3i-atlas-llegan-desde-marte-266798

Las arquitecturas invisibles atrapan el Nobel de Química 2025

Source: The Conversation – (in Spanish) – By Antonio M. Rodríguez García, Profesor Titular de Universidad, Química Orgánica, Universidad de Castilla-La Mancha

Susumu Kitagawa, Richard Robson y Omar Yaghi, ganadores del Nobel de Química 2025. Niklas Elmehed © Nobel Prize Outreach, CC BY-NC

Construir materiales cristalinos con espacios gigantescos a escala atómica capaces de capturar, almacenar y transformar moléculas no solo parece el guion de una película futurista. También es un sueño científico hecho realidad por los galardonados por el Premio Nobel de Química este año.

Susumu Kitagawa, Richard Robson y Omar M. Yaghi han desarrollado los entramados metal-orgánicos (MOF, por sus siglas en inglés), una clase de materiales que ha revolucionado la química de materiales y que abre nuevas vías para abordar desafíos globales como el cambio climático, la escasez de agua o la transición hacia energías limpias.

El poder de las “jaulas” moleculares

Los MOF son redes tridimensionales formadas por nodos metálicos conectados mediante moléculas orgánicas. Esta combinación crea una estructura cristalina altamente porosa: hasta el 90 % de su volumen puede ser vacío y un solo gramo puede desplegar una superficie interna de hasta 6 000 m². Dicho de otro modo, una cucharadita de polvo de MOF puede tener una superficie equivalente a la de un campo de fútbol.

Su verdadera revolución es que son diseñables a la carta. Al cambiar el tipo de metal y las moléculas orgánicas, los investigadores pueden ajustar con precisión el tamaño de los poros, la forma de los canales y la química de sus paredes internas para hacer que interactúen con moléculas concretas. Esta modularidad es posible gracias a la llamada química reticular, una disciplina que construye materiales siguiendo patrones topológicos predecibles, casi como diseñar edificios con piezas de Lego moleculares.

Por qué son tan importantes

Son muchas sus aplicaciones, con impacto en ámbitos muy importantes de la vida diaria. Por ejemplo, sirven para:

  • Captura y almacenamiento de gases contaminantes. Algunos MOF atrapan dióxido de carbono, incluso a bajas concentraciones, algo esencial para reducir las emisiones industriales y, en el futuro, capturar CO₂ directamente del aire.

  • Transición energética limpia. Su capacidad para almacenar hidrógeno y metano de manera densa y segura los convierte en aliados clave para desarrollar combustibles limpios y avanzar hacia una economía descarbonizada.

  • Obtención de agua en lugares áridos. Existen MOF que absorben vapor de agua, incluso cuando la humedad es mínima, lo que permite diseñar dispositivos portátiles que “fabrican” agua potable a partir del aire del desierto.

  • Catálisis de precisión y química sostenible. Al actuar como microfábricas moleculares, los MOF pueden catalizar reacciones dentro de espacios confinados. Con ello, imitan la precisión de las enzimas y reducen el consumo energético y la generación de residuos.

  • Medicina avanzada y sensores. Su enorme superficie y la facilidad para modificarlos con moléculas activas los hace útiles en imagen biomédica, liberación controlada de fármacos o sensores químicos de alta sensibilidad.

De curiosidad académica a tecnología transformadora

Hace apenas dos décadas, los MOF eran un experimento de laboratorio con nombres complejos y aplicaciones hipotéticas. Hoy son una plataforma tecnológica en rápido desarrollo, estudiada tanto por grupos académicos como por grandes empresas químicas y energéticas.

Sus posibilidades se han multiplicado gracias a técnicas de síntesis más eficientes –que incluyen métodos ecológicos como la mecanoquímica o la sonoquímica, en las que las reacciones químicas se activan con métodos mecánicos o mediante ondas sonoras, respectivamente– y a herramientas de simulación computacional que permiten predecir estructuras antes de fabricarlas.

Un Nobel que mira al futuro

El galardón de 2025 no premia solo un descubrimiento elegante, sino que pone el foco en una nueva forma de pensar la química de materiales: pasar del ensayo y error a la ingeniería molecular racional.

En un mundo que necesita urgentemente tecnologías para capturar CO₂, gestionar el agua, almacenar energía limpia y reducir residuos industriales, los MOF son una pieza clave del futuro sostenible.

Además, este Nobel lanza un mensaje inspirador: la química, a menudo vista como sinónimo de contaminación, también puede ser una herramienta poderosa para proteger el planeta. Los entramados metal-orgánicos son la prueba de que imaginar y construir estructuras invisibles, átomo a átomo, puede tener un impacto muy real en nuestra vida cotidiana y en la salud del medio ambiente.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Las arquitecturas invisibles atrapan el Nobel de Química 2025 – https://theconversation.com/las-arquitecturas-invisibles-atrapan-el-nobel-de-quimica-2025-266917

La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation

Source: The Conversation – (in Spanish) – By Pablo Colado, Redactor jefe / Editor de Salud y Medicina, The Conversation

sfam_photo/Shutterstock

“Cambia lo superficial, cambia también lo profundo, cambia el modo de pensar, cambia todo en este mundo”.

Con este fragmento de la canción de Mercedes Sosa “Todo cambia” arrancaba el artículo ganador del Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation, un penetrante análisis sobre la validez de los testamentos vitales en los individuos aquejados por una demencia. “¿Existen cambios tan radicales que hagan que una persona deje de ser ella misma?”, se pregunta y hace preguntarnos su autor, Luis Espericueta, de la Universidad de Granada.

Entre las 132 candidaturas que se han presentado al certamen, dirigido a investigadores, doctorandos y docentes universitarios menores de 35 años, las propuestas han sido muy diversas en fondo y forma, como ilustra el tono más desenfadado del segundo premio: Partirse de risa: el origen científico del ja, ja, ja. Marta Calderón García, de la Universidad Miguel Hernández, nos invita a embarcarnos en un amenísimo viaje por los pormenores psicológicos, neurobiológicos y culturales de la risa humana.

Lo que no cambia es la voluntad de claridad y la pasión por la ciencia que también transmiten los ocho artículos finalistas, publicados durante estos últimos tres meses en The Conversation. Sus autores, por ejemplo, son capaces de situarnos en un ring (la placenta) donde libran un trascendental combate los genes paternos y maternos durante el desarrollo de feto; o de imaginar a las células mandándose mensajes de WhastApp (las vesículas extracelulares), como si una película de Pixar se tratara.

Queda, por tanto, demostrado que las metáforas constituyen una poderosa herramienta para hacer divulgación. Encontramos otro exponente de su buen uso en el artículo Neurohambruna: cómo la escasez de comida reprograma a los hijos de la guerra, donde se compara el cuerpo de las embarazadas con un canal de noticias: “todo lo que ocurre afuera –lo que la madre come, cómo se siente, etc.– se traduce en mensajes químicos que informan al bebé sobre el entorno donde crecerá”, escribe la autora. Y sin salir de la biomedicina de vanguardia, también hemos aprendido que las células madre cancerígenas son “como brasas escondidas, invisibles pero activas, esperando el momento justo para arder otra vez”.

Además, gracias a esta variopinta antología podrá ponerse al día de las últimas novedades en materia farmacológica –los medicamentos biosimilares y el papel de los excipientes en los fármacos– o averiguar si puede considerarse como “normal” algún consumo de alcohol.

Y, por supuesto, no podía faltar el gran tema de nuestro tiempo: el artículo ¿Se fiaría del criterio de ChatGPT para su diagnóstico médico? Por si acaso, busque una segunda opinión pondera con sentido común los pros y contras del uso de la inteligencia artificial en el ámbito de la salud. Porque como cantaba Mercedes Sosa, “cambia el modo de pensar, cambia todo en este mundo”, y necesitamos más que nunca voces autorizadas que nos iluminen en estos tiempos de furia y ruido.

P. D. En memoria de Luis Felipe Torrente, que nos dejó hace poco más de un año y que desde esta quinta edición honra con su nombre al Premio. Su magisterio sigue siendo una brújula para todos quienes hacemos The Conversation.

Feliz lectura.

The Conversation

ref. La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation – https://theconversation.com/la-seleccion-premio-luis-felipe-torrente-de-divulgacion-sobre-medicina-y-salud-fundacion-lilly-the-conversation-266554

¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Profesora ayudante doctora. Departamento de Economía Aplicada, Universidad de Valladolid

Un policía local regula el tráfico en Cartagena (Murcia) durante el apagón del pasado 28 de abril. Los semáforos dejaron de funcionar, lo que creó problemas en muchas ciudades españolas. P4K1T0/Wikimedia Commons, CC BY

Entre pandemias, olas de calor, crisis energéticas y ciberataques a infraestructuras y sistemas básicos, actualmente las emergencias son más probables que excepcionales. Sin embargo, ¿estamos preparados para lo inesperado? La evidencia sugiere que no: seguimos confiando en que, si algo pasa, alguien vendrá rápidamente a solucionarlo.

Aunque se haya avanzado en infraestructuras y respuesta institucional, la preparación ciudadana sigue siendo mínima. De hecho, desde la Unión Europea se ha insistido en los últimos meses en la importancia de que cada hogar disponga de un pequeño kit de supervivencia para afrontar posibles emergencias.

El apagón del 28 de abril: una prueba real

El 28 de abril de 2025 a las 12.32 del mediodía, un apagón masivo dejó sin electricidad a buena parte de la península ibérica. En pocos minutos, miles de hogares y negocios quedaron desconectados.

El corte duró solo unas horas pero bastó para paralizar los transportes, dejar sin cobertura a millones de personas y generar una sensación generalizada de desconcierto. Y, aunque a principios de abril un estudio del Centro de Investigaciones Sociológicas (CIS) señalaba que el 69 % de los españoles se consideraba preparado para subsistir 72 horas en caso de catástrofe, lo cierto es que el apagón demostró lo contrario.

La mayoría de los hogares no disponía de linternas, pilas, radio, efectivo ni provisiones básicas –como agua o alimentos que pudieran conservarse y consumirse sin electricidad–. Además, pocos tenían un plan familiar para actuar en caso de emergencia.




Leer más:
Lecciones del colapso del sistema eléctrico ibérico


Miedo, confianza y falta de previsión

Ante una emergencia, las reacciones no son las mismas, pues intervienen factores como la edad, el género, el entorno o incluso el nivel educativo. Se han identificado varios perfiles altamente vulnerables a las situaciones de emergencia: las personas mayores de 65 años, los turistas, las personas con un nivel socioeconómico bajo y los hogares con niños. También la situación de incomunicación contribuye a aumentar la vulnerabilidad.

A partir de los datos recopilados por el CIS en la encuesta flash sobre el apagón eléctrico, he analizado la respuesta de los ciudadanos españoles a dicha emergencia. Los resultados ofrecen una radiografía clara del comportamiento social ante una crisis imprevista.

Casi uno de cada tres encuestados reconoció haber sentido miedo durante el apagón, un porcentaje especialmente alto entre las mujeres (29,7 % frente al 14,4 % de los hombres) y las personas jóvenes. Esta diferencia también se aprecia por grupos de edad; paradójicamente, en porcentaje, los mayores de 54 años se mostraron menos afectados por la caída de la energía.

Dificultades y carencias

Durante el incidente, los ciudadanos señalaron diversas dificultades relacionadas con la falta de suministros y recursos básicos. Entre los principales problemas destacaron la ausencia de una fuente de energía no eléctrica para cocinar (36,3 %), la falta de un aparato de radio (16,7 %) y la imposibilidad de comunicarse (14,1 %).

Este último aspecto estuvo estrechamente vinculado con las emociones experimentadas durante la crisis. El miedo fue mayor entre quienes no lograron acceder a información durante las primeras horas, lo que refleja la importancia de la conectividad digital incluso en contextos de emergencia. Centrándonos en este aspecto, más de la mitad de los encuestados (55,3 %) indicó que una de las principales cosas que echó en falta fue el funcionamiento de los teléfonos y uno de cada cuatro mencionó la falta de conexión a internet o de acceso a las redes sociales (26,5 %).

La preparación material fue igualmente limitada. La mayoría de los hogares carecía de recursos básicos y pocos habían previsto cómo actuar en caso de emergencia. Según los datos del CIS, solo un 33,6 % de los encuestados declaró disponer de algún tipo de kit o material de emergencia. Por otra parte, el acceso a la información también resultó determinante: el 59,6 % consideró insuficiente la información proporcionada por el Gobierno español.

En definitiva, el estudio pone de manifiesto que, aunque la sociedad se perciba preparada, su reacción ante la emergencia muestra falta de previsión.




Leer más:
No solo durante un apagón: el valor de la radio en las crisis


Prepararse también es cultura

En los últimos años, España ha sufrido una pandemia, inundaciones, una tormenta de nieve, incendios forestales y un apagón general que han afectado a amplias zonas del territorio. Todo esto en un contexto internacional marcado por crisis energéticas, tensiones geopolíticas y amenazas cibernéticas. Estos episodios, distintos entre sí en naturaleza pero similares en consecuencias, muestran que las emergencias ya no son hechos aislados sino una realidad recurrente que pone a prueba tanto la capacidad institucional como la preparación ciudadana.

Más allá del impacto inmediato, el apagón del 28 de abril puso de relieve la falta de una cultura de prevención. Si en España la preparación ante emergencias sigue viéndose como algo lejano o innecesario, en otros países europeos –como Alemania, Suiza o los países nórdicos– las campañas de autoprotección y los simulacros forman parte de la vida cotidiana. Por ejemplo, en Alemania se promueven planes familiares de emergencia y campañas para almacenar agua y alimentos; en Suiza la ley garantiza, desde 1963, que cada persona disponga de una plaza en un refugio subterráneo, y en los países nórdicos los gobiernos distribuyen manuales y guías ciudadanas que explican cómo actuar ante apagones o crisis.




Leer más:
Cómo convivir con la incertidumbre: asumamos el miedo, evitemos el pánico


Sin alarmismos

Contar con una linterna, una radio o una reserva mínima de agua, medicinas y alimentos no es alarmismo sino una muestra de responsabilidad. Aprender a prever riesgos, a comunicarse cuando falla la tecnología y a apoyarse en la solidaridad vecinal no implica vivir con miedo, sino actuar con conciencia.

Las catástrofes naturales y emergencias de los últimos tiempos ponen de manifiesto que la seguridad no está garantizada y que requiere anticipación, responsabilidad y una respuesta ciudadana calmada y solidaria.

The Conversation

Raquel González del Pozo recibe fondos del proyecto: PID2021-122506NB-I00 (Ministerio de Ciencia, Innovación y Universidades / Agencia Estatal de Investigación).

ref. ¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril – https://theconversation.com/preparados-para-lo-inesperado-asi-respondieron-los-ciudadanos-espanoles-al-apagon-de-abril-266607

Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas

Source: The Conversation – (in Spanish) – By Rob Morris, Professor of Physics, School of Science and Technology, Nottingham Trent University

El Premio Nobel de Física 2025 ha sido otorgado a tres científicos por el descubrimiento de un efecto que tiene aplicaciones en dispositivos médicos y computación cuántica.

John Clarke, Michel Devoret y John Martinis llevaron a cabo una serie de experimentos hace unos 40 años que terminaron moldeando nuestra comprensión de las extrañas propiedades del mundo cuántico. Es un premio muy oportuno, ya que en 2025 se cumple el centenario de la formulación de la mecánica cuántica.

En el mundo microscópico, una partícula puede a veces atravesar una barrera y aparecer al otro lado. Este fenómeno se denomina efecto túnel cuántico. Los experimentos de los galardonados demostraron el efecto túnel en el mundo macroscópico, es decir, el mundo visible a simple vista. Y corroboraron que podía observarse en un circuito eléctrico experimental.

El efecto túnel cuántico tiene posibles aplicaciones futuras en la mejora de la memoria de los teléfonos móviles y ha sido importante para el desarrollo de los qubits, que almacenan y procesan información en ordenadores cuánticos. También tiene aplicaciones en dispositivos superconductores, capaces de conducir la electricidad con muy poca resistencia.

John Clarke, nacido en Gran Bretaña, es profesor de Física en la Universidad de California, Berkeley. Michel Devoret nació en París y es profesor F. W. Beinecke de Física Aplicada en la Universidad de Yale. John Martinis es profesor de Física en la Universidad de California, Santa Bárbara.

¿Qué es el efecto túnel cuántico?

El efecto túnel cuántico es un fenómeno contraintuitivo por el cual las diminutas partículas que componen todo lo que podemos ver y tocar pueden aparecer al otro lado de una barrera sólida, que en otras circunstancias se esperaría que las detuviera.

Desde que se propuso por primera vez, en 1927, se ha observado en partículas muy pequeñas y es responsable de nuestra explicación de la desintegración radiactiva de átomos grandes en átomos más pequeños y en algo bautizado como partícula alfa. Sin embargo, también se predijo que podríamos ver este mismo comportamiento en cosas más grandes: es lo que se denomina efecto túnel cuántico macroscópico.

¿Cómo podemos ver el efecto túnel cuántico?

La clave para observar este efecto túnel macroscópico es algo llamado unión Josephson, que consiste en una especie de un cable roto sofisticado. El cable no es un cable típico como el que se utiliza para cargar el teléfono, sino que es un tipo especial de material conocido como superconductor. Un superconductor no tiene resistencia, lo que significa que la corriente puede fluir a través de él indefinidamente sin perder energía. Los superconductores se utilizan, por ejemplo, para crear campos magnéticos muy fuertes en los escáneres de resonancia magnética (RM).

¿Cómo nos ayuda esto a explicar este extraño comportamiento de túnel cuántico? Si colocamos dos cables superconductores uno al lado del otro, separados por un aislante, creamos nuestra unión Josephson. Normalmente se fabrica en un solo dispositivo que, con unos conocimientos básicos de electricidad, no debería conducir la electricidad. Sin embargo, gracias al túnel cuántico, podemos ver que la corriente puede fluir a través de la unión.

Los tres galardonados demostraron el efecto túnel cuántico en un artículo publicado en 1985 (es habitual que transcurra tanto tiempo antes de que se concedan los premios Nobel). Anteriormente se había sugerido que el efecto túnel cuántico estaba causado por una avería en el aislante. Los investigadores comenzaron enfriando su aparato experimental hasta una fracción de grado del cero absoluto, la temperatura más fría que se puede alcanzar.

El calor puede proporcionar a los electrones de los conductores la energía suficiente para atravesar la barrera. Por lo tanto, tendría sentido que cuanto más se enfriara el dispositivo, menos electrones escaparan. Sin embargo, si se produce el efecto túnel cuántico, debería haber una temperatura por debajo de la cual el número de electrones que escapan ya no disminuiría. Los tres galardonados descubrieron precisamente esto.

¿Por qué es importante?

En aquel momento, los tres científicos intentaban demostrar mediante experimentos esta teoría en desarrollo sobre el efecto túnel cuántico macroscópico. Incluso durante el anuncio del premio de 2025, Clarke restó importancia al descubrimiento, a pesar de que ha sido fundamental en muchos avances que se encuentran a la vanguardia de la física cuántica actual.

La computación cuántica sigue siendo una de las oportunidades más interesantes que se vislumbran para un futuro próximo y es objeto de importantes inversiones en todo el mundo. Esto conlleva mucha especulación sobre los riesgos para nuestras tecnologías de cifrado.

También resolverá en última instancia problemas que están fuera del alcance incluso de los superordenadores más grandes de la actualidad. Los pocos ordenadores cuánticos que existen hoy en día se basan en el trabajo de los tres premios Nobel de Física de 2025 y, sin duda, serán objeto de otro premio Nobel de Física en las próximas décadas.

Ya estamos aprovechando estos efectos en otros dispositivos, como los dispositivos superconductores de interferencia cuántica (SQuID), que se utilizan para medir pequeñas variaciones en los campos magnéticos de la Tierra, lo que nos permite encontrar minerales bajo la superficie. Los SQuID también tienen usos en medicina: pueden detectar los campos magnéticos extremadamente débiles que emite el cerebro. Esta técnica, conocida como magnetoencefalografía o MEG, puede utilizarse, por ejemplo, para encontrar el área específica del cerebro desde la que emanan las crisis epilépticas.

No podemos predecir si tendremos ordenadores cuánticos en nuestros hogares, o incluso en nuestras manos, ni cuándo. Sin embargo, una cosa es segura: la velocidad de desarrollo de esta nueva tecnología se debe en gran parte a los ganadores del premio Nobel de Física de 2025, que demostraron el efecto túnel cuántico macroscópico en circuitos eléctricos.

The Conversation

Rob Morris no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas – https://theconversation.com/premio-nobel-de-fisica-a-los-experimentos-pioneros-que-allanaron-el-camino-para-las-computadoras-cuanticas-266986

Cuando Colón confundió lo que era una milla y llegó a América

Source: The Conversation – (in Spanish) – By J. Guillermo Sánchez León, Instituto Universitario de Física Fundamental y Matemáticas (IUFFyM), Universidad de Salamanca

Pintura romántica de la llegada de Cristóbal Colón a América (Dióscoro Puebla, 1862). Museo del Prado / Wikimedia Commons.

En 1999, la sonda espacial Mars Climate Orbiter de EE. UU. se precipitó sobre Marte al utilizar sus programadores, por error, el pie en lugar del metro. Colón tuvo más suerte: cinco siglos antes asignó un valor equivocado a la milla árabe y el error le llevó descubrir un nuevo continente.

Un marino en Salamanca

A finales de 1486, Cristóbal Colón se trasladó a Salamanca, sabiendo que los Reyes Católicos residirían temporalmente en esta ciudad. En aquella época, la corte no tenía una sede fija. Esperaba convencerles de que apoyasen su proyecto de alcanzar las Indias siguiendo una ruta directa a través del Atlántico, como alternativa al itinerario portugués que bordeaba África. Esta misma propuesta ya se la había presentado al rey de Portugal Juan II, que la había rechazado, probablemente aconsejado por el astrónomo salmantino Diego Ortiz de Calzadilla (o de Villegas).

En la biografía Vida y viajes de Cristóbal Colón (1828), Washington Irving cuenta que, en Salamanca, el navegante se enfrentó “a una imponente hilera de maestros, frailes y dignatarios eclesiásticos” que ridiculizaron su idea de la redondez de la Tierra: “¿Habrá alguno tan necio que crea que hay antípodas con los pies opuestos a los nuestros…?”. Sin embargo, los profesores de Salamanca en el siglo XV no cuestionaban que la Tierra era esférica, pero sí tenían motivos para desaconsejar la propuesta de Colón.

La Tierra era una esfera

Desde al menos el siglo VI a. e. c., filósofos y astrónomos griegos como Pitágoras, Platón y Aristóteles sostenían que la Tierra era una esfera, tanto por razones filosóficas (la esfera era considerada la figura geométrica perfecta), como por evidencias empíricas.

Durante los eclipses de Luna, la sombra de la Tierra era siempre circular. Además, los marinos observaban que, en la ruta desde el sur de Grecia a Alejandría, iban apareciendo en el horizonte nuevas constelaciones, lo que era explicable en una Tierra redonda.

El método de Eratóstenes.
Francesco De Lorenzo / Sociedad Geográfica Española (Boletín 76 ), CC BY

El reto de medir su tamaño

Eratóstenes de Cirene (276–194 a. C.) fue más lejos: midió el tamaño de la Tierra, comparando, en el solsticio de verano, las sombras del Sol al mediodía en Siena (actual Asuán) y en Alejandría. En Siena, el Sol estaba en el cénit y no proyectaba sombra, mientras que en Alejandría un gnomon –aguja que marca la sombra en un reloj de sol– sí la proyectaba, formando un ángulo cincuenta veces menor que el de una circunferencia.

Para calcular el perímetro de la Tierra solo tenía que multiplicar por 50 la distancia entre Siena y Alejandría –que estimó en 5 000 estadios–, con lo que obtuvo un total de 250 000 estadios (unidad de medida de longitud en la Antigüedad). Frecuentemente se dice ese valor es muy próximo al real.

En cualquier caso, su medida no fue la que se popularizó. Durante siglos, el tamaño de la Tierra aceptado fue el descrito por Claudio Ptolomeo (siglo II d. C.) en su Geographia. Le otorgó un perímetro de 180 000 estadios egipcios (unos 28 350 km, un 30 % menor que el real), basado en las medidas de Posidonio (c. 100 a. e. c.).

Este había observado que la estrella Canopus se veía en el horizonte en Rodas, mientras que en Alejandría se encontraba en un ángulo equivalente a 1/48 la longitud de la circunferencia. Multiplicando 48 por la distancia entre ambas ciudades, que se estimó en 3 750 estadios, resultan los 180 000 estadios.

El mundo según Ptolomeo (reconstrucción de Johannes de Armsshein. Ulm.1482).
Wikipedia, CC BY

Los errores de Colón

En el siglo IX, el astrónomo persa Al-Farghānī, al servicio del califa Al-Mamun, escribía en su Compendio de Astronomía: “la longitud de un grado en la circunferencia de la Tierra es de 56 millas y dos tercios de una milla […]. Este cálculo fue aceptado y validado por numerosos sabios. Por lo tanto, cuando multiplicamos la longitud de un grado de la circunferencia por el total del círculo, es decir, 360 grados, obtenemos que la circunferencia total de la Tierra es de 20 400 millas”.

Colón consideró relevante esta información, como hace constar en una nota manuscrita a su ejemplar del Imago mundi de Pedro d’Ailly (disponible en la Biblioteca Colombina).

El problema surge al interpretar el valor de 1 milla. Al-Farghānī empleaba la unidad árabe de Al-Mamun, que sabemos equivale a 1 973 metros (m). Por tanto, 20 400 millas son 40 248 km, muy próximo al real (unos 40 000 km).

En la Europa medieval, a menudo, se interpretó erróneamente esa milla como romana (1 481 m), con lo que el perímetros equivaldría según estos calculos a 30 212 km.

Colón, por su parte, empleó una equivalencia de unos 1 250 m, similar a la usada en las cartas portulanas o manuales de navegación medieval, como recoge Adan Szaszdi en su ensayo La legua y la milla de Colón (1958). Ello reducía la circunferencia terrestre a 25 500 km.

Reconstrucción del Mapa de por un autor alemán en 1867.
Wikipedia

De Canarias a Japón

Aunque menor a los 30 000 km, valor más aceptado en su época, lo que hacía distinta la propuesta de Colón era su convicción de que Asia se extendía hacia el este más de lo que entonces se creía y que, tras ella, se encontraba Cipango (Japón). Pensó que podía llegar a Asia navegando hacia el oeste en pocos miles de kilómetros. Esta idea probablemente la había tomado de Toscanelli.

Los profesores de Salamanca no aceptaban esta heterodoxa propuesta; en consecuencia, desaconsejaron el viaje. Sin embargo, el dominico fray Diego de Deza, catedrático de Prima de Teología y maestro del príncipe don Juan, le brindó su apoyo. Mientras estuvo en Salamanca, Colón se hospedó en el convento dominico de San Esteban. En los años siguientes, la influencia de Deza fue decisiva para que lograse finalmente el respaldo de Isabel la Católica, lo que le abriría el camino hacia el Nuevo Mundo.

Colón había supuesto un tamaño de la Tierra menor del real, pero no muy distinta a la que sus contemporáneos asumían. Su error fundamental fue atribuir a Asia una extensión mucho mayor de la que tiene, lo que reducía sustancialmente la distancia a navegar. Pocas meteduras de pata en la historia han tenido consecuencias tan trascendentales. Habría que esperar a la vuelta al mundo de Magallanes-Elcano para conocer la verdadera dimensión de la Tierra.

The Conversation

J. Guillermo Sánchez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando Colón confundió lo que era una milla y llegó a América – https://theconversation.com/cuando-colon-confundio-lo-que-era-una-milla-y-llego-a-america-266086

Grandes incendios… ¿forestales?

Source: The Conversation – (in Spanish) – By Rafael Delgado Artés, Profesor Univeritat Politècnica de València. Prevención y Extinción de Incendios Forestales, Universitat Politècnica de València

Tierras de cultivo y encinas quemadas tras el incendio de Molezuelas de la Carballeda en agosto de 2025, que afectó a las provincias de Zamora y León. LFRabanedo/Shutterstock

Los actuales grandes incendios forestales evolucionan muy rápido, de manera que a menudo la terminología que usamos para definirlos deja incluso de ser válida en poco tiempo. Hemos ido superando etapas a medida que la realidad se impone sobre las etiquetas.

Superamos la primera definición de gran incendio forestal y ahora hablamos de incendios de sexta generación. También los dejamos de medir en hectáreas, y ahora lo hacemos en términos de emergencias. O por poner otro ejemplo, hace tiempo que los expertos advierten que la era de la extinción debe acabar porque ha demostrado su ineficacia y una vez constatada la paradoja de la extinción, que supone que al eliminar los incendios menos graves, se fomenta que en el futuro sean más extremos.

Los grandes incendios ya no son solo “forestales”

También este verano de 2025 –desgraciadamente– hemos podido ver novedades en el comportamiento del fuego y extraer enseñanzas. Una de las más notorias es que todo parece indicar que pronto deberemos dejar de calificar estos incendios como forestales y tendremos que buscar un adjetivo más adecuado para la actual problemática, una vez quede claro que ya no estamos enfrentándonos exclusivamente a fuegos que afectan a terrenos forestales.

Lo anterior quedó demostrado, por ejemplo, en el incendio del pasado mes de agosto en Molezuelas de la Carballeda (Zamora), con más de 13 000 ha agrícolas –o agrícolas abandonadas– quemadas. No era, por tanto, un área forestal. Aunque este fenómeno, que parece que ahora será habitual, ya se había observado en el incendio ocurrido en la comarca del Alto Palancia (Castellón) en 2009.

Otro argumento todavía de mayor peso que apoyaría este cambio de denominación es que el terreno forestal, en otras palabras, el bosque, ya no es el sujeto principal a proteger contra el fuego. La realidad de los sucesos se impone y hemos aprendido que el auténtico sujeto de protección –como en cualquier otro riesgo natural– ha de ser la comunidad humana, con sus vidas (incluyendo las del operativo de extinción), bienes e infraestructuras.

Niveles de la defensa contra el fuego

En cualquier caso, hay que aceptar que los incendios son riesgos que están en plena evolución. Y si aceptamos esto y definimos con la mayor nitidez posible el sujeto y el objeto del riesgo, la construcción de la defensa será mucho más sencilla y eficiente.

Así, cualquier riesgo tiene tres componentes. El primero, la peligrosidad. Es decir, la potencia destructora del evento de acuerdo con el período de retorno esperable. En segundo lugar está la exposición (el número de personas expuestas) y finalmente la vulnerabilidad, que es la susceptibilidad de los afectados frente a la emergencia.

Sabiendo esto, la defensa contra el riesgo de incendio se puede (y se debe) enfocar desde distintos niveles de manera coordinada: la mitigación es una estrategia a largo plazo que incide sobre la reducción del peligro actual. Para los incendios, habría que reducir la carga de combustible disponible, mejorar la salud de los bosques, mitigar el cambio climático… Hablamos, en definitiva, de grandes acciones.




Leer más:
Podemos gestionar los incendios para que convivan con el paisaje mediterráneo


En un nivel inferior, la adaptación es una táctica que persigue reducir el riesgo con la disminución de la exposición del sujeto a proteger. En nuestro caso, consistiría en el alejamiento, en la medida de lo posible, de cualquier comunidad de un posible fuego. Esta es una medida efectiva y, aunque muy difícil de cumplir a rajatabla, hay que tenerla en cuenta en los futuros planes de ordenación del territorio, especialmente en zonas periurbanas.

Finalmente, la protección (y la autoprotección) actúa sobre la vulnerabilidad de la comunidad. No es sencillo ser exhaustivo y sintético a la vez, pero supone un amplio abanico de acciones posibles: alejar suficientemente la vegetación de las edificaciones (de manera que las llamas, y principalmente el humo, en caso de incendio, no suponga una amenaza), prever vías seguras de entrada y salida al núcleo urbanizado en caso de emergencia, tener equipos e infraestructuras, convertir las viviendas y las parcelas urbanizadas en espacios seguros o defendibles… Y sobre todo, formar a la comunidad expuesta a este riesgo en lo que tiene que hacer y cómo, y muy especialmente en lo que no tiene que hacer.




Leer más:
Incendios en España: ¿por qué ahora? ¿Por qué allí?


Otras medidas necesarias consisten en la preparación de la respuesta operativa una vez la emergencia se produce, para que esta respuesta pueda ser lo más segura, eficiente y eficaz. El mantenimiento de las infraestructuras y la asunción de protocolos por todas las partes implicadas son dos de estas medidas, pero no las únicas.

No existe el riesgo cero

No obstante, también habrá que aceptar que simplemente no hay ni habrá soluciones únicas ni mágicas que nos permitan eliminar el riesgo de incendios, porque en emergencias el riesgo cero no existe. Sí tenemos la posibilidad de desarrollar planes realistas con estrategias y tácticas que nos permiten minimizarlo, y es en lo que debemos trabajar. Especialmente debemos priorizar las acciones a medio y largo plazo para mejorar la resiliencia de nuestra estructura socioterritorial frente a la rápida y constante evolución del riesgo que plantea el fuego en nuestro tiempo.

The Conversation

Rafael Delgado Artés es miembro de Plataforma Forestal Valenciana y Profesor de la Universitat Politècnica de València

ref. Grandes incendios… ¿forestales? – https://theconversation.com/grandes-incendios-forestales-266818

El auge del anime: de fenómeno ‘otaku’ a cultura global

Source: The Conversation – (in Spanish) – By Antonio Horno López, Profesor Titular de Universidad, Universidad de Jaén

Fotograma de _Guardianes de la noche: La fortaleza infinita_. IMDB

En apenas unos años, el anime ha pasado de ser un producto de nicho, asociado casi en exclusiva a los aficionados más apasionados –los llamados otaku–, a convertirse en un fenómeno cultural de alcance global. El reciente estreno de la película Guardianes de la noche: la fortaleza infinita, que ha superado los 640 millones de dólares de recaudación global, así lo demuestra.

Para comprender esta transformación, diversos autores han propuesto una clasificación en distintas generaciones que permite analizar con mayor claridad su evolución a lo largo del tiempo.

La denominada “Pregeneración” del anime (1910-1950) engloba los primeros experimentos animados realizados en Japón. Con la “Primera Generación” (1950-1970) surgen las series televisivas y se define un estilo gráfico propio, aunque orientado al público infantil. La “Segunda Generación” (1970-1983) amplía horizontes al introducir tramas más adultas, consolidando al anime como medio narrativo versátil. La “Tercera Generación” (1983-1995), conocida como la “Edad de Oro”, diversifica géneros y formatos, incorpora los vídeos domésticos (OVA) y conquista por primera vez al público occidental. En esta etapa se estrenan internacionalmente series de anime reconocidas como Sailor Moon, Campeones: Oliver y Benji, Los caballeros del zodiaco y, por supuesto, Dragon Ball.




Leer más:
El legado de Akira Toriyama en España: la generación ‘Dragon Ball’


Y, finalmente, la “Cuarta Generación” (1995-actualidad) se caracteriza por la digitalización y la globalización, que consolidan al anime como una industria de alcance mundial.

La evolución tecnológica

Sin embargo, lo que vemos hoy en pantalla va más allá de aquel inicio digital de los años noventa, cuando el anime circulaba sobre todo en páginas no oficiales de internet o en algunos canales privados.

La irrupción de las plataformas de streaming ha transformado radicalmente su distribución y producción. Netflix, entre otras, no solo ha multiplicado su audiencia, sino que ha impulsado nuevas creaciones con total libertad estilística. Títulos como Devilman Crybaby (2018) y Aggretsuko (2020) evidencian esa diversidad, combinando elementos visuales y temáticos que desafían las categorías tradicionales.

También podemos mencionar Made in Abyss (2017), donde la estética infantil contrasta con su crudeza narrativa, logrando una propuesta madura y emocionalmente intensa.

Imagen de una serie de anime.
Ilustración de la serie Made in Abyss.
Netflix

Entre los títulos que marcaron un punto de inflexión destaca Shingeki no Kyojin (Ataque a los titanes, 2013), cuya narrativa épica y violencia estilizada atrajeron a un público nuevo, incluso ajeno al anime. Esta serie podría considerarse la cabeza visible de una nueva era: una animación japonesa más ambiciosa, global y emocionalmente compleja.

En la misma línea de evolución técnica y visual se encuentra DoroHeDoro (2020), adaptación del manga de la dibujante Q Hayashida. Su producción fue posible gracias al avance de las imágenes generadas por ordenador (CGI), que permitió trasladar con fidelidad los intrincados escenarios y personajes del manga. El estudio MAPPA combinó modelado tridimensional con texturas bidimensionales, consiguiendo un estilo híbrido que preserva la esencia del dibujo original. Este logro marcó un precedente en este tipo de obras que inicialmente fueron consideradas “inadaptables”.

Llegan los primeros cazadores de demonios

Como decíamos al inicio, otro fenómeno reciente es Guardianes de la noche: Kimetsu no Yaiba, cuyo éxito explotó tras la adaptación animada del manga homónimo iniciada en 2019 por el estudio Ufotable. La historia de los hermanos Tanjirō y Nezuko contra los demonios combina acción y emoción, logrando resonar con audiencias de todas las edades. El episodio 19, con la espectacular “Danza del Dios del Fuego”, es ya un referente por su técnica de animación a mano y el uso magistral de la técnica de la rotoscopia.

Su secuela cinematográfica, Tren infinito (2020), arrasó en taquilla, pero ha sido La fortaleza infinita (2025) la que, hasta el momento, ha pulverizado todos los récords, convirtiéndose en la película de anime más taquillera de la historia.

Producida por Sony, Ufotable y Aniplex, esta nueva entrega combina animación 2D y 3D con una precisión visual sobresaliente. Este hecho le ha valido el premio a la “Mejor Animación Internacional 2025” en los Critics Choice Awards. Así mismo, el uso del color como elemento distintivo de cada personaje enriquece la puesta en escena y facilita la comprensión dentro de la abundancia visual. El resultado es un espectáculo vibrante que convierte cada secuencia en un despliegue tan vertiginoso y cautivador que resulta imposible apartar la vista.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


K-Pop y demonios, una combinación de oro

Dentro de este panorama globalizado destaca también Las guerreras del K-Pop (2025), una coproducción de Sony Pictures Animation y Netflix, dirigida por Maggie Kang y Chris Appelhans. La cinta fusiona el fenómeno musical coreano con la acción sobrenatural, narrando la historia de un grupo de cantantes que también son cazadoras de demonios. Bajo su estética colorida y musical, la película aborda temas universales como la amistad, la identidad y la aceptación personal.

Aunque no es un anime japonés en sentido estricto, su lenguaje visual –colores intensos, expresividad chibi y dinamismo en las escenas de combate– bebe claramente de esta estética. Su éxito fue inmediato: se convirtió en la película animada más vista de Netflix, con varias canciones en el la lista Billboard Hot 100, incluida “Golden”, que alcanzó el número uno. Su impacto confirma la expansión del “espíritu anime” más allá de las producciones japonesas, en una animación global e híbrida. Es lo que algunos autores ya denominan “animesque”.

Videoclip de ‘Golden’, el gran éxito musical de Las guerreras del K-Pop.

Este tipo de obras demuestra que el anime ha dejado de ser un producto cultural limitado a su país de origen o a un público específico. Hoy forma parte del lenguaje del entretenimiento contemporáneo, donde la animación oriental y occidental se influyen mutuamente. Producciones japonesas que rompen con los cánones tradicionales conviven con creaciones occidentales que adoptan su estética hasta volverse casi indistinguibles.

La ‘Quinta Generación’ del anime

Todo ello apunta a que nos encontramos ante una “Quinta Generación” del anime: una etapa definida no solo por los avances técnicos y el aprovechamiento de la animación híbrida, sino también por una voluntad de desdibujar fronteras y explorar nuevas formas de contar historias.

En definitiva, el anime ha dejado de ser una expresión reservada a un público concreto para convertirse en una de las voces más poderosas e influyentes de la cultura del entretenimiento. Un territorio fértil donde, paradójicamente, lo mainstream y lo otaku se encuentran para dar forma a un lenguaje común que trasciende fronteras y generaciones.

The Conversation

Antonio Horno López no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El auge del anime: de fenómeno ‘otaku’ a cultura global – https://theconversation.com/el-auge-del-anime-de-fenomeno-otaku-a-cultura-global-266540

Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento

Source: The Conversation – (in Spanish) – By Carmen María León Márquez, Profesora e Investigadora en Criminología, Universidad de Castilla-La Mancha

Los ultraprocesados ocupan buena parte de los anaqueles en los supermercados. Leona Octavii/Shutterstock

El intento de explicar las causas de la violencia suele centrarse en factores sociales, económicos o psicológicos: la desigualdad, la exclusión, los traumas infantiles o el consumo de sustancias… Pero ¿y si algo tan cotidiano como la alimentación también influyera en cómo regulamos nuestro comportamiento?

La creciente presencia de alimentos ultraprocesados en nuestra dieta, caracterizados por su pobre valor nutricional y su alto contenido en azúcares añadidos, grasas transgénicas y aditivos, está transformando nuestros hábitos alimentarios. Y aunque su impacto en enfermedades metabólicas como la obesidad o la diabetes está bien documentado, investigaciones recientes sugieren que también podrían influir en funciones cerebrales relacionadas con el control emocional y la impulsividad, dos dimensiones vinculadas al comportamiento violento.




Leer más:
¿Qué es el comer emocional y por qué ahora es más peligroso?


Cerebro y alimentación: una relación compleja

Numerosos estudios han demostrado que la nutrición tiene un efecto directo sobre el funcionamiento del sistema nervioso central. Dietas ricas en ultraprocesados y pobres en nutrientes esenciales se asocian con alteraciones en la microbiota intestinal, inflamación crónica y disfunciones en regiones clave, como la corteza prefrontal, implicada en el control de impulsos y la toma de decisiones.

Por ejemplo, un estudio publicado en The American Journal of Psychiatry encontró que hábitos de vida poco saludables –como una dieta deficiente en nutrientes esenciales y la falta de actividad física– se asocian con un aumento de marcadores inflamatorios, los cuales pueden afectar negativamente a la salud mental.

Desde una perspectiva psicológica, diversos trabajos han vinculado el consumo habitual de ultraprocesados con síntomas como impulsividad, hostilidad y malestar emocional.

Así, un estudio longitudinal realizado con adultos con sobrepeso y síndrome metabólico en 2019 reveló que niveles más altos de impulsividad se relacionaban con una menor adherencia a patrones dietéticos saludables y una mayor preferencia por dietas occidentales, caracterizadas por alimentos ultraprocesados ricos en grasas transgénicas y azúcares.

Aunque estos factores no implican violencia de manera directa, sí aumentan su probabilidad, especialmente en contextos de vulnerabilidad.

Como ejemplo de esto, un estudio con adolescentes españoles encontró que un mayor consumo de alimentos ultraprocesados se asociaba con un incremento en dificultades emocionales y conductuales, como ansiedad, problemas de atención y comportamientos disruptivos. Aunque los resultados son correlacionales (es decir, no permiten establecer una relación causa-efecto), sugieren que ciertos hábitos alimentarios pueden afectar la estabilidad emocional y la capacidad de autorregulación, elementos clave en el surgimiento de conductas conflictivas.




Leer más:
Alexitimia: cómo nos afecta la incapacidad para identificar emociones


Intervenciones nutricionales en entornos carcelarios

Pero ¿puede la alimentación promover directamente comportamientos violentos? Algunos estudios pioneros han explorado esta relación en contextos controlados, como las prisiones.

En uno de los primeros ensayos clínicos realizados en Reino Unido, los investigadores administraron suplementos nutricionales (vitaminas, minerales y ácidos grasos esenciales) a un grupo de jóvenes adultos en prisión. Los resultados fueron sorprendentes: quienes recibieron esos suplementos cometieron un 26,3 % menos de infracciones disciplinarias en comparación con el grupo placebo. Además, en los participantes que tomaron los suplementos durante al menos dos semanas, la reducción promedio alcanzó un 35,1 %.

Este estudio fue replicado años más tarde en los Países Bajos con una muestra más amplia, obteniendo resultados similares: la administración de suplementos redujo significativamente las infracciones disciplinarias en prisión. La hipótesis que sustenta estos hallazgos es que un mejor aporte nutricional favorece una función cerebral más óptima, mejorando la autorregulación y disminuyendo la reactividad emocional.

Es importante subrayar que estas investigaciones no implican que una alimentación de baja calidad nutricional cause directamente la violencia, sino que puede actuar como un factor modulador del comportamiento, especialmente en individuos con condiciones preexistentes de impulsividad, estrés crónico o deterioro emocional.




Leer más:
¿Qué son las adicciones comportamentales y por qué se ceban con la adolescencia?


Ultraprocesados y patrones de consumo adictivo

Parte del problema es que los alimentos ultraprocesados no solo tienen un pobre valor nutricional, sino que también pueden generar patrones de consumo adictivo. Su diseño industrial, hiperpalatable (que resulta sumamente grato al paladar), con combinaciones específicas de aditivos artificiales, grasas transgénicas y azúcares añadidos, activa los circuitos de recompensa del cerebro del mismo modo que lo hacen ciertas sustancias psicoactivas, como la cocaína.

Esto puede dar lugar a una relación compleja que derive en compulsividad y falta de control sobre el consumo de estos productos.

Una vía para la prevención

Si lo que comemos influye en nuestra regulación emocional, entonces la nutrición podría ser una herramienta complementaria para prevenir el comportamiento violento. Esta idea ya se está aplicando en algunos contextos, desde programas piloto en prisiones hasta intervenciones en escuelas ubicadas en zonas vulnerables, con el objetivo no solo de mejorar la salud física, sino también el bienestar socioemocional.

No se trata de caer en reduccionismos: la violencia es un fenómeno complejo, y ningún enfoque por sí solo puede explicarla o erradicarla. Sin embargo, ignorar el papel de la alimentación supondría omitir un factor clave en el análisis criminológico.

Entonces, ¿somos lo que comemos?

Tal vez no del todo, pero sí más de lo que creemos. Nuestra alimentación influye directamente en la manera en que pensamos, sentimos y actuamos. En un mundo donde los ultraprocesados predominan en la dieta de millones de personas, quizás debamos empezar a preguntarnos si una parte de la violencia que nos rodea podría estar gestándose, en silencio, en nuestros platos.

The Conversation

Carmen María León Márquez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento – https://theconversation.com/asi-podria-influir-el-consumo-de-alimentos-ultraprocesados-en-el-comportamiento-violento-266115