¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela?

Source: The Conversation – (in Spanish) – By Esther Nieto Moreno de Diezmas, Catedrática y Directora del Departamento de Filología Moderna, Universidad de Castilla-La Mancha

Pese a que la mayoría no entendemos cómo lo consigue, lo cierto es que la capacidad de la inteligencia artificial para resumir un texto más o menos largo (novela, ensayo, informe o paper académico) resulta asombrosa. Cuando el tiempo apremia, las exigencias son muchas y variadas y, como es tan fácil recurrir a ello, ¿cómo no pedir un poco de ayuda a una tecnología tan rápida, fácil y gratuita?

Un resumen de un texto hecho por la inteligencia artificial puede ser muy útil para obtener una orientación rápida sobre su contenido. Pero conviene pararse a analizar en qué estamos ahorrando exactamente y cuáles son las contrapartidas. No es lo mismo que, en un contexto profesional o de investigación, se aprovechen estos resúmenes para elegir bibliografía relevante o seleccionar materiales docentes, que utilizar ChatGPT para evitar una lectura obligada en la escuela.

Cuándo sí es útil la IA

Hay contextos escolares en los que puede tener mucho sentido apoyarnos en la IA. Por ejemplo, si nos piden que escojamos un libro para leerlo, podemos obtener resúmenes o recomendaciones que nos den criterios para la elección. O nos puede servir para obtener informaciones puntuales para un trabajo, como guía para luego profundizar.

Pero si la tarea consiste, precisamente, en leer un libro y resumirlo con el fin de trabajar la competencia lectora (algo imprescindible en primaria, pero también necesario practicar y seguir desarrollando en secundaria y la universidad), acudir a la IA nos ahorrará tiempo, pero nos hará perder algo que es incluso más preciado: el desarrollo del pensamiento crítico y de capacidades cognitivas y socioemocionales fundamentales para el aprendizaje.

Problemas de fiabilidad

Para empezar, los resúmenes de la IA no son siempre totalmente fiables. Existen las llamadas “alucinaciones”, es decir, información inventada, pero verosímil, que no aparece en ningún momento en el texto original. La IA puede generar inexactitudes como confusión de personajes, fechas, datos, etc.

A un nivel más profundo, puede incluir sesgos, al darle más peso a interpretaciones más probables estadísticamente o que se hayan expuesto en primer lugar en el texto. Además, la IA tiende a simplificar la riqueza interpretativa, quedándose en lo literal y ofreciendo una visión incompleta o distorsionada.

Una tarea que permite crecer al cerebro

Pero aún más importante es el papel que tiene la lectura profunda de libros completos y la elaboración de resúmenes como parte del proceso de aprendizaje, especialmente cuando se trata de estudiantes que todavía están adquiriendo sus habilidades lectoras.

En estos casos, si confiamos en la IA para elaborar resúmenes y dejamos de leer los libros completos, podemos estar limitando nuestro desarrollo cognitivo y afectivo y nuestra capacidad de aprender.

Leer un libro en su totalidad implica mucho más que extraer información: es una actividad compleja que activa la atención, la memoria, el razonamiento y la imaginación. El proceso de lectura profunda nos permite percibir matices, estructuras y capas de significado que se pierden inevitablemente en un resumen.

Al privilegiar los atajos y la lectura superficial, debilitamos las conexiones cognitivas que sostienen la concentración prolongada y la comprensión de alto nivel.

El papel del pensamiento crítico

Más allá de la comprensión, la lectura íntegra fomenta el pensamiento crítico, ya que enfrentarse a los argumentos en toda su complejidad invita a evaluar, cuestionar y elaborar juicios propios, en lugar de absorber pasivamente contenidos ya digeridos.

El contacto directo con un texto estimula la creatividad y la interpretación personal. Cada lector construye significado a partir de un diálogo activo con la obra, un proceso que es central en la experiencia literaria.

Cuando leemos el libro completo y lo resumimos sin ayuda tecnológica, estaremos fortaleciendo habilidades metacognitivas, que son las que nos ayudan a decidir qué incluir, qué omitir y cómo articular las ideas de forma coherente. Estas capacidades favorecen la retención y el aprendizaje profundo. Resumir no es solo acortar un texto, es aprender a pensar, y esta capacidad no se puede delegar en la IA.




Leer más:
Daniel Innerarity, filósofo: “La IA es un desafío y no una anulación de la creatividad humana”


La dimensión afectiva de leer

Además, la dimensión estética y emocional de la lectura y el placer que reporta el ritmo de la prosa, la tensión narrativa o la identificación con los personajes no puede ser replicada en un resumen. Este componente afectivo constituye un elemento clave para despertar y mantener la motivación intrínseca por leer.

Diversos estudios apuntan a que la lectura nos hace más felices y contribuye al desarrollo de la empatía y el bienestar emocional, tanto en la adolescencia como a lo largo de la vida. Leer por placer desde edades tempranas se asocia con un mejor desempeño cognitivo, mejor salud mental, disminución del estrés, menos problemas de conducta y mayor atención.

La lectura, la comprensión, la capacidad de síntesis y el pensamiento crítico se desarrollan de forma gradual a lo largo de la escolaridad. El uso de herramientas como la IA desde edades tempranas puede interferir en ese proceso. Además de impedir o ralentizar la consolidación de competencias esenciales, recurrir a ella como solución rápida contribuye a la tecnodependencia y a la consecuente pérdida de autonomía.




Leer más:
Cómo desarrollar una mirada crítica hacia la tecnología desde las aulas


Un uso moderado y responsable

La inteligencia artificial puede ser una herramienta valiosa para apoyar la comprensión, orientar la lectura o facilitar el acceso a ciertos contenidos. Pero no conviene usarla como sustituto del acto de leer y menos aún en edad escolar. Este es un periodo crucial para la adquisición de competencias lectoras, críticas y analíticas y para promover el hábito lector.

La lectura es una experiencia profunda, personal y formativa que no se reduce a datos ni a resúmenes; implica reflexión, interpretación y conexión emocional. Usar la IA con criterio puede enriquecer el proceso, pero nunca reemplazar el valor insustituible de enfrentarse directamente con el texto.


La versión original de este artículo ha sido publicada en la Revista Telos, de Fundación Telefónica.

The Conversation

Esther Nieto Moreno de Diezmas recibe fondos de la Universidad de Castilla-La Mancha.

ref. ¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela? – https://theconversation.com/por-que-no-deberiamos-pedir-a-la-ia-que-nos-resuma-un-libro-para-la-escuela-265302

Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte

Source: The Conversation – (in Spanish) – By Josep M. Trigo Rodríguez, Investigador Principal del Grupo de Meteoritos, Cuerpos Menores y Ciencias Planetarias, Instituto de Ciencias del Espacio (ICE – CSIC)

El cometa interestelar 3I/ATLAS capturado por el espectrógrafo multiobjeto Gemini (GMOS) en Gemini Sur, Cerro Pachón, Chile, el 27 de agosto de 2025. International Gemini Observatory/NOIRLab/NSF/AURA/Shadow the Scientist Image Processing: J. Miller & M. Rodriguez (International Gemini Observatory/NSF NOIRLab), T.A. Rector (University of Alaska Anchorage/NSF NOIRLab), M. Zamani (NSF NOIRLab)

Entre los esfuerzos realizados a nivel internacional por estudiar la naturaleza y la composición del cometa interestelar 3I/ATLAS, la Agencia Europea del Espacio (ESA) desveló ayer los primeros resultados obtenidos por varios ingenios espaciales que orbitan Marte.

Las imágenes de ExoMars desmontan rumores infundados

Eran muy esperadas estas imágenes. Sobre todo, por las especulaciones sobre la presunta naturaleza artificial del objeto, a pesar de que todas las observaciones obtenidas desde su descubrimiento indican que se trata de un cometa.

ExoMars capturó con su Sistema de Imagen de Superficie en Color y Estéreo (CaSSIS) una serie de imágenes que permitieron construir esta secuencia donde la apariencia difusa y cometaria del 3I/ATLAS es perfectamente visible, entre las estrellas de fondo.
Sistema de imagen de superficie en color y estéreo (CaSSIS), ExoMars

De hecho, en una escalada potenciada por los amantes de las pseudociencias y ciertos medios de comunicación, una imagen tomada por el rover Perseverance desde la superficie de Marte alentó teorías surrealistas por su forma oblonga.

Los profesionales que nos dedicamos a seguir estos cuerpos nos hacíamos cruces, pues dicha forma es consecuencia del movimiento aparente de un objeto luminoso durante una exposición prolongada. De hecho, cualquier persona puede hacer fotos similares de estrellas o planetas si no conecta los motores de su telescopio para contrarrestar el movimiento de rotación terrestre. Debemos tener en cuenta que las cámaras de Perseverance no están diseñadas para corregir el efecto de rotación del planeta rojo ni mucho menos seguir el movimiento propio de los objetos en el cielo.




Leer más:
La violenta explosión de rayos gamma que nadie puede explicar


Desgraciadamente –quizás por la falta de medios y personal a consecuencia de los recortes gubernamentales–, hasta la propia NASA cometió por unas horas el error de no desmentir que esa imagen deformada correspondía al cometa 3I/ATLAS, muchísimo más débil y difuso. Posteriormente, el experto Simeon Schmauß confirmó que se trataba del satélite Fobos.

Imagen del cometa 3I/ATLAS obtenida por el orbitador ExoMars-TGO.
ExoMars-Trace Gas Orbiter (ESA)

Avances en la comprensión sobre la naturaleza del cometa 3I/ATLAS

Además, recientemente se descubrió que la coma del 3I/ATLAS posee una alta tasa de producción de átomos de níquel ionizado. También presenta un cociente de níquel y hierro no vista anteriormente ni en cometas del sistema solar ni en el también interestelar 2I/Borisov, caracterizado por una actividad cometaria restringida. No se puede descartar que la naturaleza de ese cuerpo kilométrico que es 3I/ATLAS fuese rocosa, con significante presencia de granos de hierro y níquel. En nuestro sistema solar, algunos meteoritos primigenios denominados condritas son más ricos en esos granos metálicos que otros.

Las primeras observaciones polarimétricas del 3I/ATLAS, lideradas por el finlandés Zury Gray, también arrojan datos interesantes. Según las conclusiones de este estudio, el objeto posee una polarización negativa sin precedentes claros entre asteroides y cometas, incluido 2I/Borisov. Su comportamiento podría indicar que porta hielo de agua y que se asemeja en cierto modo a objetos helados –en la categoría de los objetos transneptunianos pequeños– y a un centauro (un tipo de cometas que cruzan las órbitas de los planetas gigantes) llamado (5145) Pholus.

La presencia de hielo de agua en la coma del 3I/ATLAS ha sido confirmada por otro trabajo basado en datos obtenidos por el telescopio Gemini Norte desde Hawái.

Veremos lo que deparan las observaciones futuras, pero algunas de esas propiedades anómalas quizás sean indicadoras de la prolongada estancia del cometa en el frío espacio interestelar. Durante ese tiempo podría haber acumulado sobre su superficie motas de polvo y hielos que se haya ido encontrando tras vagar cientos, o quizás miles, de millones de años.

Para comprender mejor la composición química del visitante, los científicos de la ESA también han intentado captar su espectro de luz mediante los espectrómetros OMEGA y SPICAM, ambos de la sonda Mars Express (ESA), y NOMAD, del ExoMars-Trace Gas Orbiter. En este punto, no está claro si la coma y la cola eran lo suficientemente brillantes como para obtener una caracterización espectral.

En noviembre, nuevas observaciones de la sonda Juice

Justo a finales de octubre, 3I/ATLAS alcanzará su mínima distancia al Sol; se espera que entonces la sublimación de la componente de hielos sea máxima. Justo pocos días después, la sonda espacial Jupiter Icy Moons Explorer (Juice) comenzará sus observaciones detalladas del objeto.

Lo cierto es que todos esperamos que el cometa 3I/ATLAS vuelva a colocarse en una geometría adecuada para poder ser seguido con nuestros telescopios. La segunda semana de noviembre, su distancia angular al Sol será ya suficiente para “recuperarlo”, probablemente como un objeto difuso de magnitud estelar +12, es decir, un billón de veces más débil que las estrellas más luminosas y sólo al alcance de telescopios de tamaño mediano. Hará falta buscar un cielo oscuro y emplear cartas celestes detalladas indicando su posición exacta, como las que facilita Sky Live.

El 19 de diciembre se encontrará a 268 millones de kilómetros de la Tierra, su mayor proximidad a nuestro planeta. Tras ese fugaz y lejano encuentro podremos seguir observando cómo pierde brillo y regresa finalmente al frío espacio interestelar. Un estudio reciente apunta a que 3I/ATLAS podría llevar vagando por la Vía Láctea cientos de millones de años, ya que no ha sufrido encuentros significativos con estrellas de la galaxia en los últimos diez millones de años.

La misión Comet Interceptor, a la espera del próximo visitante interestelar

Mientras ocurre todo esto, la ESA está desarrollando una nueva misión espacial dedicada al futuro encuentro de este tipo de cuerpos espaciales, llamada Comet Interceptor. Está previsto que la nueva sonda despegue en 2029 para mantenerse en el espacio hasta que surja la oportunidad de ser lanzada con destino a otro cometa interestelar.

El interés por aprender de 3I/ATLAS es enorme. De hecho, a finales de octubre presentaré el seguimiento realizado del objeto en una reunión de la misión Comet Interceptor en el Centro Europeo de Investigación y Tecnología Espacial (ESTEC), la sede de la ESA en Holanda.

Gracias a los actuales programas de seguimiento podríamos llegar a descubrir un cometa interestelar cada pocos años y se espera que, teniendo una sonda preparada en el espacio, alguno alcanzase el sistema solar con una geometría y velocidad adecuada para ser visitado por Comet Interceptor. Una aventura que podría estar a la altura de lo que cuenta la novela Cita con Rama, de Arthur C. Clarke.

The Conversation

Josep M. Trigo Rodríguez recibe fondos del proyecto del Plan Nacional de Astronomía y Astrofísica PID2021-128062NB-I00 financiado por el MICINN y la Agencia Estatal de Investigación.

ref. Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte – https://theconversation.com/las-ultimas-noticias-sobre-el-cometa-extrasolar-3i-atlas-llegan-desde-marte-266798

Las arquitecturas invisibles atrapan el Nobel de Química 2025

Source: The Conversation – (in Spanish) – By Antonio M. Rodríguez García, Profesor Titular de Universidad, Química Orgánica, Universidad de Castilla-La Mancha

Susumu Kitagawa, Richard Robson y Omar Yaghi, ganadores del Nobel de Química 2025. Niklas Elmehed © Nobel Prize Outreach, CC BY-NC

Construir materiales cristalinos con espacios gigantescos a escala atómica capaces de capturar, almacenar y transformar moléculas no solo parece el guion de una película futurista. También es un sueño científico hecho realidad por los galardonados por el Premio Nobel de Química este año.

Susumu Kitagawa, Richard Robson y Omar M. Yaghi han desarrollado los entramados metal-orgánicos (MOF, por sus siglas en inglés), una clase de materiales que ha revolucionado la química de materiales y que abre nuevas vías para abordar desafíos globales como el cambio climático, la escasez de agua o la transición hacia energías limpias.

El poder de las “jaulas” moleculares

Los MOF son redes tridimensionales formadas por nodos metálicos conectados mediante moléculas orgánicas. Esta combinación crea una estructura cristalina altamente porosa: hasta el 90 % de su volumen puede ser vacío y un solo gramo puede desplegar una superficie interna de hasta 6 000 m². Dicho de otro modo, una cucharadita de polvo de MOF puede tener una superficie equivalente a la de un campo de fútbol.

Su verdadera revolución es que son diseñables a la carta. Al cambiar el tipo de metal y las moléculas orgánicas, los investigadores pueden ajustar con precisión el tamaño de los poros, la forma de los canales y la química de sus paredes internas para hacer que interactúen con moléculas concretas. Esta modularidad es posible gracias a la llamada química reticular, una disciplina que construye materiales siguiendo patrones topológicos predecibles, casi como diseñar edificios con piezas de Lego moleculares.

Por qué son tan importantes

Son muchas sus aplicaciones, con impacto en ámbitos muy importantes de la vida diaria. Por ejemplo, sirven para:

  • Captura y almacenamiento de gases contaminantes. Algunos MOF atrapan dióxido de carbono, incluso a bajas concentraciones, algo esencial para reducir las emisiones industriales y, en el futuro, capturar CO₂ directamente del aire.

  • Transición energética limpia. Su capacidad para almacenar hidrógeno y metano de manera densa y segura los convierte en aliados clave para desarrollar combustibles limpios y avanzar hacia una economía descarbonizada.

  • Obtención de agua en lugares áridos. Existen MOF que absorben vapor de agua, incluso cuando la humedad es mínima, lo que permite diseñar dispositivos portátiles que “fabrican” agua potable a partir del aire del desierto.

  • Catálisis de precisión y química sostenible. Al actuar como microfábricas moleculares, los MOF pueden catalizar reacciones dentro de espacios confinados. Con ello, imitan la precisión de las enzimas y reducen el consumo energético y la generación de residuos.

  • Medicina avanzada y sensores. Su enorme superficie y la facilidad para modificarlos con moléculas activas los hace útiles en imagen biomédica, liberación controlada de fármacos o sensores químicos de alta sensibilidad.

De curiosidad académica a tecnología transformadora

Hace apenas dos décadas, los MOF eran un experimento de laboratorio con nombres complejos y aplicaciones hipotéticas. Hoy son una plataforma tecnológica en rápido desarrollo, estudiada tanto por grupos académicos como por grandes empresas químicas y energéticas.

Sus posibilidades se han multiplicado gracias a técnicas de síntesis más eficientes –que incluyen métodos ecológicos como la mecanoquímica o la sonoquímica, en las que las reacciones químicas se activan con métodos mecánicos o mediante ondas sonoras, respectivamente– y a herramientas de simulación computacional que permiten predecir estructuras antes de fabricarlas.

Un Nobel que mira al futuro

El galardón de 2025 no premia solo un descubrimiento elegante, sino que pone el foco en una nueva forma de pensar la química de materiales: pasar del ensayo y error a la ingeniería molecular racional.

En un mundo que necesita urgentemente tecnologías para capturar CO₂, gestionar el agua, almacenar energía limpia y reducir residuos industriales, los MOF son una pieza clave del futuro sostenible.

Además, este Nobel lanza un mensaje inspirador: la química, a menudo vista como sinónimo de contaminación, también puede ser una herramienta poderosa para proteger el planeta. Los entramados metal-orgánicos son la prueba de que imaginar y construir estructuras invisibles, átomo a átomo, puede tener un impacto muy real en nuestra vida cotidiana y en la salud del medio ambiente.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Las arquitecturas invisibles atrapan el Nobel de Química 2025 – https://theconversation.com/las-arquitecturas-invisibles-atrapan-el-nobel-de-quimica-2025-266917

La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation

Source: The Conversation – (in Spanish) – By Pablo Colado, Redactor jefe / Editor de Salud y Medicina, The Conversation

sfam_photo/Shutterstock

“Cambia lo superficial, cambia también lo profundo, cambia el modo de pensar, cambia todo en este mundo”.

Con este fragmento de la canción de Mercedes Sosa “Todo cambia” arrancaba el artículo ganador del Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation, un penetrante análisis sobre la validez de los testamentos vitales en los individuos aquejados por una demencia. “¿Existen cambios tan radicales que hagan que una persona deje de ser ella misma?”, se pregunta y hace preguntarnos su autor, Luis Espericueta, de la Universidad de Granada.

Entre las 132 candidaturas que se han presentado al certamen, dirigido a investigadores, doctorandos y docentes universitarios menores de 35 años, las propuestas han sido muy diversas en fondo y forma, como ilustra el tono más desenfadado del segundo premio: Partirse de risa: el origen científico del ja, ja, ja. Marta Calderón García, de la Universidad Miguel Hernández, nos invita a embarcarnos en un amenísimo viaje por los pormenores psicológicos, neurobiológicos y culturales de la risa humana.

Lo que no cambia es la voluntad de claridad y la pasión por la ciencia que también transmiten los ocho artículos finalistas, publicados durante estos últimos tres meses en The Conversation. Sus autores, por ejemplo, son capaces de situarnos en un ring (la placenta) donde libran un trascendental combate los genes paternos y maternos durante el desarrollo de feto; o de imaginar a las células mandándose mensajes de WhastApp (las vesículas extracelulares), como si una película de Pixar se tratara.

Queda, por tanto, demostrado que las metáforas constituyen una poderosa herramienta para hacer divulgación. Encontramos otro exponente de su buen uso en el artículo Neurohambruna: cómo la escasez de comida reprograma a los hijos de la guerra, donde se compara el cuerpo de las embarazadas con un canal de noticias: “todo lo que ocurre afuera –lo que la madre come, cómo se siente, etc.– se traduce en mensajes químicos que informan al bebé sobre el entorno donde crecerá”, escribe la autora. Y sin salir de la biomedicina de vanguardia, también hemos aprendido que las células madre cancerígenas son “como brasas escondidas, invisibles pero activas, esperando el momento justo para arder otra vez”.

Además, gracias a esta variopinta antología podrá ponerse al día de las últimas novedades en materia farmacológica –los medicamentos biosimilares y el papel de los excipientes en los fármacos– o averiguar si puede considerarse como “normal” algún consumo de alcohol.

Y, por supuesto, no podía faltar el gran tema de nuestro tiempo: el artículo ¿Se fiaría del criterio de ChatGPT para su diagnóstico médico? Por si acaso, busque una segunda opinión pondera con sentido común los pros y contras del uso de la inteligencia artificial en el ámbito de la salud. Porque como cantaba Mercedes Sosa, “cambia el modo de pensar, cambia todo en este mundo”, y necesitamos más que nunca voces autorizadas que nos iluminen en estos tiempos de furia y ruido.

P. D. En memoria de Luis Felipe Torrente, que nos dejó hace poco más de un año y que desde esta quinta edición honra con su nombre al Premio. Su magisterio sigue siendo una brújula para todos quienes hacemos The Conversation.

Feliz lectura.

The Conversation

ref. La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation – https://theconversation.com/la-seleccion-premio-luis-felipe-torrente-de-divulgacion-sobre-medicina-y-salud-fundacion-lilly-the-conversation-266554

Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas

Source: The Conversation – (in Spanish) – By Rob Morris, Professor of Physics, School of Science and Technology, Nottingham Trent University

El Premio Nobel de Física 2025 ha sido otorgado a tres científicos por el descubrimiento de un efecto que tiene aplicaciones en dispositivos médicos y computación cuántica.

John Clarke, Michel Devoret y John Martinis llevaron a cabo una serie de experimentos hace unos 40 años que terminaron moldeando nuestra comprensión de las extrañas propiedades del mundo cuántico. Es un premio muy oportuno, ya que en 2025 se cumple el centenario de la formulación de la mecánica cuántica.

En el mundo microscópico, una partícula puede a veces atravesar una barrera y aparecer al otro lado. Este fenómeno se denomina efecto túnel cuántico. Los experimentos de los galardonados demostraron el efecto túnel en el mundo macroscópico, es decir, el mundo visible a simple vista. Y corroboraron que podía observarse en un circuito eléctrico experimental.

El efecto túnel cuántico tiene posibles aplicaciones futuras en la mejora de la memoria de los teléfonos móviles y ha sido importante para el desarrollo de los qubits, que almacenan y procesan información en ordenadores cuánticos. También tiene aplicaciones en dispositivos superconductores, capaces de conducir la electricidad con muy poca resistencia.

John Clarke, nacido en Gran Bretaña, es profesor de Física en la Universidad de California, Berkeley. Michel Devoret nació en París y es profesor F. W. Beinecke de Física Aplicada en la Universidad de Yale. John Martinis es profesor de Física en la Universidad de California, Santa Bárbara.

¿Qué es el efecto túnel cuántico?

El efecto túnel cuántico es un fenómeno contraintuitivo por el cual las diminutas partículas que componen todo lo que podemos ver y tocar pueden aparecer al otro lado de una barrera sólida, que en otras circunstancias se esperaría que las detuviera.

Desde que se propuso por primera vez, en 1927, se ha observado en partículas muy pequeñas y es responsable de nuestra explicación de la desintegración radiactiva de átomos grandes en átomos más pequeños y en algo bautizado como partícula alfa. Sin embargo, también se predijo que podríamos ver este mismo comportamiento en cosas más grandes: es lo que se denomina efecto túnel cuántico macroscópico.

¿Cómo podemos ver el efecto túnel cuántico?

La clave para observar este efecto túnel macroscópico es algo llamado unión Josephson, que consiste en una especie de un cable roto sofisticado. El cable no es un cable típico como el que se utiliza para cargar el teléfono, sino que es un tipo especial de material conocido como superconductor. Un superconductor no tiene resistencia, lo que significa que la corriente puede fluir a través de él indefinidamente sin perder energía. Los superconductores se utilizan, por ejemplo, para crear campos magnéticos muy fuertes en los escáneres de resonancia magnética (RM).

¿Cómo nos ayuda esto a explicar este extraño comportamiento de túnel cuántico? Si colocamos dos cables superconductores uno al lado del otro, separados por un aislante, creamos nuestra unión Josephson. Normalmente se fabrica en un solo dispositivo que, con unos conocimientos básicos de electricidad, no debería conducir la electricidad. Sin embargo, gracias al túnel cuántico, podemos ver que la corriente puede fluir a través de la unión.

Los tres galardonados demostraron el efecto túnel cuántico en un artículo publicado en 1985 (es habitual que transcurra tanto tiempo antes de que se concedan los premios Nobel). Anteriormente se había sugerido que el efecto túnel cuántico estaba causado por una avería en el aislante. Los investigadores comenzaron enfriando su aparato experimental hasta una fracción de grado del cero absoluto, la temperatura más fría que se puede alcanzar.

El calor puede proporcionar a los electrones de los conductores la energía suficiente para atravesar la barrera. Por lo tanto, tendría sentido que cuanto más se enfriara el dispositivo, menos electrones escaparan. Sin embargo, si se produce el efecto túnel cuántico, debería haber una temperatura por debajo de la cual el número de electrones que escapan ya no disminuiría. Los tres galardonados descubrieron precisamente esto.

¿Por qué es importante?

En aquel momento, los tres científicos intentaban demostrar mediante experimentos esta teoría en desarrollo sobre el efecto túnel cuántico macroscópico. Incluso durante el anuncio del premio de 2025, Clarke restó importancia al descubrimiento, a pesar de que ha sido fundamental en muchos avances que se encuentran a la vanguardia de la física cuántica actual.

La computación cuántica sigue siendo una de las oportunidades más interesantes que se vislumbran para un futuro próximo y es objeto de importantes inversiones en todo el mundo. Esto conlleva mucha especulación sobre los riesgos para nuestras tecnologías de cifrado.

También resolverá en última instancia problemas que están fuera del alcance incluso de los superordenadores más grandes de la actualidad. Los pocos ordenadores cuánticos que existen hoy en día se basan en el trabajo de los tres premios Nobel de Física de 2025 y, sin duda, serán objeto de otro premio Nobel de Física en las próximas décadas.

Ya estamos aprovechando estos efectos en otros dispositivos, como los dispositivos superconductores de interferencia cuántica (SQuID), que se utilizan para medir pequeñas variaciones en los campos magnéticos de la Tierra, lo que nos permite encontrar minerales bajo la superficie. Los SQuID también tienen usos en medicina: pueden detectar los campos magnéticos extremadamente débiles que emite el cerebro. Esta técnica, conocida como magnetoencefalografía o MEG, puede utilizarse, por ejemplo, para encontrar el área específica del cerebro desde la que emanan las crisis epilépticas.

No podemos predecir si tendremos ordenadores cuánticos en nuestros hogares, o incluso en nuestras manos, ni cuándo. Sin embargo, una cosa es segura: la velocidad de desarrollo de esta nueva tecnología se debe en gran parte a los ganadores del premio Nobel de Física de 2025, que demostraron el efecto túnel cuántico macroscópico en circuitos eléctricos.

The Conversation

Rob Morris no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas – https://theconversation.com/premio-nobel-de-fisica-a-los-experimentos-pioneros-que-allanaron-el-camino-para-las-computadoras-cuanticas-266986

¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Profesora ayudante doctora. Departamento de Economía Aplicada, Universidad de Valladolid

Un policía local regula el tráfico en Cartagena (Murcia) durante el apagón del pasado 28 de abril. Los semáforos dejaron de funcionar, lo que creó problemas en muchas ciudades españolas. P4K1T0/Wikimedia Commons, CC BY

Entre pandemias, olas de calor, crisis energéticas y ciberataques a infraestructuras y sistemas básicos, actualmente las emergencias son más probables que excepcionales. Sin embargo, ¿estamos preparados para lo inesperado? La evidencia sugiere que no: seguimos confiando en que, si algo pasa, alguien vendrá rápidamente a solucionarlo.

Aunque se haya avanzado en infraestructuras y respuesta institucional, la preparación ciudadana sigue siendo mínima. De hecho, desde la Unión Europea se ha insistido en los últimos meses en la importancia de que cada hogar disponga de un pequeño kit de supervivencia para afrontar posibles emergencias.

El apagón del 28 de abril: una prueba real

El 28 de abril de 2025 a las 12.32 del mediodía, un apagón masivo dejó sin electricidad a buena parte de la península ibérica. En pocos minutos, miles de hogares y negocios quedaron desconectados.

El corte duró solo unas horas pero bastó para paralizar los transportes, dejar sin cobertura a millones de personas y generar una sensación generalizada de desconcierto. Y, aunque a principios de abril un estudio del Centro de Investigaciones Sociológicas (CIS) señalaba que el 69 % de los españoles se consideraba preparado para subsistir 72 horas en caso de catástrofe, lo cierto es que el apagón demostró lo contrario.

La mayoría de los hogares no disponía de linternas, pilas, radio, efectivo ni provisiones básicas –como agua o alimentos que pudieran conservarse y consumirse sin electricidad–. Además, pocos tenían un plan familiar para actuar en caso de emergencia.




Leer más:
Lecciones del colapso del sistema eléctrico ibérico


Miedo, confianza y falta de previsión

Ante una emergencia, las reacciones no son las mismas, pues intervienen factores como la edad, el género, el entorno o incluso el nivel educativo. Se han identificado varios perfiles altamente vulnerables a las situaciones de emergencia: las personas mayores de 65 años, los turistas, las personas con un nivel socioeconómico bajo y los hogares con niños. También la situación de incomunicación contribuye a aumentar la vulnerabilidad.

A partir de los datos recopilados por el CIS en la encuesta flash sobre el apagón eléctrico, he analizado la respuesta de los ciudadanos españoles a dicha emergencia. Los resultados ofrecen una radiografía clara del comportamiento social ante una crisis imprevista.

Casi uno de cada tres encuestados reconoció haber sentido miedo durante el apagón, un porcentaje especialmente alto entre las mujeres (29,7 % frente al 14,4 % de los hombres) y las personas jóvenes. Esta diferencia también se aprecia por grupos de edad; paradójicamente, en porcentaje, los mayores de 54 años se mostraron menos afectados por la caída de la energía.

Dificultades y carencias

Durante el incidente, los ciudadanos señalaron diversas dificultades relacionadas con la falta de suministros y recursos básicos. Entre los principales problemas destacaron la ausencia de una fuente de energía no eléctrica para cocinar (36,3 %), la falta de un aparato de radio (16,7 %) y la imposibilidad de comunicarse (14,1 %).

Este último aspecto estuvo estrechamente vinculado con las emociones experimentadas durante la crisis. El miedo fue mayor entre quienes no lograron acceder a información durante las primeras horas, lo que refleja la importancia de la conectividad digital incluso en contextos de emergencia. Centrándonos en este aspecto, más de la mitad de los encuestados (55,3 %) indicó que una de las principales cosas que echó en falta fue el funcionamiento de los teléfonos y uno de cada cuatro mencionó la falta de conexión a internet o de acceso a las redes sociales (26,5 %).

La preparación material fue igualmente limitada. La mayoría de los hogares carecía de recursos básicos y pocos habían previsto cómo actuar en caso de emergencia. Según los datos del CIS, solo un 33,6 % de los encuestados declaró disponer de algún tipo de kit o material de emergencia. Por otra parte, el acceso a la información también resultó determinante: el 59,6 % consideró insuficiente la información proporcionada por el Gobierno español.

En definitiva, el estudio pone de manifiesto que, aunque la sociedad se perciba preparada, su reacción ante la emergencia muestra falta de previsión.




Leer más:
No solo durante un apagón: el valor de la radio en las crisis


Prepararse también es cultura

En los últimos años, España ha sufrido una pandemia, inundaciones, una tormenta de nieve, incendios forestales y un apagón general que han afectado a amplias zonas del territorio. Todo esto en un contexto internacional marcado por crisis energéticas, tensiones geopolíticas y amenazas cibernéticas. Estos episodios, distintos entre sí en naturaleza pero similares en consecuencias, muestran que las emergencias ya no son hechos aislados sino una realidad recurrente que pone a prueba tanto la capacidad institucional como la preparación ciudadana.

Más allá del impacto inmediato, el apagón del 28 de abril puso de relieve la falta de una cultura de prevención. Si en España la preparación ante emergencias sigue viéndose como algo lejano o innecesario, en otros países europeos –como Alemania, Suiza o los países nórdicos– las campañas de autoprotección y los simulacros forman parte de la vida cotidiana. Por ejemplo, en Alemania se promueven planes familiares de emergencia y campañas para almacenar agua y alimentos; en Suiza la ley garantiza, desde 1963, que cada persona disponga de una plaza en un refugio subterráneo, y en los países nórdicos los gobiernos distribuyen manuales y guías ciudadanas que explican cómo actuar ante apagones o crisis.




Leer más:
Cómo convivir con la incertidumbre: asumamos el miedo, evitemos el pánico


Sin alarmismos

Contar con una linterna, una radio o una reserva mínima de agua, medicinas y alimentos no es alarmismo sino una muestra de responsabilidad. Aprender a prever riesgos, a comunicarse cuando falla la tecnología y a apoyarse en la solidaridad vecinal no implica vivir con miedo, sino actuar con conciencia.

Las catástrofes naturales y emergencias de los últimos tiempos ponen de manifiesto que la seguridad no está garantizada y que requiere anticipación, responsabilidad y una respuesta ciudadana calmada y solidaria.

The Conversation

Raquel González del Pozo recibe fondos del proyecto: PID2021-122506NB-I00 (Ministerio de Ciencia, Innovación y Universidades / Agencia Estatal de Investigación).

ref. ¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril – https://theconversation.com/preparados-para-lo-inesperado-asi-respondieron-los-ciudadanos-espanoles-al-apagon-de-abril-266607

Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento

Source: The Conversation – (in Spanish) – By Carmen María León Márquez, Profesora e Investigadora en Criminología, Universidad de Castilla-La Mancha

Los ultraprocesados ocupan buena parte de los anaqueles en los supermercados. Leona Octavii/Shutterstock

El intento de explicar las causas de la violencia suele centrarse en factores sociales, económicos o psicológicos: la desigualdad, la exclusión, los traumas infantiles o el consumo de sustancias… Pero ¿y si algo tan cotidiano como la alimentación también influyera en cómo regulamos nuestro comportamiento?

La creciente presencia de alimentos ultraprocesados en nuestra dieta, caracterizados por su pobre valor nutricional y su alto contenido en azúcares añadidos, grasas transgénicas y aditivos, está transformando nuestros hábitos alimentarios. Y aunque su impacto en enfermedades metabólicas como la obesidad o la diabetes está bien documentado, investigaciones recientes sugieren que también podrían influir en funciones cerebrales relacionadas con el control emocional y la impulsividad, dos dimensiones vinculadas al comportamiento violento.




Leer más:
¿Qué es el comer emocional y por qué ahora es más peligroso?


Cerebro y alimentación: una relación compleja

Numerosos estudios han demostrado que la nutrición tiene un efecto directo sobre el funcionamiento del sistema nervioso central. Dietas ricas en ultraprocesados y pobres en nutrientes esenciales se asocian con alteraciones en la microbiota intestinal, inflamación crónica y disfunciones en regiones clave, como la corteza prefrontal, implicada en el control de impulsos y la toma de decisiones.

Por ejemplo, un estudio publicado en The American Journal of Psychiatry encontró que hábitos de vida poco saludables –como una dieta deficiente en nutrientes esenciales y la falta de actividad física– se asocian con un aumento de marcadores inflamatorios, los cuales pueden afectar negativamente a la salud mental.

Desde una perspectiva psicológica, diversos trabajos han vinculado el consumo habitual de ultraprocesados con síntomas como impulsividad, hostilidad y malestar emocional.

Así, un estudio longitudinal realizado con adultos con sobrepeso y síndrome metabólico en 2019 reveló que niveles más altos de impulsividad se relacionaban con una menor adherencia a patrones dietéticos saludables y una mayor preferencia por dietas occidentales, caracterizadas por alimentos ultraprocesados ricos en grasas transgénicas y azúcares.

Aunque estos factores no implican violencia de manera directa, sí aumentan su probabilidad, especialmente en contextos de vulnerabilidad.

Como ejemplo de esto, un estudio con adolescentes españoles encontró que un mayor consumo de alimentos ultraprocesados se asociaba con un incremento en dificultades emocionales y conductuales, como ansiedad, problemas de atención y comportamientos disruptivos. Aunque los resultados son correlacionales (es decir, no permiten establecer una relación causa-efecto), sugieren que ciertos hábitos alimentarios pueden afectar la estabilidad emocional y la capacidad de autorregulación, elementos clave en el surgimiento de conductas conflictivas.




Leer más:
Alexitimia: cómo nos afecta la incapacidad para identificar emociones


Intervenciones nutricionales en entornos carcelarios

Pero ¿puede la alimentación promover directamente comportamientos violentos? Algunos estudios pioneros han explorado esta relación en contextos controlados, como las prisiones.

En uno de los primeros ensayos clínicos realizados en Reino Unido, los investigadores administraron suplementos nutricionales (vitaminas, minerales y ácidos grasos esenciales) a un grupo de jóvenes adultos en prisión. Los resultados fueron sorprendentes: quienes recibieron esos suplementos cometieron un 26,3 % menos de infracciones disciplinarias en comparación con el grupo placebo. Además, en los participantes que tomaron los suplementos durante al menos dos semanas, la reducción promedio alcanzó un 35,1 %.

Este estudio fue replicado años más tarde en los Países Bajos con una muestra más amplia, obteniendo resultados similares: la administración de suplementos redujo significativamente las infracciones disciplinarias en prisión. La hipótesis que sustenta estos hallazgos es que un mejor aporte nutricional favorece una función cerebral más óptima, mejorando la autorregulación y disminuyendo la reactividad emocional.

Es importante subrayar que estas investigaciones no implican que una alimentación de baja calidad nutricional cause directamente la violencia, sino que puede actuar como un factor modulador del comportamiento, especialmente en individuos con condiciones preexistentes de impulsividad, estrés crónico o deterioro emocional.




Leer más:
¿Qué son las adicciones comportamentales y por qué se ceban con la adolescencia?


Ultraprocesados y patrones de consumo adictivo

Parte del problema es que los alimentos ultraprocesados no solo tienen un pobre valor nutricional, sino que también pueden generar patrones de consumo adictivo. Su diseño industrial, hiperpalatable (que resulta sumamente grato al paladar), con combinaciones específicas de aditivos artificiales, grasas transgénicas y azúcares añadidos, activa los circuitos de recompensa del cerebro del mismo modo que lo hacen ciertas sustancias psicoactivas, como la cocaína.

Esto puede dar lugar a una relación compleja que derive en compulsividad y falta de control sobre el consumo de estos productos.

Una vía para la prevención

Si lo que comemos influye en nuestra regulación emocional, entonces la nutrición podría ser una herramienta complementaria para prevenir el comportamiento violento. Esta idea ya se está aplicando en algunos contextos, desde programas piloto en prisiones hasta intervenciones en escuelas ubicadas en zonas vulnerables, con el objetivo no solo de mejorar la salud física, sino también el bienestar socioemocional.

No se trata de caer en reduccionismos: la violencia es un fenómeno complejo, y ningún enfoque por sí solo puede explicarla o erradicarla. Sin embargo, ignorar el papel de la alimentación supondría omitir un factor clave en el análisis criminológico.

Entonces, ¿somos lo que comemos?

Tal vez no del todo, pero sí más de lo que creemos. Nuestra alimentación influye directamente en la manera en que pensamos, sentimos y actuamos. En un mundo donde los ultraprocesados predominan en la dieta de millones de personas, quizás debamos empezar a preguntarnos si una parte de la violencia que nos rodea podría estar gestándose, en silencio, en nuestros platos.

The Conversation

Carmen María León Márquez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento – https://theconversation.com/asi-podria-influir-el-consumo-de-alimentos-ultraprocesados-en-el-comportamiento-violento-266115

¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien?

Source: The Conversation – (in Spanish) – By Enrique Balmaseda Maestu, Profesor Titular de Lengua Española en la Universidad de La Rioja, Universidad de La Rioja

Cuando hablamos cualquier idioma, pronunciamos con mayor intensidad determinadas sílabas de la cadena de palabras. A dicha intensidad se la llama acento prosódico y a las palabras que lo contienen, tónicas. En español, lengua de acento libre, las palabras tónicas pueden portar su acento en diversas posiciones silábicas (NÚmero / nuMEro / numeRÓ). Por el contrario, el francés, de acento fijo, siempre lo lleva en su última sílaba (comMENT, exacteMENT).

Ahora bien, solo en algunas lenguas se marca la vocal tónica con una tilde o acento gráfico (´) para destacarla visualmente de las otras. Y dentro de estas, el español se rige por una serie de reglas que limita el uso de dichas marcas. No escribimos “dáme ún póco de léche”, sino “dame un poco de leche”. Las normas ortográficas para el uso de tildes tienen en cuenta que la mayoría de las palabras del español son llanas (es decir, su sílaba tónica es la penúltima) y terminan en “n”, “s” o vocal, por lo que ninguna de las palabras que tienen estas características necesitan tilde.

Si este “manual de instrucciones” para usar la tilde correctamente es relativamente sencillo, ¿por qué cometen tantos errores los estudiantes? En las últimas oposiciones de Enseñanza Secundaria en España, realizadas en julio de 2025, las faltas de ortografía han sido uno de los factores más polémicos del alto porcentaje de suspensos. Solo en Andalucía se han invalidado por su causa 4000 exámenes, incluida la ausencia o descolocación del acento gráfico.

¿Cómo de importantes son las tildes?

En una comunicación básica, quizá no pasa nada especialmente grave si, por desconocimiento o descuido, se omite la tilde o se coloca incorrectamente, porque nuestra gramática interna o mental nos permite interpretar correctamente enunciados de escritura incorrecta como Papa la tomo de la mano.

A eso parecía referirse García Márquez en su famoso discurso del Congreso de Zacatecas (1997): “Nadie ha de leer lagrima donde diga lágrima ni confundirá revólver con revolver”. Ciertos estudios lo corroboran al constatar que el tiempo de fijación de la mirada en palabras aisladas es igual tanto si llevan tilde como si no la llevan.

Eficacia comunicativa

¿Por qué entonces conviene usar las tildes adecuadamente? Por varias razones: unas, digamos, por autoimagen y prestigio cultural; otras, por competencia y eficacia comunicativa. Frente a la provocación de García Márquez, lo cierto es que un texto bien redactado y sin errores ortográficos denota rigor mental, disciplina intelectual, elegancia… La precisión acentual también es indicio del gusto por el detalle y el buen hacer.

Por otra parte, la acentuación correcta, cuando se trata de enunciados y no de palabras aisladas, nos ayuda a comprender lo leído más deprisa y a deshacer posibles ambigüedades. Y también a pronunciar bien otras voces poco conocidas (buerdégano, barbián, bahorrina…) o variantes lingüísticas del español (tú cantas / vos cantás, cóctel / coctel, vídeo / video, etc.).

Además, la funcionalidad y economía de las reglas de acentuación en nuestra lengua contribuyen a la unidad lingüística en el registro formal de todo el ámbito hispanohablante. En definitiva, tildar correctamente nos permite distinguir las palabras y entender e interpretar la escritura adecuadamente, con precisión y con mínimo esfuerzo mental.

El origen de las reglas actuales

La primera Ortografía académica (1741) fijó unas normas de acentuación gráfica donde ya prevalecía el principio de economía basado en las características acentuales del español: es decir, las normas se diseñaron para que las palabras con tilde fueran las menos posibles.

Como la mayor parte de sus palabras son llanas (62 %) y agudas (29 %), al tiempo que las sílabas suelen terminar en vocal (69 %) y en –n o –s, la RAE estableció unas reglas básicas para escribir sin tilde casi todas las palabras: las monosílabas, las llanas terminadas en vocal, –n y –s, y las agudas que acaben en consonantes que no sean las anteriores (Los peces nadan con calma en el mar azul). El resto debían ser tildadas (El biólogo encontró un fósil junto a un camarón en el océano).




Leer más:
¿Guapa? ¡Guapa! o ¡¡¡Guapa!!! La importancia de la puntuación en la expresión escrita


¿Todas las lenguas usan tildes?

Podría haber sido de otra manera. No hay más que echar un vistazo a la escritura de otras lenguas: en inglés no se marca ninguna tilde, salvo en unos pocos extranjerismos, por lo que es preciso saber previamente la pronunciación de las voces (por ejemplo, animal o acupuncture, donde el acento recae sobre la primera a).

El italiano, aún más parco en tildes que el español, solo marca las palabras agudas, distinguiendo el grado de abertura vocálica (caffè / perché) y unas pocas monosílabas ( ‘da’ / da ‘de’), mientras que no aparece en las esdrújulas (fabbrica) ni en las sobreesdrújulas (lasciatemelo).

Por el contrario, el griego moderno marca con tilde todos los acentos prosódicos (παιδί ‘niño’, βιβλιοθήκη ‘biblioteca’), salvo las palabras monosílabas, aunque también en estas se usa tilde diacrítica para distinguir las tónicas de las átonas.

¿Por qué se cometen errores?

Entre docentes existe la idea generalizada de que muchos estudiantes preuniversitarios, e incluso universitarios, muestran una ortografía mala o mejorable, en particular, respecto a las tildes, algo corroborado por algunos estudios.

Las causas apuntadas son varias: desconocimiento de las reglas, desdén hacia la escritura correcta por prejuicios diversos, falta de lecturas valiosas y de atención al escribir, pérdida de prestigio de las normas académicas, influencia de ciertas convenciones asociadas a la tecnología, tipo de relación con los destinatarios de los escritos, etc.

Pero también influye la ineficacia de los métodos de enseñanza, excesivamente memorísticos, que ponen el foco en el error y generan dudas ante los huecos en blanco.




Leer más:
¿Por qué los dictados tradicionales no enseñan ortografía?


Competencias necesarias para usar bien las tildes

Las reglas generales de acentuación, aparentemente sencillas, requieren automatizar competencias complejas: discriminar las palabras tónicas de las átonas, separarlas en sílabas, apreciar el acento de intensidad, determinar el tipo de palabra según la sílaba en que recaiga… Y, teniendo en cuenta su terminación, aplicar dichas reglas para poner o no las tildes.

A todo ello se añaden particularidades como la acentuación de hiatos, diptongos y triptongos, la de los adverbios en -mente, la variedad de porqués o la mencionada tilde diacrítica.

Y qué decir de la confusión y reticencia de muchos hispanohablantes cuando la norma ortográfica contradice nuestra intuición (como, por ejemplo, cuando se nos dice que palabras como guion o truhan no deben llevar tilde por ser monosílabas, a efectos ortográficos); cuando establece distinciones sutiles (la opción de tildar o no ciertos pronombres según su función sintáctica: qué/que, quién/quien, dónde/donde…); o, frente a una costumbre muy arraigada, indica que no debemos tildar el adverbio solo y los demostrativos este, ese o aquel (y sus flexiones).

Acentuar gráficamente las palabras implica articular un conjunto de competencias que van más allá de la simple memorización: adquirir saberes y técnicas para ejercitarlos de manera automática. Pero, como en toda disciplina intelectual, se pueden alcanzar aunando voluntad, reflexión, práctica y métodos didácticos adecuados.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien? – https://theconversation.com/por-que-tiene-tildes-el-espanol-y-por-que-nos-cuesta-tanto-usarlas-bien-260455

Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio

Source: The Conversation – (in Spanish) – By Juan Pablo Fernández-Cortés, Profesor investigador. Departamento Interfacultivo de Música, Universidad Autónoma de Madrid

Gustavo Pittaluga (en el centro, de pie), junto al ‘Grupo de los cinco’ (de izquierda a derecha): Julián Bautista, Rodolfo Halffter, Fernando Remacha y Salvador Bacarisse. Biblioteca Virtual de Prensa Histórica, CC BY

El 8 de octubre de 1975, pocas semanas antes de la muerte de Franco, fallecía en Madrid Gustavo Pittaluga González del Campillo (1906-1975). Su entierro en el Cementerio Civil fue sobrio, sin homenajes. Como si con él se sepultara también la memoria de una modernidad interrumpida por la guerra y la dictadura.

En su biografía se cruzan nombres esenciales de la cultura española –su amigo Federico García Lorca, el cineasta Luis Buñuel o el poeta Rafael Alberti, entre otros– y el itinerario compartido por una generación que hizo de la creación artística un acto de resistencia y de libertad. El exilio llevó a Pittaluga de París a Estados Unidos, Cuba, México y otros países de América Latina, donde mantuvo viva la llama de la cultura de la República.

Medio siglo después, su figura, aún pendiente de un estudio riguroso, reclama su lugar en la memoria cultural de la España del siglo XX.

Los años de la guerra

Retrato de un hombre de traje apoyado en una balaustrada.
Retrato de Gustavo Pittaluga González del Campillo.
Miquelopezgarcia/Wikimedia Commons, CC BY-SA

Antes del estallido de la Guerra Civil, Pittaluga era ya una de las voces más prometedoras de la renovación musical española. Discípulo de Manuel de Falla y cofundador del Grupo de los Ocho, compartía escena con los hermanos Ernesto y Rodolfo Halffter, Fernando Remacha, Salvador Bacarisse o Rosa García Ascot en la defensa de una música abierta a la modernidad europea y alejada del academicismo. Dirigía conciertos, escribía críticas, componía ballets exitosos como La romería de los cornudos –fruto de su colaboración con García Lorca y el también dramaturgo Cipriano Rivas Cherif para la bailarina “La Argentinita”– y proyectaba y difundía en París y Madrid la música de los jóvenes compositores españoles.

Todo se quebró con la sublevación militar. Pittaluga abandonó su actividad artística e ingresó como diplomático en el Ministerio de Estado. Poco después, en el verano de 1937 fue destinado a Washington como secretario de la embajada dirigida por Fernando de los Ríos. Allí defendió la legitimidad del gobierno republicano y, en silencio, comenzó a concebir un homenaje a su amigo Lorca, asesinado en Granada el año anterior, un lamento íntimo que cristalizaría en una obra musical de alto contenido simbólico.

Nueva York: Lorca y Calder en el MoMA

En 1941 llega a Nueva York y se reencuentra con Luis Buñuel, que trabajaba en el departamento de cine del Museum of Modern Art (MoMA). Allí, se integró en su equipo como adaptador cinematográfico, una labor discreta que le permitió acceder al circuito cultural neoyorquino y establecer vínculos con las vanguardias internacionales.

En ese mismo espacio Pittaluga estrenó su Llanto por Federico García Lorca. Escrita para voz recitada y orquesta de cámara a partir de fragmentos de Bodas de sangre, es una partitura madurada en silencio durante los años más inciertos de la guerra y el exilio.

El estreno, del que hasta ahora se desconocía la fecha y el lugar, tuvo lugar el 27 de abril de 1943 en el ciclo Serenade, organizado por la violinista y mecenas Yvonne Giraud, marquesa de Casa Fuerte, bajo la dirección de Vladimir Golschmann con el título abreviado de Elegy. La obra compartió programa con Profiteroles, del compositor estadounidense Theodore Chanler, y la primera interpretación en Nueva York de Les Danses Concertantes de Ígor Stravinsky, lo que situó de manera explícita el homenaje lorquiano en el corazón mismo del debate musical contemporáneo.

Mientras el franquismo imponía el silencio sobre Lorca, Pittaluga lo rescataba en Estados Unidos y convertía su memoria en un acto de resistencia y un puente hacia la modernidad.

Fuentes hemerográficas que han pasado inadvertidas hasta la fecha, revelan otro episodio desconocido de la estancia neoyorquina de Pittaluga: la participación, en 1944, en el documental Sculpture and Constructions dedicado al escultor Alexander Calder. Para este cortometraje, producido por el MoMA, el compositor escribió una breve partitura para piano, de gran economía expresiva, que apoyaba el movimiento rítmico e inestable de los móviles de Calder.

El documental Sculpture and Constructions, dirigido por Herbert Matter.

Muchas de las obras que Pittaluga compuso en los primeros años de su exilio muestran también su diálogo con la literatura contemporánea y su empeño por mantener viva la memoria republicana. Sobre poemas de Rafael Alberti escribió Metamorfosis del clavel (1943), un ciclo de canciones para voz y guitarra. Poco después creó el Homenaje a Díez Canedo (1944), basado en el poema Merendero del escritor extremeño Enrique Díez-Canedo, exiliado y fallecido ese mismo año en México. En esta obra, recitador y piano dialogan en clave expresionista sobre ritmos de chotis y habanera que traducen las tensiones del deseo, el desarraigo y la vida urbana del exilio.

Latinoamérica

Tras instalarse en México en 1945, el camino de Gustavo Pittaluga volvió a cruzarse con el de su amigo Luis Buñuel, esta vez en el cine. La música de Los olvidados (1950) y Subida al cielo (1952) lleva su firma –aunque en los créditos de la primera apareció acompañada de Rodolfo Halffter para sortear trabas sindicales–. En Los olvidados, la sonoridad áspera y tensa potencia la crudeza del retrato de la miseria urbana; en Subida al cielo, reelabora con ironía moderna las músicas populares rurales, fundiendo tradición y vanguardia.

Dos hombres mirando los fotogramas de una película en una imagen en blanco y negro.
Gustavo Pittaluga (derecha) en una imagen de 1950.
Archivo Emilio Casares/Base de datos de Iconografía Musical

El largo exilio de Pittaluga sigue siendo uno de los capítulos menos explorados de su biografía. En La Habana, Lima, Guatemala, Buenos Aires, Brasil o Ciudad de México desplegó una actividad incansable como conferenciante, director y divulgador. En cada escenario combinaba en sus programas a Isaac Albéniz, Enrique Granados y Falla con estrenos de sus obras y de otros autores españoles, trazando un puente entre la tradición y las nuevas corrientes de la modernidad.

El retorno

En 1958 Pittaluga volvió a España. El regreso, sin embargo, no significó la reintegración plena. La dictadura franquista imponía silencios y él optó por trabajar al margen de las instituciones oficiales. Se refugió en la música para teatro, cine y ballet, con colaboraciones discretas pero significativas como la banda sonora para El baile de Edgar Neville (1960) o la selección musical realizada para Viridiana de Buñuel (1961).

En 1960, la familia de García Lorca le confió la edición de las Canciones del teatro de García Lorca, reconstruidas a partir de los recuerdos de Concha e Isabel García Lorca y del escenógrafo Santiago Ontañón. El gesto era, además, un acto de reparación simbólica.

“He aquí los textos impresos. Tremendo es no tener los verbales”, escribió Pittaluga al prologar la edición de las Canciones españolas antiguas que se publicaron un año después. Ese mismo año armonizó canciones para Yerma, dirigida por Luis Escobar, primera representación comercial de Lorca en la España franquista. Le siguieron Bodas de sangre (1962) y La zapatera prodigiosa (1965), todas con música incidental suya.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


En los últimos años de su vida, se enfrentó a una profunda crisis personal y emocional. Según relató Rafael Alberti en una entrevista con Max Aub en 1969, Pittaluga se encontraba en un estado de grave deterioro físico y mental, “muy borracho, muy enfermo, muy perdido”. Alberti recordó también haberlo visto en Buenos Aires en una situación de descontrol, llegando a romper los cristales del hotel donde vivía y a tener que pagar constantemente por los daños ocasionados.

Su tumba en el Cementerio Civil de Madrid resume su destino: sencillo y coherente. Un final que contrasta con la intensidad de una vida atravesada por guerras, exilios y pérdidas, pero fiel hasta el final a la música, a sus amigos y a la memoria republicana.

The Conversation

Juan Pablo Fernández-Cortés no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio – https://theconversation.com/se-cumplen-50-anos-de-la-muerte-de-gustavo-pittaluga-el-compositor-que-protegio-la-memoria-de-espana-en-el-exilio-266735

Cuando Colón confundió lo que era una milla y llegó a América

Source: The Conversation – (in Spanish) – By J. Guillermo Sánchez León, Instituto Universitario de Física Fundamental y Matemáticas (IUFFyM), Universidad de Salamanca

Pintura romántica de la llegada de Cristóbal Colón a América (Dióscoro Puebla, 1862). Museo del Prado / Wikimedia Commons.

En 1999, la sonda espacial Mars Climate Orbiter de EE. UU. se precipitó sobre Marte al utilizar sus programadores, por error, el pie en lugar del metro. Colón tuvo más suerte: cinco siglos antes asignó un valor equivocado a la milla árabe y el error le llevó descubrir un nuevo continente.

Un marino en Salamanca

A finales de 1486, Cristóbal Colón se trasladó a Salamanca, sabiendo que los Reyes Católicos residirían temporalmente en esta ciudad. En aquella época, la corte no tenía una sede fija. Esperaba convencerles de que apoyasen su proyecto de alcanzar las Indias siguiendo una ruta directa a través del Atlántico, como alternativa al itinerario portugués que bordeaba África. Esta misma propuesta ya se la había presentado al rey de Portugal Juan II, que la había rechazado, probablemente aconsejado por el astrónomo salmantino Diego Ortiz de Calzadilla (o de Villegas).

En la biografía Vida y viajes de Cristóbal Colón (1828), Washington Irving cuenta que, en Salamanca, el navegante se enfrentó “a una imponente hilera de maestros, frailes y dignatarios eclesiásticos” que ridiculizaron su idea de la redondez de la Tierra: “¿Habrá alguno tan necio que crea que hay antípodas con los pies opuestos a los nuestros…?”. Sin embargo, los profesores de Salamanca en el siglo XV no cuestionaban que la Tierra era esférica, pero sí tenían motivos para desaconsejar la propuesta de Colón.

La Tierra era una esfera

Desde al menos el siglo VI a. e. c., filósofos y astrónomos griegos como Pitágoras, Platón y Aristóteles sostenían que la Tierra era una esfera, tanto por razones filosóficas (la esfera era considerada la figura geométrica perfecta), como por evidencias empíricas.

Durante los eclipses de Luna, la sombra de la Tierra era siempre circular. Además, los marinos observaban que, en la ruta desde el sur de Grecia a Alejandría, iban apareciendo en el horizonte nuevas constelaciones, lo que era explicable en una Tierra redonda.

El método de Eratóstenes.
Francesco De Lorenzo / Sociedad Geográfica Española (Boletín 76 ), CC BY

El reto de medir su tamaño

Eratóstenes de Cirene (276–194 a. C.) fue más lejos: midió el tamaño de la Tierra, comparando, en el solsticio de verano, las sombras del Sol al mediodía en Siena (actual Asuán) y en Alejandría. En Siena, el Sol estaba en el cénit y no proyectaba sombra, mientras que en Alejandría un gnomon –aguja que marca la sombra en un reloj de sol– sí la proyectaba, formando un ángulo cincuenta veces menor que el de una circunferencia.

Para calcular el perímetro de la Tierra solo tenía que multiplicar por 50 la distancia entre Siena y Alejandría –que estimó en 5 000 estadios–, con lo que obtuvo un total de 250 000 estadios (unidad de medida de longitud en la Antigüedad). Frecuentemente se dice ese valor es muy próximo al real.

En cualquier caso, su medida no fue la que se popularizó. Durante siglos, el tamaño de la Tierra aceptado fue el descrito por Claudio Ptolomeo (siglo II d. C.) en su Geographia. Le otorgó un perímetro de 180 000 estadios egipcios (unos 28 350 km, un 30 % menor que el real), basado en las medidas de Posidonio (c. 100 a. e. c.).

Este había observado que la estrella Canopus se veía en el horizonte en Rodas, mientras que en Alejandría se encontraba en un ángulo equivalente a 1/48 la longitud de la circunferencia. Multiplicando 48 por la distancia entre ambas ciudades, que se estimó en 3 750 estadios, resultan los 180 000 estadios.

El mundo según Ptolomeo (reconstrucción de Johannes de Armsshein. Ulm.1482).
Wikipedia, CC BY

Los errores de Colón

En el siglo IX, el astrónomo persa Al-Farghānī, al servicio del califa Al-Mamun, escribía en su Compendio de Astronomía: “la longitud de un grado en la circunferencia de la Tierra es de 56 millas y dos tercios de una milla […]. Este cálculo fue aceptado y validado por numerosos sabios. Por lo tanto, cuando multiplicamos la longitud de un grado de la circunferencia por el total del círculo, es decir, 360 grados, obtenemos que la circunferencia total de la Tierra es de 20 400 millas”.

Colón consideró relevante esta información, como hace constar en una nota manuscrita a su ejemplar del Imago mundi de Pedro d’Ailly (disponible en la Biblioteca Colombina).

El problema surge al interpretar el valor de 1 milla. Al-Farghānī empleaba la unidad árabe de Al-Mamun, que sabemos equivale a 1 973 metros (m). Por tanto, 20 400 millas son 40 248 km, muy próximo al real (unos 40 000 km).

En la Europa medieval, a menudo, se interpretó erróneamente esa milla como romana (1 481 m), con lo que el perímetros equivaldría según estos calculos a 30 212 km.

Colón, por su parte, empleó una equivalencia de unos 1 250 m, similar a la usada en las cartas portulanas o manuales de navegación medieval, como recoge Adan Szaszdi en su ensayo La legua y la milla de Colón (1958). Ello reducía la circunferencia terrestre a 25 500 km.

Reconstrucción del Mapa de por un autor alemán en 1867.
Wikipedia

De Canarias a Japón

Aunque menor a los 30 000 km, valor más aceptado en su época, lo que hacía distinta la propuesta de Colón era su convicción de que Asia se extendía hacia el este más de lo que entonces se creía y que, tras ella, se encontraba Cipango (Japón). Pensó que podía llegar a Asia navegando hacia el oeste en pocos miles de kilómetros. Esta idea probablemente la había tomado de Toscanelli.

Los profesores de Salamanca no aceptaban esta heterodoxa propuesta; en consecuencia, desaconsejaron el viaje. Sin embargo, el dominico fray Diego de Deza, catedrático de Prima de Teología y maestro del príncipe don Juan, le brindó su apoyo. Mientras estuvo en Salamanca, Colón se hospedó en el convento dominico de San Esteban. En los años siguientes, la influencia de Deza fue decisiva para que lograse finalmente el respaldo de Isabel la Católica, lo que le abriría el camino hacia el Nuevo Mundo.

Colón había supuesto un tamaño de la Tierra menor del real, pero no muy distinta a la que sus contemporáneos asumían. Su error fundamental fue atribuir a Asia una extensión mucho mayor de la que tiene, lo que reducía sustancialmente la distancia a navegar. Pocas meteduras de pata en la historia han tenido consecuencias tan trascendentales. Habría que esperar a la vuelta al mundo de Magallanes-Elcano para conocer la verdadera dimensión de la Tierra.

The Conversation

J. Guillermo Sánchez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando Colón confundió lo que era una milla y llegó a América – https://theconversation.com/cuando-colon-confundio-lo-que-era-una-milla-y-llego-a-america-266086