Liderazgo de servicio: cuando las personas del equipo están por encima del lucimiento personal del líder

Source: The Conversation – (in Spanish) – By Benito Yáñez Araque, Profesor Administración de Empresas en Escuela de Ingeniería Industrial y Aeroespacial, Universidad de Castilla-La Mancha

El liderazgo de servicio prioriza a las personas y a la comunidad alphaspirit.it/Shutterstock

Sean gestores de lo público o de lo privado, los líderes que ponen primero a las personas –los líderes servidores– mitigan la depresión, reducen la resistencia al cambio y elevan la capacidad adaptativa en las organizaciones. Y, además, se puede enseñar a ser un líder de este tipo.

Los diferentes estilos de liderazgo –como el autocrático, el transaccional, el transformacional o el carismático– tienen impactos distintos en el clima laboral y social, y en el desempeño y bienestar de los trabajadores y ciudadanos. Entre estos estilos, el de líder servidor (servant leader) ocupa un lugar singular: por encima de su lucimiento personal, está orientado hacia el otro, prioriza su crecimiento y la administración responsable de los recursos que están bajo su gestión.

A diferencia del liderazgo transformacional, que se centra en mover al grupo hacia metas organizativas, el liderazgo servidor reorienta la ambición del líder hacia el desarrollo y empoderamiento del seguidor y la comunidad. Esa diferencia, que puede parecer sutil, marca la diferencia en los resultados: menor resistencia al cambio, mayor capital social y bienestar.




Leer más:
Los líderes que cuidan y escuchan contribuyen al bienestar general de sus equipos


¿El líder servidor nace o se hace?

La polémica viene de antiguo, pero los datos actuales ofrecen una respuesta concluyente. La evidencia acumulada indica que, si bien hay rasgos de personalidad que predisponen al liderazgo, particularmente el de servicio se aprende, se institucionaliza y se refuerza. Datos procedentes de investigaciones realizadas en España en sectores como la hostelería, la sanidad o las finanzas apuntan a una idea simple: el liderazgo servidor no es una cualidad innata sino un conjunto de comportamientos aprendidos que generan resultados medibles.

Por ejemplo, en contextos laborales tensos, el liderazgo servidor se combina con un mayor compromiso de los trabajadores y reduce síntomas depresivos en la plantilla al activar redes de apoyo y mejorar el capital social. También se ha observado que, cuando el liderazgo servidor potencia la inteligencia emocional de los equipos, disminuye la resistencia al cambio.

Además, a escala de empresa, la capacidad de adaptación mejora cuando los directivos, a través de este estilo de liderazgo, fomentan vínculos de confianza dentro y fuera de la organización, con efectos especialmente pronunciados en las empresas familiares.

En este mismo ámbito, sabemos que, en posiciones directivas, emerge un patrón de liderazgo sostenible en el que, en promedio, las mujeres destacan por encima de los hombres.

En definitiva, los datos confirman que se ejerce un liderazgo servidor al diseñar y promover entornos que refuercen el servicio a las personas y a todos los grupos de interés.




Leer más:
Liderazgo femenino en la empresa: participativo y transformacional


La ética como “sistema operativo”, no como postureo

El liderazgo servidor no va de gestos amables sino de arquitectura institucional, de diseñar reglas, rutinas y métricas de largo plazo. Empieza desde el primer momento, con cómo se selecciona y promociona al personal. Se añaden rutinas de aprendizaje que plantean: “¿A quién servimos y cómo? ¿El líder se sirve a sí mismo o sirve a los empleados, a los clientes, a los ciudadanos…?”.

Sigue con qué medimos. Más allá de los indicadores financieros, como las pérdidas y ganancias, hay que incorporar indicadores de calidad en las relaciones, apoyo percibido, equidad y aprendizaje. Y cerramos con transparencia operativa: debe haber trazabilidad en las decisiones, y la gestión de conflictos de interés, y, por defecto, una verificación documental de méritos, no por excepción.

Todo eso es ética aplicada: más servicio, más integridad y más gestión responsable de los recursos.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Liderazgo de servicio: cuando las personas del equipo están por encima del lucimiento personal del líder – https://theconversation.com/liderazgo-de-servicio-cuando-las-personas-del-equipo-estan-por-encima-del-lucimiento-personal-del-lider-264930

La chistorra: historia y cualidades de un icono gastronómico

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

JG Fotografia/Shutterstock

En las últimas semanas, la chistorra se ha puesto de moda en España por motivos ajenos a la gastronomía. Según el informe de la Unidad Central Operativa de la Guardia Civil (UCO) sobre el caso Koldo-Ábalos, la palabra se usó como clave para referirse a billetes de 500 euros en conversaciones cifradas.

Pero antes de este golpe de fama inesperada, la chistorra ya era uno de los embutidos más emblemáticos del norte de España, especialmente de Navarra y del País Vasco. Reconocida por su sabor intenso, su color rojizo y su textura jugosa, pasó de ser un producto doméstico rural a convertirse en un símbolo gastronómico nacional con reconocimiento europeo.

Un embutido con solera

En sus orígenes y en el contexto de las economías rurales del norte español, la conservación de la carne de cerdo ha sido un factor esencial. Tras la tradicional matanza, las familias elaboraban distintos embutidos destinados a su consumo durante el invierno. Entre ellos surgió la chistorra: un alimento curado de forma breve, condimentado con ajo, pimentón y sal, y embutido en tripas naturales.

El término “chistorra” deriva del euskera txistor, que significa “salchicha” o “embutido”. Ya en el siglo XIX se describía como un producto típico de Navarra y el País Vasco. Con el tiempo, su consumo se extendió a todo el país, especialmente durante fiestas populares como las de San Fermín en Pamplona, donde se sirve tradicionalmente en bocadillos o frita en pequeñas raciones.

Durante el siglo XX, la chistorra se consolidó como un producto de consumo habitual. Aunque su elaboración artesanal sigue siendo una práctica muy valorada, la industrialización permitió que se expandiera comercialmente. En la actualidad, la Txistorra de Navarra cuenta con Indicación Geográfica Protegida (IGP), que garantiza la autenticidad de su origen y su elaboración conforme a métodos tradicionales.

A qué llamamos chistorra

Desde el punto de vista técnico, la chistorra se encuadra dentro de los derivados cárnicos curado-madurados o semicurados. Su clasificación se aborda según tres criterios:

  • Composición. Elaborada principalmente con carne y grasa de cerdo –en ocasiones con una pequeña fracción de vacuno–, el contenido graso de la chistorra debe suponer entre el 25 % y el 35 % sobre peso total. No obstante, estudios de composición expresada en materia seca, como el del grupo de María José Beriain, catedrática de Nutrición y Bromatología de la Universidad Pública de Navarra, indican valores próximos al 67 % en las muestras mejor valoradas sensorialmente. En lo que se refiere al adobo, este contiene pimentón dulce o picante, ajo y sal, junto con otras especias opcionales.

  • Proceso tecnológico. Como hemos apuntado, se trata de un embutido de curación corta, con un secado de entre 24 y 72 horas, lo que le confiere una textura tierna y un sabor fresco y especiado. Puede consumirse frita o asada, y algunas versiones se comercializan frescas, sin secado previo.

  • Presentación. Se caracteriza por su forma alargada y delgada, con un diámetro de 22–25 mm, embutida en tripas naturales de cerdo o cordero.

Lo que dice la ley

El Código Alimentario Español (CAE), aprobado en 1967, estableció las normas básicas sobre carnes y derivados cárnicos, aunque hoy se considera una referencia histórica y no una norma vigente. Su contenido fue progresivamente sustituido por legislación europea y por disposiciones nacionales actualizadas, como el Real Decreto 474/2014, que aprueba la Norma de Calidad de los Derivados Cárnicos.

Según este Real Decreto, la chistorra se define como:

“Una mezcla de carnes picadas o troceadas de cerdo o de cerdo y vacuno y tocino o grasa de cerdo, adicionada de sal pimentón, amasada y embutida en tripas naturales o envolturas artificiales que han sufrido un corto proceso de maduración-desecación con o sin ahumado, de calibre máximo de 25 mm en producto acabado, que se caracteriza por su coloración roja y por su olor y sabor característicos”.

Por su parte, la IGP Chistorra de Navarra especifica que es un derivado cárnico elaborado con carne y grasa de cerdo, finamente picadas y adobadas con sal, pimentón y ajo. Tras el amasado, se embute en tripa natural y se somete a una breve maduración o desecación. El producto final presenta un calibre de 17 a 25 mm, color rojizo uniforme debido al pimentón y una textura firme, con diferenciación visible entre carne magra y grasa.

En cuanto a sus parámetros físico-químicos, debe cumplir un pH superior a 5,0; actividad de agua (aw) igual o inferior a 0,94; un contenido en grasa igual o inferior a 80 %; proteína igual o superior al 14 %; hidroxiprolina (un aminoácido) igual o inferior al 0,7 %, y un porcentaje de hidratos de carbono igual o inferior al 9 % sobre extracto seco.

Su producción se limita a la Comunidad Foral de Navarra, donde se elabora sin aditivos y con tripa natural de cordero o cerdo, garantizando autenticidad y origen geográfico.

Propiedades nutricionales y sensoriales

Desde el punto de vista nutricional, la chistorra es un alimento de alto valor energético y fuente destacada de proteínas y grasas. Según la Fundación Española de la Nutrición, cada 100 gramos de producto comestible aporta 514 kilocalorías, 17,4 gramos de proteínas y 49 g de grasa total (20 g correspondientes a grasas saturadas) y alrededor de 900 mg de sodio, lo que equivale a unos 2,3 g de sal.

Adicionalmente, contiene pequeñas cantidades de hidratos de carbono (1 g) y es fuente de vitaminas del grupo B (tiamina, riboflavina, niacina, B6 y B12), esenciales para el metabolismo energético y la función neuromuscular. Entre los minerales destacan el hierro, zinc, fósforo y magnesio.

Debido a su alto contenido en grasas y sodio, se recomienda un consumo moderado dentro de una dieta equilibrada.

Por otro lado, la chistorra presenta un perfil sensorial muy característico. De color naranja-rojizo intenso por efecto del pimentón, tiene una alta fuerza de corte que otorga resistencia inicial al mordisco, si bien ofrece una jugosidad y ternura equilibradas, con un aroma y sabor cárnico especiado. Además, presenta una grasa bien integrada, lo que aporta una sensación untuosa sin dominar el conjunto.

Estos atributos, combinados con su fuerte presencia cultural, como es el caso de su asociación a tapas, parrilladas y festividades populares, convierten a este embutido en un producto con alto valor gastronómico y emocional.

Entre lo gastronómico y lo simbólico

La chistorra es un ejemplo paradigmático de cómo la tradición alimentaria y la ciencia moderna pueden converger: combina una identidad cultural profunda con parámetros medibles de calidad sensorial y nutricional. Tal y como demuestra María José Beriain, su complejidad composicional justifican la protección bajo la IGP Chistorra de Navarra.

Sin embargo, el giro semántico que le ha conferido la actualidad la convierte en metáfora de lo oculto: lo que antaño se compartía en celebraciones colectivas reaparece como símbolo de poder y transacción clandestina.

La chistorra representa la calidez de la mesa popular, pero también nos recuerda cómo los lenguajes culinarios pueden transformarse en códigos de sigilo. En ambos casos, sigue siendo un signo inequívoco del carácter español: intenso, sabroso y lleno de significado.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La chistorra: historia y cualidades de un icono gastronómico – https://theconversation.com/la-chistorra-historia-y-cualidades-de-un-icono-gastronomico-267031

La importancia de tener en cuenta la cultura local para elaborar planes climáticos de éxito

Source: The Conversation – (in Spanish) – By Alexandra Delgado Jiménez, Profesora de Urbanismo, Universidad Nebrija

Agricultor recogiendo aceitunas en Jaén. Digicomphoto/Shutterstock

El cambio climático no es una amenaza abstracta del futuro; es un problema presente, y su magnitud crecerá exponencialmente si no actuamos poniendo en marcha planes de adaptación y mitigación. Nos enfrentamos como humanidad a graves retos climáticos, pero algunas zonas son intrínsecamente más vulnerables que otras. Esta vulnerabilidad no solo depende de factores geográficos y ecológicos, sino también de la capacidad de adaptación de sus habitantes.

Así, las comunidades locales emergen como un pilar fundamental para la creación de planes de mitigación que sean no solo efectivos, sino también socialmente justos y culturalmente sostenibles. Su inclusión no es una opción, sino una necesidad imperiosa para lograr una transición ecológica exitosa.

La región mediterránea

En Europa, la región mediterránea es una de las que corren mayor riesgo frente a los efectos del calentamiento global. Con una combinación de ecosistemas frágiles, costas densamente pobladas y economías dependientes del turismo y la agricultura, la zona enfrenta un alto riesgo de vulnerabilidad climática.

En un estudio reciente, centrado en esta área, hemos analizando cómo las políticas de transición energética pueden preservar y mejorar la salud y el bienestar de la sociedad. Los resultados para países como España, Grecia y Montenegro revelaron que estos territorios han desarrollado diversas formas y mecanismos para alcanzar sus objetivos climáticos a múltiples niveles: desde políticas nacionales hasta planes y acciones locales.

Sin embargo, el mismo análisis subraya una realidad crucial: los objetivos medioambientales deben ajustarse a las necesidades de desarrollo local. De lo contrario, se corre el riesgo de que las políticas, diseñadas a gran escala, ignoren las particularidades que hacen a cada comunidad única.

Deficiencias de la planificación a gran escala

Existen deficiencias notables en la aplicación de las políticas climáticas debido, en gran medida, a la falta de atención a las características locales. Este descuido no solo compromete la eficacia de las medidas de mitigación, sino que también amenaza la identidad cultural y pone en peligro los recursos naturales de estas zonas.

Un ejemplo claro se encuentra en las prácticas agrícolas tradicionales. Una política que promueva la agricultura intensiva y tecnificada podría contribuir a garantizar la seguridad alimentaria de los territorios y la autosuficiencia. Sin embargo, los métodos de cultivo milenarios, aunque menos productivos en el corto plazo, son más sostenibles, utilizan el agua de manera más eficiente y conservan la biodiversidad local. Al no considerar este conocimiento ancestral, se pierde una valiosa oportunidad para integrar saberes locales en las soluciones climáticas.

De la misma manera, las intervenciones urbanas que no involucran a los residentes pueden generar resistencia y fracasar. La instalación de sistemas de transporte público o la promoción de energías renovables solo tendrán éxito si se alinean con los patrones de vida y las necesidades cotidianas de los ciudadanos. Cuando se impone una política sin el respaldo y la comprensión de la comunidad, esta se convierte en una imposición externa que puede ser rechazada o ignorada.




Leer más:
Para que las energías renovables contribuyan al desarrollo rural deben involucrar a los vecinos


Estrategias para involucrar a las comunidades locales

Los planes regionales y locales requieren mucho más que la participación del gobierno. Los ciudadanos también deben participar activamente en el proceso, pasando de ser meros receptores de políticas a agentes de cambio. Las diferentes regiones que hemos analizado en nuestro estudio aplican diversas estrategias para incluir a la población y abordar el cambio climático.

En la actualidad, los mecanismos más exitosos se centran en la creación conjunta de soluciones. Esto implica ir más allá de las consultas públicas superficiales y establecer mecanismos de participación genuinos, como talleres colaborativos, presupuestos participativos y la formación de consejos ciudadanos para el clima. En estos foros, los habitantes pueden aportar su conocimiento empírico sobre el territorio, sus recursos y sus vulnerabilidades, permitiendo que las políticas se adapten de forma inteligente y flexible.

La educación ambiental a nivel local es también una herramienta poderosa para empoderar a las comunidades, dándoles la información necesaria para tomar decisiones informadas sobre su consumo energético, la gestión de sus residuos y la promoción de la movilidad sostenible.

En la escala municipal, los nuevos planes climáticos hacen hincapié en las intervenciones urbanas. Promueven medidas de ahorro energético en edificios, la reducción del uso de combustibles fósiles y el fomento de energías renovables como la solar fotovoltaica. Asimismo, impulsan el transporte eficiente a través de la expansión de carriles bici y la mejora de los servicios de transporte público. Además, invierten en sistemas de datos inteligentes para optimizar el uso de los recursos.

Todas estas acciones, aunque a pequeña escala, tienen un impacto acumulativo masivo cuando se coordinan de manera efectiva.




Leer más:
¿Y si los urbanitas participaran en el diseño de sus ciudades?


El camino hacia un futuro resiliente

La lucha contra el cambio climático es un desafío global, pero sus soluciones más efectivas y sostenibles son inherentemente locales. Las comunidades, con su conocimiento profundo de su entorno y su cultura, representan un recurso único que debe ser activamente integrado en los planes de mitigación. La transición ecológica no puede ser un proceso puramente tecnológico, científico, político o económico; es también un proceso social y cultural.

Ignorar las particularidades locales y la participación ciudadana no solo limita la eficacia de las políticas, sino que además crea una brecha entre los gobiernos y la sociedad. Un enfoque que respeta la identidad cultural y empodera a las comunidades a través de la creación conjunta de soluciones es el único camino viable hacia un futuro resiliente y sostenible.

Solo cuando las personas sienten que son parte de la solución, y no solo del problema, puede lograrse la acción colectiva necesaria para enfrentar los desafíos climáticos que tenemos por delante. El éxito global dependerá de nuestra capacidad para actuar de manera inteligente y empática a nivel local.

The Conversation

Alexandra Delgado Jiménez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La importancia de tener en cuenta la cultura local para elaborar planes climáticos de éxito – https://theconversation.com/la-importancia-de-tener-en-cuenta-la-cultura-local-para-elaborar-planes-climaticos-de-exito-263134

¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela?

Source: The Conversation – (in Spanish) – By Esther Nieto Moreno de Diezmas, Catedrática y Directora del Departamento de Filología Moderna, Universidad de Castilla-La Mancha

Pese a que la mayoría no entendemos cómo lo consigue, lo cierto es que la capacidad de la inteligencia artificial para resumir un texto más o menos largo (novela, ensayo, informe o paper académico) resulta asombrosa. Cuando el tiempo apremia, las exigencias son muchas y variadas y, como es tan fácil recurrir a ello, ¿cómo no pedir un poco de ayuda a una tecnología tan rápida, fácil y gratuita?

Un resumen de un texto hecho por la inteligencia artificial puede ser muy útil para obtener una orientación rápida sobre su contenido. Pero conviene pararse a analizar en qué estamos ahorrando exactamente y cuáles son las contrapartidas. No es lo mismo que, en un contexto profesional o de investigación, se aprovechen estos resúmenes para elegir bibliografía relevante o seleccionar materiales docentes, que utilizar ChatGPT para evitar una lectura obligada en la escuela.

Cuándo sí es útil la IA

Hay contextos escolares en los que puede tener mucho sentido apoyarnos en la IA. Por ejemplo, si nos piden que escojamos un libro para leerlo, podemos obtener resúmenes o recomendaciones que nos den criterios para la elección. O nos puede servir para obtener informaciones puntuales para un trabajo, como guía para luego profundizar.

Pero si la tarea consiste, precisamente, en leer un libro y resumirlo con el fin de trabajar la competencia lectora (algo imprescindible en primaria, pero también necesario practicar y seguir desarrollando en secundaria y la universidad), acudir a la IA nos ahorrará tiempo, pero nos hará perder algo que es incluso más preciado: el desarrollo del pensamiento crítico y de capacidades cognitivas y socioemocionales fundamentales para el aprendizaje.

Problemas de fiabilidad

Para empezar, los resúmenes de la IA no son siempre totalmente fiables. Existen las llamadas “alucinaciones”, es decir, información inventada, pero verosímil, que no aparece en ningún momento en el texto original. La IA puede generar inexactitudes como confusión de personajes, fechas, datos, etc.

A un nivel más profundo, puede incluir sesgos, al darle más peso a interpretaciones más probables estadísticamente o que se hayan expuesto en primer lugar en el texto. Además, la IA tiende a simplificar la riqueza interpretativa, quedándose en lo literal y ofreciendo una visión incompleta o distorsionada.

Una tarea que permite crecer al cerebro

Pero aún más importante es el papel que tiene la lectura profunda de libros completos y la elaboración de resúmenes como parte del proceso de aprendizaje, especialmente cuando se trata de estudiantes que todavía están adquiriendo sus habilidades lectoras.

En estos casos, si confiamos en la IA para elaborar resúmenes y dejamos de leer los libros completos, podemos estar limitando nuestro desarrollo cognitivo y afectivo y nuestra capacidad de aprender.

Leer un libro en su totalidad implica mucho más que extraer información: es una actividad compleja que activa la atención, la memoria, el razonamiento y la imaginación. El proceso de lectura profunda nos permite percibir matices, estructuras y capas de significado que se pierden inevitablemente en un resumen.

Al privilegiar los atajos y la lectura superficial, debilitamos las conexiones cognitivas que sostienen la concentración prolongada y la comprensión de alto nivel.

El papel del pensamiento crítico

Más allá de la comprensión, la lectura íntegra fomenta el pensamiento crítico, ya que enfrentarse a los argumentos en toda su complejidad invita a evaluar, cuestionar y elaborar juicios propios, en lugar de absorber pasivamente contenidos ya digeridos.

El contacto directo con un texto estimula la creatividad y la interpretación personal. Cada lector construye significado a partir de un diálogo activo con la obra, un proceso que es central en la experiencia literaria.

Cuando leemos el libro completo y lo resumimos sin ayuda tecnológica, estaremos fortaleciendo habilidades metacognitivas, que son las que nos ayudan a decidir qué incluir, qué omitir y cómo articular las ideas de forma coherente. Estas capacidades favorecen la retención y el aprendizaje profundo. Resumir no es solo acortar un texto, es aprender a pensar, y esta capacidad no se puede delegar en la IA.




Leer más:
Daniel Innerarity, filósofo: “La IA es un desafío y no una anulación de la creatividad humana”


La dimensión afectiva de leer

Además, la dimensión estética y emocional de la lectura y el placer que reporta el ritmo de la prosa, la tensión narrativa o la identificación con los personajes no puede ser replicada en un resumen. Este componente afectivo constituye un elemento clave para despertar y mantener la motivación intrínseca por leer.

Diversos estudios apuntan a que la lectura nos hace más felices y contribuye al desarrollo de la empatía y el bienestar emocional, tanto en la adolescencia como a lo largo de la vida. Leer por placer desde edades tempranas se asocia con un mejor desempeño cognitivo, mejor salud mental, disminución del estrés, menos problemas de conducta y mayor atención.

La lectura, la comprensión, la capacidad de síntesis y el pensamiento crítico se desarrollan de forma gradual a lo largo de la escolaridad. El uso de herramientas como la IA desde edades tempranas puede interferir en ese proceso. Además de impedir o ralentizar la consolidación de competencias esenciales, recurrir a ella como solución rápida contribuye a la tecnodependencia y a la consecuente pérdida de autonomía.




Leer más:
Cómo desarrollar una mirada crítica hacia la tecnología desde las aulas


Un uso moderado y responsable

La inteligencia artificial puede ser una herramienta valiosa para apoyar la comprensión, orientar la lectura o facilitar el acceso a ciertos contenidos. Pero no conviene usarla como sustituto del acto de leer y menos aún en edad escolar. Este es un periodo crucial para la adquisición de competencias lectoras, críticas y analíticas y para promover el hábito lector.

La lectura es una experiencia profunda, personal y formativa que no se reduce a datos ni a resúmenes; implica reflexión, interpretación y conexión emocional. Usar la IA con criterio puede enriquecer el proceso, pero nunca reemplazar el valor insustituible de enfrentarse directamente con el texto.


La versión original de este artículo ha sido publicada en la Revista Telos, de Fundación Telefónica.

The Conversation

Esther Nieto Moreno de Diezmas recibe fondos de la Universidad de Castilla-La Mancha.

ref. ¿Por qué no deberíamos pedir a la IA que nos resuma un libro para la escuela? – https://theconversation.com/por-que-no-deberiamos-pedir-a-la-ia-que-nos-resuma-un-libro-para-la-escuela-265302

Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte

Source: The Conversation – (in Spanish) – By Josep M. Trigo Rodríguez, Investigador Principal del Grupo de Meteoritos, Cuerpos Menores y Ciencias Planetarias, Instituto de Ciencias del Espacio (ICE – CSIC)

El cometa interestelar 3I/ATLAS capturado por el espectrógrafo multiobjeto Gemini (GMOS) en Gemini Sur, Cerro Pachón, Chile, el 27 de agosto de 2025. International Gemini Observatory/NOIRLab/NSF/AURA/Shadow the Scientist Image Processing: J. Miller & M. Rodriguez (International Gemini Observatory/NSF NOIRLab), T.A. Rector (University of Alaska Anchorage/NSF NOIRLab), M. Zamani (NSF NOIRLab)

Entre los esfuerzos realizados a nivel internacional por estudiar la naturaleza y la composición del cometa interestelar 3I/ATLAS, la Agencia Europea del Espacio (ESA) desveló ayer los primeros resultados obtenidos por varios ingenios espaciales que orbitan Marte.

Las imágenes de ExoMars desmontan rumores infundados

Eran muy esperadas estas imágenes. Sobre todo, por las especulaciones sobre la presunta naturaleza artificial del objeto, a pesar de que todas las observaciones obtenidas desde su descubrimiento indican que se trata de un cometa.

ExoMars capturó con su Sistema de Imagen de Superficie en Color y Estéreo (CaSSIS) una serie de imágenes que permitieron construir esta secuencia donde la apariencia difusa y cometaria del 3I/ATLAS es perfectamente visible, entre las estrellas de fondo.
Sistema de imagen de superficie en color y estéreo (CaSSIS), ExoMars

De hecho, en una escalada potenciada por los amantes de las pseudociencias y ciertos medios de comunicación, una imagen tomada por el rover Perseverance desde la superficie de Marte alentó teorías surrealistas por su forma oblonga.

Los profesionales que nos dedicamos a seguir estos cuerpos nos hacíamos cruces, pues dicha forma es consecuencia del movimiento aparente de un objeto luminoso durante una exposición prolongada. De hecho, cualquier persona puede hacer fotos similares de estrellas o planetas si no conecta los motores de su telescopio para contrarrestar el movimiento de rotación terrestre. Debemos tener en cuenta que las cámaras de Perseverance no están diseñadas para corregir el efecto de rotación del planeta rojo ni mucho menos seguir el movimiento propio de los objetos en el cielo.




Leer más:
La violenta explosión de rayos gamma que nadie puede explicar


Desgraciadamente –quizás por la falta de medios y personal a consecuencia de los recortes gubernamentales–, hasta la propia NASA cometió por unas horas el error de no desmentir que esa imagen deformada correspondía al cometa 3I/ATLAS, muchísimo más débil y difuso. Posteriormente, el experto Simeon Schmauß confirmó que se trataba del satélite Fobos.

Imagen del cometa 3I/ATLAS obtenida por el orbitador ExoMars-TGO.
ExoMars-Trace Gas Orbiter (ESA)

Avances en la comprensión sobre la naturaleza del cometa 3I/ATLAS

Además, recientemente se descubrió que la coma del 3I/ATLAS posee una alta tasa de producción de átomos de níquel ionizado. También presenta un cociente de níquel y hierro no vista anteriormente ni en cometas del sistema solar ni en el también interestelar 2I/Borisov, caracterizado por una actividad cometaria restringida. No se puede descartar que la naturaleza de ese cuerpo kilométrico que es 3I/ATLAS fuese rocosa, con significante presencia de granos de hierro y níquel. En nuestro sistema solar, algunos meteoritos primigenios denominados condritas son más ricos en esos granos metálicos que otros.

Las primeras observaciones polarimétricas del 3I/ATLAS, lideradas por el finlandés Zury Gray, también arrojan datos interesantes. Según las conclusiones de este estudio, el objeto posee una polarización negativa sin precedentes claros entre asteroides y cometas, incluido 2I/Borisov. Su comportamiento podría indicar que porta hielo de agua y que se asemeja en cierto modo a objetos helados –en la categoría de los objetos transneptunianos pequeños– y a un centauro (un tipo de cometas que cruzan las órbitas de los planetas gigantes) llamado (5145) Pholus.

La presencia de hielo de agua en la coma del 3I/ATLAS ha sido confirmada por otro trabajo basado en datos obtenidos por el telescopio Gemini Norte desde Hawái.

Veremos lo que deparan las observaciones futuras, pero algunas de esas propiedades anómalas quizás sean indicadoras de la prolongada estancia del cometa en el frío espacio interestelar. Durante ese tiempo podría haber acumulado sobre su superficie motas de polvo y hielos que se haya ido encontrando tras vagar cientos, o quizás miles, de millones de años.

Para comprender mejor la composición química del visitante, los científicos de la ESA también han intentado captar su espectro de luz mediante los espectrómetros OMEGA y SPICAM, ambos de la sonda Mars Express (ESA), y NOMAD, del ExoMars-Trace Gas Orbiter. En este punto, no está claro si la coma y la cola eran lo suficientemente brillantes como para obtener una caracterización espectral.

En noviembre, nuevas observaciones de la sonda Juice

Justo a finales de octubre, 3I/ATLAS alcanzará su mínima distancia al Sol; se espera que entonces la sublimación de la componente de hielos sea máxima. Justo pocos días después, la sonda espacial Jupiter Icy Moons Explorer (Juice) comenzará sus observaciones detalladas del objeto.

Lo cierto es que todos esperamos que el cometa 3I/ATLAS vuelva a colocarse en una geometría adecuada para poder ser seguido con nuestros telescopios. La segunda semana de noviembre, su distancia angular al Sol será ya suficiente para “recuperarlo”, probablemente como un objeto difuso de magnitud estelar +12, es decir, un billón de veces más débil que las estrellas más luminosas y sólo al alcance de telescopios de tamaño mediano. Hará falta buscar un cielo oscuro y emplear cartas celestes detalladas indicando su posición exacta, como las que facilita Sky Live.

El 19 de diciembre se encontrará a 268 millones de kilómetros de la Tierra, su mayor proximidad a nuestro planeta. Tras ese fugaz y lejano encuentro podremos seguir observando cómo pierde brillo y regresa finalmente al frío espacio interestelar. Un estudio reciente apunta a que 3I/ATLAS podría llevar vagando por la Vía Láctea cientos de millones de años, ya que no ha sufrido encuentros significativos con estrellas de la galaxia en los últimos diez millones de años.

La misión Comet Interceptor, a la espera del próximo visitante interestelar

Mientras ocurre todo esto, la ESA está desarrollando una nueva misión espacial dedicada al futuro encuentro de este tipo de cuerpos espaciales, llamada Comet Interceptor. Está previsto que la nueva sonda despegue en 2029 para mantenerse en el espacio hasta que surja la oportunidad de ser lanzada con destino a otro cometa interestelar.

El interés por aprender de 3I/ATLAS es enorme. De hecho, a finales de octubre presentaré el seguimiento realizado del objeto en una reunión de la misión Comet Interceptor en el Centro Europeo de Investigación y Tecnología Espacial (ESTEC), la sede de la ESA en Holanda.

Gracias a los actuales programas de seguimiento podríamos llegar a descubrir un cometa interestelar cada pocos años y se espera que, teniendo una sonda preparada en el espacio, alguno alcanzase el sistema solar con una geometría y velocidad adecuada para ser visitado por Comet Interceptor. Una aventura que podría estar a la altura de lo que cuenta la novela Cita con Rama, de Arthur C. Clarke.

The Conversation

Josep M. Trigo Rodríguez recibe fondos del proyecto del Plan Nacional de Astronomía y Astrofísica PID2021-128062NB-I00 financiado por el MICINN y la Agencia Estatal de Investigación.

ref. Las últimas noticias sobre el cometa extrasolar 3I/ATLAS llegan desde Marte – https://theconversation.com/las-ultimas-noticias-sobre-el-cometa-extrasolar-3i-atlas-llegan-desde-marte-266798

Las arquitecturas invisibles atrapan el Nobel de Química 2025

Source: The Conversation – (in Spanish) – By Antonio M. Rodríguez García, Profesor Titular de Universidad, Química Orgánica, Universidad de Castilla-La Mancha

Susumu Kitagawa, Richard Robson y Omar Yaghi, ganadores del Nobel de Química 2025. Niklas Elmehed © Nobel Prize Outreach, CC BY-NC

Construir materiales cristalinos con espacios gigantescos a escala atómica capaces de capturar, almacenar y transformar moléculas no solo parece el guion de una película futurista. También es un sueño científico hecho realidad por los galardonados por el Premio Nobel de Química este año.

Susumu Kitagawa, Richard Robson y Omar M. Yaghi han desarrollado los entramados metal-orgánicos (MOF, por sus siglas en inglés), una clase de materiales que ha revolucionado la química de materiales y que abre nuevas vías para abordar desafíos globales como el cambio climático, la escasez de agua o la transición hacia energías limpias.

El poder de las “jaulas” moleculares

Los MOF son redes tridimensionales formadas por nodos metálicos conectados mediante moléculas orgánicas. Esta combinación crea una estructura cristalina altamente porosa: hasta el 90 % de su volumen puede ser vacío y un solo gramo puede desplegar una superficie interna de hasta 6 000 m². Dicho de otro modo, una cucharadita de polvo de MOF puede tener una superficie equivalente a la de un campo de fútbol.

Su verdadera revolución es que son diseñables a la carta. Al cambiar el tipo de metal y las moléculas orgánicas, los investigadores pueden ajustar con precisión el tamaño de los poros, la forma de los canales y la química de sus paredes internas para hacer que interactúen con moléculas concretas. Esta modularidad es posible gracias a la llamada química reticular, una disciplina que construye materiales siguiendo patrones topológicos predecibles, casi como diseñar edificios con piezas de Lego moleculares.

Por qué son tan importantes

Son muchas sus aplicaciones, con impacto en ámbitos muy importantes de la vida diaria. Por ejemplo, sirven para:

  • Captura y almacenamiento de gases contaminantes. Algunos MOF atrapan dióxido de carbono, incluso a bajas concentraciones, algo esencial para reducir las emisiones industriales y, en el futuro, capturar CO₂ directamente del aire.

  • Transición energética limpia. Su capacidad para almacenar hidrógeno y metano de manera densa y segura los convierte en aliados clave para desarrollar combustibles limpios y avanzar hacia una economía descarbonizada.

  • Obtención de agua en lugares áridos. Existen MOF que absorben vapor de agua, incluso cuando la humedad es mínima, lo que permite diseñar dispositivos portátiles que “fabrican” agua potable a partir del aire del desierto.

  • Catálisis de precisión y química sostenible. Al actuar como microfábricas moleculares, los MOF pueden catalizar reacciones dentro de espacios confinados. Con ello, imitan la precisión de las enzimas y reducen el consumo energético y la generación de residuos.

  • Medicina avanzada y sensores. Su enorme superficie y la facilidad para modificarlos con moléculas activas los hace útiles en imagen biomédica, liberación controlada de fármacos o sensores químicos de alta sensibilidad.

De curiosidad académica a tecnología transformadora

Hace apenas dos décadas, los MOF eran un experimento de laboratorio con nombres complejos y aplicaciones hipotéticas. Hoy son una plataforma tecnológica en rápido desarrollo, estudiada tanto por grupos académicos como por grandes empresas químicas y energéticas.

Sus posibilidades se han multiplicado gracias a técnicas de síntesis más eficientes –que incluyen métodos ecológicos como la mecanoquímica o la sonoquímica, en las que las reacciones químicas se activan con métodos mecánicos o mediante ondas sonoras, respectivamente– y a herramientas de simulación computacional que permiten predecir estructuras antes de fabricarlas.

Un Nobel que mira al futuro

El galardón de 2025 no premia solo un descubrimiento elegante, sino que pone el foco en una nueva forma de pensar la química de materiales: pasar del ensayo y error a la ingeniería molecular racional.

En un mundo que necesita urgentemente tecnologías para capturar CO₂, gestionar el agua, almacenar energía limpia y reducir residuos industriales, los MOF son una pieza clave del futuro sostenible.

Además, este Nobel lanza un mensaje inspirador: la química, a menudo vista como sinónimo de contaminación, también puede ser una herramienta poderosa para proteger el planeta. Los entramados metal-orgánicos son la prueba de que imaginar y construir estructuras invisibles, átomo a átomo, puede tener un impacto muy real en nuestra vida cotidiana y en la salud del medio ambiente.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Las arquitecturas invisibles atrapan el Nobel de Química 2025 – https://theconversation.com/las-arquitecturas-invisibles-atrapan-el-nobel-de-quimica-2025-266917

La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation

Source: The Conversation – (in Spanish) – By Pablo Colado, Redactor jefe / Editor de Salud y Medicina, The Conversation

sfam_photo/Shutterstock

“Cambia lo superficial, cambia también lo profundo, cambia el modo de pensar, cambia todo en este mundo”.

Con este fragmento de la canción de Mercedes Sosa “Todo cambia” arrancaba el artículo ganador del Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation, un penetrante análisis sobre la validez de los testamentos vitales en los individuos aquejados por una demencia. “¿Existen cambios tan radicales que hagan que una persona deje de ser ella misma?”, se pregunta y hace preguntarnos su autor, Luis Espericueta, de la Universidad de Granada.

Entre las 132 candidaturas que se han presentado al certamen, dirigido a investigadores, doctorandos y docentes universitarios menores de 35 años, las propuestas han sido muy diversas en fondo y forma, como ilustra el tono más desenfadado del segundo premio: Partirse de risa: el origen científico del ja, ja, ja. Marta Calderón García, de la Universidad Miguel Hernández, nos invita a embarcarnos en un amenísimo viaje por los pormenores psicológicos, neurobiológicos y culturales de la risa humana.

Lo que no cambia es la voluntad de claridad y la pasión por la ciencia que también transmiten los ocho artículos finalistas, publicados durante estos últimos tres meses en The Conversation. Sus autores, por ejemplo, son capaces de situarnos en un ring (la placenta) donde libran un trascendental combate los genes paternos y maternos durante el desarrollo de feto; o de imaginar a las células mandándose mensajes de WhastApp (las vesículas extracelulares), como si una película de Pixar se tratara.

Queda, por tanto, demostrado que las metáforas constituyen una poderosa herramienta para hacer divulgación. Encontramos otro exponente de su buen uso en el artículo Neurohambruna: cómo la escasez de comida reprograma a los hijos de la guerra, donde se compara el cuerpo de las embarazadas con un canal de noticias: “todo lo que ocurre afuera –lo que la madre come, cómo se siente, etc.– se traduce en mensajes químicos que informan al bebé sobre el entorno donde crecerá”, escribe la autora. Y sin salir de la biomedicina de vanguardia, también hemos aprendido que las células madre cancerígenas son “como brasas escondidas, invisibles pero activas, esperando el momento justo para arder otra vez”.

Además, gracias a esta variopinta antología podrá ponerse al día de las últimas novedades en materia farmacológica –los medicamentos biosimilares y el papel de los excipientes en los fármacos– o averiguar si puede considerarse como “normal” algún consumo de alcohol.

Y, por supuesto, no podía faltar el gran tema de nuestro tiempo: el artículo ¿Se fiaría del criterio de ChatGPT para su diagnóstico médico? Por si acaso, busque una segunda opinión pondera con sentido común los pros y contras del uso de la inteligencia artificial en el ámbito de la salud. Porque como cantaba Mercedes Sosa, “cambia el modo de pensar, cambia todo en este mundo”, y necesitamos más que nunca voces autorizadas que nos iluminen en estos tiempos de furia y ruido.

P. D. En memoria de Luis Felipe Torrente, que nos dejó hace poco más de un año y que desde esta quinta edición honra con su nombre al Premio. Su magisterio sigue siendo una brújula para todos quienes hacemos The Conversation.

Feliz lectura.

The Conversation

ref. La selección: Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud Fundación Lilly-The Conversation – https://theconversation.com/la-seleccion-premio-luis-felipe-torrente-de-divulgacion-sobre-medicina-y-salud-fundacion-lilly-the-conversation-266554

¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Profesora ayudante doctora. Departamento de Economía Aplicada, Universidad de Valladolid

Un policía local regula el tráfico en Cartagena (Murcia) durante el apagón del pasado 28 de abril. Los semáforos dejaron de funcionar, lo que creó problemas en muchas ciudades españolas. P4K1T0/Wikimedia Commons, CC BY

Entre pandemias, olas de calor, crisis energéticas y ciberataques a infraestructuras y sistemas básicos, actualmente las emergencias son más probables que excepcionales. Sin embargo, ¿estamos preparados para lo inesperado? La evidencia sugiere que no: seguimos confiando en que, si algo pasa, alguien vendrá rápidamente a solucionarlo.

Aunque se haya avanzado en infraestructuras y respuesta institucional, la preparación ciudadana sigue siendo mínima. De hecho, desde la Unión Europea se ha insistido en los últimos meses en la importancia de que cada hogar disponga de un pequeño kit de supervivencia para afrontar posibles emergencias.

El apagón del 28 de abril: una prueba real

El 28 de abril de 2025 a las 12.32 del mediodía, un apagón masivo dejó sin electricidad a buena parte de la península ibérica. En pocos minutos, miles de hogares y negocios quedaron desconectados.

El corte duró solo unas horas pero bastó para paralizar los transportes, dejar sin cobertura a millones de personas y generar una sensación generalizada de desconcierto. Y, aunque a principios de abril un estudio del Centro de Investigaciones Sociológicas (CIS) señalaba que el 69 % de los españoles se consideraba preparado para subsistir 72 horas en caso de catástrofe, lo cierto es que el apagón demostró lo contrario.

La mayoría de los hogares no disponía de linternas, pilas, radio, efectivo ni provisiones básicas –como agua o alimentos que pudieran conservarse y consumirse sin electricidad–. Además, pocos tenían un plan familiar para actuar en caso de emergencia.




Leer más:
Lecciones del colapso del sistema eléctrico ibérico


Miedo, confianza y falta de previsión

Ante una emergencia, las reacciones no son las mismas, pues intervienen factores como la edad, el género, el entorno o incluso el nivel educativo. Se han identificado varios perfiles altamente vulnerables a las situaciones de emergencia: las personas mayores de 65 años, los turistas, las personas con un nivel socioeconómico bajo y los hogares con niños. También la situación de incomunicación contribuye a aumentar la vulnerabilidad.

A partir de los datos recopilados por el CIS en la encuesta flash sobre el apagón eléctrico, he analizado la respuesta de los ciudadanos españoles a dicha emergencia. Los resultados ofrecen una radiografía clara del comportamiento social ante una crisis imprevista.

Casi uno de cada tres encuestados reconoció haber sentido miedo durante el apagón, un porcentaje especialmente alto entre las mujeres (29,7 % frente al 14,4 % de los hombres) y las personas jóvenes. Esta diferencia también se aprecia por grupos de edad; paradójicamente, en porcentaje, los mayores de 54 años se mostraron menos afectados por la caída de la energía.

Dificultades y carencias

Durante el incidente, los ciudadanos señalaron diversas dificultades relacionadas con la falta de suministros y recursos básicos. Entre los principales problemas destacaron la ausencia de una fuente de energía no eléctrica para cocinar (36,3 %), la falta de un aparato de radio (16,7 %) y la imposibilidad de comunicarse (14,1 %).

Este último aspecto estuvo estrechamente vinculado con las emociones experimentadas durante la crisis. El miedo fue mayor entre quienes no lograron acceder a información durante las primeras horas, lo que refleja la importancia de la conectividad digital incluso en contextos de emergencia. Centrándonos en este aspecto, más de la mitad de los encuestados (55,3 %) indicó que una de las principales cosas que echó en falta fue el funcionamiento de los teléfonos y uno de cada cuatro mencionó la falta de conexión a internet o de acceso a las redes sociales (26,5 %).

La preparación material fue igualmente limitada. La mayoría de los hogares carecía de recursos básicos y pocos habían previsto cómo actuar en caso de emergencia. Según los datos del CIS, solo un 33,6 % de los encuestados declaró disponer de algún tipo de kit o material de emergencia. Por otra parte, el acceso a la información también resultó determinante: el 59,6 % consideró insuficiente la información proporcionada por el Gobierno español.

En definitiva, el estudio pone de manifiesto que, aunque la sociedad se perciba preparada, su reacción ante la emergencia muestra falta de previsión.




Leer más:
No solo durante un apagón: el valor de la radio en las crisis


Prepararse también es cultura

En los últimos años, España ha sufrido una pandemia, inundaciones, una tormenta de nieve, incendios forestales y un apagón general que han afectado a amplias zonas del territorio. Todo esto en un contexto internacional marcado por crisis energéticas, tensiones geopolíticas y amenazas cibernéticas. Estos episodios, distintos entre sí en naturaleza pero similares en consecuencias, muestran que las emergencias ya no son hechos aislados sino una realidad recurrente que pone a prueba tanto la capacidad institucional como la preparación ciudadana.

Más allá del impacto inmediato, el apagón del 28 de abril puso de relieve la falta de una cultura de prevención. Si en España la preparación ante emergencias sigue viéndose como algo lejano o innecesario, en otros países europeos –como Alemania, Suiza o los países nórdicos– las campañas de autoprotección y los simulacros forman parte de la vida cotidiana. Por ejemplo, en Alemania se promueven planes familiares de emergencia y campañas para almacenar agua y alimentos; en Suiza la ley garantiza, desde 1963, que cada persona disponga de una plaza en un refugio subterráneo, y en los países nórdicos los gobiernos distribuyen manuales y guías ciudadanas que explican cómo actuar ante apagones o crisis.




Leer más:
Cómo convivir con la incertidumbre: asumamos el miedo, evitemos el pánico


Sin alarmismos

Contar con una linterna, una radio o una reserva mínima de agua, medicinas y alimentos no es alarmismo sino una muestra de responsabilidad. Aprender a prever riesgos, a comunicarse cuando falla la tecnología y a apoyarse en la solidaridad vecinal no implica vivir con miedo, sino actuar con conciencia.

Las catástrofes naturales y emergencias de los últimos tiempos ponen de manifiesto que la seguridad no está garantizada y que requiere anticipación, responsabilidad y una respuesta ciudadana calmada y solidaria.

The Conversation

Raquel González del Pozo recibe fondos del proyecto: PID2021-122506NB-I00 (Ministerio de Ciencia, Innovación y Universidades / Agencia Estatal de Investigación).

ref. ¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril – https://theconversation.com/preparados-para-lo-inesperado-asi-respondieron-los-ciudadanos-espanoles-al-apagon-de-abril-266607

Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas

Source: The Conversation – (in Spanish) – By Rob Morris, Professor of Physics, School of Science and Technology, Nottingham Trent University

El Premio Nobel de Física 2025 ha sido otorgado a tres científicos por el descubrimiento de un efecto que tiene aplicaciones en dispositivos médicos y computación cuántica.

John Clarke, Michel Devoret y John Martinis llevaron a cabo una serie de experimentos hace unos 40 años que terminaron moldeando nuestra comprensión de las extrañas propiedades del mundo cuántico. Es un premio muy oportuno, ya que en 2025 se cumple el centenario de la formulación de la mecánica cuántica.

En el mundo microscópico, una partícula puede a veces atravesar una barrera y aparecer al otro lado. Este fenómeno se denomina efecto túnel cuántico. Los experimentos de los galardonados demostraron el efecto túnel en el mundo macroscópico, es decir, el mundo visible a simple vista. Y corroboraron que podía observarse en un circuito eléctrico experimental.

El efecto túnel cuántico tiene posibles aplicaciones futuras en la mejora de la memoria de los teléfonos móviles y ha sido importante para el desarrollo de los qubits, que almacenan y procesan información en ordenadores cuánticos. También tiene aplicaciones en dispositivos superconductores, capaces de conducir la electricidad con muy poca resistencia.

John Clarke, nacido en Gran Bretaña, es profesor de Física en la Universidad de California, Berkeley. Michel Devoret nació en París y es profesor F. W. Beinecke de Física Aplicada en la Universidad de Yale. John Martinis es profesor de Física en la Universidad de California, Santa Bárbara.

¿Qué es el efecto túnel cuántico?

El efecto túnel cuántico es un fenómeno contraintuitivo por el cual las diminutas partículas que componen todo lo que podemos ver y tocar pueden aparecer al otro lado de una barrera sólida, que en otras circunstancias se esperaría que las detuviera.

Desde que se propuso por primera vez, en 1927, se ha observado en partículas muy pequeñas y es responsable de nuestra explicación de la desintegración radiactiva de átomos grandes en átomos más pequeños y en algo bautizado como partícula alfa. Sin embargo, también se predijo que podríamos ver este mismo comportamiento en cosas más grandes: es lo que se denomina efecto túnel cuántico macroscópico.

¿Cómo podemos ver el efecto túnel cuántico?

La clave para observar este efecto túnel macroscópico es algo llamado unión Josephson, que consiste en una especie de un cable roto sofisticado. El cable no es un cable típico como el que se utiliza para cargar el teléfono, sino que es un tipo especial de material conocido como superconductor. Un superconductor no tiene resistencia, lo que significa que la corriente puede fluir a través de él indefinidamente sin perder energía. Los superconductores se utilizan, por ejemplo, para crear campos magnéticos muy fuertes en los escáneres de resonancia magnética (RM).

¿Cómo nos ayuda esto a explicar este extraño comportamiento de túnel cuántico? Si colocamos dos cables superconductores uno al lado del otro, separados por un aislante, creamos nuestra unión Josephson. Normalmente se fabrica en un solo dispositivo que, con unos conocimientos básicos de electricidad, no debería conducir la electricidad. Sin embargo, gracias al túnel cuántico, podemos ver que la corriente puede fluir a través de la unión.

Los tres galardonados demostraron el efecto túnel cuántico en un artículo publicado en 1985 (es habitual que transcurra tanto tiempo antes de que se concedan los premios Nobel). Anteriormente se había sugerido que el efecto túnel cuántico estaba causado por una avería en el aislante. Los investigadores comenzaron enfriando su aparato experimental hasta una fracción de grado del cero absoluto, la temperatura más fría que se puede alcanzar.

El calor puede proporcionar a los electrones de los conductores la energía suficiente para atravesar la barrera. Por lo tanto, tendría sentido que cuanto más se enfriara el dispositivo, menos electrones escaparan. Sin embargo, si se produce el efecto túnel cuántico, debería haber una temperatura por debajo de la cual el número de electrones que escapan ya no disminuiría. Los tres galardonados descubrieron precisamente esto.

¿Por qué es importante?

En aquel momento, los tres científicos intentaban demostrar mediante experimentos esta teoría en desarrollo sobre el efecto túnel cuántico macroscópico. Incluso durante el anuncio del premio de 2025, Clarke restó importancia al descubrimiento, a pesar de que ha sido fundamental en muchos avances que se encuentran a la vanguardia de la física cuántica actual.

La computación cuántica sigue siendo una de las oportunidades más interesantes que se vislumbran para un futuro próximo y es objeto de importantes inversiones en todo el mundo. Esto conlleva mucha especulación sobre los riesgos para nuestras tecnologías de cifrado.

También resolverá en última instancia problemas que están fuera del alcance incluso de los superordenadores más grandes de la actualidad. Los pocos ordenadores cuánticos que existen hoy en día se basan en el trabajo de los tres premios Nobel de Física de 2025 y, sin duda, serán objeto de otro premio Nobel de Física en las próximas décadas.

Ya estamos aprovechando estos efectos en otros dispositivos, como los dispositivos superconductores de interferencia cuántica (SQuID), que se utilizan para medir pequeñas variaciones en los campos magnéticos de la Tierra, lo que nos permite encontrar minerales bajo la superficie. Los SQuID también tienen usos en medicina: pueden detectar los campos magnéticos extremadamente débiles que emite el cerebro. Esta técnica, conocida como magnetoencefalografía o MEG, puede utilizarse, por ejemplo, para encontrar el área específica del cerebro desde la que emanan las crisis epilépticas.

No podemos predecir si tendremos ordenadores cuánticos en nuestros hogares, o incluso en nuestras manos, ni cuándo. Sin embargo, una cosa es segura: la velocidad de desarrollo de esta nueva tecnología se debe en gran parte a los ganadores del premio Nobel de Física de 2025, que demostraron el efecto túnel cuántico macroscópico en circuitos eléctricos.

The Conversation

Rob Morris no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas – https://theconversation.com/premio-nobel-de-fisica-a-los-experimentos-pioneros-que-allanaron-el-camino-para-las-computadoras-cuanticas-266986

Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio

Source: The Conversation – (in Spanish) – By Juan Pablo Fernández-Cortés, Profesor investigador. Departamento Interfacultivo de Música, Universidad Autónoma de Madrid

Gustavo Pittaluga (en el centro, de pie), junto al ‘Grupo de los cinco’ (de izquierda a derecha): Julián Bautista, Rodolfo Halffter, Fernando Remacha y Salvador Bacarisse. Biblioteca Virtual de Prensa Histórica, CC BY

El 8 de octubre de 1975, pocas semanas antes de la muerte de Franco, fallecía en Madrid Gustavo Pittaluga González del Campillo (1906-1975). Su entierro en el Cementerio Civil fue sobrio, sin homenajes. Como si con él se sepultara también la memoria de una modernidad interrumpida por la guerra y la dictadura.

En su biografía se cruzan nombres esenciales de la cultura española –su amigo Federico García Lorca, el cineasta Luis Buñuel o el poeta Rafael Alberti, entre otros– y el itinerario compartido por una generación que hizo de la creación artística un acto de resistencia y de libertad. El exilio llevó a Pittaluga de París a Estados Unidos, Cuba, México y otros países de América Latina, donde mantuvo viva la llama de la cultura de la República.

Medio siglo después, su figura, aún pendiente de un estudio riguroso, reclama su lugar en la memoria cultural de la España del siglo XX.

Los años de la guerra

Retrato de un hombre de traje apoyado en una balaustrada.
Retrato de Gustavo Pittaluga González del Campillo.
Miquelopezgarcia/Wikimedia Commons, CC BY-SA

Antes del estallido de la Guerra Civil, Pittaluga era ya una de las voces más prometedoras de la renovación musical española. Discípulo de Manuel de Falla y cofundador del Grupo de los Ocho, compartía escena con los hermanos Ernesto y Rodolfo Halffter, Fernando Remacha, Salvador Bacarisse o Rosa García Ascot en la defensa de una música abierta a la modernidad europea y alejada del academicismo. Dirigía conciertos, escribía críticas, componía ballets exitosos como La romería de los cornudos –fruto de su colaboración con García Lorca y el también dramaturgo Cipriano Rivas Cherif para la bailarina “La Argentinita”– y proyectaba y difundía en París y Madrid la música de los jóvenes compositores españoles.

Todo se quebró con la sublevación militar. Pittaluga abandonó su actividad artística e ingresó como diplomático en el Ministerio de Estado. Poco después, en el verano de 1937 fue destinado a Washington como secretario de la embajada dirigida por Fernando de los Ríos. Allí defendió la legitimidad del gobierno republicano y, en silencio, comenzó a concebir un homenaje a su amigo Lorca, asesinado en Granada el año anterior, un lamento íntimo que cristalizaría en una obra musical de alto contenido simbólico.

Nueva York: Lorca y Calder en el MoMA

En 1941 llega a Nueva York y se reencuentra con Luis Buñuel, que trabajaba en el departamento de cine del Museum of Modern Art (MoMA). Allí, se integró en su equipo como adaptador cinematográfico, una labor discreta que le permitió acceder al circuito cultural neoyorquino y establecer vínculos con las vanguardias internacionales.

En ese mismo espacio Pittaluga estrenó su Llanto por Federico García Lorca. Escrita para voz recitada y orquesta de cámara a partir de fragmentos de Bodas de sangre, es una partitura madurada en silencio durante los años más inciertos de la guerra y el exilio.

El estreno, del que hasta ahora se desconocía la fecha y el lugar, tuvo lugar el 27 de abril de 1943 en el ciclo Serenade, organizado por la violinista y mecenas Yvonne Giraud, marquesa de Casa Fuerte, bajo la dirección de Vladimir Golschmann con el título abreviado de Elegy. La obra compartió programa con Profiteroles, del compositor estadounidense Theodore Chanler, y la primera interpretación en Nueva York de Les Danses Concertantes de Ígor Stravinsky, lo que situó de manera explícita el homenaje lorquiano en el corazón mismo del debate musical contemporáneo.

Mientras el franquismo imponía el silencio sobre Lorca, Pittaluga lo rescataba en Estados Unidos y convertía su memoria en un acto de resistencia y un puente hacia la modernidad.

Fuentes hemerográficas que han pasado inadvertidas hasta la fecha, revelan otro episodio desconocido de la estancia neoyorquina de Pittaluga: la participación, en 1944, en el documental Sculpture and Constructions dedicado al escultor Alexander Calder. Para este cortometraje, producido por el MoMA, el compositor escribió una breve partitura para piano, de gran economía expresiva, que apoyaba el movimiento rítmico e inestable de los móviles de Calder.

El documental Sculpture and Constructions, dirigido por Herbert Matter.

Muchas de las obras que Pittaluga compuso en los primeros años de su exilio muestran también su diálogo con la literatura contemporánea y su empeño por mantener viva la memoria republicana. Sobre poemas de Rafael Alberti escribió Metamorfosis del clavel (1943), un ciclo de canciones para voz y guitarra. Poco después creó el Homenaje a Díez Canedo (1944), basado en el poema Merendero del escritor extremeño Enrique Díez-Canedo, exiliado y fallecido ese mismo año en México. En esta obra, recitador y piano dialogan en clave expresionista sobre ritmos de chotis y habanera que traducen las tensiones del deseo, el desarraigo y la vida urbana del exilio.

Latinoamérica

Tras instalarse en México en 1945, el camino de Gustavo Pittaluga volvió a cruzarse con el de su amigo Luis Buñuel, esta vez en el cine. La música de Los olvidados (1950) y Subida al cielo (1952) lleva su firma –aunque en los créditos de la primera apareció acompañada de Rodolfo Halffter para sortear trabas sindicales–. En Los olvidados, la sonoridad áspera y tensa potencia la crudeza del retrato de la miseria urbana; en Subida al cielo, reelabora con ironía moderna las músicas populares rurales, fundiendo tradición y vanguardia.

Dos hombres mirando los fotogramas de una película en una imagen en blanco y negro.
Gustavo Pittaluga (derecha) en una imagen de 1950.
Archivo Emilio Casares/Base de datos de Iconografía Musical

El largo exilio de Pittaluga sigue siendo uno de los capítulos menos explorados de su biografía. En La Habana, Lima, Guatemala, Buenos Aires, Brasil o Ciudad de México desplegó una actividad incansable como conferenciante, director y divulgador. En cada escenario combinaba en sus programas a Isaac Albéniz, Enrique Granados y Falla con estrenos de sus obras y de otros autores españoles, trazando un puente entre la tradición y las nuevas corrientes de la modernidad.

El retorno

En 1958 Pittaluga volvió a España. El regreso, sin embargo, no significó la reintegración plena. La dictadura franquista imponía silencios y él optó por trabajar al margen de las instituciones oficiales. Se refugió en la música para teatro, cine y ballet, con colaboraciones discretas pero significativas como la banda sonora para El baile de Edgar Neville (1960) o la selección musical realizada para Viridiana de Buñuel (1961).

En 1960, la familia de García Lorca le confió la edición de las Canciones del teatro de García Lorca, reconstruidas a partir de los recuerdos de Concha e Isabel García Lorca y del escenógrafo Santiago Ontañón. El gesto era, además, un acto de reparación simbólica.

“He aquí los textos impresos. Tremendo es no tener los verbales”, escribió Pittaluga al prologar la edición de las Canciones españolas antiguas que se publicaron un año después. Ese mismo año armonizó canciones para Yerma, dirigida por Luis Escobar, primera representación comercial de Lorca en la España franquista. Le siguieron Bodas de sangre (1962) y La zapatera prodigiosa (1965), todas con música incidental suya.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


En los últimos años de su vida, se enfrentó a una profunda crisis personal y emocional. Según relató Rafael Alberti en una entrevista con Max Aub en 1969, Pittaluga se encontraba en un estado de grave deterioro físico y mental, “muy borracho, muy enfermo, muy perdido”. Alberti recordó también haberlo visto en Buenos Aires en una situación de descontrol, llegando a romper los cristales del hotel donde vivía y a tener que pagar constantemente por los daños ocasionados.

Su tumba en el Cementerio Civil de Madrid resume su destino: sencillo y coherente. Un final que contrasta con la intensidad de una vida atravesada por guerras, exilios y pérdidas, pero fiel hasta el final a la música, a sus amigos y a la memoria republicana.

The Conversation

Juan Pablo Fernández-Cortés no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio – https://theconversation.com/se-cumplen-50-anos-de-la-muerte-de-gustavo-pittaluga-el-compositor-que-protegio-la-memoria-de-espana-en-el-exilio-266735