A war without accountability: why the Middle East crisis is also a legal quagmire

Source: The Conversation – Global Perspectives – By Anna Marie Brennan, Senior Lecturer in Law, University of Waikato

Hassan Ghaedi/Getty Images

What began with surprise US and Israeli strikes on Iran one month ago has hardened into a grinding stand-off, with no clear way out.

The conflict’s opening blows on February 28 killed senior leaders in Tehran, including Supreme Leader Ali Khamenei – prompting retaliatory missile and drone attacks on Israel, US bases and Gulf infrastructure.

Years of tension over Iran’s nuclear programme and its regional influence have now boiled over into open warfare, with diplomacy faltering as both sides entrench their positions.

On the ground in Iran, the violence is worsening what was already a strained human rights situation. News reporting from within the country carries daily images of damaged neighbourhoods, overwhelmed hospitals and families fleeing tit-for-tat strikes.

One incident in particular – the US airstrike on a school in Minab in southern Iran that left dozens of girls dead – highlights the scale of the devastation, as well as the war’s murky legal context.

Future war crimes investigators will need to ask some obvious questions. Was the school a civilian site, was it used for military purposes, what precautions were taken and was the civilian harm excessive relative to any military advantage?

Only then will responsibility be able to be determined – but such clarity is likely to be a long way off.

When the law is clear, but accountability is not

Many observers have already criticised the shaky legal basis for the conflict.

Some have described the US position – as set out in a letter to the United Nations invoking self-defence and the protection of Israel against an alleged imminent threat from Iran and its allied groups – as thin.

Others have argued that strikes supporting the stated goal of regime change were unlawful, citing the UN Charter’s prohibition on the use of force against the political independence of a state and the principle of non-intervention.

At this point, it is safe to assume that accountability for alleged international crimes by all sides to this ongoing conflict will remain elusive.

The International Criminal Court has no automatic jurisdiction because the United States, Israel and Iran are not parties to the Rome Statute, the treaty that established the court and defines its powers.

A UN Security Council referral of the situation to the court for investigation and possible prosecution is also unlikely, given the high potential for any such move to be blocked by veto-wielding permanent members.

Is any accountability likely to come through internal investigations by the states involved? This too is uncertain, as such investigations are often classified or narrowly framed by military and legal authorities.

This means independent investigators are often left to piece together their cases from satellite imagery, authenticated videos, mass graves, weapon remnants and medical and mortuary records.

While this can establish what happened and where, linking harm to identifiable decision-makers and proving intent is far harder while the conflict continues and key military records remain sealed.

This is not to say the laws of war themselves are ambiguous. They require forces to distinguish between civilians and fighters, avoid excessive civilian harm and take practical precautions.

International criminal cases turn on attribution and intent, meaning investigators must show who authorised an attack and what they knew. But without insider witnesses or key evidence, that is difficult, and proper accountability for war crimes often fall short.

A pattern of impunity?

We have seen this pattern before, where efforts to secure accountability are blocked or weakened by international deadlocks.

In 2014, the UN Security Council attempted to refer alleged war crimes and crimes against humanity against civilians in Syria’s civil war to the ICC. The effort failed after Russia and China vetoed it, citing concerns about sovereignty and the impact on a political settlement.

In 2021, the UN Human Rights Council ended the mandate of the Group of Eminent Experts on Yemen – an independent body tasked with investigating and reporting on violations by all parties – after some member states voted against renewing it. This removed one of the international community’s few mechanisms for documenting human rights abuses.

The ongoing crisis in Gaza has also proved a defining test of whether international law can be enforced.

The ICC has opened an investigation into Palestine and issued arrest warrants for senior Israeli and Hamas officials over alleged war crimes and crimes against humanity.

But such warrants depend on states to enforce them, and cooperation has been limited. A parallel UN inquiry has found Israel has committed genocide, yet the path to legal accountability remains contested.

In Iran, a similar outcome – or lack of one – now appears sadly likely.

The Conversation

I was a visiting professional at the International Criminal Court in 2014. I worked in chambers for Judge Sylvia Steiner on the Jean-Pierre Bemba Gombo (Central African Republic) case.

ref. A war without accountability: why the Middle East crisis is also a legal quagmire – https://theconversation.com/a-war-without-accountability-why-the-middle-east-crisis-is-also-a-legal-quagmire-279199

Why do men sexually harass women at work? Science offers two explanations – but only one of them holds up

Source: The Conversation – Global Perspectives – By Cordelia Fine, Professor, History & Philosophy of Science program, School of Historical & Philosophical Studies, The University of Melbourne

What causes workplace sexual harassment? How can we continue to better understand it? And what can be done to prevent it?

Successful answers to questions like these need a good scientific explanation. But which explanation should we draw on?

Two very different explanations circulate among social scientists. In new research, we compared how the two stack up – and found one of them was a clear winner.

Evolved sexual tendencies or maintaining gender hierarchies?

On one view, sexual harassment – as the name implies – is all about sexuality. According to the evolutionary psychology research program, men and women have evolved different psychological mechanisms to solve the different challenges they faced to successfully reproduce back in the Pleistocene epoch.

For men, these adaptive mechanisms include a greater interest in casual sex, and a tendency to mistakenly conclude that women are sexually interested in them. Women, in contrast, evolved to be more sensitive to potential threats to their sexual autonomy – and therefore perceive men’s advances as harassing.

But for social science scholars informed by the gender hierarchy – the idea that men hold more power and status than women – sexual harassment is “an expression of workplace sexism, not sexuality or sexual desire”. It is a mechanism for preserving work roles as masculine terrain, and pushing back against threats to men’s higher status within a workplace.

These two accounts offer very different ways of explaining workplace sexual harassment. So how do we go about deciding which one to draw on?

It might be tempting to think one scientific view is preferred over another for political reasons: he likes the evolutionary psychology account because he is a misogynist; or she likes the gender hierarchy account because she is blinded by her feminist ideology.

Putting explanations to the test

These accusations don’t get us very far. Fortunately, the philosophy of science gives us three well-established criteria for what makes for a good scientific explanation.

These three criteria flow from thinking about what scientific explanations are for.

The intrinsic value of explanations is that they provide understanding. We understand something better when we have identified its causes.

When it comes to sexual harassment, ideally the causes we identify will explain a broad range of sexual harassment phenomena. Sexual harassment is not just the “powerful man exploits attractive female subordinate” scenario that tends to get the most press attention.

Scientific explanations also have instrumental value. The causal explanations scientists produce can be used to generate new predictions that can be tested in future research. In other words, a good scientific explanation is also fruitful.

Scientists’ causal explanations can also be used to identify factors that can be manipulated or controlled. This gives society potential interventions to shape outcomes we care about, such as reducing workplace sexual harassment.

Two explanations, head to head

In our recently published research, we used these three criteria for a good scientific explanation to compare the evolutionary psychology and gender hierarchy maintenance accounts of workplace sexual harassment. So what did we find?

First, we found that the gender hierarchy maintenance explanation was clearly superior when it came to identifying causes that make sense of a broad range of workplace sexual harassment phenomena.

Evolutionary psychology makes sense of sexual coercion and some forms of unwanted sexual attention, to be sure. But research shows these kinds of behaviours almost invariably go hand-in-hand with sexist jokes, crude sexual remarks and sexually degrading imagery, such as porn.

None of these behaviours are plausibly about trying to gain sexual favours, even though some are sexual in nature. These behaviours are called “gender harassment” –which is the most common form of sexual harassment.

Unlike evolutionary psychology, gender hierarchy maintenance can explain all three forms of harassment. Demands for sexual favours, sexist remarks and requests for note-taking can all be understood as behaviours that reinforce traditional gender roles and confer greater status and authority to men.

Second, we found that both explanations have given rise to fruitful research programs that generate and test predictions. However, evolutionary psychology faces a challenge here.

The theory’s core prediction is that ancestral men who misperceived sexual interest in women tended to enjoy greater reproductive success, which is impossible to test. It is also plausible that sex pests would have faced disadvantages within close-knit communities. Without a time machine, this prediction can never be tested.

Third, we found the gender hierarchy maintenance explanation has the edge when it comes to identifying effective interventions. Flattening organisational hierarchies, and loosening the link between status and masculinity, are potential ways to change things.

Evolutionary psychology points instead to interventions such as educating men about what counts as sexual harassment. However, evidence suggests this kind of training is not effective. And, of course, the only way to really change people’s evolved adaptive mechanisms would be to change their brains and genes – which we can’t do.

Gender hierarchy maintenance is a better explanation

Our research points to the value of understanding workplace sexual harassment through the lens of gender hierarchy maintenance. This offers hope for the future of workplace culture: it suggests men are not essentially predisposed to be sexual harassers, with little that can be done to alter their evolved natures.

Instead, sexual harassment is best understood as a consequence of our current social and cultural environment. And this is something we can shape to facilitate a better and safer future at work.

The Conversation

Cordelia Fine receives funding from the Australian Research Council, and has previously received funding from the Victorian Government Commission for Gender Equality in the Public Sector and the Women’s Leadership Institute Australia.

Kate Lynch receives funding from the Australian Research Council and the Arthropoda Foundation, and has previously received funding from the Australia & Pacific Science Foundation and the John Templeton Foundation.

Morgan Anna Weaving has previously received funding from the Australian Research Council.

ref. Why do men sexually harass women at work? Science offers two explanations – but only one of them holds up – https://theconversation.com/why-do-men-sexually-harass-women-at-work-science-offers-two-explanations-but-only-one-of-them-holds-up-278894

Ancient bones show dogs have been woven into human life for nearly 16,000 years

Source: The Conversation – Global Perspectives – By Andrew Fairbairn, Professor of Archaeology, The University of Queensland

Reconstruction of 14,300-year-old dog jawbone from Gough’s Cave, England. Tom Anders & Longleat

Odin was a kelpie. Attentive and protective, with a happy smile and an endless hope for food, he succumbed to a terminal disease late last year. At his death, a deep sense of grief ripped through the household of one of us (Andrew): while Odin was not human, he was an irreplaceable member of the family.

Our new research, published in Nature this week, helps explain the unique and striking way dogs like Odin fit into the human world – whether reading our moods, following our movements or becoming part of the rhythm of everyday life.

Based on international collaborations lasting decades, the two new studies have unlocked previously unavailable information from the bones of dogs long dead. Yet these papers are not just about the dusty old bones found in our archaeological sites, or the cutting-edge science applied to them.

They shine light on a relationship that has been part of the human social world for at least 16,000 years.

A dog with a black, white and brown coat, eating a bone.
Vale Odin.
Andrew Fairbairn

The earliest known dog

Dogs are the earliest known animals to be both tamed and separated from their wild relatives over generations by humans. This process is known as domestication.

It has long been thought that dogs were domesticated from wolves, their closest relatives, during the last Ice Age. Solid evidence to test this has been hard to find in archaeological sites as dog bones are difficult to tell apart from those of wolves using their shape alone.

It has taken the successful extraction of ancient DNA (aDNA), a recently developed technique, to provide definitive identification of dogs, which differ genetically from wolves.

One of the new studies confirmed the earliest known dog is now from Pınarbaşı, a rockshelter site in Karaman, central Turkey. This dog lived around 15,800 years ago.

Excavated in 2004, the bones could have been from either dog pups or wolf cubs. But aDNA analysis confirmed their identity as dogs 20 years later, following 10 years of analysis and comparison with other aDNA results.

The dog pups were buried carefully and treated in death similarly to the humans buried nearby. This continued a close relationship with people during life, as shown by chemical analyses suggesting the dogs and humans shared similar foods, including small fish from the local wetlands. Dogs were not just animals lingering around the edges of campsites. They were already an integral part of human societies.

Integration of dogs into the human social world could have resulted from close cooperation during hunting. Dogs may also have acted as guardians and sentinels for their communities who lived in a world with many dangerous predators such as wolves and leopards.

An animated image of people camping in a cave with dogs, overlooking a grassy wetland.
Artistic reconstruction of Pınarbaşı 15,800 years ago, based on evidence from archaeological excavations by University of Liverpool.
Kathryn Killackey

Moving with people

The same analysis found dogs genetically similar to those at Pınarbaşı at Gough’s Cave in Britain around 14,300 years ago. This suggests a group of closely related dogs spread rapidly from Eurasia all the way to the far end of Europe, moving with people but also moving between different human communities.

These dogs were not related to European wolves and evidence from the second new study, suggests that European dogs were not domesticated separately to those elsewhere, rejecting a long held hypothesis. Their difference to east Asian dogs is due to the spread into Europe with farmers 8,500 years ago from Turkey of dogs which had interbred with local wolves.

We know this because of the DNA of a dog from our site of Boncuklu, an 11,000-year-old village, near Konya in central Turkey. Our excavations showed that pups were buried in the graves of people directly related to those earlier communities at Pınarbaşı, located 30 kilometres to the southeast, though they lived a very different life in permanent houses supported by small-scale farming.

Genetically related farmers from this region spread into Europe around 8,500 years ago, with dogs also genetically related to those at Boncuklu at their heels. The incoming dogs interbred with those already in Europe, but didn’t replace them entirely.

From the deep past to the present

Together, the studies show that dogs were already living alongside people across a surprisingly wide area from Anatolia to the far edge of western Europe in the last Ice Age, long before farming began, and that their history is older, more mobile and more entangled with human history than we once thought.

The detailed archaeological evidence from Boncuklu and Pınarbaşı show just how close dogs and humans had become and the larger scale analysis sees them repeatedly moving through human networks that crossed cultural boundaries.

We still do not know exactly where and when dog domestication began, and the patient research that will answer that question is already under way in excavations across the world.

But these two new studies make one thing very clear: by the end of the Ice Age, dogs were already deeply woven into human life and had become part of the community, forging deep bonds that continue to this day.

The Conversation

Andrew Fairbairn receives funding from the Australian Research Council, Australian Institute of Nuclear Science and Engineering, Wenner Gren Foundation for Anthropological Research and The University of Queensland.

Douglas Baird has received funding from The British Institute at Ankara, the British Academy, Gerda Henkel Stiftung, Australian Research Council, Arts and Humanities Research Council, National Geographic, Wainwright Fund Oxford, IFRGlobal.

Gökhan Mustafaoğlu has received funding from The British Institute at Ankara, the British Academy, Gerda Henkel Stiftung, Australian Research Council, Arts and Humanities Research Council, National Geographic, Wainwright Fund Oxford, IFRGlobal.

ref. Ancient bones show dogs have been woven into human life for nearly 16,000 years – https://theconversation.com/ancient-bones-show-dogs-have-been-woven-into-human-life-for-nearly-16-000-years-279219

The Olympics’ transgender athlete ban is a legal and moral minefield

Source: The Conversation – Global Perspectives – By Matt Nichol, Lecturer in Law, CQUniversity Australia

The International Olympic Committee (IOC) has confirmed it is introducing a controversial new policy that will ban transgender athletes from competing in women’s events.

The IOC stated eligibility for women’s events will be determined by a “once-in-a-lifetime” sex test, which would prevent transgender women and those with differences in sexual development from competing.

It is an abrupt U-turn after the IOC previously left athletes’ eligibility up to their respective sports federations.

Reactions to the decision were unsurprisingly fierce.

From a legal point of view, it opens up a can of worms and will no doubt affect many athletes from the top level down to grassroots.

What is the test?

The IOC says “eligibility for the female category is to be determined in the first instance by SRY gene screening to detect the absence or presence of the SRY gene”.

It added:

Based on scientific evidence, the IOC considers the presence of the SRY gene is fixed throughout life and represents highly accurate evidence that an athlete has experienced male sex development.

SRY stands for “sex determining region Y” gene. The presence of the SRY gene is associated with men’s typical sexual development.




Read more:
World Athletics’ mandatory genetic test for women athletes is misguided. I should know – I discovered the relevant gene in 1990


Any athlete whose test shows the presence of the SRY gene will be banned from the women’s category.

The screening will be done via an athlete’s saliva, a cheek swab or blood sample.

The IOC stated it is not retroactive and does not apply to any grassroots or recreational sports.

Why did the IOC make this move?

In September 2025 the IOC established a working group to examine scientific, medical and legal developments in this space.

The IOC said the group reached a consensus that “male sex provides a performance advantage in all sports and events that rely on strength, power and endurance”.

IOC president Kirsty Coventry said:

At the Olympic Games, even the smallest margins can be the difference between victory and defeat. So, it is absolutely clear that it would not be fair for biological males to compete in the female category.

The IOC added it had surveyed more than 1,100 Olympic athletes, which revealed “a strong consensus that fairness and safety in the female category required clear, science-based eligibility rules, and that protecting the female category is a common priority”.

At the Tokyo Olympics in 2021, New Zealand weightlifter Laurel Hubbard became the first openly transgender woman to compete at an Olympic Games. She finished last in the super‑heavyweight category.

The policy is widely expected to be adopted by individual sports federations, although many have already implemented similar testing in recent months, including World Athletics and World Aquatics.

It will be implemented for women’s events at the Olympic Games, Youth Olympics and Games qualifiers, from Los Angeles 2028 onwards.

Human rights law and sport

The IOC’s decision may be in opposition to several laws that aim to ensure everyone has the right to participate in sport.

The United Nations’ International Charter of Physical Education and Sport states access to and participation in sport is an international human right.

In 2019, a UN Human Rights Council resolution called on sports governing organisations such as the IOC to implement policies and practices that comply with international human rights.

International human rights laws require countries protect and promote human rights.

As many international sports governing organisations such as the IOC are based in Europe, the European Convention on Human Rights also applies to the new genetic testing rule. The IOC policy may violate this.

The UN Human Rights Council states genetic sex testing as an eligibility requirement for women’s sport violates athletes’ international rights to equality, bodily and psychological integrity and privacy.

While many support the IOC’s new policy, others argue the athletes now banned from competing in women’s sports are not being granted basic, long-agreed human rights.

Affected athletes may challenge the new rules in the Court of Arbitration for Sport – world sport’s top court, which has in the past heard cases on gender eligibility.

The IOC’s new rule may also violate the Council of Europe’s Convention on Human Rights and Biomedicine and domestic laws in many countries that prohibit genetic testing unless a health purpose is achieved.

Those left on the sidelines

This policy is a monumental shift from world sport’s most powerful authority.

It has sparked celebration among some, and anger and disbelief among others.

There will be aftershocks, maybe in the form of appeals or lawsuits. Where it leaves the few transgender and intersex athletes who want to compete in elite women’s sports is anyone’s guess.

The Conversation

Matt Nichol does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The Olympics’ transgender athlete ban is a legal and moral minefield – https://theconversation.com/the-olympics-transgender-athlete-ban-is-a-legal-and-moral-minefield-279445

Cómo la saturación informativa nos ha hecho perder la lectura profunda y qué hacer para recuperarla

Source: The Conversation – (in Spanish) – By Ángel Barbas, Profesor del Departamento de Teoría de la Educación y Pedagogía Social, UNED – Universidad Nacional de Educación a Distancia

LightField Studios/Shutterstock

Nunca habíamos tenido tanta información disponible como ahora. Noticias, análisis, comentarios y opiniones circulan sin descanso por redes sociales, medios digitales y aplicaciones de mensajería. Paradójicamente, esa abundancia no siempre se traduce en una mejor comprensión de la realidad. Con frecuencia ocurre lo contrario: la saturación informativa favorece lecturas rápidas y reacciones inmediatas que alimentan debates cada vez más polarizados.

Cuando aparecen fenómenos como la desinformación, la polarización o el discurso de odio, las respuestas suelen ir en dos direcciones. Por un lado, la verificación de la información: proyectos de fact-checking destinados a detectar contenidos falsos o engañosos. Por otro, la regulación normativa de los contenidos que circulan en las plataformas digitales.

En los últimos años han proliferado iniciativas en esta línea, desde mecanismos de moderación hasta programas institucionales para combatir el discurso de odio en redes sociales, como el reciente proyecto HODIO impulsado por el Gobierno español.

Estas estrategias pueden ser necesarias, pero suelen centrarse en los contenidos que circulan o en las normas que regulan su difusión. Con frecuencia se presta menos atención a una cuestión más profunda sobre la que queremos poner el foco en este artículo: ¿cómo nos relacionamos con el conocimiento cuando leemos?

Entre las distintas formas de leer que conviven hoy en los entornos digitales, dos resultan especialmente preocupantes: la lectura rápida, impulsada por la saturación informativa, y la lectura reactiva, favorecida por contextos de polarización.

Saturación informativa y lectura rápida

El flujo constante de contenidos que recibimos cada día nos obliga a procesar información a gran velocidad. Titulares, imágenes y mensajes se suceden sin pausa en nuestras pantallas.

Diversas investigaciones han mostrado que cuando la cantidad de información supera nuestra capacidad de procesarla, el análisis tiende a simplificarse. En estas situaciones resulta más difícil seguir razonamientos, relacionar datos entre sí y situar la información en su contexto, lo que dificulta la comprensión de los temas a los que los textos se refieren. Cuando el contexto desaparece, la comprensión se debilita.

Ante esta saturación desarrollamos estrategias de lectura rápida: echamos un vistazo a los titulares, captamos lo esencial en pocos segundos o saltamos entre fragmentos de información. Estas prácticas pueden a ayudar a orientarnos en entornos complejos, pero también reducen el espacio necesario para seguir razonamientos, comprender matices o contextualizar los hechos.

Diversos estudios han mostrado que la lectura en entornos digitales tiende a adoptar patrones fragmentarios y superficiales, caracterizados por una navegación rápida entre los textos y una atención discontinua.

Leer deja de ser un ejercicio de comprensión de la realidad y pasa a convertirse en un ejercicio de consumo rápido de información.

Polarización y lectura reactiva

A la lectura rápida se suma otra práctica cada vez más extendida: la lectura reactiva. En contextos polarizados, muchos contenidos se leen no tanto para comprenderlos como para posicionarse ante ellos.

Las investigaciones sobre razonamiento motivado muestran que las personas tienden a interpretar la información de forma que confirme sus creencias previas, aceptando o rechazando evidencias según refuercen o amenacen las convicciones con las que se identifican. Así, los textos se convierten rápidamente en detonantes de reacción, ya sea para compartir, comentar, criticar o defender una posición.

Leer tampoco es aquí un ejercicio de comprensión de la realidad, sino un ejercicio de reacción o de confirmación de lo que ya pensamos.

Entre el consumo rápido y la confirmación, la lectura pierde su función más elemental: comprender.

Por lo tanto, la difusión de interpretaciones simplificadas o contenidos engañosos no es solo el resultado de información falsa, sino también de dinámicas culturales que favorecen el consumo rápido de información y la reacción inmediata por encima de la comprensión. Las sociedades también se reconocen en sus formas de leer, y estas dicen mucho del lugar que ocupa el conocimiento y del tipo de conocimiento que se privilegia en ellas.

Leer de otro modo

La psicóloga y especialista en lectura Maryanne Wolf ha subrayado que comprender un texto requiere una forma de lectura pausada y reflexiva; una lectura profunda que permite establecer relaciones, interpretar matices y transformar la información en conocimiento. Pero recuperar esa forma de lectura implica reaprender a leer de otro modo:

  • Una primera condición para una lectura comprensiva es introducir pausas en la lectura. En entornos dominados por la rapidez y la reacción inmediata, detenerse supone ir contra la inercia de nuestra época.

  • Antes de compartir un contenido, comentarlo o criticarlo, conviene dedicar tiempo a entender qué está diciendo realmente y en qué contexto se sitúa.

  • Comprender también exige seguir el hilo del razonamiento. En lugar de limitarse a titulares o frases aisladas, leer implica reconstruir el argumento del texto: qué idea sostiene el autor, qué razones ofrece y cómo se relacionan entre sí.

  • La comprensión se amplía, además, cuando se ponen en diálogo diferentes perspectivas. Contrastar fuentes y enfoques no elimina el desacuerdo, pero ayuda a situar los argumentos en un campo más amplio y reduce la tendencia a adoptar interpretaciones precipitadas.

Estas prácticas pueden parecer sencillas, pero apuntan a algo más profundo que a una técnica de lectura. Desde la tradición filosófica que se remonta a Aristóteles hasta autoras contemporáneas como Martha Nussbaum se ha subrayado que conocer no depende solo de la información disponible, sino también de las disposiciones con las que nos acercamos a ella: atención, paciencia intelectual y disposición a revisar nuestras propias ideas.

En un entorno donde la información circula sin descanso y las respuestas frente a la desinformación, la polarización o los discursos de odio tienden a centrarse en la verificación o en la regulación de los contenidos, detenerse a comprender se vuelve casi contracultural.

Frente a la rapidez y la reacción, leer para comprender puede ser uno de los gestos más sencillos –y más radicales– a favor del conocimiento.

Una versión de este artículo se publicó en la revista Telos, de la Fundación Telefónica.

The Conversation

Ángel Barbas no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cómo la saturación informativa nos ha hecho perder la lectura profunda y qué hacer para recuperarla – https://theconversation.com/como-la-saturacion-informativa-nos-ha-hecho-perder-la-lectura-profunda-y-que-hacer-para-recuperarla-278280

¿Por qué algunas personas reaccionan ante un aviso de emergencia y otras no?

Source: The Conversation – (in Spanish) – By Fernando Medina Morales, Profesor de Geografía, Universidad de Las Palmas de Gran Canaria

Scharfsinn/Shutterstock

Cada vez que se anuncia un temporal o una ola de calor, muchas personas reciben avisos en el móvil o los ven en televisión. Sin embargo, el envío de información no siempre se traduce en que la población cambie su comportamiento. En teoría, los sistemas de alerta sirven para advertir de un peligro con tiempo suficiente para que la población puede tomar medidas y protegerse. Pero en la práctica, no siempre ocurre.

Saber que existe un aviso no significa saber qué hacer

En concreto en el caso de los avisos meteorológicos y las alertas de protección civil, un estudio llevado a cabo desde el grupo GEOTIGMA, de la Universidad de Las Palmas de Gran Canaria, revela que muchas personas no tienen claro qué hacer cuando reciben un aviso.

Casi el 74 % de los encuestados reconoció los niveles de aviso de la Agencia Estatal de Meteorología. Sin embargo, solo el 41 % fue capaz de distinguir bien entre un aviso meteorológico y una alerta de protección civil. Además, más de un tercio admitió que no sabe exactamente cómo actuar cuando se activa una alerta. Esto revela un problema frecuente en la gestión de riesgos: entender la información no siempre significa actuar en consecuencia.

La percepción del riesgo es clave

La reacción ante un aviso depende en gran medida de cómo cada persona percibe el riesgo. Si alguien le resta importancia, es probable que ignore el aviso y siga su vida normal. En cambio, si percibe el peligro como real, es más fácil que adopte medidas de autoprotección.

Por ejemplo, ante un aviso por fuertes lluvias, una persona que percibe el riesgo puede evitar desplazamientos innecesarios para realizar compras en establecimientos, no atravesar barrancos y revisar el estado de desagües o terrazas en su casa. En el caso de fuertes vientos, las medidas pueden incluir asegurar los objetos de balcones o azoteas, evitar caminar cerca de los árboles o las estructuras más inestables y extremar la precaución al conducir.

Cuando se trata de una ola de calor, ser conscientes del riesgo debería conducirnos a evitar la actividad física en las horas centrales del día, mantenernos hidratados, buscar espacios frescos y prestar especial atención a las personas mayores de nuestro alrededor.

Aunque las medidas pueden parecer simples, detectar si se implantan puede ser el mejor indicador de la percepción del riesgo de los individuos.




Leer más:
Las catastróficas consecuencias de confundir aviso meteorológico con alerta de riesgo


No todas las personas perciben el riesgo igual

La investigación muestra diferencias claras entre grupos de población. Las personas mayores suelen percibir los fenómenos meteorológicos como más peligrosos. Probablemente porque han vivido más episodios extremos y tienen más experiencia.

Los jóvenes, en cambio, tienden a percibir menos el riesgo. En nuestro estudio observamos que la percepción del peligro aumenta con la edad. Los participantes más jóvenes restaban importancia a muchas amenazas. Además, los jóvenes también tienen más dudas sobre qué hacer cuando reciben un aviso. Esto muestra algo importante: conocer que existe un sistema de alertas no significa saber cómo actuar.

También encontramos diferencias en otros grupos de población. Por ejemplo, las personas con mayor nivel de estudios suelen percibir más peligro en los fenómenos meteorológicos. Una posible explicación es que tienen más acceso a información científica o que están más familiarizadas con los sistemas de aviso. En general, las personas que conocen los niveles de alerta interpretan mejor la situación.

Otro resultado interesante aparece en el caso de las mujeres. En general, tienden a valorar más los riesgos y a adoptar medidas preventivas con mayor frecuencia.
En cambio, entre los grupos más jóvenes la percepción del riesgo suele ser más baja, lo que puede hacer que ignoren avisos o retrasen las medidas de autoprotección.

Cuando los mensajes generan confusión

Otro factor importante es cómo se comunican los avisos. En España existen dos tipos de mensajes. Por un lado están los avisos meteorológicos, que informan sobre la probabilidad de que se produzca un fenómeno adverso. Por ejemplo, un aviso naranja por lluvias intensas en el norte de Gran Canaria indica que, en esa zona pueden caer 80 litros por metro cuadrado en 12 horas.

Por otro lado, están las alertas de protección civil, que se emiten cuando las autoridades activan medidas para gestionar una emergencia. Por ejemplo, la declaración de situación de alerta por lluvias en una isla, con recomendaciones como evitar desplazamientos o no circular por barrancos.

Aunque ambos mensajes están relacionados, muchas personas no distinguen que, mientras un aviso meteorológico solo informa de lo que puede pasar, una alerta de protección civil indica que las autoridades ya están reaccionando ante el peligro. Esto puede generar confusión sobre la gravedad de la situación.




Leer más:
¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril


Informar no siempre es suficiente

Los estudios sobre comunicación del riesgo muestran que los avisos funcionan mejor cuando incluyen instrucciones claras y acciones concretas.

En los últimos años han aumentado los fenómenos meteorológicos extremos y, por suerte, las previsiones meteorológicas son cada vez más precisas. Pero su utilidad depende de cómo las interprete la población. Un sistema de alerta solo cumple su función cuando la población entiende de verdad el riesgo y sabe qué hacer ante él. Recibir un aviso es solo el primer paso: la repercusión depende de cómo reaccionamos.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Por qué algunas personas reaccionan ante un aviso de emergencia y otras no? – https://theconversation.com/por-que-algunas-personas-reaccionan-ante-un-aviso-de-emergencia-y-otras-no-277923

El boicot de EE. UU. a las misiones médicas cubanas pone en peligro la atención sanitaria en los países en desarrollo

Source: The Conversation – (in Spanish) – By Helen Yaffe, Lecturer in Economic and Social History, University of Glasgow

Cuban doctors who worked in Mexico during the height of the COVID pandemic return to Havana. Yandry_kw/Shutterstock

El 23 de febrero se vivieron escenas conmovedoras en Honduras, cuando algunos ciudadanos se despidieron de los profesionales sanitarios cubanos que les habían atendido de forma gratuita durante unos dos años. Esto ocurrió después de que el Gobierno hondureño pusiera fin de forma abrupta a la misión médica cubana, bajo la presión de la administración del presidente estadounidense, Donald Trump.

Ese mismo día, se envió un memorándum “confidencial” del Departamento de Estado de Estados Unidos al secretario de Estado, Marco Rubio. En él se abordaba la estrategia estadounidense para sabotear el internacionalismo médico de Cuba, que ha sido parte integral de la política exterior de la nación isleña desde 1960. En los últimos años, también se ha convertido en un pilar fundamental de su economía.

Estados Unidos lleva más de 60 años imponiendo sanciones unilaterales a Cuba. Estas impiden que el país caribeño participe en el comercio internacional “normal”. Por ejemplo, terceros no pueden venderle productos si el 10 % de sus componentes proceden de empresas estadounidenses o de sus filiales. Y Cuba no puede exportar productos a EE. UU. Además, el bloqueo estadounidense restringe severamente el acceso de Cuba al sistema financiero internacional.

En este contexto, la exportación de profesionales médicos se ha convertido en algo vital para la economía cubana. Durante décadas, el Gobierno cubano envió misiones médicas por todo el mundo como donación a los países en desarrollo. Pero en las últimas dos décadas, ha desarrollado acuerdos de cooperación en virtud de los cuales los gobiernos o las autoridades locales pagan al Gobierno cubano por los servicios médicos de sus profesionales sanitarios.

Atacar esos ingresos parece ser un componente clave de la campaña estadounidense a favor del cambio de régimen en Cuba para finales de año. Esto se suma al bloqueo petrolero total impuesto por la orden ejecutiva el 29 de enero, que ya ha provocado múltiples apagones a escala nacional que han dejado a toda la isla a oscuras.

Se trata de una política de incentivos y castigos. A los países que expulsan a los médicos cubanos se les ofrece apoyo estadounidense para la “modernización de las infraestructuras”, incluyendo la telemedicina y la formación virtual. Un año antes, Rubio había anunciado restricciones de visado para funcionarios actuales y antiguos, así como para sus familias, de cualquier parte del mundo que hubieran participado en programas cubanos.

A mediados de marzo de este año, los gobiernos vecinos se alinearon. Guatemala, Paraguay, Bahamas, Guyana y Jamaica cancelaron las misiones médicas cubanas, poniendo fin a décadas de cooperación. En Guatemala, más de 400 profesionales sanitarios cubanos, la mayoría de ellos médicos, prestan servicio a las comunidades indígenas en el marco de una colaboración que dura ya tres décadas. Los últimos médicos se marcharán a finales de año.

Médicos cubanos abandonan Honduras en febrero de 2026.

El ataque del Gobierno de EE. UU. al internacionalismo médico cubano no es nuevo. Comenzó en 2006, un año después de que el programa “petróleo por médicos” entre Cuba y Venezuela convirtiera la exportación de profesionales sanitarios en la mayor fuente de ingresos de Cuba.

La política estadounidense buscaba eliminar estos ingresos y socavar el prestigio que los programas habían ganado a la isla. El entonces presidente de EE. UU., George W. Bush, puso en marcha el Programa de Libertad Condicional para Profesionales Médicos Cubanos (CMPP), animando a los doctores cubanos en el extranjero a abandonar sus misiones y desertar a EE. UU. El programa no finalizó hasta 2017, en los últimos días de Barack Obama como presidente.

A pesar de ello, y como reflejo del déficit en la atención sanitaria a nivel mundial, los ingresos de Cuba por la exportación de servicios sanitarios aumentaron.

Los ingresos en 2018, el primer año en que Cuba publicó datos separados sobre los servicios de salud, se elevaron a 6 400 millones de dólares (unos 5 500 millones de euros). La primera administración de Trump desarrolló políticas, y financiación, para sabotear estos programas.

El estado de salud de Cuba

También ideó una nueva justificación para hacerlo. El Gobierno de EE. UU. no podía exigir abiertamente a los países que sacrificaran la salud y el bienestar de sus poblaciones solo para privar a Cuba de ingresos. Así que, en su lugar, acusó a Cuba de tráfico de personas y equiparó a sus profesionales sanitarios con esclavos.

Cualquiera que haya hablado con participantes cubanos —como yo— sabe que los contratos de servicio en el extranjero que firman les proporcionan su salario habitual en Cuba, más una remuneración extra del país de acogida. Se les garantizan vacaciones y el contacto con sus familias.

A pesar de contar con decenas de miles de trabajadores sanitarios en el extranjero, la inversión del Estado en asistencia sanitaria y formación médica hace que la población cubana tenga la proporción más alta de médicos por persona del mundo. En 2022, se estimaba que había nueve médicos y nueve enfermeros por cada 1 000 ciudadanos. En EE. UU., hay 2,6 médicos por cada 1 000 ciudadanos y en el Reino Unido la cifra es de 3,2.

Para muchos profesionales sanitarios cubanos, supone el cumplimiento de un deber internacionalista; para otros, una forma de viajar o de aumentar sus ingresos. El Gobierno de Cuba se queda con la mayor parte de los ingresos y los reinvierte en la sanidad pública gratuita y universal del país y la formación médica.

Pero bajo la segunda administración de Trump, Rubio, hijo de migrantes cubanos que abandonaron la isla durante la dictadura de Batista, ha encabezado un nuevo ataque contra los programas médicos internacionales de la isla. El reciente memorándum del Departamento de Estado afirma que las brigadas médicas cubanas son una fuente clave de “dinero en efectivo” para el régimen.

Las cuatro formas de internacionalismo médico cubano establecidas en la década de 1960 son:

  1. Brigadas médicas de emergencia en el extranjero.
  2. Tratamiento de pacientes extranjeros en Cuba.
  3. Formación de estudiantes extranjeros como profesionales de la salud.
  4. Establecimiento de centros de salud públicos en el extranjero.

Esta contribución a los países en desarrollo ha sido a menudo ignorada o censurada. Sin embargo, se traduce en millones de vidas salvadas y mejoradas en todo el mundo cada año. Sabotear el internacionalismo médico devastaría a Cuba. Pero también dejaría a millones de personas en todo el mundo sin la atención médica vital de la que antes disfrutaban.

The Conversation

Helen Yaffe no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El boicot de EE. UU. a las misiones médicas cubanas pone en peligro la atención sanitaria en los países en desarrollo – https://theconversation.com/el-boicot-de-ee-uu-a-las-misiones-medicas-cubanas-pone-en-peligro-la-atencion-sanitaria-en-los-paises-en-desarrollo-279334

¿A qué edad corremos el riesgo de perder el tren de la IA?

Source: The Conversation – (in Spanish) – By Sergio Sayago Barrantes, Profesor e Investigador en Human-Centered Computing, Universitat de Lleida

insta_photos/Shutterstock

Un alto porcentaje de personas que ahora tienen entre 55 y 60 años saben utilizar WhatsApp, compran por internet y participan en redes sociales, entre otras muchas cosas ligadas a la tecnología. Pero ¿les costará seguir el tren como sucede actualmente con los mayores? ¿La brecha digital que se conoce como “gris” será cosa del pasado?

Muchas personas mayores viven en una dictadura digital. Unas cuantas décadas atrás, no se necesitaba ninguna tecnología digital, en cualquiera de sus formas, para estudiar, trabajar y, en definitiva, vivir. Sin embargo, actualmente, la vida es difícil entenderla separada de los bits y los bytes. Y no va a parar. En una década, serán otras tecnologías las que habrán inundado nuestras vidas.

El futuro con IA

Prácticamente no hay opción de evitar lo digital. Y todo hace indicar que la dependencia tecnológica será cada vez mayor en el futuro. Un ejemplo es todo el revuelo que está levantado la inteligencia artificial generativa (IAG) y su práctica infinidad de aplicaciones, desde la educación al transporte pasando por los empleos y la investigación. La IAG ha venido para quedarse.

A diferencia de otros colectivos, como los niños y los jóvenes, muchas personas mayores no han nacido con un ordenador debajo del brazo. Estas tecnologías se han introducido en sus vidas en una etapa, que se conoce como la tercera edad, en la que, hay que admitirlo, aprender cosas nuevas cuesta, y aún es más difícil cuando aquello que se está aprendiendo a utilizar parece que está diseñado en contra de uno.

Por ejemplo, es necesario aumentar el tamaño de iconos y letras en la pantalla, porque para verlos se necesita tener una vista de quinceañero. La terminología es en gran medida incomprensible, o con un significado diferente al que tienen en la vida cotidiana. Hay numerosos ejemplos, entre los que más usamos: adjuntar y virus. Maneras de hacer las cosas poco naturales, y un sinfín de otros aspectos, como la configuración de dispositivos, actualizaciones y versiones, y todo lo que rodea a la seguridad (contraseñas, factor de doble identificación) complican, y mucho, la relación entre los mayores y las tecnologías digitales.

¿Qué pasará con los mayores que vienen?

Se puede pensar que cuando los adultos de 55 años, con experiencia con los ordenadores, se conviertan, o se les asigne sociológicamente hablando, la categoría de personas mayores, la brecha digital desaparecerá. Al fin y al cabo, ya tienen mucha experiencia con el mundo digital, y todo lo que tendrán que hacer es “reciclarse”. ¿Seguro?

La tecnología que tendremos en 10 años

La tecnología, y especialmente, la digital, evoluciona. Ahora, por ejemplo, cada vez es más natural poder hablar con una máquina, o incluso tener algo que se asemeje a una conversación. Asumir que aquella experiencia que se ha adquirido con una tecnología actual nos ayudará a utilizar la tecnología que tendremos en 10 años es asumir mucho.

Un ejemplo son los teléfonos móviles, que han pasado del “ladrillo” al smartphone. Para utilizar un móvil de última generación, no es suficiente saber utilizar un teléfono de cuando éramos jóvenes. Ahora los teléfonos son más que teléfonos; son ordenadores.

Las personas mayores siguen sin considerarse en el diseño de las tecnologías digitales. Digo siguen porque nunca han sido el target principal de los desarrollos tecnológicos. ¿Se las tuvo en cuenta cuando se diseñaron los primeros ordenadores? La respuesta es no, porque los usuarios potenciales eran otros. La tendencia es continuista: ordenadores, móviles, tabletas, coches inteligentes, asistentes de voz…

“Somos mayores, no tontos”

La inmensa mayoría de las tecnologías digitales no están pensadas para el colectivo “de los mayores”. En el mejor de los casos, se añaden opciones de accesibilidad, o incluso se diseñan tecnologías específicas para ellas, como los teléfonos para seniors y el conocido como el “botón del pánico”, relacionado con servicios de teleasistencia.

Sin embargo, las tecnologías para mayores a menudo acaban reforzando estereotipos negativos asociados a la vejez, y que muchas personas de edad avanzada, cuando se habla con ellas, no quieren utilizar. Como un participante en mis investigaciones me dijo un día, “somos mayores, no tontos”.

Además, hay cambios o pérdidas que son derivados del envejecimiento natural, como los cognitivos, que no desaparecen con más experiencia con las tecnologías.

Aprender y recordar

A la vez que nos hacemos mayores, nos cuesta más aprender y acordarnos de las cosas. Otros problemas con el acceso y uso a la tecnología, como los relacionados con la visión, tienen solución. Las gafas de lectura y la opción de acercar o alejar hacen maravillas. Pero el verdadero problema está en aprender y recordar, y las tecnologías actuales todavía no lo soluciona.

Mucho tienen que cambiar las cosas para que las personas mayores que vienen no pierdan el tren tecnológico en el futuro. Todavía estamos a tiempo de revertir la situación: todo lo que hay que hacer es trabajar para hacer unas tecnologías más justas, menos discriminatorias, y no perder nunca de vista que las personas mayores un día seremos nosotros.

The Conversation

Sergio Sayago Barrantes ha recibido fondos de la Obra Social “la Caixa” y la Fundación General CSIC, la ACT Network y la EU, durante su investigación.

ref. ¿A qué edad corremos el riesgo de perder el tren de la IA? – https://theconversation.com/a-que-edad-corremos-el-riesgo-de-perder-el-tren-de-la-ia-262073

Hecho en España: materiales españoles que cambiaron (y cambian) el mundo

Source: The Conversation – (in Spanish) – By José Manuel Torralba, Catedrático de la Universidad Carlos III de Madrid, IMDEA MATERIALES

Desde las legendarias espadas de acero toledano hasta los biomateriales que hoy ayudan a regenerar huesos o los catalizadores que transforman la industria química, los materiales han sido una de las claves del progreso tecnológico y científico. En este terreno, España ha contribuido con innovaciones que han dejado huella en el mundo y son parte esencial de nuestra historia científica.

El acero toledano

Espada Toledana de Francisco Pizarro.
Wikimedia Commons., CC BY

Hoy, sabemos cómo se hicieron las espadas toledanas y por qué, durante siglos, fueron consideradas entre las mejores espadas de este lado del mundo (en competencia con las espadas de Damasco y las katanas japonesas).

Deben sus propiedades a una estructura formada por un sándwich: dos láminas de acero con cierta riqueza en carbono que permitía filos muy duros y fáciles de afilar, con un corazón de hierro.

Se forjaban a la vez las tres capas y se templaban para conferir dureza superficial. Debió de costar muchas décadas, quizás siglos, llegar a la perfección de una espada, dura por fuera, pero dúctil por dentro, capaz de cortar cabezas mucho mejor que cualquier otra.

Las espadas toledanas pasaban cinco pruebas de calidad para medir su dureza, tenacidad y capacidad de corte. Muchas otras espadas pasaban tres o cuatro, pero nunca las cinco. La última, llamada “de la rodilla”, consistía en doblar la espada sobre un apoyo fijo (a menudo, la rodilla), desde la empuñadura hasta la punta.

Estas propiedades están relacionadas con su microestructura: forjando simultáneamente dos aceros de composiciones distintas, podemos conseguir una soldadura por difusión en una única pieza.

Sin embargo, en aquellos tiempos, esto solo podía lograrse difundiendo carbono en el hierro a altas temperaturas. El resultado dependía del tiempo, de la temperatura y de otros factores difíciles de controlar.

Lo mismo ocurría con el temple del acero: cambiar la temperatura desde la que se templa o el medio de enfriamiento –agua, aceite u otros– podía alterar por completo las propiedades del material. Con tantas variables en juego, fabricar una espada perfecta era casi un milagro.

La porcelana española

La cerámica está entre los primeros materiales que fabricó el ser humano. Una de las piezas más antiguas conocidas es una pequeña Venus, elaborada en Věstonice (actual República Checa) entre los años 29 000 y 25 000 a.C.

Venus de Dolní Věstonice.
Wikimedia Commons.

Desde el Paleolítico, surgió la idea de mezclar algunos tipos de arena con agua, moldear esa mezcla y “cocerla” en un horno. Pero hay un país donde la calidad y propiedades de la cerámica avanzaron mucho más rápido que en el resto de mundo: China. Allí, entre el siglo I y II, aparece la porcelana, muy densa, muy resistente y, en ocasiones, casi transparente.

En el momento que esa cerámica traspasó fronteras, se convirtió en la obsesión de japoneses, coreanos y europeos. Pero conocer los secretos que escondía nos costó a los europeos muchos siglos.

Algunos tenían que ver con la composición de la arcilla y otros con su procesado. Hoy, sabemos cuáles son los componentes que debemos mezclar para conseguir una buena porcelana y que el principal es una arcilla blanca que se llama caolín.

Ese interés por descifrar el secreto de la porcelana también llegó a España. En el siglo XVIII, dentro del espíritu reformista de la Ilustración, surgieron iniciativas para desarrollar en el país una producción cerámica capaz de competir con la de otros centros europeos. Uno de los proyectos más ambiciosos fue la Real Fábrica de Loza y Porcelana de L’Alcora, fundada en 1727.

Centro de flores de porcelana hecho en la Real Fábrica por la familia Bautista en el siglo XVIII.
Luis García / Wikimedia Commons., CC BY-SA

Aunque, inicialmente, produjo sobre todo loza fina inspirada en modelos franceses e italianos, la fábrica se convirtió rápidamente en un verdadero laboratorio de innovación y experimentación técnica. Además de su valor artístico, tuvo un impacto tecnológico notable. Muchos de los artesanos formados allí difundieron posteriormente conocimientos y técnicas por otros centros cerámicos, contribuyendo a modernizar la producción en distintas regiones.

De este modo, L’Alcora no solo produjo piezas de gran calidad, también ayudó a consolidar una tradición cerámica más avanzada. Una consecuencia fue que, en Madrid, en 1760, por iniciativa de Carlos III –que trajo también maestros ceramistas de Nápoles–, se funda la Real Fábrica de Porcelana del Buen Retiro (conocida por “La china”). Su fama llegó a ser tan importante que rivalizaba con la cerámica francesa de Sevres y provocaba una competencia insoportable a la porcelana inglesa.

Quizá por eso, durante la guerra de la independencia, en agosto de 1812, nuestros “aliados” británicos, en concreto el general Rowland Hill, aprovecharon su victoria sobre los franceses en la batalla del Retiro para volar la fábrica y reducirla a ruinas.

Biocerámicos que regeneran hueso

En los últimos años, España ha aportado materiales que están transformando la medicina, la energía y la industria. Un ejemplo claro de esto, son los biocerámicos para regenerar huesos y tejidos.

Se trata de materiales diseñados para interactuar con el organismo y favorecer la regeneración ósea en fracturas complejas, implantes dentales o enfermedades como la osteoporosis. A diferencia de los metales o polímeros convencionales, no solo actúan como soporte, sino que estimulan directamente la formación de nuevo tejido, convirtiéndose en piezas clave de la medicina regenerativa.

El grupo de investigación de la profesora Vallet-Regí en la Universidad Complutense de Madrid es pionero en el uso de vidrios y cerámicas bioactivas capaces de integrarse con el hueso y liberar de forma controlada iones o fármacos. Reconocida internacionalmente, ha situado a España en la vanguardia de los biomateriales, con avances que mejoran la calidad de vida de millones de personas.

Zeolitas para a industria energética

Otro ejemplo son las zeolitas desarrolladas en el Instituto de Tecnología Química (ITQ, UPV-CSIC) por el equipo del doctor Avelino Corma, que han situado a España en la élite de la catálisis mundial.

Son materiales microporosos que actúan como “tamices moleculares”, capaces de filtrar, separar y acelerar reacciones químicas con gran eficiencia.

Su impacto ha sido enorme en la industria química y energética, donde se emplean en el refinado de petróleo, la producción de combustibles más limpios y la síntesis de compuestos utilizados en plásticos, fertilizantes o medicamentos. Gracias a su estabilidad y selectividad, han permitido procesos más sostenibles y económicos a escala global.

Al mismo tiempo, centros de investigación españoles trabajan hoy en el grafeno, las perovskitas y otros muchos materiales que pueden marcar la próxima revolución tecnológica.

Así, España no solo ha tenido un pasado brillante en el arte de los materiales, sino que sigue siendo protagonista en la creación de innovaciones que causan un impacto global.

The Conversation

José Manuel Torralba no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Hecho en España: materiales españoles que cambiaron (y cambian) el mundo – https://theconversation.com/hecho-en-espana-materiales-espanoles-que-cambiaron-y-cambian-el-mundo-277998

¿Qué comieron Jesús y sus apóstoles en la Última Cena? Lo que revelan los Evangelios y la ciencia

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

Probablemente, las representaciones artísticas de la Última Cena (como el famoso fresco de Leonardo da Vinci, en la imagen) no reflejan con fidelidad cómo habría sido la comida narrada por los Evangelios. Wikimedia Commons

Los cuatro Evangelios y la primera carta de san Pablo a los corintios coinciden en narrar una última comida de Jesús con sus discípulos antes de ser crucificado, celebrada en los días de Pascua y con pormenores muy similares. Es algo inusual en otros episodios evangélicos de su vida, donde los relatos divergen más en detalles y énfasis.

Pero la Última Cena no solo es posiblemente la comida más famosa de la historia, sino también una de las peor imaginadas. Durante siglos la hemos visto a través de un filtro renacentista: una mesa larga, trece hombres en fila y una escena solemne que poco tiene que ver con la Judea del siglo I. La realidad debió de ser otra, tanto en la forma de sentarse como en el menú.

Preguntarse qué comieron Jesús y sus discípulos no es un detalle menor: permite volver a los Evangelios, la Pascua judía y la arqueología para entender cómo una comida real, en un contexto histórico concreto, se convirtió en símbolo central del cristianismo.

Una cena entre la Pascua y la controversia

Lo único seguro es también lo más conocido: en la Última Cena habría habido pan y vino. Son los únicos alimentos mencionados explícitamente por los Evangelios, y sobre ellos recae el gesto decisivo de Jesús: partir el pan, ofrecer la copa y darles un significado nuevo. De ahí nace la eucaristía cristiana.

Sin embargo, en cuanto se intenta ir más allá del pan y el vino, aparece la gran discusión: ¿fue una auténtica cena de Pascua? Los Evangelios de Mateo, Marcos y Lucas dicen que sí. Marcos, concretamente, la sitúa en “el primer día de los Ácimos”, es decir, en el marco de la Pascua judía.

El Evangelio de Juan, en cambio, sugiere que la cena ocurrió la noche anterior, de modo que Jesús murió antes de que comenzara formalmente la comida pascual. Ese desacuerdo ha sido uno de los grandes debates de la exégesis bíblica moderna.

El investigador Joel Marcus, de la Universidad de Boston, propone una salida intermedia que resulta especialmente útil. En su análisis sostiene que la comida histórica probablemente ocurrió la noche anterior a la Pascua, como sugiere Juan, pero que eso no impide reconocer que estuvo muy marcada por elementos del seder y de la haggadah judíos, es decir, por una comida ritual en la que ciertos alimentos eran explicados y vinculados a la memoria del éxodo.

En otras palabras: quizá no fue una cena pascual en sentido estricto, pero sí una cena modelada por la lógica de la Pascua.

Ese detalle cambia mucho la lectura. Marcus explica que los alimentos rituales eran objeto de explicación. El pan, por tanto, no era solo pan: era un alimento capaz de condensar memoria, liberación y pertenencia. Y lo mismo ocurría, aunque con una historia litúrgica más compleja, con el vino.

Lo que pudo haber en la mesa: del pan ácimo al cordero

Si se acepta que la Última Cena estuvo vinculada a la Pascua, aunque sea de modo flexible, las posibilidades del menú se amplían. El primer candidato es el pan sin levadura, o matzá, que simbolizaba la partida apresurada de los israelitas de Egipto, sin tiempo para que la masa subiera.

También el cordero asado aparece enseguida como posibilidad, ya que la Pascua judía del período del Segundo Templo estaba ligada al sacrificio del cordero en Jerusalén, y su consumo asado en el hogar. A eso se sumarían las hierbas amargas, otra pieza clásica de la memoria pascual.

La investigación arqueológica y la historia de la alimentación añaden más matices. En 2016, dos arqueólogos italianos publicaron un estudio sobre lo que se pudo haber comido en la Última Cena que incluía un menú reconstruido, a partir de versículos bíblicos, textos judíos, literatura romana antigua y datos arqueológicos, durante el siglo I. La mesa que propusieron para esa noche los investigadores incluye pan ácimo, cordero, estofado de lentejas o legumbres, aceitunas con hisopo (una hierba con sabor a menta), dátiles, frutos secos, alguna salsa de pescado similar al garum romano y vino aromatizado o diluido.

No es un menú comprobado plato por plato, pero sí una hipótesis históricamente razonable respaldada por la arqueología y la etnografía, puesto que los hallazgos realizados en yacimientos como Qumrán, Masada y el Barrio Herodiano de Jerusalén apuntan a la presencia de trigo, lentejas, aceite de oliva, frutas secas y hierbas en las dietas judías de la época.

En tiempos de Jesús, la base alimentaria era el pan, las aceitunas, el aceite, las legumbres, las frutas secas y, en algunos contextos, el pescado. La carne existía, pero se consumía sobre todo en circunstancias festivas o ceremoniales. Por eso el cordero resulta plausible en una cena solemne, pero no en una comida ordinaria.

Una comida lenta, ritualizada y conversada

Tampoco la forma de comer se parecía a la imagen popular. Los comensales probablemente no estaban sentados erguidos en sillas altas, sino reclinados sobre cojines o divanes bajos, al modo mediterráneo. Esta postura era una característica definitoria de las comidas formales en el mundo grecorromano y helenístico de la época.

La Última Cena, así imaginada, se parece menos a una pintura congelada y más a una comida lenta, ritualizada y conversada. Los participantes compartían cuencos y platos mientras se reclinaban en cojines, participando en un ceremonial profundamente enraizado en la tradición judía antigua.

La ingesta energética en tiempos de Jesús

Hay una dimensión menos obvia, pero muy reveladora, en todo este asunto: la nutrición. Sabemos más o menos qué alimentos podían circular por una mesa judía del siglo I, pero sabemos mucho menos sobre cuánta energía aportaba realmente la dieta de aquella época. Un estudio realizado en 2018 aplicó modelos matemáticos para estimar la ingesta energética probable en tiempos de la Última Cena.

Su punto de partida es muy sencillo: los registros antiguos de alimentos son útiles, pero incompletos. Los autores compararon descripciones históricas de dieta con estimaciones de altura de reclutas romanos, esperanza de vida, peso corporal probable y niveles de actividad física similares a los de sociedades agrarias modernas. El resultado fue llamativo: mientras ciertos registros de la Mishná (ley oral judía) apenas permitían calcular unas 1 176 kilocalorías diarias, los modelos fisiológicos elevan la ingesta probable a una franja de entre 2 319 y 3 973 kilocalorías al día. Mientras que hoy en día se establece que los requerimientos energéticos medidos en adultos modernos son unas 2 266 kcal/día mujeres y 2 850 kcal/día hombres, con variaciones por sexo, edad y actividad física,

La conclusión no resuelve el menú exacto, pero sí obliga a corregir una intuición frecuente: la de imaginar las comidas antiguas como mesas casi vacías, puramente simbólicas.

La Última Cena fue una cena sagrada, sí, pero también una cena humana. Y quizá siga fascinando precisamente por eso: porque en ella se cruzan la fe, la historia y algo tan humano como sentarse a la mesa.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué comieron Jesús y sus apóstoles en la Última Cena? Lo que revelan los Evangelios y la ciencia – https://theconversation.com/que-comieron-jesus-y-sus-apostoles-en-la-ultima-cena-lo-que-revelan-los-evangelios-y-la-ciencia-278573