¿Qué es la fiebre aftosa que azota a Sudáfrica y Chipre?

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

Vacunación de un ternero contra la fiebre aftosa en Brasil. Joa Souza/Shuttestock

En la actualidad, Sudáfrica atraviesa una grave crisis provocada por numerosos brotes de fiebre aftosa que han llevado al Gobierno a declarar la situación como desastre nacional. En Chipre, las autoridades acaban de decretar una estricta cuarentena tras la detección de varios brotes de la enfermedad; se han establecido rigurosos controles, además del sacrificio de miles de cabezas de ganado.

También conocida como glosopeda, la fiebre aftosa es una enfermedad infecciosa grave y altamente contagiosa causada por un virus de la familia Picornaviridae, del género Aphtovirus, que afecta a todas las especies de pezuña hendida, tanto domésticas como salvajes. Eso incluye vacas, ovejas, cerdos, cabras, venados, jabalíes y camellos. Aunque no es peligrosa para los humanos, tiene un tremendo potencial para causar enormes pérdidas económicas.

Los siete serotipos del virus (A, O, C, SAT1, SAT2, SAT3 y Asia I) no ofrecen inmunidad cruzada entre sí, lo cual es un problema añadido, porque significa que la infección o vacunación contra un serotipo no protege frente a los otros. Dentro de cada uno se distinguen diversos subtipos que pueden ser también inmunológicamente diferentes. Aunque todos los serotipos causan una enfermedad similar, puede haber diferencias en la especificidad del huésped y en la virulencia entre las cepas virales.

El pasado 13 de febrero, la Comisión Europea envió 500 000 dosis de vacuna contra uno de los serotipos (SAT1) a la República de Chipre con el fin de apoyar las actividades de vacunación en las zonas en las que el Gobierno no ejerce un control efectivo. Y en estos días, el Ministro de Agricultura de Sudáfrica, John Steenhuisen, ha recibido oficialmente el primer envío de un millón de vacunas que irán destinadas a intentar controlar el brote. El Gobierno sudafricano ha adoptado la política de “libre de fiebre aftosa con vacunación”, que exige inmunización masiva, control de movimientos y diagnósticos mejorados.

Así se extiende y actúa

Actualmente, esta patología está distribuida de forma endémica por amplias regiones de Asia, Sudamérica, Oriente Medio y África, lo que supone una amenaza para la Unión Europea. En España, su presencia o su sospecha son objeto de notificación obligatoria e inmediata a la autoridad competente, en línea con las normas establecidas por la Organización Mundial de Sanidad Animal (OMSA).

El último foco en territorio español fue detectado en una explotación de ganado bovino en la comarca de Talavera de la Reina (provincia de Toledo) en junio de 1986.

Los virus de la fiebre aftosa pueden estar presentes en todas las secreciones y excreciones de animales con infección aguda, incluido el aire espirado. En cuanto a la transmisión, generalmente se produce por contacto directo entre ejemplares infectados y susceptibles o, más raramente, por exposición indirecta de animales susceptibles a las excreciones y secreciones de ejemplares con infección aguda o a productos cárnicos crudos.

Tras la recuperación de la fase aguda de la infección, el virus desaparece, pero en ocasiones puede persistir en la orofaringe (la parte media de la garganta) de algunos rumiantes, e incluso de forma no replicativa en los ganglios linfáticos. Los animales en los que el virus persiste en la orofaringe pueden actuar como portadores e iniciar nuevos focos de la dolencia.

La enfermedad se caracteriza por fiebre, seguida de vesículas y erosiones en la lengua, encías, labios, espacio interdigital, glándulas mamarias y otras partes sin pelo de la piel. Esto provoca cojera y otras manifestaciones, como salivación excesiva, anorexia y muerte súbita en los animales jóvenes debido a lesiones en el músculo cardíaco.

Aunque la fiebre aftosa presenta una baja tasa de mortalidad en animales adultos, exhibe síntomas debilitantes como pérdida de peso, disminución de la producción de leche (hasta un 33 %), fallos reproductivos y pérdida de fuerza de tiro, lo que, en última instancia, reduce la productividad y genera pérdidas económicas. Entre las poblaciones susceptibles, la tasa de infección alcanza el 100 %, lo que significa que si el virus entra en un grupo de animales que nunca han estado expuestos y que no están vacunados, todos enfermarán.

En terneros lactantes jóvenes, la tasa de mortalidad es del 100 %, y los fallecimientos son atribuidos principalmente a problemas cardíacos.

Una grave amenaza ganadera

A nivel mundial, la fiebre aftosa supone una grave amenaza ganadera y causa pérdidas económicas que oscilan entre 6 500 y 21 000 millones de dólares (entre unos 5 500 y 17 800 millones de euros) anuales en áreas endémicas. Los países y zonas libres de la enfermedad también incurren en costos que superan los 1 500 millones de dólares (unos 1 300 millones de euros) al año.

Hoy, sigue siendo uno de los desafíos transfronterizos más importantes para la salud animal, porque restringe el comercio de animales y de productos derivados, y ocasiona importantes perturbaciones socioeconómicas. La compleja epidemiología de la fiebre aftosa, impulsada por diversos huéspedes, la rápida evolución del virus, la alta transmisibilidad y el mantenimiento subclínico en animales que no muestran signos externos de la enfermedad, configura las políticas comerciales internacionales y presenta obstáculos continuos para los esfuerzos efectivos de control y de erradicación.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué es la fiebre aftosa que azota a Sudáfrica y Chipre? – https://theconversation.com/que-es-la-fiebre-aftosa-que-azota-a-sudafrica-y-chipre-276459

Danger was flagged, but not reported: What the Tumbler Ridge tragedy reveals about Canada’s AI governance vacuum

Source: The Conversation – Canada – By Jean-Christophe Bélisle-Pipon, Assistant Professor in Health Ethics, Simon Fraser University

Eight months before the Tumbler Ridge mass shooting, OpenAI knew something was wrong. The company’s automated review system had flagged Jesse Van Rootselaar’s ChatGPT account for interactions involving scenarios of gun violence. Roughly a dozen employees were aware. Some advocated contacting police. Instead, OpenAI banned the account, but didn’t refer it to law enforcement because it didn’t meet the “threshold required” at the time.

On Feb. 10, Van Rootselaar killed eight people (her mother, her 11-year-old half-brother and six others at Tumbler Ridge Secondary School) before dying of a self-inflicted wound.

This case is not simply about one company’s misjudgment. It exposes the absence of any Canadian legal framework for assigning responsibility when an AI company possesses information that could prevent violence.

As a researcher in health ethics and AI governance at Simon Fraser University, I study how algorithmic systems reshape decision-making in high-stakes settings. The Tumbler Ridge tragedy sits squarely at this intersection: a private corporation made a clinical-style risk assessment it was never equipped to make, in a legal environment that gave it no guidance.

The digital confessional problem

Generative AI chatbots are not social media. Social media functions as a public square where posts can be monitored and flagged by other users. Chatbot interactions are private, intimate and designed to be accommodating. Users routinely disclose fears, fantasies and violent ideations to systems engineered to respond with conversational warmth.

In clinical practice, this kind of disclosure triggers a well-established duty. The Tarasoff principle, adopted across Canadian provinces through mental health legislation, imposes upon therapists a duty to warn if they determine that a patient poses a credible threat to an identifiable person, even if it means breaching confidentiality. But that duty rests on the clinical judgment of trained professionals who understand the difference between ideation and intent.

Arguably, OpenAI tried to mirror this clinical standard. But the people making these assessments are software engineers and content moderators, not forensic psychologists. The company itself acknowledged the tension, citing the risks of “over-enforcement” and the distress of unannounced police visits for young people.

The real question is not whether OpenAI’s reasoning was defensible in isolation. It’s whether a private corporation should be making this determination at all.

A vacuum where legislation should be

Federal AI Minister Evan Solomon, who intends to meet with OpenAI representatives today on Feb. 24 about this issue, said on Feb. 21 that he was “deeply disturbed” by the revelations, adding the federal government is reviewing “a suite of measures” and that “all options are on the table.” But those options remain undefined because the legislative tools that would have enabled them no longer exist.

The Artificial Intelligence and Data Act, embedded in Bill C-27, was supposed to be Canada’s answer to AI regulation. The Online Harms Act (Bill C-63) would have addressed harmful digital content. Both died on the order paper when Parliament was prorogued in January 2025.

What remains is a voluntary code of conduct with no legal force and no consequences for non-compliance. When OpenAI flagged Van Rootselaar’s account, its only obligation was to its own internal policy. Banning the account resolved the company’s liability while leaving a person expressing violent ideations disconnected from any intervention pathway.

Canada’s privacy law compounds the problem. The Personal Information Protection and Electronic Documents Act does contain an emergency exception: section 7(3)(e) permits disclosure without consent “to a person who needs the information because of an emergency that threatens the life, health or security of an individual.” But this provision was drafted for clear-cut crises, not for the probabilistic threat indicators that AI chatbot interactions generate. For a foreign corporation navigating this ambiguity, uncertainty favours inaction.

What Canada needs now

Canada’s next attempt at digital governance must recognize that human-to-AI interactions are fundamentally different from social media posts. Three elements are essential:

  1. Binding legislation with clear legal thresholds for when AI companies must refer flagged interactions to authorities. These thresholds must be developed with mental health professionals, law enforcement and privacy experts, not left to individual corporations.

  2. An independent digital safety commission as a third-party triage body. When an AI company identifies severely concerning interactions, it should refer the case to trained threat-assessment professionals rather than making the call internally or triggering an immediate armed police response.

  3. Modernized privacy legislation that provides explicit legal clarity for AI-specific disclosure, resolving the ambiguity that currently rewards doing nothing.

At the AI summit that took place in New Delhi from Feb. 16 to 20, 86 countries, including Canada, pledged to promote “safe, trustworthy and robust” AI. No concrete commitments followed. OpenAI’s Sam Altman stressed the urgency of international AI regulation and proposed an international body for AI safety norms modelled on the International Atomic Energy Agency, an irony not lost on anyone following the Tumbler Ridge revelations.

Minister Solomon says all options are on the table. Families of shooting victims, survivors and a devastated community in Tumbler Ridge are living with the cost of leaving regulation options open for too long.

The Conversation

Jean-Christophe Bélisle-Pipon receives funding from Michael Smith Health Research BC Scholar Award and the US National Institutes of Health.

ref. Danger was flagged, but not reported: What the Tumbler Ridge tragedy reveals about Canada’s AI governance vacuum – https://theconversation.com/danger-was-flagged-but-not-reported-what-the-tumbler-ridge-tragedy-reveals-about-canadas-ai-governance-vacuum-276718

Why people are turning to AI first for relationship advice — and why they shouldn’t

Source: The Conversation – Canada – By Maha Khawaja, PhD Student, Health and Society, McMaster University

It’s 1 a.m. The argument is over, but you keep running it back in your head anyway. You replay the tone, timing and that one sentence that landed wrong. So you open an artificial intelligence (AI) chatbot and type, “Am I right or am I overreacting? What do I say to what they said? What did they mean by XYZ?”

Research on attachment, emotion regulation and online discourse helps explain why turning to AI is becoming increasingly popular . The reassurance that it provides, however, can consolidate a one-sided interpretation far too quickly and, ultimately, train expectations that real relationships struggle to meet.

But for many, that’s where relationship support begins nowadays. The privacy of AI chatbots has become the space people go to first, especially given that the alternative — professional help or family and friends — often either involves paying, explaining yourself at length or risking judgment at exactly the moment you feel least steady.

However, while it’s a private moment and a keyboard click away, should we be looking for neutral relationship advice from AI chatbots?

Why does AI feel like support?

At a time when therapy is expensive or out of reach, and most relationship learning comes from media rather than practical skill-building, immediacy can be deeply appealing for some.

The appeal intensifies when relationship talk implicates identity. Questions like “Am I needy? Am I unlovable? Am I the problem?” carry shame, which makes disclosure feel risky. A chatbot offers a low-stakes space to narrate events and voice what might feel too exposed with friends or family.

Notably, chat-based relationship coaching can feel immediately satisfying, and research on reward-based engagement in online platforms suggests that quick, reinforcing feedback can encourage people to come back again and again, forming an addictive effect that chatbot interfaces may amplify.

Related work on chatbots also finds that when users feel a sense of closeness with AI, they report higher satisfaction and stronger intentions to reuse it, which helps explain why the use of these tools can become a habit instead of a one-time check-in. Interestingly, recent research also notes that people with anxious attachment styles are more likely to become emotionally dependent on AI.

From anonymous forums to algorithmic advice

Before chatbots, people often did this work through anonymous crowds in forums like Reddit, and research on online disclosure and support communities shows that anonymity and low social cost can increase willingness to share, especially around stigmatized or emotionally charged experiences.

In those spaces, you can disclose without being fully known, gather language from strangers and feel less alone with your own thoughts. AI distills that and suggests next steps, which can make disclosure easier while also nudging one reading of the situation into something that feels settled.

A quick, overly simplified fix.

However, over time, instant affirmation can train expectations for constant reassurance and rapid closure that intimate relationships rarely sustain, since intimacy develops through slower, reciprocal work under strain.

AI as a relationship rehearsal room

In practice, people use AI for far more than crisis.

Many use it as a communication coach, such as for drafting messages after conflict, softening tone and practising repair language before they speak.

Others use it as a rehearsal room for difficult conversations or as a planning tool for reconnecting, whether through date ideas, routines or small rituals that rebuild intimacy after distance.

It also shows up readily in the less visible work of relationships.

That could look like asking AI about the benefits of planning sex, how to navigate menopause and vaginal dryness or what lubricant to use with a dilator after cancer treatment. Here, AI helps make sense of situations that may be difficult to discuss with others and helps bring clarity to an unfamiliar field.

Where this becomes complicated is not simply that people use AI, but how its structure changes what counts as a good explanation. Because the system only has access to one narrated perspective, it can produce a coherent interpretation with high confidence while keeping out perhaps major details like context, history, power dynamics or what the other person has said.

Assisting, but not replacing, relational work

Though it may seem coherent, AI readily compresses nuance into a single storyline and can only focus on a singular conclusion. A chatbot can only respond to what it is given; trained professionals probe, clarify and notice gaps.

This isn’t only informal use of general chatbots either. Some tools are explicitly designed to mimic relationship coaching and therapeutic support, like Mojo or Amanda.ai, and some are even designed to function as an “AI companion” and romantic partner.

AI’s appeal also comes with real costs and risks, including energy-intensive infrastructure, corporate and political interests that shape what these systems learn and reproduce, the possibility of misinformation when nuance is missing and privacy concerns when an individual’s intensely personal disclosures are routed through data systems they do not control.

AI can support reflection and communication, but the substance of a relationship is still built and repaired in real time through choices partners make with each other. So, if you want a nuanced human answer, then just ask the humans in your life what they meant when they said “XYZ.”

The Conversation

Maha Khawaja does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why people are turning to AI first for relationship advice — and why they shouldn’t – https://theconversation.com/why-people-are-turning-to-ai-first-for-relationship-advice-and-why-they-shouldnt-272797

Can the placenta predict schizophrenia risk? Lessons from prenatal cannabis exposure

Source: The Conversation – Canada – By Daniel Hardy, Professor, Department of Ob/Gyn and Physiology and Pharmacology, Western University

Schizophrenia is a serious mental health disorder that is characterized by psychosis, making it difficult for a person to tell what is real. It impacts about one per cent of the Canadian population and is linked to major health challenges, including a shorter life span.

Many factors can increase the risk of developing schizophrenia, such as prenatal environmental conditions (for example, malnutrition or drug exposure), family history, childhood trauma and growing up in an urban environment.

However, there are still no reliable biomarkers that can predict early risk. This is important because early diagnosis leads to better treatment and outcomes for patients. Researchers are now looking at the placenta as a possible source of early indicators of schizophrenia risk.

The placenta-brain axis

The placenta can “record” what happens during pregnancy and can reflect both healthy and unhealthy conditions for the baby. This idea is known as the placenta-brain axis, which suggests that when the placenta is negatively affected, brain development may also be harmed in both the short and long term.

Large clinical studies have shown that in pregnancies resulting in low birth weight babies, certain genetic markers in the placenta are changed. These markers are strongly linked to a higher risk of schizophrenia and other negative behavioural outcomes (for example, autism, impaired cognition) in children.

There is also strong evidence connecting cannabis use during pregnancy to harmful effects on a child’s brain development, including a higher risk of schizophrenia. This is especially concerning in Canada, where cannabis was legalized in 2018. Since then, cannabis use during pregnancy has increased, with the highest reported rate of 24 per cent among pregnant teens (ages 13 to 19 years).

Although prenatal cannabis use is known to be associated with low birth weight, it is not well understood whether cannabis exposure affects the same placental biomarkers linked to schizophrenia. My laboratory, which has experience studying the effects of drug exposure during pregnancy, explored this question in a study published in Biology of Reproduction in January.

THC exposure

As a professor in the Department of Obstetrics and Gynaecology at the Schulich School of Medicine and Dentistry at Western University, I worked with my research team and collaborators, including master of science student Andrea Kocsis, Enzo Perez Valenzuela, Ph.D., David Natale, Ph.D., and Steven Laviolette, Ph.D. to investigate whether THC (the main psychoactive component of cannabis) changes these known placental schizophrenia markers.

First, we used a preclinical rodent model in which pregnant animals were given edible THC mixed with Nutella. We found that both male and female offspring exposed to THC showed reduced prepulse inhibition early in life. Prepulse inhibition is a psychological test commonly used when diagnosing schizophrenia in humans. Specifically, the prepulse inhibition test measures sensorimotor gating — the brain’s ability to filter out irrelevant stimuli — by observing how a weak, preceding stimulus (prepulse) reduces the startle response to a subsequent loud noise (pulse).

More importantly, we discovered that the placentae of these THC-exposed offspring showed increases in several human placental markers linked to schizophrenia risk.

We then tested whether this also occurs in a human cell culture model. We found that isolated human placental cells treated short-term (24 hours) with THC showed similar increases in these schizophrenia-related genes in these cells.

Identifying risks

This study has important clinical implications. Although stopping cannabis use during pregnancy is always recommended, it can be difficult for many people due to social or habitual dependence. As a result, some children are exposed to cannabis before birth without having any choice.

By identifying cannabis-specific placental markers linked to schizophrenia, there is potential to reduce negative behavioural outcomes early in life through psychological or dietary interventions. Since schizophrenia is usually diagnosed between ages 16 and 30, being able to identify risk at birth would be extremely valuable. Moreover, testing the placenta after delivery could become a practical way to assess schizophrenia risk.

Further research is needed to understand whether other components of cannabis, such as cannabidiol (CBD), also affect neurodevelopment or alter these placental markers. It is also imperative to explore whether these markers can help predict other outcomes, including adverse psychological conditions, autism or cognitive impairments.

Additionally, because the pre-conception health and lifestyle of fathers as well as mothers can affect the placenta, it is also possible that consumption of cannabinoids by either parent before pregnancy could affect placental health and increase schizophrenia risk, but this requires further study.

In the meantime, our findings provide important functional evidence for clinicians and regulatory agencies, such as Health Canada, as they continue to make decisions and policies regarding the safety of cannabis use during pregnancy.

The Conversation

Daniel Hardy receives funding from the Canadian Institutes for Health Research (CIHR).

ref. Can the placenta predict schizophrenia risk? Lessons from prenatal cannabis exposure – https://theconversation.com/can-the-placenta-predict-schizophrenia-risk-lessons-from-prenatal-cannabis-exposure-274381

Les barrages de castors aggravent-ils vraiment les inondations ?

Source: The Conversation – in French – By Pascale Biron, Professeure titulaire, Département de géographie, urbanisme et environnement, Concordia University

Les barrages de castors sont souvent perçus comme une menace pour les biens humains, notamment lors de crues exceptionnelles. Pourtant, les analyses scientifiques montrent que leur impact réel sur les inondations en aval est beaucoup moins important que ne le suggèrent certaines décisions judiciaires.


Les castors (Castor canadensis) sont reconnus comme des ingénieurs clés de l’écosystème, leurs barrages influençant l’hydrologie et la géomorphologie des cours d’eau.

Il existe un consensus scientifique sur l’impact positif des barrages de castors, par exemple en créant des milieux humides à l’échelle du paysage, en augmentant la biodiversité et en générant une hétérogénéité bénéfique pour de nombreuses espèces. Toutefois, lors de précipitations extrêmes, les barrages de castors sont rapidement accusés d’aggraver les inondations en aval lorsqu’ils cèdent.

Je me suis intéressée, avec mes collègues, au sujet des castors dans le cadre du congrès international Wood in World Rivers 5 qui s’est tenu à Gaspé en juin 2024, et qui a mené à la publication d’un article dans la revue Earth Surface Processes and Landforms.

Des conséquences réelles

Deux épisodes d’inondation attribués à des barrages de castors se sont produits à Port-au-Persil, dans la région de Charlevoix, au Québec, à la suite des fortes précipitations liées au passage de l’ouragan Katrina en 2005 et Irène en 2011.

En 2008 et 2017, la Cour supérieure du Québec la Cour supérieure du Québec a condamné la MRC de Charlevoix-Est à verser plus d’un million de dollars aux propriétaires d’un gîte à Port-au-Persil, estimant que des barrages de castors situés en amont avaient contribué aux dommages subis lors de fortes crues. En 2017, les deux parties avaient présenté des experts aux avis opposés : les demandeurs affirmaient que la destruction du barrage aurait empêché les inondations, tandis que la défense soutenait que la rivière aurait débordé malgré tout.

Le juge a donné raison aux demandeurs, considérant que la MRC connaissait le danger potentiel des barrages et avait l’obligation légale d’intervenir pour éviter les risques d’inondation, conformément à l’article 105 de la Loi sur les compétences municipales.

Cet article stipule que « toute municipalité régionale de comté doit réaliser les travaux requis pour rétablir l’écoulement normal des eaux d’un cours d’eau lorsqu’elle est informée de la présence d’une obstruction qui menace la sécurité des personnes ou des biens ». Le bois mort et les barrages de castor constituent une « obstruction » aux yeux de cette loi.




À lire aussi :
Le castor, cet ingénieur méconnu de la forêt boréale


En somme, comme les barrages de castors constituent une menace, ils devraient être détruits à titre préventif. Mais quelles preuves scientifiques étayent ces affirmations ?

Il existe des outils de modélisation qui permettent de bien comprendre les répercussions en aval des ruptures de barrages anthropiques, comme ceux appartenant à Hydro-Québec, par exemple. Ce sont précisément ces outils de modélisation hydraulique que l’ingénieur engagé par la MRC, Jean Gauthier, a utilisés dans son rapport soumis au Tribunal. L’expert était présent au deuxième procès, en 2017.

Une nouvelle simulation

Comme le juge a remis en question son estimation du volume d’eau en amont du barrage, nous avons décidé de contacter M. Gauthier pour lui demander de refaire des simulations numériques à l’aide des outils et des données les plus récents.

Pour évaluer l’impact du barrage de castor sur le niveau d’eau au pont du Chemin Port-au-Persil, nous avons utilisé un modèle simulant la crue résultant des précipitations d’août 2011.

Nous avons réalisé des simulations avec et sans rupture du barrage. Pour évaluer le scénario le plus défavorable, nous avons supposé que le barrage se rompait au moment où la crue est la plus forte. Nous avons également considéré que la brèche (l’ouverture créée dans le barrage) se formait en seulement 10 minutes – un délai très court, comparable à celui d’un barrage en béton – afin de mesurer l’impact maximal possible en aval.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Le juge ayant remis en question l’estimation du volume d’eau derrière le barrage, celui-ci a été volontairement augmenté pour tester un scénario extrême. Il a été multiplié par quatre (10 000 m3) par rapport au volume initialement estimé sur le terrain (2 500 m3). Enfin, une hauteur de barrage supérieure de 1 m à celle mesurée sur le terrain (3,15 m au lieu de 2,15 m) a également été testée.

Les résultats de notre modélisation indiquent que même avec un volume d’eau quadruplé, l’impact sur le niveau d’eau au pont reste très faible, ce qui confirme que les dommages causés au gîte ne peuvent être attribués à la rupture du barrage de castor. Les simulations soulignent en outre que c’est la hauteur du barrage, plutôt que son volume de rétention, qui contrôle la propagation des ondes de crue en aval.

En réalité, d’autres phénomènes naturels en lien avec les crues torrentielles survenues, comme les glissements de terrain, le transport de sédiments et de bois découlant de l’érosion du lit et des berges (observés le long de la rivière Port-au-Persil en 2011) sont probablement responsables des dommages observés lors des grandes inondations de 2005 et 2011.

De plus, l’étroitesse du pont du chemin de Port-au-Persil pourrait avoir contribué aux dommages causés par les inondations. Ce pont a été reconstruit en 2023.




À lire aussi :
Mieux vivre avec l’eau, pour être plus résilient face aux inondations


L’importance des évaluations rigoureuses

Nos conclusions remettent en question la perception négative des barrages de castors et soulignent l’importance d’évaluations scientifiques rigoureuses dans les affaires de responsabilité civile liées aux inondations.

Les implications juridiques de l’article 105 de la Loi sur les compétences municipales du Québec, ainsi que la jurisprudence liée aux évènements de Port-au-Persil qui tient les MRC responsables des dommages causés par les inondations dues à des « obstructions » dans les rivières, créent un risque de démolition généralisée des barrages de castors.

Il faudrait plutôt préconiser des pratiques de gestion fondées sur des preuves et la sensibilisation du public afin de reconnaître les avantages écologiques des castors tout en répondant aux préoccupations liées aux risques d’inondation qu’ils représentent.

La Conversation Canada

Pascale Biron a reçu des financements du Conseil de recherche en sciences naturelles et en génie (CRSNG)

Maxime Boivin est cotitulaire de la chaire de recherche sur les espèces aquatiques exploitées (CREAE) et membre au Centre de recherche sur la Boréalie (CREB). Il a reçu des financements du Conseil de recherche en sciences naturelles et en génie (CRSNG).

Thomas Buffin-Bélanger a reçu des financements du Conseil de recherche en sciences naturelles et en génie (CRSNG)

ref. Les barrages de castors aggravent-ils vraiment les inondations ? – https://theconversation.com/les-barrages-de-castors-aggravent-ils-vraiment-les-inondations-276141

Avalanches meurtrières : pourquoi les skieurs sous-estiment les risques, malgré les avertissements

Source: The Conversation – in French – By Frédéric Dimanche, Professor and former Director (2015-2025), Ted Rogers School of Hospitality and Tourism Management, Toronto Metropolitan University

« La montagne n’est ni juste, ni injuste. Elle est dangereuse », disait le grand alpiniste italien, Reinhold Messner. Cette année encore, la montagne lui donne raison. Les conditions climatiques ont favorisé des avalanches meurtrières, notamment à Lake Tahoe, en Californie, mais aussi dans les Alpes.


Selon les chiffres du Système national d’Observation de la Sécurité en Montagne (SNOSM), les décès par accident sur les domaines skiables en France s’élevaient entre 8 et 14 par an, selon les années.

Cette année, en février, nous avons déjà largement dépassé ces moyennes. Malgré les progrès réalisés pour prévenir les avalanches – dont la gestion est depuis 2018 inscrite par l’UNESCO au patrimoine culturel immatériel de l’humanité – elles continuent de faire des victimes.

La situation, particulièrement dramatique cette année, s’explique par la structure instable du manteau neigeux, mais aussi par une mauvaise compréhension des risques perçus par certains skieurs et surfeurs, qui, souvent, déclenchent eux-mêmes les avalanches.




À lire aussi :
Tragédie en motoneige au lac Saint-Jean : peut-on vraiment réglementer l’aventure ?


La fascination du hors-piste : liberté, poudreuse et adrénaline

Chaque hiver, des skieurs se lancent hors des pistes balisées, parfois au péril de leur vie. Ces personnes ne sont pas toutes inconscientes ou débutantes dans cette pratique : certaines sont expérimentées, bien équipées de matériel de survie (détecteur de victime d’avalanche ou DVA, pelle, et sonde), et connaissent les dangers. Pourtant, elles décident malgré tout de s’aventurer hors-piste.

Alors, pourquoi skier hors-piste malgré les dangers et les recommandations des professionnels ? Le ski hors-piste fascine, que ce soit en station ou en ski de randonnée bien au-delà des pistes. En effet, il représente le plaisir, la liberté, et l’aventure, dans des sites d’une grande beauté. La poudreuse, aussi appelée pow ou peuf, est dans les rêves de tous les amateurs de glisse : elle offre des sensations rares, exaltantes et recherchées. Elle procure un plaisir intense pour qui sait la maîtriser… et elle peut rendre accro.

Mais le risque est invariablement présent en montagne. On définit souvent le risque par deux critères : (1) la probabilité que quelque chose de néfaste se produise, et (2) la gravité des conséquences. On peut évaluer ces critères rationnellement, avec de l’information fournie par sa propre expérience, ou par les bulletins d’estimation du risque d’avalanche (BERA). Mais la compréhension des risques n’est pas simple.

Pourquoi prenons-nous des risques en montagne ?

Lorsqu’une couche de neige fraîche recouvre les pentes, elle agit comme les sirènes d’Homère, ensorcelant le skieur et l’attirant vers une zone dangereuse et parfois fatale. Mais pourquoi prendre des risques qui peuvent être funestes ? Les chercheurs en psychologie, en sociologie et en neurosciences ont tenté de répondre à cette question et plusieurs théories permettent de comprendre ce comportement.

L’envie de sensations fortes. La première explication vient de la psychologie de la personnalité. Certains ont un besoin plus fort que d’autres de vivre des expériences intenses. On appelle cela la recherche de sensations fortes (ou sensation seeking en anglais). Cette quête de sensations fortes mène à la prise de risque. On peut bien sûr associer à cela la recherche de plaisir dans l’activité.

L’illusion de la maîtrise. Les skieurs expérimentés développent souvent une illusion de maîtrise : ils connaissent le terrain, ils ont déjà skié en poudreuse, et ils ont confiance dans leur matériel, le trio indispensable de secours. Or, les avalanches sont des phénomènes complexes où même une faible erreur d’appréciation peut être fatale. Le danger est d’autant plus grand que la confiance est élevée. De plus, se munir d’un DVA, d’une pelle et d’une sonde (et éventuellement d’un sac à dos airbag) n’empêche pas l’avalanche de se produire. Elle surprend même les guides et moniteurs de ski.

L’influence des réseaux sociaux et de la culture du freeride. Le rôle des réseaux sociaux est devenu important dans la popularisation du hors-piste. Des vidéos montrant des descentes spectaculaires dans de la neige fraîche attirent de nombreux amateurs vers des zones non sécurisées et parfois dangereuses. D’après un article américain, les messages et vidéos incitent des personnes sans expérience à suivre des itinéraires dangereux, entraînant une augmentation des interventions de secours.

Les contenus générés par les utilisateurs peuvent créer une perception biaisée des risques : les vidéos et photos spectaculaires et les commentaires de skieurs suggèrent que l’aventure hors-piste est accessible à tous, sans insister suffisamment sur la nécessité d’une formation adéquate, d’un équipement adapté, et d’une connaissance avancée des conditions nivologiques locales.

Sous-estimation du danger et heuristiques cognitives (raccourcis mentaux). Les chercheurs qui étudient le comportement des victimes d’accidents d’avalanche soulignent des biais psychologiques dans la prise de décision. Par exemple, la familiarité avec une pente ou un accès facile peut amener un skieur à sous-estimer le danger d’un itinéraire simplement parce qu’il a déjà skié au même endroit sans incident ou parce qu’il y a déjà des traces de descente. Cette tendance à atténuer la perception du risque, même lorsque les conditions d’enneigement ou météorologiques changent, explique souvent pourquoi certains skieurs s’aventurent hors-piste sans évaluer correctement le danger.

Dynamiques sociales et culturelles. Les dynamiques de groupe jouent aussi un rôle clé. La pression des pairs et le désir de ne pas être perçu comme peureux jouent souvent dans la prise de risque. Ainsi, des décisions dangereuses peuvent être prises collectivement, mais sans réel débat. Aussi, montrer ses compétences à descendre une belle pente de neige engendre de la reconnaissance parmi ses pairs et incite à la prise de risque.

Cerveau et dopamine. Les neurosciences montrent que l’attrait du risque a aussi une explication biologique. Le cerveau est programmé pour rechercher la récompense, et quand on prend un risque sans conséquences néfastes, le cerveau libère de la dopamine, ce qui procure un intense plaisir, et peut expliquer l’exposition au danger. Ainsi, le freerider devient accro à cette émotion et recommence pour retrouver ce plaisir, en laissant au second plan une analyse rationnelle du risque et de ses répercussions.




À lire aussi :
Bain glacé et douche froide sont-ils la panacée après l’effort ?


Mieux comprendre pour mieux prévenir

Les skieurs ne sont pas tous inconscients. Leurs choix s’expliquent par un ensemble de facteurs psychologiques, sociaux, et biologiques. Mais leurs actions mènent parfois à des tragédies. Comprendre ces mécanismes ne sert pas à juger, mais à mieux prévenir.

Mieux informer sur les risques, adapter les campagnes de sensibilisation, exiger le port d’un équipement de sécurité et ouvrir le débat sur la gratuité des secours en montagne constituent des pistes possibles. Plutôt qu’interdire l’accès à cet espace de liberté qu’est la montagne, il s’agit sans doute de renforcer une culture du renoncement et de la responsabilité.

La Conversation Canada

Frédéric Dimanche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avalanches meurtrières : pourquoi les skieurs sous-estiment les risques, malgré les avertissements – https://theconversation.com/avalanches-meurtrieres-pourquoi-les-skieurs-sous-estiment-les-risques-malgre-les-avertissements-274785

Chiens de race : l’esthétique peut-elle justifier la souffrance ?

Source: The Conversation – in French – By Valérie Chansigaud, Historienne des sciences et de l’environnement, chercheuse associée au laboratoire Sphère (Paris Cité – CNRS), Université Paris Cité

Un bouledogue français, un cavalier King Charles Spaniel, un chat sans poil sphynx, un teckel à poil ras. Greggabet photographie caudry / Cavalier King Charles Spaniels / Dmitry Makeev / Dalila Dalprat Sousa Santos , CC BY

Afin de limiter la souffrance animale, la Commission européenne tâche de poser des limites à la sélection génétique des races de chiens et chats aux traits extrêmes. Si cette avancée demeure inédite, elle réagit à un phénomène tout sauf nouveau : l’obsession de l’homme pour l’apparence des animaux domestiques.


La Conseil et le Parlement européen ont récemment adopté une accord provisoire visant à encadrer plus strictement l’élevage des chiens et des chats, en interdisant notamment la reproduction et la mise en avant d’animaux présentant des « formes extrêmes ».

Sont particulièrement concernées certaines morphologies associées à des troubles graves et durables, comme les chiens au museau écrasé, chez lesquels les difficultés respiratoires, l’intolérance à l’effort ou les problèmes locomoteurs sont désormais bien documentés.

Cette évolution réglementaire répond à des alertes répétées du monde vétérinaire et à une sensibilité croissante de l’opinion publique à la souffrance animale. Elle s’inscrit également dans une longue histoire de la place démesurée accordée par les sociétés humaines à l’apparence des animaux domestiques et à leur volonté de la façonner.

Sélectionner l’apparence : une pratique ancienne aux usages multiples

Il est impossible de dater précisément le moment où les humains auraient commencé à sélectionner des animaux sur des critères esthétiques. Bien avant l’existence des « races » au sens moderne (un phénomène qui émerge au XIXe siècle), des animaux étaient déjà choisis en fonction de leur sexe, de leur âge, de leur couleur ou de leur conformation. Dans de nombreuses sociétés anciennes, les animaux destinés au sacrifice devaient ainsi répondre à des critères précis d’apparence et d’intégrité corporelle : dans les cultes grecs et romains, seuls des animaux « sans défaut » étaient admis devant les divinités ; en Chine, sous la dynastie Zhou, les sacrifices royaux exigeaient également des bêtes jugées parfaites, tant extérieurement qu’intérieurement.

Autrement dit, la sélection sur l’apparence est probablement aussi ancienne que la domestication elle-même. Elle n’était jamais isolée : elle s’entremêlait à des critères religieux, sociaux, économiques ou politiques, par exemple lorsque le pouvoir politique affirme sa puissance en imposant des animaux sacrificiels répondant à des normes précises.

Ce qui change à l’époque contemporaine, c’est que l’apparence peut devenir, dans certains cas, le critère central, voire exclusif, de la création des races. Posséder un chien de race peut ainsi marquer un rang, une appartenance sociale ou un certain rapport au monde, comme d’autres animaux ont pu, à différentes époques, signaler le prestige ou le pouvoir de leur propriétaire, à commencer par le cheval, mais aussi certains chiens de chasse.

Une préoccupation tardive pour la santé et le bien-être

Les races modernes émergent au XIXe siècle, dans un contexte marqué par le goût pour la classification, la hiérarchisation et la distinction sociale fondée sur la notion de race. Cette passion pour les lignées « pures » n’est pas sans lien avec les cadres intellectuels qui, à la même époque, voient se développer les théories raciales appliquées aux humains.

Photographies de l’exposition canine, au jardin des Tuileries en mai 1898
Photographies de l’exposition canine, au jardin des Tuileries en mai 1898.
Jules Beau/Gallica BNF, Fourni par l’auteur

Pendant longtemps, les effets de la sélection ont été évalués presque exclusivement à l’aune de la productivité, de l’efficacité ou de la conformité à un standard. La souffrance animale était connue, mais largement tolérée, considérée comme secondaire, voire inévitable. Les pratiques vétérinaires elles-mêmes en témoignent : pendant une longue période, des interventions lourdes ont été pratiquées sans anesthésie, comme la stérilisation des chiennes.

D’autres gestes, aujourd’hui reconnus comme inutiles et douloureux, étaient également courants : on sectionnait par exemple le frein de la langue chez les chiens, dans l’idée erronée de prévenir la rage.

Ces pratiques témoignent d’un rapport au corps animal dans lequel la souffrance était largement ignorée, par indifférence plus que par méconnaissance.

Ce n’est qu’à partir de la seconde moitié du XXe siècle que la douleur chronique, la qualité de vie ou la santé à long terme des animaux commencent à être pensées comme des problèmes en tant que tels. Les inquiétudes actuelles concernant les chiens aux morphologies extrêmes – difficultés respiratoires, troubles locomoteurs, intolérance à l’effort – s’inscrivent pleinement dans cette histoire récente de la sensibilité au bien-être animal.

Des chats qui ont longtemps échappé à cette logique

La récente réglementation européenne semble concerner plus directement les chiens que les chats, et cette impression correspond à une réalité historique, biologique et sociologique. En France comme dans de nombreux pays européens, les chiens de race sont proportionnellement plus nombreux que les chats de race. Cette différence s’explique en grande partie par l’histoire de l’élevage.

L’intérêt pour les races de chiens est ancien et structurant. La sélection de types morphologiques spécifiques devient l’un des moteurs centraux de l’élevage canin au XIXe siècle, en systématisant et en normant des pratiques bien plus anciennes de différenciation fonctionnelle. Dès l’Antiquité, certains chiens sont ainsi recherchés pour des usages guerriers ou de combat, en fonction de leur taille, de leur puissance ou de leur agressivité.

Ce type de sélection n’est d’ailleurs pas propre aux chiens : chez les gallinacés, des individus ont été privilégiés très tôt pour des usages non alimentaires, notamment pour le combat de coqs ou comme animaux d’ornement, bien avant que ne s’impose une sélection orientée vers la production de chair ou d’œufs.

À l’inverse, les chats ont longtemps échappé à cette logique. Les premiers concours félins du XIXe siècle récompensaient des individus – souvent des chats de gouttière – et non des représentants de races qui n’étaient pas encore standardisées. Le chat est resté plus longtemps un animal ordinaire, moins soumis aux impératifs de sélection morphologique.

Exposition féline à la salle Wagram en 1934
Exposition féline à la salle Wagram en 1934.
Gallica/BNF

Quels chiens demain ?

Populaires sur les réseaux sociaux, les Pomskys sont issus de croisements entre des Huskys sibériens et de spitz-nains
Populaires sur les réseaux sociaux, les Pomskys sont issus de croisements entre des Huskys sibériens et de spitz-nains.
GJH-hoond, CC BY

Les croisements récents, comme le pomsky (issu de croisement entre le husky sibérien et le spitz-nain), témoignent aujourd’hui d’une forte demande pour des animaux perçus comme originaux et attendrissants, mais sont surtout emblématiques d’un effet de mode.

Le choix de ces chiens relève moins d’une réflexion sur leurs besoins ou leur santé que d’une logique de distinction : on choisit un chien comme on choisirait une paire de chaussures, parce qu’il flatte l’ego de son propriétaire et signale une position sociale. Dénoncées depuis longtemps par les vétérinaires, qui constatent au quotidien les conséquences de la sélection de morphologies extrêmes, ces pratiques pourraient être freinées par la nouvelle réglementation européenne, en rappelant clairement que tout croisement n’est pas acceptable dès lors qu’il compromet la santé ou le bien-être des animaux concernés.

Prédire à quoi ressembleront les chiens du futur reste toutefois hasardeux. L’histoire montre que les avancées en matière de protection animale ne sont ni linéaires ni irréversibles. L’émergence d’idéologies brutales ou violentes pourrait très bien conduire à un recul de la prise en compte de la souffrance animale. L’interdiction des formes extrêmes révèle ainsi une tension ancienne entre la vanité des désirs humains parfois cruels et la nécessité d’établir des règles morales pour en limiter les effets – un débat aussi vieux que la philosophie elle-même.

Cette réflexion trouve un écho particulier dans certaines initiatives muséales récentes. L’exposition Domestique-moi si tu peux, présentée au Muséum de Toulouse, propose ainsi de revisiter l’histoire longue de la domestication en montrant qu’il ne s’agit pas d’un phénomène « naturel » et qu’elle est façonnée par des choix humains parfois irrationnels. Elle met surtout en évidence la place centrale de la domestication dans la construction des cultures humaines, la sélection artificielle ayant pour objectif principal de rendre des organismes vivants – animaux comme végétaux – compatibles avec les modes de vie et les besoins humains.


L’exposition Domestique-moi si tu peux retrace l’histoire des domestications animales et végétales, leur histoire et leurs conséquences sur la biodiversité. On peut la visiter jusqu’au 5 juillet 2026 au Muséum de Toulouse. L’historienne Valérie Chansigaud en a été la commissaire scientifique.


The Conversation

Valérie Chansigaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Chiens de race : l’esthétique peut-elle justifier la souffrance ? – https://theconversation.com/chiens-de-race-lesthetique-peut-elle-justifier-la-souffrance-275835

Luz y color: una visión cuántica

Source: The Conversation – (in Spanish) – By Hernán Ruy Míguez García, Profesor de Investigación, Especialista en Materiales para Fotónica, Optoelectrónica (incluyendo Fotovoltaica y LEDs), Consejo Superior de Investigaciones Científicas (CSIC)

DIMITRIJ STROGANOV / ISTOCK

Lo que conocemos coloquialmente como “el color de las cosas” es el resultado de varios procesos cuya naturaleza es, en la mayor parte de los casos, intrínsecamente cuántica. El fenómeno es producto de eventos simultáneos en ambos protagonistas: el observador y lo observado. Así, encontramos un nexo insospechado entre nuestra experiencia cotidiana del color y los principios cuánticos subyacentes responsables.

Visión histórica

Nuestra concepción de la luz y el color tiene una historia larga y sinuosa. En sus orígenes, estuvo fuertemente condicionada por los caprichos de la experiencia visual subjetiva. Actualmente distinguimos sus aspectos físicos (la luz como fenómeno electromagnético y fundamentalmente cuántico), fisiológicos (su detección en el ojo y comunicación al cerebro) y psicológicos (su interpretación en términos de color). Sin embargo, en la antigüedad no estaba claro en absoluto.

Empédocles (siglo V a. e. c.) propuso una teoría integral de la luz y la visión que combinaba dos ideas: la luz es una emanación que viaja y la visión implica un rayo que sale del ojo. Es la idea de la extramisión, hoy en día equiparable a un terraplanismo óptico y que puede rastrearse en películas como El hombre con rayos X en los ojos o Superman. Por contraparte y en la misma época, Leucipo defendió tempranamente la idea de intromisión, según la cual los objetos emiten efluvios recibidos por el ojo, permitiendo la visión.

En el siglo XI, Alhacén explicó (con argumentos que lo acercan a la ciencia moderna) que la visión es debida a la luz reflejada en los objetos y dirigida a los ojos. Quedó pendiente, sin embargo, la discusión acerca de la naturaleza misma de la luz que, en siglos posteriores, involucró a Isaac Newton (siglos XVII-XVIII, defensor de la teoría corpuscular) y Christiaan Huygens (siglo XVII, promotor de la teoría ondulatoria), entre otros más excéntricos como el jesuita Athanasius Kircher (siglo XVII) y el poeta Johann Wolfgang von Goethe (siglos XVIII-XIX), quienes reparaban ante todo en la experiencia sensorial del color.

Luz y materia

A principios del siglo XIX, el científico inglés Thomas Young demostró que la luz era un fenómeno ondulatorio mediante una serie de experimentos de interferencia, ya clásicos, con una doble rendija. La luz consistía en ondas, ¿pero ondas de qué?

Estudios posteriores establecieron que la luz es una oscilación del campo electromagnético que se propaga en el vacío a una velocidad de aproximadamente 300 000 km/seg. La llamada luz visible, la que percibimos con nuestros ojos, no es más que una diminuta fracción de un espectro que va desde las suaves ondas de radio a los muy energéticos rayos gamma, invisibles a esos mismos ojos (pero no a otros órganos, como la piel, donde las radiaciones infrarrojas son percibidas como calor y las ultravioletas dejan su impresión en el bronceado).

Los distintos colores que observamos al descomponer la luz visible con un prisma corresponden, por tanto, a distintas frecuencias de oscilación de esas ondas. Una característica notable de la teoría electromagnética es que vincula decisivamente la luz a sus fuentes: las cargas eléctricas en movimiento.

Las radiaciones electromagnéticas son producidas por cargas eléctricas aceleradas que forman la materia misma, como los electrones o los protones, ya sea en una antena (ondas de radio o microondas), en una bombilla o un led (luz visible), en un tubo de rayos X o en un núcleo atómico que se desintegra (rayos gamma). En definitiva, luz y materia están asociadas de modo fundamental: las cargas eléctricas pueden perder o ganar energía emitiendo o absorbiendo ondas electromagnéticas. Ahora bien, ¿cómo sucede esto?

Pequeños paquetes de energía

Hacia 1900, el desafío tecnológico de convertir la iluminación de gas en eléctrica impulsó a la comunidad científica a estudiar los mecanismos de emisión de luz en los cuerpos incandescentes. En un intento por reproducir su espectro de emisión y evitar la llamada “catástrofe ultravioleta” (una emisión exagerada de radiaciones muy energéticas, predicha por la teoría clásica del electromagnetismo, que no se cumple en la práctica), Max Planck descubrió que este fenómeno requería una nueva construcción teórica en la que las ondas lumínicas fueran emitidas en pequeños paquetes de energía.

De este modo, la energía total emitida debía ser múltiplo de una cantidad mínima indivisible, que dependía exclusivamente de la frecuencia de oscilación de la luz (o, en otras palabras, de su “color”). Planck denominó “cuanto” a cada uno de estos paquetes de energía, y ya nada volvió a ser igual.

Lo que para Planck fue un artificio matemático, en manos de Einstein se convirtió en una pieza fundamental del puzle de la naturaleza. Comprendió que los cuantos permitían explicar el efecto fotoeléctrico, una respuesta singular a la absorción de luz en metales según su frecuencia, que la teoría electromagnética clásica no podía explicar.

En el campo de la espectroscopía atómica –conjunto de técnicas analíticas que estudian la interacción de la radiación electromagnética con los átomos para determinar la composición elemental de una muestra–, los cuantos de luz (finalmente denominados “fotones”) explicaban las líneas de emisión y absorción como transiciones de energía bien definida entre los estados electrónicos en los átomos. Más importante aún: estos fenómenos revivieron la interpretación corpuscular de la luz, pero sin desplazar sus características ondulatorias previamente establecidas. Son hallazgos centrales para entender la relación entre luz y cuántica, como veremos a continuación.

Raíces cuánticas del color

De acuerdo a lo anterior, cuando un haz de luz incide sobre un material (lo observado), los fotones que lo componen solo pueden ser absorbidos si su energía coincide con el escalón energético existente entre dos niveles electrónicos del material. Cuando esto ocurre, los electrones que se encuentran en el nivel de energía más bajo, conocido como “fundamental”, pasan a un nivel superior, el estado “excitado”.

Estos electrones, transcurrido un tiempo (típicamente, del orden de la milmillonésima de segundo), pueden relajarse y volver a su estado fundamental, ya sea a través de vibraciones de los átomos o moléculas que forman el material o emitiendo fotones de menor energía.

La energía inicialmente absorbida puede, por tanto, devolverse al entorno en forma de calor (disipación) o de luz (luminiscencia). Todos estos procesos tienen lugar entre estados discretos (es decir, escalonados: sistemas o variables que solo pueden tomar valores fijos y separados, como encendido/apagado, 0 o 1) de las partículas involucradas, ya sean fotones, electrones o vibraciones, cuyas propiedades vienen establecidas por la mecánica cuántica.

Sin embargo, ¿qué ocurre con la luz incidente cuya energía no coincide con ningún salto entre niveles electrónicos del material? Simplemente, no es absorbida y, por tanto, los fotones que la componen son necesariamente reflejados o transmitidos. Son precisamente estos fotones los que llegan hasta nuestros ojos (los del observador) y determinan el color de los objetos que observamos.

Ojos cuánticos

Después de atravesar córnea, pupila, cristalino y humor vítreo, los fotones reflejados, transmitidos o emitidos por el objeto de nuestra observación, llegan a la retina. Allí, a su vez, excitan unos receptores denominados conos que contienen pigmentos encargados de absorber los fotones de los distintos colores. Esta captura se produce mediante un proceso similar al descrito para la absorción de luz que tiene lugar en el objeto observado, es decir, intrínsecamente cuántico.

Los conos convierten la señal luminosa que reciben en eléctrica y esta viaja por el nervio óptico hacia el cerebro hasta llegar a la corteza visual, que interpreta, invierte y da sentido a dicha señal. Así, los distintos colores que percibimos dependen tanto del catálogo de niveles energéticos de los objetos observados –ya que estos determinan la energía de los fotones que serán reflejados, transmitidos o emitidos– como del buen funcionamiento de los receptores en nuestra retina.

Un fallo en la detección por alguno de estos receptores (cianopsina para el azul, cloropsina para el verde, eritropsina para el rojo) da lugar a la disfunción cromática conocida como daltonismo. Tanto en lo observado como en el observador, los procesos involucrados en el fenómeno del color solo pueden describirse adecuadamente gracias a la teoría cuántica elaborada inicialmente por Einstein y Planck para explicar el espectro de emisión de objetos tales como lámparas o estrellas.

Colores clásicos

Una puntualización final. Si bien toda luz es de origen cuántico, así como lo son la mayor parte de fenómenos responsables del color, hay muy significativas excepciones. El blanco de las nubes, el brillo tornasolado de un escarabajo, el reflejo iridiscente de una pompa de jabón… son todas ellas expresiones del fenómeno del color que pueden explicarse considerando únicamente la naturaleza ondulatoria de la luz, ya descrita con precisión en el siglo XIX en el marco de la física clásica, sin necesidad de involucrar ningún concepto cuántico.

En todos estos casos, el color que observamos es el resultado de la forma en la que se encuentra estructurada la materia en escalas de longitud del orden de la micra (una millonésima de metro). En lugar de la absorción o emisión de luz debidas a saltos de los electrones entre niveles de energía bien definidos, indispensables en física cuántica, los procesos relevantes en estos ejemplos son la dispersión, interferencia y difracción de la luz. Estos dependen no tanto de la estructura electrónica de los materiales, como de la manera en que varía la propagación de las ondas lumínicas al atravesar regiones de distinto índice de refracción.

Se trata de un fenómeno conocido como color estructural, que produce algunos de los colores más llamativos de la naturaleza. La física subyacente en estos casos es, si bien conceptualmente menos compleja que la cuántica, igualmente fascinante.

Una versión de este artículo se publicó en la revista Telos, de la Fundación Telefónica.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Luz y color: una visión cuántica – https://theconversation.com/luz-y-color-una-vision-cuantica-273130

La captura y muerte de ‘El Mencho’ da oxígeno a México en su relación bilateral con EE. UU.

Source: The Conversation – (in Spanish) – By Arturo Santa Cruz Díaz Santana, Profesor-Investigador especializado en América del Norte, regionalismos y teoría de las RRII, Universidad de Guadalajara

Comparecencia pública de Claudia Sheinbaum, presidenta de México, tras la operación que acabó con la muerte de _El Mencho_. RTVE

El gobierno de Claudia Sheinbaum asestó el pasado domingo el golpe más severo al crimen organizado en más de una década: la detención y muerte de Nemesio Rubén Oseguera Cervantes, El Mencho, líder del cartel Jalisco Nueva Generación (CJNG).

Pese a la ola de violencia desatada posteriormente por los seguidores de El Mencho, el Gobierno de México se ha apuntado varios tantos. Por un lado, aleja el temor de una acción unilateral de Estados Unidos en su territorio y consolida una colaboración basada en el apoyo estratégico y de inteligencia por parte del vecino del norte. Por otro, la presidenta mexicana, Claudia Sheinbaum, ha ganado una importante batalla en la lucha por la narrativa.

Objetivo principal de EE.UU.

El cartel Jalisco Nueva Generación era, por mucho, la organización criminal más poderosa de México, con presencia en al menos 17 de las 32 entidades federativas del país. La cartera de negocios del CJNG abarca desde el secuestro hasta el cobro de piso (extorsión a propietarios y negocios) y, por supuesto, el trasiego de narcóticos a nivel internacional. Dentro de este último rubro, adquiere particular importancia el papel que tenía el mercado estadounidense.

Fotografías policiales de El Mencho cuando fue detenido en Estados Unidos (1986 y 1989).
Wikimedia Commons, CC BY

El CJNG ha sido un importante exportador a Estados Unidos de fentanilo. En diciembre pasado, el presidente Donald Trump calificó a esta sustancia como “arma de destrucción masiva”. No sorprende que su administración haya declarado al CJNG como un objetivo principal. Hasta ofreció una recompensa de 15 millones de dólares por información que llevara a la captura de su jefe, El Mencho.

La presión estadounidense sobre el gobierno de Sheinbaum –quien, a decir del presidente Trump, estaba “muy asustada” de los cárteles– se había venido intensificando en las últimas semanas.

La cooperación mexicana en operaciones contra el crimen organizado con agencias estadounidenses como la CIA, el ejército, la DEA, y el FBI se lleva a cabo desde hace años, aunque sufrió una ralentización durante la presidencia del antecesor y mentor de Sheinbaum, Andrés Manuel López Obrador.

Captura de Ryan James Wedding

Tan solo hace unas semanas, en el contexto de la visita a la Ciudad de México del director del FBI, Kash Patel, personal de la agencia estadounidense participó, junto con elementos de seguridad mexicanos, en la captura de Ryan James Wedding. Wedding, un excampeón olímpico de snowboard, se había convertido en un importante traficante de cocaína y figuraba en la lista de los 10 más buscados por el FBI. Los efectivos estadounidenses implicados en el operativo pertenecían a la misma unidad de rescate de rehenes que llevó a cabo el secuestro del expresidente venezolano Nicolás Maduro a inicios de este año.

El motivo de la visita de Patel no fue solamente la captura de Wedding, sino también insistir en la necesidad de actuar de manera conjunta contra El Mencho. De hecho, desde principios de enero, aviones estadounidenses sobrevolaban de forma intensa la zona donde ocurrió la captura del líder mafioso.

EE. UU. “trabajó” en la captura de El Mencho

Llegamos así a la operación contra el líder del CJNG el 22 de febrero. En un operativo llevado a cabo por las fuerzas armadas mexicanas en el municipio de Tapalpa, al sur del estado de Jalisco, El Mencho presentó resistencia y fue capturado. Durante su traslado para recibir atención médica, falleció a causa de las heridas sufridas en el combate.

De acuerdo con la presidenta Sheinbaum, “en este caso hubo información que prestó el Gobierno de Estados Unidos”. De manera más puntual, Ricardo Trevilla, secretario de la Defensa, declaró: “La ubicación en un primer término del área [donde estaba Oseguera] fue con personal de inteligencia militar; había otros datos que nos fueron proporcionando las autoridades de Estados Unidos, a quienes reconocemos su trabajo”.

De esta manera, la ubicación precisa provino de los estadounidenses. Según la agencia Reuters y el diario Washington Post, fue la recientemente creada Fuerza de Tarea Conjunta Interinstitucional Anti-Cártel (Joint Interagency Task Force-Counter Cartel) la qué entregó las coordenadas precisas del capo. De acuerdo con The New York Times, dicha información provino de la CIA.

Lucha por el control del cártel

Parece inevitable que el país sufra ahora un repunte de la violencia como fruto de las luchas intestinas que sin duda se desatarán entre los miembros del CJNG. También a causa de la tensión que provoquen otras organizaciones criminales que olfatean la debilidad del mayor cártel del país.

A reserva de todo ello, lo ocurrido en este importante golpe contra el crimen organizado demuestra que la cooperación con Washington es fundamental para cumplir la ardua tarea en la que está involucrado el Gobierno de la presidenta Sheinbaum.

Todavía más: para México es evidente que este tipo de acciones contundentes sirven como una especie de póliza en contra de las amenazas de acción unilateral proferidas en repetidas ocasiones por el inquilino de la Casa Blanca, Donald Trump.

Batalla contra la narcopolítica

La presidenta ha ganado una importante batalla en la lucha por la narrativa: ha demostrado que las instituciones mexicanas pueden someter al crimen organizado. Eso sí, como dice la canción, “con una pequeña ayuda de mis amigos”. Lo que sigue, sin duda, es ir contra el entramado político que hizo posible que el crimen organizado (CJNG, el cartel de Sinaloa, los Mayos, entre otros) se hayan constituido en la amenaza a la soberanía del país que hoy representan.

Esto implica actuar sobre algunos aliados de la coalición gobernante en México. Particularmente, están en el punto de mira algunos protegidos del padre del movimiento en el poder (Morena) y mentor de Sheinbaum, Andrés Manuel López Obrador.

La mandataria debe seguir la tónica de cooperación con las autoridades del vecino del Norte, aun a sabiendas de que la palabra del actual mandatario estadounidense, como se ha comprobado en innumerables ocasiones y contextos, no constituye precisamente una garantía.

The Conversation

Arturo Santa Cruz Díaz Santana no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La captura y muerte de ‘El Mencho’ da oxígeno a México en su relación bilateral con EE. UU. – https://theconversation.com/la-captura-y-muerte-de-el-mencho-da-oxigeno-a-mexico-en-su-relacion-bilateral-con-ee-uu-276739

¿Existen las mujeres de los anuncios de perfumes?

Source: The Conversation – (in Spanish) – By M. Mar Martínez-Oña, Investigadora y profesora, UDIT – Universidad de Diseño, Innovación y Tecnología

A lo largo de la historia occidental, los orígenes de las féminas presentan a la mujer como un ser creado a partir del hombre. Es el caso de Eva, en la religión cristiana, que fue creada a partir de una costilla de Adán, o Galatea, dentro del ámbito pagano, creada como una escultura de marfil extremadamente bella por Pigmalión, un rey y escultor de Chipre. Se normaliza así la creación femenina como una construcción social de la mujer idílica, concepto que se perpetúa hasta la actualidad, donde se construye, se reconstruye y se deconstruye la imagen visual de las mujeres en la publicidad.

En este contexto, se debe plantear qué sucede con la imagen de las mujeres en la publicidad de perfumes, ya que estas imágenes publicitarias ocupan un lugar privilegiado en la cultura visual contemporánea. A través de ellas no solo se venden perfumes, también se construyen imaginarios de deseo, estatus y feminidad. Aquí, el canon de belleza femenina –heredero de siglos de representación– se reconfigura mediante tecnologías de retoque que prometen perfección absoluta. El resultado es una estética seductora y sofisticada que, al tiempo que fascina, legitima normas estéticas.

Belleza en píxeles

Desde la Antigüedad, la figura femenina ha estado ligada a arquetipos como Afrodita/Venus, asociada a la belleza, el erotismo y la atracción. En la publicidad de perfumes, esta deidad se reencarna en modelos jóvenes de mujeres caucásicas, de piel tersa y rasgos armoniosos, envueltas en escenarios que sugieren hedonismo, lujo y exclusividad.

Este modelo heredado se ha adaptado a cada época, pero mantiene una constante: la promesa de perfección. Se trata de una feminidad codificada, suave pero poderosa, accesible solo a través del consumo, donde el clásico arquetipo no aparece de forma literal, sino mediante símbolos y narrativas –la luz dorada, el mármol, las abundancia de flores, la mirada insinuante– que traducen lo divino a un lenguaje de marca.

En la publicidad de perfumes esta perfección se plasma en imágenes que evocan sensualidad, lujo y deseo. Las campañas no solo venden fragancias, sino también un estilo de vida aspiracional donde la mujer ideal es sofisticada, seductora y eternamente joven.

El perfume es, por definición, intangible: su publicidad necesita traducir la esencia a una forma visible. Ese “exceso” de visualidad se logra a través de protagonistas femeninas portadoras de un magnetismo que ordena el entorno; los objetos y las miradas gravitan en torno a ellas. Sin embargo, ese poder representado es paradójico: se ejerce dentro de un marco estrecho de atributos –sensualidad medida, elegancia controlada, disponibilidad sugerida– que refuerzan la idea de que la feminidad valiosa es la que se ajusta al canon.

La manipulación digital: belleza sin límites

En la era digital, la belleza se ha convertido en un concepto tan maleable como los píxeles que conforman una imagen. La publicidad, especialmente la de perfumes, sigue siendo uno de los escenarios más influyentes en la construcción del canon de belleza femenino.

La edición extrema no es neutral. Normaliza una corporeidad que escapa a la experiencia cotidiana. Para el público, especialmente para las mujeres expuestas a estas imágenes desde la adolescencia, el mensaje es claro: la belleza aceptable se consigue borrando toda huella de realidad. La manipulación digital funciona como un quirófano invisible. El retoque suaviza pieles, borra poros, redefine contornos, alarga extremidades, afina narices y homogeneiza texturas. El objetivo no es únicamente embellecer, es estabilizar un ideal irreal.

Con la llegada de la edición digital, el canon se ha radicalizado. Programas de retoque permiten eliminar cualquier “imperfección”, ajustar proporciones corporales y crear pieles irreales. El resultado: mujeres que no existen en la realidad, pero que se convierten en referentes para millones de consumidoras.

Algunas marcas han comenzado a cuestionar esta práctica, apostando por campañas más inclusivas y menos retocadas. Han incorporado rostros y cuerpos más variados. Sin embargo, la diversidad a menudo aparece como una estrategia de ampliación de mercado, no como una transformación del imaginario. Se suma un tono de piel, un rasgo distinto, una edad más, pero el sistema de signos permanece, donde la mayoría sigue recurriendo a la manipulación digital como herramienta para reforzar el ideal aspiracional.

La lógica del retoque persiste incluso cuando se enarbola el mensaje “sin filtros”. La edición se oculta, se hace más sutil y, por tanto, más difícil de detectar. La diversidad se integra siempre que no cuestione el ideal de perfección. Así, la publicidad puede declararse inclusiva sin renunciar al canon que produce la fascinación y el deseo de compra. La paradoja es evidente: mientras la sociedad reclama diversidad y realismo, la publicidad continúa alimentando un imaginario donde la belleza es sinónimo de perfección artificial.

Consecuencias

El impacto de estas imágenes no se limita a los segundos que dura un anuncio o a la página de una revista. Convivimos con ellas en redes sociales, escaparates, pantallas, etc. La exposición constante genera comparación automática: ¿hasta qué punto mi rostro y mi cuerpo se acercan al estándar? Cuando la respuesta se aleja del ideal, aparece la fatiga estética: una sensación de inadecuación que empuja a rutinas, productos y procedimientos.

Además, la manipulación digital difumina la frontera entre fantasía y realidad. Si cada imagen parece “natural”, lo real se vuelve insuficiente. Los poros molestan, las arrugas desentonan, la luz del día no favorece. La vida cotidiana se percibe como una versión sin corrección de color. El problema no es desear verse bien; es confundir salud con borrado, autoestima con edición.

El anuncio promete empoderamiento, pero lo encierra en reglas. Te empodera si te adecuas, si te pulen, si encajas. El consumo opera como mediación: la mujer empoderada no es la que decide sobre su imagen, sino la que compra la imagen que otros diseñaron para ella. Y aquí la manipulación digital no solo “mejora” la estética: legitima jerarquías de clase, raza y edad bajo una pátina de lujo.

The Conversation

M. Mar Martínez-Oña no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Existen las mujeres de los anuncios de perfumes? – https://theconversation.com/existen-las-mujeres-de-los-anuncios-de-perfumes-271816