I have been a dog lover ever since I was a kid and have spent years learning about the temperaments and histories of different dog breeds, as well as famous dogs and their adventures. I have attended a variety of dog shows to meet various breeds and talk with their owners, and I’ve also lived with several dogs – including a dachshund, otterhound, German shepherd, Indian spitz and Labrador retriever – over the course of my life.
Beyond my canine concerns, I’m a professor of management who loves teaching courses and conducting research on leadership. So, it was a no-brainer for me to combine my two interests to write a book, “Learning Leadership from Dogs.” Various dog breeds embody distinct traits and behaviors that we humans can emulate to become better leaders.
Here are five qualities dogs model that any leader, at work or in life, can learn from.
The author’s own otterhound Fiona was always up for a good time. Aditya Simha
Joie de vivre
Happy-go-lucky hounds have an abundance of joie de vivre, a French phrase that refers to a cheerful and exuberant enjoyment of life. My own otterhound, Fiona, amply embodied this trait. A simple walk in the woods or hike on the beach was all she ever wanted.
This kind of optimism and cheerfulness can make leaders more empathetic and pleasant to work with, partly because psychology research finds that positive moods increase helping, generosity and interpersonal understanding. Those are key ingredients of empathy.
While there are many dog breeds that embody courage, I want to single out the Dutch shepherd. Smaller than the German shepherd and the Belgian Malinois, the Dutch shepherd is used in police and military work because of its athleticism, trainability and strong work ethic. Just like how Dutch shepherds run toward danger to protect others, courageous leaders take risks for their values and to support their team.
Intelligence
Leaders must not only know about their domain, they also need to be able to understand which of their followers needs to be treated or led differently. Both emotional and cognitive intelligence are essential for effective leadership and have positive consequences for their followers’ attitudes and performance.
I point to the border collie as a dog that exemplifies both forms of intelligence. The border collie not only knows how to herd sheep, but also which sheep to herd with patience and which sheep need a bit more sharpness.
This intelligence is something that needs to be guided and channeled. Border collies left without enough work or stimulation are famous for finding their own “jobs,” such as herding the human children, chasing shadows or inventing new mischief around the house.
Without proper direction, even brilliance can become counterproductive – another lesson leaders can keep in mind when managing their own flocks.
Kindness
Kindness is one quality that is sadly not given the amount of attention it merits in the world of management, even though it can shape whether followers feel respected, trusted and willing to contribute.
Displaying kindness is a canine specialty. The dog breed that comes to mind for me here is the Newfoundland. First bred in Canada and known as a fine water rescue dog, these gentle giants are supremely kind to everyone and display a benevolent, protective nature.
Leaders similarly need to be kind to their followers, even if a team member has failed at a task. A kind response does not mean ignoring mistakes; it means correcting them in a way that preserves dignity, making followers more likely to learn, speak up and try again. Together those patterns facilitate work environments that promote what researchers call psychological safety: a shared belief that people can ask questions, admit mistakes and raise concerns without fear of embarrassment, rejection or punishment.
Resilience
Resilience is not just toughness; it is the ability to recover from setbacks, adapt under pressure and keep moving forward when things don’t go as planned. Leaders rely on it during crises, failed projects, public criticism or periods of organizational change, all moments when uncertainty is high and confidence can falter.
Any leader can look to the Rhodesian ridgeback as a resilience role model. This breed hails from South Africa and was originally used to assist in lion hunting – an activity fraught with peril and with high prospects of failure. Rhodesian ridgebacks are dauntless dogs, always ready to try another dangerous hunt even in the wake of repeated failures.
Like these dogs, leaders often must confront perilous tasks with a high likelihood of failure, and they must be ready to bounce forward so they can eventually seize success. Without resilience, leaders may panic, withdraw or become overly reactive, especially during a crisis. When that happens, uncertainty spreads, confidence erodes and teams are less likely to stay focused or move forward effectively.
Dogs are the most popular choice of pet in the United States and worldwide. You probably don’t need to look far to find some furry friends who can inspire you with their admirable characteristics. Dogs may never author a leadership book, but they live out leadership lessons in courage, kindness and joy every day.
Aditya Simha does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
So why are so few people physically active when the benefits are widely known?
As a physical therapist and rehabilitation scientist who studies how to boost movement for people living with chronic conditions and physical disabilities, I spend a lot of time thinking about that question.
The short answer is that understanding the importance of exercise usually doesn’t translate into exercising. Making it a part of your lifestyle requires believing you can do it and knowing you can do it.
Exercise is a lifestyle choice that helps reduce the likelihood of developing a chronic illness. But the good news is that if you’re one of the 194 million Americans already living with one or more chronic illnesses, beginning or maintaining an exercise routine can slow the progression, reduce symptoms and improve health outcomes.
An array of health benefits
The list of benefits from movement is long. Here are just a few examples:
While some movement is better than none, the Centers for Disease Control and Prevention offer research-based guidelines for the type and frequency of activities to engage in weekly for long-term health benefits.
The CDC encourages all adults, including those with chronic health conditions or disabilities, to aim for at least 150 minutes of moderate intensity aerobic activity, such as walking, jogging or swimming. Adults should also do muscle-strengthening activities two or more days per week, which could include weightlifting and body weight exercises.
Older adults should add balance activities, such as tai chi or yoga, to help prevent falls by challenging the body’s balance systems.
If you’re not achieving these recommended weekly physical activity guidelines, you’re not alone. Only half of Americans hit the aerobic target, and just 1 in 4 meet the full CDC guidelines.
This gap represents a health crisis that, if addressed, could save lives. A 2024 large-scale review showed that people who engage in regular physical activity in adulthood may reduce the risk of early death by 30% to 40% from all causes, most specifically from cardiovascular disease and cancer.
The study also showed that beginning exercise at any time in adulthood can improve survival benefits.
Instead, shifting your beliefs about the barriers preventing you from exercise might actually be the key to get you moving more.
In 1977, a psychologist named Albert Bandura proposed that the ability to perform a task even when it’s difficult – a concept called self-efficacy – is the most important personal characteristic that drives healthy changes in behavior.
Half a century later, self-efficacy is still considered one of the most crucial personal factors for behavioral change when it comes to long-term physical activity. Researchers who develop and test exercise interventions, including me, evaluate novel tools and programs that are built to boost self-efficacy.
Someone with high self-efficacy might say that they can get back to their exercise routine even if they miss a day. Or they might find a way to still exercise when they’re busy or tired. Someone with lower self-efficacy might be thrown off their routine if presented with the same obstacles.
But how do you build this crucial trait and get moving more? A meta-analysis found that despite its importance, there is not one magic way to boost self-efficacy.
That’s because people’s behavior is more complicated than individual factors alone. People and groups have varying needs and contexts that require tailored approaches.
Self-efficacy may be affected by multiple factors, but people can still apply techniques to boost their ability to start and stay with an exercise routine.
Make it manageable. It may seem intuitive to set personal goals, but many of us aim too high and end up discouraged. Goals focused on weight loss, heart health or muscle strength are fine, but they can take a long time to achieve. Long-range goals don’t tend to be motivating in the difficult moments – like when you want to hit snooze but promised yourself that you were going to take a long walk before work.
Instead, try short-term goal-setting – such as aiming to get a set number of lunchtime walks in during the workweek. This will move you toward your long-term goals, while making it easier to see and feel progress.
In 2026, the American College of Sports Medicine refreshed its guidance on strength training, which represents synthesized findings from 137 systematic reviews and the first update since 2009. The biggest recommendation difference? Consistency matters more than specificity of strength programs. What that means is that doing any strength training has health benefits as long as it is the kind you will keep doing.
Make it add up. The CDC’s recommended 150 minutes of aerobic activity is meant to be spread throughout the week – not done all at once. Research shows that small bursts of activity still have significant impacts on your overall health, and you’re much more likely to stick with them.
Only have 15 minutes while your kid is asleep? Have a short exercise video or app cued up for nap time. Waiting for your next Zoom meeting to start? Climb your stairs once or twice. Microwaving your lunch? Hold on to the counter and lift and lower your heels until the timer goes off. Every little bit matters to your mind and body.
Make it meaningful. Prioritize doing things you enjoy. The gym is not for everyone, and luckily this style of structured exercise is just one of many options for physical activity. Go bird-watching, join a gardening group, binge watch your favorite show on the treadmill. Any activity you do that uses energy is like dropping a coin into your weekly physical activity bank.
Make it more fun. Choose to be around people who are already exercising – and who encourage you to do it, too. Research shows that people who are sedentary will increase their physical activity by socializing with someone who is active.
But the thing to remember is that even small improvements can have big impacts. It is consistent practice – not perfection – that is key to reaping all the benefits physical activity has to offer.
Laura Baehr receives funding from the Department of Defense, the Arthritis Foundation, and the Clinician-Scientists Transdisciplinary Aging Research Coordinating Center (a National Institutes of Health National Institute on Aging funded center).
If you follow the Trump administration’s social media posts, you might spot its new mascot: a cartoon lump of coal with big eyes and babylike features. “Coalie” sparked a backlash almost as soon as Interior Secretary Doug Burgum debuted it for the Office of Surface Mining and Reclamation Enforcement in early 2026.
As a scholar of American literature and culture, I write about media portrayals of coal, beginning in the 19th century with its rise to become the leading fuel in the United States. Coal use grew until the early 2000s, when other sources became cheaper and its health and environmental damage became unacceptable to more of the public.
While “Coalie” might be new, the logic behind it is not. For centuries, coal’s promoters have worked hard to show coal as harmless – as well as “clean” and “beautiful,” to use President Donald Trump’s words.
‘An agreeable heat’
Humans living with the effects of burning coal have disliked it for as long as they have burned it.
In 1578, Queen Elizabeth complained that she was “greatly grieved and annoyed with [its] taste and smoke” in the air. In 1661, John Evelyne’s treatise Fumifugium outlined negative health effects of breathing coal smoke.
English settlers were drawn to North America in part because of the continent’s abundant supply of timber, a substitute for coal that deforestation had made prohibitively expensive in England.
In addition to its lower price, anthracite coal grew desirable because of its high carbon, low-sulfur content, which produced less visible smoke when it was burned. An enthusiastic 1815 letter to the editor of the American Daily Advertiser captured increasingly common attitudes toward anthracite as “affor[ding] a very regular and agreeable heat.”
‘A healthful home’
The spread of anthracite also shored up tolerance for smokier but cheaper bituminous coal.
To help people, housekeeping manuals aimed at the fossil fuel’s mostly female users tried to invent workarounds for its smoke. In 1869, Harriet Beecher Stowe, best known as the author of “Uncle Tom’s Cabin,” and her sister Catharine Beecher wrote one of many 19th-century articles to acknowledge the “evils” of coal smoke, while outlining “modes of making a healthful home,” in the housekeeping manual American Woman’s Home.
Consumers provided temporary solutions for maintaining indoor air quality while burning coal by sending in suggestions that were published in housekeeping manuals, magazines and newspapers.
An 1892 advertisement in the Rocky Mountain News promoted a brand of coal stoves as ‘the best, handsomest and most economical.’ Nineteenth Century Newspapers
At the same time, as the century progressed, coal and coal-stove companies began to suggest that burning coal was healthy, that it could improve indoor air as well as domestic aesthetics. One 1892 newspaper advertisement claimed that stoves were “necessary to heat, cheer, and beautify the home and preserve its health.”
To keep the children clean and bright …
In the 20th century, marketers churned out more colorful claims about the benefits of coal: One magazine advertisement showed a mother and child pointing at the crackling stove aflame with the company’s coal, saying it “cannot be excelled in purity, cleanliness, and free-burning qualities.”
Similarly, the Lackawanna Railroad Company came up with the classy, often rhyming, character of Phoebe Snow. In one ad, she points to the importance of comfort, suggesting that not only could anthracite fuel faster travel, but it could also make your travel – and your life – more comfortable.
Coal marketing often used children to suggest safety and reach parents. Another iteration of the Phoebe Snow series promised that anthracite-powered railway travel could keep children “clean and bright.”
A 1930s advertisement went so far as to position a piece of anthracite coal next to a child in a bathtub, a visual proximity implying that coal was as good as soap.
In fact, soap made of “coal tar” – a liquid byproduct of producing coke, a fuel made from bituminous coal used in industrial blast furnaces – did (and does) exist. The British company Wright’s, also popular in the U.S., generated a slew of advertisements praising its soap as having antiseptic properties for children.
Wright’s Coal Tar Soap used a sleeping child dressed in white and sleeping on white sheets to advertise its ‘nursery soap,’ which it claimed protected children from infection, in 1922. Wikimedia Commons
Each of these advertisements tried to capitalize on a mother’s desire for healthy children. And they pushed back against the image of the tyrannical “King Coal” that had come about amid strikes by miners protesting dangerous, degraded working and living conditions as well as the rise of black lung disease.
In response, coal companies doubled down on the fantasy of “clean” coal.
An American Electric Power ad in The Wall Street Journal in 1976 talked about cleaning coal. Wall Street Journal archive
A 1979 advertisement for American Electric Power, for example, flew in the face of Clean Air Act mandates that coal corporations employ “scrubbing” technology to remove sulfur dioxide from smoke – the ad depicted someone cleaning coal by hand.
In addition to ordering some coal plants to continue operating, the Trump administration has pulled out old coal promotion tactics from the past, including repeatedly referring to coal as “clean and beautiful.” One image inserts Coalie next to a coal-mining family that otherwise looks like an ad that could have appeared a century ago.
A 2026 promotion for the Office of Surface Mining Reclamation and Enforcement includes a cartoon family with ‘Coalie’ added to the picture, looking like a child’s toy. OSMRE
The myth of coal as healthy and family friendly has been around for centuries – but coal has never been clean, or cute.
Annie Persons does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
It’s tough to avoid the current hype about the health benefits of injecting peptides. Although these substances – essentially, synthetic bits of protein in solution – have long made the rounds in the fitness world, their popularity has exploded. Social media influencers, podcasters, wellness clinics and online sellers promote peptides as a quick and easy way to build muscle faster, heal injuries more quickly, reduce inflammation, lose fat, sleep better and more.
But do these products actually work, and can people who use them be sure they are safe?
Two of the most-hyped peptides widely promoted for injury recovery are BPC-157 and TB-500, sometimes marketed together under the comic book-sounding nickname the “Wolverine stack.”
That stack is part of a much larger longevity and fitness boom in which vendors sell or promote many different peptide products, often for uses that have not been studied rigorously in people. Online, people swap dosing protocols, compare “stacks” and describe these compounds as shortcuts for everything from tendon recovery to fat loss and muscle gain.
Some peptide drugs are important, legitimate medicines. Insulin is one example. GLP-1 drugs are another.
The issue is not whether something is a peptide but whether it has gone through the long process that makes medicines credible: reproducible manufacturing, careful dose testing, clinical trials for a specific condition and ongoing safety monitoring.
BPC-157, TB-500 and other internet-hyped peptides have not gone through that process. Such peptides are often sold online as supplements, or as research-grade products made for laboratory use but not FDA-approved as a treatment for people.
That distinction matters, because it means that producers might prepare such peptides at different concentrations, using different solvents, stabilizers and other ingredients. In other words, one vial of what’s supposedly the same substance would not necessarily be the same as the next, even if it were made by the same producer. And there’s no requirement that manufacturers ensure that products are free of contaminants.
Different vials could thus potentially behave differently in the body and may carry different risks, such as infection. That is a big problem if people are injecting something sold online as a shortcut to recovery.
The evidence for BPC-157
BPC-157 was discovered in the early 1990s as an isolated version of a peptide fragment linked to compounds found in stomach acid.
Early research focused on benefits for the gut, but because some animal studies suggested the compound could help promote blood vessel growth, calm inflammation and support tissue repair, researchers years later began testing it in cell and animal models of tendon, ligament, muscle, bone and cartilage injury.
Some hints from those studies are promising, which is why influencers and scientists got excited about BPC-157.
But in humans, the evidence is extremely thin. In fact, for common sports and orthopedic injuries, it’s close to nonexistent, as my colleagues and I found when we reviewed the published literature on BPC-157 for musculoskeletal healing in 2025.
The one published study we found in people included only 16 participants with knee pain. It relied on their self-assessment to gauge improvement and didn’t compare the group that received the peptide to one that did not. Those flaws made it impossible to tell whether the improvement was due to placebo effects, because many injuries get better over time anyway, or from the peptides.
Other reviews uncovered similar limitations: For musculoskeletal injuries, the studies in people are too sparse and low quality to pin down whether the peptide works or what risks it poses.
Basic, practical questions remain, too – such as what dose people should use, how long the compound lasts in different tissues and whether the product in a purchased vial actually matches its label.
TB-500 claims are even harder to evaluate
TB-500 has a slightly different story. It is usually marketed as a synthetic product related to a naturally occurring peptide called thymosin beta 4, which is found in many tissues.
Thymosin beta 4 has attracted scientific interest because it appears to be involved in processes relating to tissue repair, including cell movement, how new blood vessels form and how tissues respond to injury. Animal studies suggest it may support bone healing after fractures as well as muscle repair.
Here’s the issue, though: TB-500 is a smaller piece of thymosin beta 4. This means that research on thymosin beta 4 does not necessarily show that TB-500, the version most commonly sold online, helps a person recover faster from a tendon, muscle or joint injury.
Another complication is that the biological processes thymosin beta 4 seems to promote, such as new blood vessel growth and cell migration, don’t just occur in bone or muscle healing. They also play a role in other contexts, such as scarring, abnormal tissue growth and cancer biology.
This does not prove harm, but it does mean these are not simple, risk-free recovery supplements. Human studies don’t just have to show that thymosin beta 4, TB-500 or products sold under that name help people recover from common sports injuries, but also that these products are safe for long-term use.
So far, data on safety is scant. A recent analysis of more than 12,000 Reddit posts about using BPC-157 and other peptides after musculoskeletal injuries or surgery found that users frequently raised concerns about side effects, product purity and long-term safety. For example, some users reported injection-site reactions, diarrhea and emotional numbness. Studies like this one rest on low-quality, anecdotal evidence, but it’s the only evidence available for most of these peptides.
How to think about bold peptide claims
What makes the current peptide craze so confusing is that BPC-157 and TB-500 are not miracle cures, but they are not pure nonsense either. They sit in a more uncomfortable middle ground: interesting biology, intriguing findings in animal studies and, realistically, no convincing proof that they promote musculoskeletal healing in people.
In other words, peptides on the whole can be real medicines. But that does not mean the vial being marketed online is a safe, tested treatment for an injured shoulder, Achilles tendon or knee.
When you encounter wellness influencers or online sellers promising the glamour of faster healing, better recovery or a more aesthetic body, a few mundane questions can help cut through the marketing:
Has this exact product been tested in people with my injury?
Was it studied at the same dose and by the same route being marketed online?
Do I know exactly what is actually in the vial?
Is the promised benefit strong enough to justify the risk of using a product that has not cleared the usual standards for drug quality and evidence?
For now, none of those questions yield a clear, positive answer.
Flynn McGuire does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – (in Spanish) – By Josep M. Trigo Rodríguez, Investigador Principal del Grupo de Meteoritos, Cuerpos Menores y Ciencias Planetarias, Instituto de Ciencias del Espacio (ICE – CSIC)
Ilustración del cuerpo transneptuniano 2002 XV93 ocultando una estrella. / NAOJ / Ko Arimatsu, CC BY
Un pequeño objeto helado, situado más allá de Plutón y de la órbita del planeta Neptuno, ha sorprendido a los astrónomos al revelar, durante la ocultación de una estrella, que posee una tenue atmósfera. El hallazgo, logrado gracias a una campaña internacional liderada desde Japón y apoyada por astrónomos aficionados, desafía las teorías actuales sobre cómo los cuerpos pequeños del sistema solar, mucho más pequeños que Plutón, pueden mantener una envoltura gaseosa.
Cómo se ha encontrado
Profundizar en el conocimiento científico de objetos lejanos requiere estrategias muy originales y quizá inesperadas para el gran público.
Por ejemplo, a veces, los astrónomos observamos cómo una estrella o parte de ella “se oculta” brevemente cuando un planeta, un asteroide u otro objeto lejano del sistema solar pasa por delante de ella. Estos fenómenos reciben el nombre de “ocultaciones”, y los estudiamos mediante campañas internacionales de observación que nos permiten detectar detalles. Por ejemplo, si tienen anillos, satélites o incluso atmósferas, como acaba de ocurrir.
Utilizamos esta técnica desde hace unas décadas para aprender más sobre la forma, tamaño y propiedades de algunos de los cuerpos más alejados de nuestro sistema planetario: los objetos transneptunianos (TNO), aquellos que están más allá de la órbita de Neptuno.
Un nuevo Plutón
Hasta ahora, el único TNO con una atmósfera detectada era Plutón, con un tenue envoltorio cuya presión media se sitúa en torno a 10 microbares (μbar). Es decir, 100 000 veces menor que la de la Tierra. En las investigaciones de otros objetos situados más allá de Neptuno, con más de 500 km de diámetro, no se habían encontrado coberturas de gases, pero había podido calcularse un “límite máximo” para una posible atmósfera. Es decir: si existía, debía de ser extremadamente tenue, con presiones entre 1 y unos cientos de nanobares (nbar).
Se habían encontrado otros casos sin explicación. Por ejemplo, en Makemake, objeto transneptuniano catalogado como (136472). Con un diámetro de 1 430 km, es uno de los TNO de mayor tamaño y parece estar a día de hoy emitiendo metano, aunque el origen de ese envoltorio gaseoso de hidrocarburos sigue siendo incierto. ¿Quizás se debe al criovulcanismo? Sobre todo, brinda un buen ejemplo de los misterios que aún esconden cientos de cuerpos helados almacenados en la distante región transneptuniana, aunque no el último.
Un descubrimiento inesperado
En 2002 se descubrió un objeto transneptuniano con una órbita ligeramente excéntrica, que lo sitúa a distancias del Sol variables entre 34 y 44 unidades astronómicas; es decir, unas 40 veces más lejos del Sol que la Tierra, en promedio. Este lejano cuerpo helado, identificado provisionalmente como (612533) 2002 XV93, tiene un diámetro aproximado de 500 km.
La comunidad científica ha seguido a este objeto desde su descubrimiento, y nunca había revelado un comportamiento anómalo. Sin embargo, el 10 de enero de 2024 se realizó desde Japón una campaña para su seguimiento en un momento en el que se iba a producir una ocultación estelar, y los resultados no pudieron ser más sorprendentes: demostró que se encuentra envuelto en una atmósfera fina.
Es un hallazgo relevante porque demuestra que un TNO con un tamaño inferior al que se considera técnicamente un cuerpo planetario (en torno a 1 000 km) puede albergar, al menos de manera transitoria, una atmósfera.
El descubrimiento desafía los escenarios estándar de retención de gases volátiles y plantea muchas preguntas sobre la naturaleza de la atmósfera. ¿Cómo es posible que este pequeño objeto la tenga? Tal vez mantiene una actividad criovolcánica continua. O, quizá, podría ser consecuencia de un impacto reciente con otro objeto helado, similar a un cometa, que habría liberado una nube de material volátil que rodea al cuerpo de forma temporal. Sea cual sea el caso, el descubrimiento incrementa el interés en el estudio de esos objetos distantes.
Hilar fino
La técnica de las ocultaciones de estrellas por TNO no es trivial. Primero hay que predecir con gran precisión astrométrica cuando van a producirse las ocultaciones; después, comprobar si la sombra del objeto sobre la estrella puede observarse desde alguna región del globo terráqueo.
Los astrónomos recurrimos muy a menudo a la colaboración de aficionados, dado que para tener éxito en el seguimiento de estos fenómenos es necesario seguir cada ocultación desde un gran número de observatorios o lugares improvisados para la ocasión, distribuidos lo más homogéneamente posible sobre la superficie terrestre. La clave radica en que puedan trazarse muchas “cuerdas observacionales” que den cuenta si la distancia a ese pequeño astro en concreto enmascara una atmósfera, anillos o, incluso, algún satélite.
Otro aspecto interesante de este descubrimiento es que se ha realizado gracias a una colaboración profesional-amateur. Con excepción de un telescopio profesional, el resto de las observaciones se han obtenido con telescopios portátiles del tamaño más común entre los aficionados, obviamente dotados con cámaras digitales adecuadas para el seguimiento de estos fenómenos súbitos que requieren una gran precisión temporal.
A pesar de que la ocultación estelar fue positiva sólo desde tres lugares diferentes, ejemplifica el papel fundamental que pueden tener los astrónomos aficionados, particularmente en el campo del estudio de los cuerpos menores del sistema solar.
Josep M. Trigo Rodríguez recibe fondos del proyecto del Plan Nacional de Astronomía y Astrofísica PID2021-128062NB-I00 financiado por el MICINN y la Agencia Estatal de Investigación.
Au fond de la lagune de Thau, en Occitanie, la source de la Vise est régulièrement sujette à un phénomène dit d’inversac, où la source d’eau douce se met soudainement à absorber l’eau saumâtre. Ce mécanisme, jusque-là peu connu, expose les ressources en eau douce des côtes à un risque de salinisation. Grâce à un dispositif expérimental unique, des chercheurs français ont pu l’observer en direct. De quoi expliquer au passage pourquoi certaines villes des alentours souffrent, lors de ces épisodes, d’inondations en l’absence de pluies.
Un phénomène exceptionnel, appelé « inversac », menace les ressources d’eau souterraine autour de l’étang de Thau (une vaste lagune d’eau saumâtre) en Occitanie. En fonction des conditions météorologiques, la source sous-marine de la Vise (surnommée localement « le Volcan » ou « le Gouffre ») peut s’interrompre – et cesse alors momentanément d’apporter de l’eau douce dans la lagune.
Elle devient dès lors un point d’infiltration majeur d’eau salée de la lagune vers l’aquifère, provoquant une salinisation chronique des eaux souterraines si précieuses, et des épisodes d’inondation sans pluie dans la station thermale de Balaruc.
Avec des collègues, nous avons pu suivre le phénomène en direct grâce à des instruments spécifiques, une première mondiale, qui a notamment fait l’objet d’une publication scientifique en 2025. De quoi mieux comprendre les causes de ce phénomène jusque-là mystérieux, qui peut durer des mois : six mois pour les épisodes survenus en 2010 et en 2014, et même dix-huit mois pour celui survenu entre 2020 et 2022.
En zone côtière, les exutoires des eaux souterraines peuvent être sous-marins
Les eaux de pluie qui s’infiltrent à la surface de la terre rejoignent les nappes aquifères. Elles circulent ensuite dans le sous-sol jusqu’à des exutoires en surface : sources, zones humides et lits des rivières constituent autant de points bas du paysage vers lesquels convergent les eaux souterraines.
Dans la calanque de Port-Miou, seul un léger courant à peine visible en observant l’écume formée par les vagues contre les rochers indique la présence d’un débit de plusieurs mètres cubes par seconde, quelques mètres sous la surface de la mer. L’eau presque douce (plus légère que l’eau très salée de la Méditerranée) forme une nappe froide sur la mer, plus chaude en été. Xerti, CC BY-SA
En zone côtière, les exutoires des eaux souterraines peuvent être sous-marins, situés dans la mer ou dans des lagunes côtières. Jouant un rôle important pour les écosystèmes marins côtiers, ils sont diffus ou ponctuels selon le type d’aquifère. Dans ce dernier cas, le plus souvent en contexte karstique, il s’agit de sources sous-marines. Elles sont particulièrement nombreuses en Méditerranée grâce à la forte présence de roches calcaires propices aux phénomènes karstiques.
Plus à l’Ouest, dans l’Hérault, il existe plusieurs autres sources sous-marines qui émergent dans la lagune de Thau. Parmi elles, la source sous-marine de la Vise, située au large de Balaruc, draine un aquifère côtier primordial pour les habitants de cette région au climat chaud et sec de type méditerranéen.
Géographie de la source sous-marine de la Vise. En (a), la localisation de la source dans la lagune de Thau, en (b) une vue en plan du cône (anomalie bathymétrique liée au débit d’eau de la source) autour de la source au large de Balaruc et enfin en (c) vue en coupe du cône et du point d’émergence (griffon) de la source. Fourni par l’auteur
En effet, les eaux souterraines y sont prélevées pour l’alimentation en eau potable des villages voisins, pour l’irrigation aussi, mais surtout elles alimentent les thermes de Balaruc-les-Bains, première station thermale de France en nombre de curistes. Malheureusement, cette ressource d’eau douce précieuse est menacée par un phénomène exceptionnel : l’inversac.
L’inversac, ou quand les flux d’eau s’inversent et une source absorbe l’eau saumâtre
Bien connue des pêcheurs et des ostréiculteurs, la source de la Vise est située dans la lagune de Thau, à une profondeur de 30 mètres au large de Balaruc. Cette profondeur est exceptionnelle pour l’étang de Thau, dont la profondeur moyenne excède rarement 4 m à 5 m : les flux d’eau souterraine ont creusé et érodé la roche pour créer un grand cône sous-marin situé autour de l’émergence. Cette profondeur attire les amateurs de plongée sous-marine qui peuvent ainsi pratiquer leur sport au cœur d’un site remarquable.
La source est localisée au sommet d’un conduit karstique subvertical qui relie la lagune de Thau à une nappe aquifère captive (c’est-à-dire sous pression) située en profondeur dans les calcaires du Jurassique. Le débit de la source est généralement de l’ordre de 100-150 litres par seconde (l/s), et augmente avec le niveau d’eau dans la nappe après des pluies intenses. C’est une eau douce et chaude (20 °C), car réchauffée par les flux d’eau d’origine profonde qui alimentent également la station thermale de Balaruc.
Or, depuis la fin des années 1950, on observe des épisodes temporaires d’inversion des flux d’eau au niveau de la source. Le résultat ? Une interruption brutale de l’arrivée d’eau douce d’origine souterraine, suivie d’une absorption des eaux de la lagune par la source. En hydrologie karstique, ce phénomène est connu sous le nom d’inversac, nom qui désigne une cavité karstique alternativement absorbante ou émissive, selon les conditions hydrologiques.
Depuis la fin des années 1950, la source de la Vise a commencé, à plusieurs reprises, à absorber l’eau saumâtre de la lagune.
La plupart du temps, les inversacs sont des pertes-émergences situées le long d’une rivière : selon les niveaux d’eau, la rivière s’infiltre dans la cavité karstique (fonctionnement en perte) ou alors cette dernière déverse de l’eau dans la rivière (fonctionnement en émergence).
Dans le cas de la Vise, l’inversac se produit en lien avec l’étang de Thau. Selon les conditions hydroclimatiques, la source va tantôt déverser l’eau douce, tantôt absorber l’eau salée de l’étang.
Explication du mécanisme d’inversac (a) en régime normal, la pression au sein de l’aquifère captif est supérieure à la pression exercée par le niveau d’eau dans la lagune, les flux d’eau sont ascendants au sein du conduit karstique (b) lorsque la pression au sein de l’aquifère devient inférieure à la pression de l’étang, les flux deviennent descendants et la source absorbe l’eau de l’étang (régime d’inversac). Fourni par l’auteur
Un dispositif de mesure unique au monde
Pour mieux comprendre ce phénomène, les hydrogéologues du BRGM, en collaboration avec la société ANTEA, ont conçu un dispositif inédit spécialement consacré à la mesure des débits de la source sous-marine. Il s’agit d’un tube d’une longueur d’environ cinq mètres et d’un diamètre d’un mètre, posé sur l’émergence, composé de trois compartiments.
(a) Position du dispositif sur le griffon de la source sous-marine de la Vise, (b) vue descriptive du dispositif. Fourni par l’auteur
Le tube inférieur récolte l’eau douce sortant des principaux griffons (points d’émergence) présents au fond de la lagune. Au-dessus, un débitmètre électromagnétique permet de mesurer le débit vertical au sein du tube intermédiaire. Il est surmonté d’un tube de tranquillisation destiné à réguler les flux d’eau et à réduire les turbulences pour assurer une bonne qualité de la mesure du débit. Des capteurs de température, de salinité et de pression sont installés dans le dispositif pour compléter les mesures.
Un inversac observé en direct en novembre 2020
Installé en juin 2019 par des scaphandriers professionnels, il a permis d’observer en direct un inversac qui s’est produit le matin du 27 novembre 2020. En effet, à 9 h 40 exactement, le débit de la source s’est brutalement inversé : d’un débit ascendant d’environ 120 l/s, il est passé à un débit descendant de 350 l/s.
Simultanément, les capteurs ont mis en évidence la présence d’une eau complètement différente : une eau salée et froide (comme la lagune) s’est substituée, au sein du tube de mesures, à l’eau douce et chaude qui provenait précédemment de la nappe aquifère. À cet instant, la source a commencé à absorber l’eau de la lagune, qui a envahi progressivement la nappe aquifère.
Cet inversac a duré seize mois, durant lesquels environ 7 millions de mètres cubes d’eau salée se sont infiltrés, provoquant l’intrusion de 200 000 tonnes de sel dans l’aquifère. En 2014, la salinisation progressive de la nappe provoquée par la succession des inversacs a nécessité la fermeture du captage d’eau souterraine de Cauvy, qui alimentait en eau potable Balaruc-les-Bains.
La répétition successive des inversacs menace également la ressource en eau thermale, dont l’usage est important pour l’activité économique du secteur. Plusieurs maraîchers exploitants ont également arrêté leur activité à cause de la salinisation de leur puits, tandis que de nombreux forages domestiques ont été touchés. Le sel est aussi remonté dans les sols, menaçant les espaces verts en affaiblissant un grand nombre d’arbres de la commune.
En complément des mesures à la source de la Vise, un réseau d’observation a été installé pour surveiller les niveaux d’eau de la lagune et de la nappe aquifère.
L’analyse détaillée de toutes ces données a permis de montrer que l’inversac s’est enclenché à un moment bien particulier, où une tempête marine accompagnée d’un coup de vent marin avait induit une hausse du niveau de l’étang. Et cela, au moment même où, au contraire, le niveau de la nappe aquifère était au plus bas, par manque de précipitation et de recharge. Résultat : la pression exercée par la masse d’eau salée de l’étang est devenue plus élevée que la pression de la nappe : les écoulements d’eau se sont alors brusquement inversés. C’est ce mécanisme que nous avons décrit dans notre article publié dans la revue Nature Communications Earth and Environment.
« Bouchon de sel » et inondations sans pluie
Restait à expliquer une bizarrerie locale : alors que les inversacs se déroulent en période de sécheresse, lorsque le niveau de la nappe aquifère est au plus bas, ils sont systématiquement accompagnés d’inondations dans la ville de Balaruc-les-Bains. Ceci est d’autant plus étonnant qu’aucun épisode de pluie ne précède ces inondations qui frappent les sous-sols, les caves et les parkings souterrains de la commune, causant de nombreux dégâts.
Cette curiosité hydrologique est à rapprocher des mesures observées dans les piézomètres des environs : chaque inversac est suivi d’une augmentation rapide des niveaux d’eau de la nappe d’environ 2,3 m. Cette hausse est expliquée par le contraste de densité entre les eaux : l’eau salée de la lagune est environ 3 % plus lourde que l’eau douce.
Ainsi, au moment de l’inversac, le conduit karstique vertical se remplit en quelques minutes d’eau salée sur sa hauteur totale, estimée à environ 70 m. Il en résulte une augmentation brutale de 2,3 m de la pression exercée par la lagune sur la nappe aquifère. Cette onde de pression se propage ensuite rapidement dans la nappe aquifère captive jusqu’à plusieurs kilomètres en quelques heures, provoquant une hausse des niveaux d’eau, et donc des inondations, même en l’absence de pluie.
Cette hausse inattendue des niveaux d’eau explique l’apparente contradiction entre la soudaineté du déclenchement d’un inversac et sa très longue durée. Si un coup de vent sur l’étang provoquant une hausse de son niveau de quelques centimètres peut déclencher un inversac, il ne suffit pas d’une accalmie météorologique pour que le système revienne à son état normal initial. Pour retrouver des flux ascendants dans le conduit karstique, la pression de la nappe aquifère doit vaincre cette surpression de 2,3 m provoquée par l’intrusion de sel, qui agit alors comme une sorte de « bouchon » sur la source sous-marine.
De ce fait, seule une très forte pluie sur le causse d’Aumelas, sur les hauteurs du bassin de Thau, peut recharger suffisamment la nappe aquifère pour provoquer une augmentation de niveau supérieure à 2,3 m, capable de vaincre le bouchon de sel. C’est ce qui s’est déroulé le 14 mars 2022 lorsqu’un épisode pluvieux de plusieurs jours, supérieur à 100 millimètres, a mis fin à cet inversac.
Depuis les années 1950, les inversacs se répètent et s’accélèrent. En cause, les pompages d’eau souterraine, mais surtout la succession des sécheresses, qui provoquent une baisse du niveau de la nappe. Jusqu’à présent, le système revient toujours à son état normal après quelques mois, mais qu’en sera-t-il dans le futur lorsque la recharge naturelle déclinera et que le niveau de la mer montera ?
Il n’est pas exclu que le système bascule définitivement en inversac, provoquant ainsi une salinisation complète et définitive de l’aquifère du Jurassique. C’est pour cette raison qu’un projet d’expérimentation est en cours avec le Syndicat mixte du bassin de Thau pour explorer les moyens possibles de réduire les effets d’un inversac et de préserver la nappe aquifère.
Cette étude a pu être menée dans le cadre du projet de recherche DEM’Eaux Thau (2017-2022).
D’un montant de 5,3 millions d’euros, le financement du projet DEM’Eaux Thau a été assuré à 42% par le ministère de l’Enseignement supérieur et de la Recherche et la Région Occitanie (dans le cadre du Contrat de Plan Etat-Région 2015-2020), à 11% par le fonds européen FEDER, à 17% par l’Agence de l’eau Rhône-Méditerranée-Corse, à 4% par Montpellier Méditerranée Métropole, à 2% par Balaruc-les-Bains et à 1% par le Syndicat Mixte du Bassin de Thau. Le reste du financement du projet (23%) a été apporté grâce à la participation financière de la plupart des partenaires
Bernard Ladouche et Claudine Lamotte ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
La photosynthèse fixe le carbone atmosphérique sous forme de molécules organiques essentielles à la vie et produit l’oxygène présent dans l’atmosphère et dans les mers. Elle a été acquise par le monde vivant grâce à des intégrations cellulaires successives en « poupées russes », les photosymbioses. En mimant les étapes précoces des photosymbioses, nous suggérons, dans notre article publié dans Current Biology, que l’oxygène serait un facteur déterminant pour les amorcer en milieu hypoxique (c’est-à-dire à faible teneur en oxygène) – la fourniture de carbone pouvant être un évènement secondaire.
En convertissant le rayonnement solaire en énergie utilisable par le monde vivant, la réaction de photosynthèse a profondément modifié l’ensemble de la planète Terre. La photosynthèse permet la conversion du carbone provenant du dioxyde de carbone (CO₂) atmosphérique en matière organique complexe, principalement sous forme de sucres qui alimentent une grande partie des formes de vie, dont les sociétés humaines. Une autre conséquence de la photosynthèse, qui a eu des conséquences majeures à l’échelle planétaire, est la production d’oxygène. Celle-ci est causée par la cassure de molécules d’eau qui initie le flux énergétique d’électrons qui permet la fixation du carbone en sucres.
La photosynthèse oxygénique est apparue chez un groupe particulier de bactéries, les cyanobactéries, dont des traces fossiles remontent à 3,8 milliards d’années et dont des descendants existent encore aujourd’hui. L’oxygène produit a permis le métabolisme aérobie, plus énergétique, qui a conduit à l’émergence d’organismes unicellulaires prédateurs. Certains ont intégré des cyanobactéries, bénéficiant à leur tour de la photosynthèse, c’est ce que l’on appelle la photosymbiose. Les lointains descendants de ces organismes sont devenus les algues et les plantes actuelles.
Des emboîtements en « poupées russes » secondaires et tertiaires
L’histoire ne s’arrête pas là puisque, à plusieurs reprises, d’autres organismes prédateurs ont intégré ceux déjà issus de la première photosymbiose, créant des emboîtements en « poupées russes » secondaires et tertiaires. Par exemple, les coraux, apparus il y a environ 500 millions d’années, sont des animaux hébergeant des organismes photosynthétiques unicellulaires issus d’une photosymbiose secondaire, les dinoflagellés.
Nous avons développé un système expérimental permettant l’évolution en laboratoire d’étapes précoces de la transition entre une relation prédateur-proies vers une relation hôte-photosymbionte. Il comprend un organisme unicellulaire prédateur du groupe des ciliés, Tetrahymena thermophila et des proies photosynthétiques. Les ciliés sont des unicellulaires, très abondants dans les écosystèmes aquatiques, dont font partie les paramécies. la cyanobactérie Synechoccoccus elongatus permet de mimer les événements de photosymbiose primaire et la microalgue verte eucaryote Chlorella variabilis permet de mimer les événements de photosymbiose secondaire.
Des cellules de Tetrahymena thermophila ont phagocyté des algues unicellulaires (Chlorella variabilis), celles-ci ne sont pas digérées et peuvent fournir de l’oxygène issu de la photosynthèse. Fourni par l’auteur
Grâce à la fluorescence naturelle des organismes photosynthétiques, nous avons combiné la microscopie et la cytométrie de flux, qui permet de quantifier et de trier des cellules suivant leur taille ou leur fluorescence pour observer le trajet des proies à l’intérieur des cellules prédatrices.
Une gloutonnerie extraordinaire
Nous avons ainsi caractérisé cette dynamique de la phagocytose jusqu’à l’élimination sous forme de boulettes fécales. Ceci a montré la gloutonnerie du prédateur unicellulaire qui peut ingérer jusqu’à 160 cyanobactéries ou 40 microalgues en moins d’une heure et les éliminer progressivement pendant plusieurs heures. Curieusement, de nombreuses proies sont rejetées sans être digérées totalement, voire pas du tout, suggérant qu’une transition simple entre l’état de proie et celui de symbionte intracellulaire ne nécessiterait que l’interruption de la rejection.
Afin d’évaluer les conditions environnementales permettant l’initiation d’une symbiose, nous avons placé le prédateur et ses proies dans des milieux pauvres en carbone assimilable ou en absence oxygène, et mesuré la survie du prédateur. Nous avons ainsi montré que les proies photosynthétiques favorisent considérablement la survie en milieu hypoxique alors qu’elles procurent un avantage faible, voire inexistant, dans un milieu pauvre en carbone. L’hypoxie induit aussi une condition physiologique atténuant sa propre cause, puisque le transit intracellulaire des proies est considérablement ralenti, favorisant ainsi l’utilisation de l’oxygène produit par la photosynthèse des proies.
Ce résultat n’était pas vraiment attendu, car il est généralement admis que le moteur principal des photosymbioses est la fourniture de carbone sous forme de sucres. Nous montrons donc que la production d’oxygène en conditions hypoxiques peut être une cause primaire de l’amorce d’une symbiose photosynthétique.
Les milieux hypoxiques ont été prépondérants pendant une grande partie de l’histoire de notre planète et sont toujours fréquents, en particulier dans les environnements aquatiques et marins. Leur incidence augmente même sous l’influence de perturbations anthropiques et de l’augmentation des températures. L’exploration de ces milieux pourrait donc révéler de nouvelles associations photosymbiotiques. Nous anticipons maintenant que le système expérimental que nous avons développé nous permettra d’étudier les mécanismes moléculaires et cellulaires stabilisant une proie en symbionte, qui restent largement inconnus. Au-delà de la compréhension d’un mécanisme fondamental d’association entre organismes ces travaux pourraient avoir des applications de biologie synthétique, pour construire, par exemple, de nouvelles associations productrices de biocarburants.
Christophe Robaglia a reçu des financements de l’ANR, Projet-ANR-21-CE20-0035 PHOCEE
Gaël Brasseur et Loïc Quevarec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
El término “caducado” se asocia de forma inmediata con peligro. En la vida cotidiana, consumir un producto fuera de fecha puede implicar un riesgo, y es lógico que esta idea se traslade a las vacunas. Sin embargo, en el ámbito sanitario no siempre significa lo mismo. Aunque se usan de forma preventiva, las vacunas son también fármacos y, como tales, cuentan con una fecha de caducidad. Pero ¿qué pasa si se administra una inmunización caducada?
No todas las vacunas funcionan igual ni se diseñan de la misma forma: buscan el mismo objetivo –entrenar al sistema inmunitario para reconocer a un patógeno y responder con rapidez si entra en contacto con él–, pero no lo consiguen de la misma manera.
Existen varias estrategias para enseñar a nuestras defensas sin causar la enfermedad, diferencias que son importantes para entender su estabilidad y su conservación.
¿Cómo se diseñan las vacunas?
Algunas vacunas utilizan versiones debilitadas del microorganismo y generan una respuesta muy completa. Otras emplean patógenos inactivados o fragmentos que no pueden replicarse, pero que siguen siendo reconocidos por nuestro cuerpo.
Además, en los últimos años se han desarrollado variedades basadas en material genético, como las de ARN y ADN. Estas no contienen el microorganismo, sino que aportan instrucciones para que nuestras células produzcan una parte de él. Así se activa la respuesta inmunitaria.
Muchas vacunas combinan varios antígenos –la parte del patógeno que reconoce el sistema inmunitario– en una sola dosis. Es el caso de las trivalentes, tetravalentes o hexavalentes, que protegen frente a varias enfermedades a la vez.
Por ejemplo, algunas vacunas infantiles combinan protección frente a difteria, tétanos, tosferina, poliomielitis y hepatitis B. Esto reduce el número de inyecciones y simplifica los calendarios vacunales.
Como el sistema inmunitario puede responder a varios estímulos al mismo tiempo, estas combinaciones no hacen la vacuna más agresiva, pero sí requieren un diseño cuidadoso.
Todas las diferencias señaladas influyen en su eficacia y estabilidad; por eso son clave para entender la caducidad.
¿Qué más contienen las vacunas?
En este aspecto, también es importante saber qué contiene una vacuna. El componente principal es el antígeno, que permite al sistema inmunitario reconocer el patógeno. Muchas incluyen además adyuvantes, sustancias que refuerzan la respuesta inmunitaria y ayudan a que la protección sea más eficaz.
Todos estos componentes están diseñados para garantizar la seguridad y eficacia, pero no pueden mantenerse estables de forma indefinida: con el paso del tiempo, algunos pueden degradarse o perder actividad. Este proceso es lento y depende de factores como la temperatura y la luz.
Una interrupción en la cadena de frío puede acelerar la pérdida de estabilidad; de ahí que la conservación en temperaturas adecuadas sea tan importante como el tiempo.
¿Qué pasa si se administra una vacuna caducada?
La fecha límite no indica que una vacuna se vuelva peligrosa de forma inmediata. En la mayoría de los casos, administrar una inmunización caducada no implica un riesgo inmediato para la salud. No se convierte en un producto tóxico ni genera efectos adversos distintos a los habituales.
Lo que indica este límite es hasta cuándo el fabricante puede garantizar que la vacuna mantiene todas sus propiedades. Es decir, a partir de ese momento no se puede asegurar que funcione como se espera. Si ha perdido estabilidad, la respuesta inmunitaria será menor, algo importante porque puede traducirse en una protección insuficiente. Por eso las fechas de caducidad se establecen con criterios muy conservadores: el objetivo es asegurar que cada dosis ofrezca la protección prevista.
¿Cómo se gestionan estos casos en salud pública?
Cuando se detecta la administración de una vacuna caducada se activan protocolos específicos con el objetivo de evaluar cada situación. Entonces se analizan factores como el tipo de vacuna, el tiempo desde su caducidad y las condiciones de conservación. Con esta información, los profesionales deciden si es necesario revacunar o hacer seguimiento.
Estos incidentes también se revisan para detectar posibles fallos en los sistemas de control. Así se mejoran los procedimientos y se reduce la probabilidad de que se repitan. Todo forma parte de los programas de vigilancia farmacológica, cuyo objetivo es garantizar la seguridad y la eficacia.
¿Se han dado casos reales?
Los casos de administración de vacunas caducadas son poco frecuentes, pero ocurren. Cuando se detectan, suelen comunicarse y revisarse los protocolos. Aunque en la mayoría de las situaciones no se producen consecuencias graves, puede ser necesario repetir la dosis para asegurar la protección.
La administración de vacunas caducadas muestra hasta qué punto es importante entender cómo funcionan realmente las intervenciones sanitarias. No todos los riesgos son iguales, ni todas las situaciones deben interpretarse de forma automática.
En este caso, la clave está en distinguir entre seguridad y eficacia. Mientras que el riesgo inmediato para la salud suele ser bajo, una posible pérdida de protección sí puede tener consecuencias si no se detecta y se corrige.
Comprender estos matices permite evaluar mejor este tipo de situaciones y evitar interpretaciones alarmistas. En un contexto en el que estos casos pueden aparecer de forma puntual en los medios, contar con información clara y rigurosa resulta esencial para mantener la confianza en la salud pública.
Raúl Pérez Caballero no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Pasarela en el Parque Nacional de las Tablas de Daimiel (Ciudad Real, España).joserpizarro/Shutterstock
En el 2008, llegó a las carteleras El curioso caso de Benjamin Button, película basada en un breve relato escrito en 1922 por F. Scott Fitzgerald. Su protagonista nace con el aspecto físico de un octogenario que, a medida que pasa el tiempo, ve cómo su cuerpo rejuvenece mientras que sus experiencias son sentidas de una manera “normal”. Button vive la vida al revés, rejuvenece y, en cierto modo, vuelve al origen, pues fallece siendo un niño.
Un efecto similar se ha producido a raíz de las lluvias caídas en los primeros meses de 2026, que han convertido el tramo inicial del Guadiana, en el entorno del Parque Nacional de Las Tablas de Daimiel, en un “Benjamin Button hidrológico”. Sus aguas retroceden, discurren río arriba y terminan infiltrándose en la tierra. Aunque el fenómeno no es nuevo, no es tan conocido; en gran medida porque no resulta habitual.
En este enclave de Castilla-La Mancha, las tablas fluviales representan un ecosistema de humedal único en Europa Occidental, caracterizado por el desbordamiento de ríos en tramos llanos con muy poca pendiente y que actúan como grandes encharcamientos en los márgenes de su curso.
En condiciones normales, Las Tablas de Daimiel se formaban por la confluencia de dos ríos. Por un lado, el Cigüela, nacido en las serranías conquenses, que llegaba a Daimiel después de atravesar la llanura manchega. Por otro, el Guadiana, que nacía en los Ojos –hoy secos–, donde recuperaba en superficie el agua sobrante del acuífero subterráneo situado bajo La Mancha para unirla, kilómetros después, a las procedentes del Campo de Montiel, que discurrían por el Azuer, uno de sus afluentes.
Durante siglos, el sistema fluvial de Las Tablas funcionó de manera equilibrada. Agua, clima y suelos dieron lugar a un ecosistema dominado por un bosque mediterráneo progresivamente humanizado. Desde el siglo XIII, la Orden de Calatrava favoreció la roturación de tierras y su conversión en dehesas destinadas al pasto de ganado –generalmente ovino– que, cada invierno, llegaba a la zona procedente de las tierras altas de Castilla.
Agua, bosque y pastos convivieron en Las Tablas en un escenario natural con unas enormes potencialidades económicas. Aquel espacio, conocido entonces como Real Dehesa de Zacatena, gozó de protección, al menos desde que Felipe II dictó unas ordenanzas con el objetivo de regular los aprovechamientos forestales, piscícolas y cinegéticos que, desde entonces, estuvieron vigilados por un guarda mayor.
Uno de los elementos más prototípicos del lugar fueron los molinos de ribera, de enorme importancia en la época preindustrial. Incluso puede decirse que, en una región seca como La Mancha, fueron más numerosos y económicamente más determinantes que los gigantes a los que se enfrentó don Quijote.
Varios de ellos datan de época musulmana. Sin embargo, el sistema de molinos hidráulicos del Alto Guadiana quedó configurado a lo largo del siglo XVI. A mediados de aquella centuria, entre los Ojos del Guadiana y el límite oriental de Zacatena –en un tramo de unos veinticinco kilómetros de río– llegaron a funcionar diez ingenios. Los molinos del Guadiana también actuaron como puentes y pesquerías, así como eficaces presas que retuvieron el agua del río y ampliaron la superficie encharcada.
Aunque su uso y gestión dieron lugar a pleitos y conflictos institucionales, el sistema funcionó con eficacia durante siglos. Cuando las ideas ilustradas propias del setecientos persiguieron aumentar las tierras cultivables y desecar el cauce del Guadiana, se hizo imprescindible derruir algunos de estos molinos y limitar el funcionamiento de otros. El fracaso de aquellos proyectos mantuvo en pie la mayoría de estos ingenios hasta bien entrado el siglo XX, cuando la dictadura franquista recuperó las ideas del siglo XVIII. En aquella ocasión no hubo marcha atrás.
Los trabajos de canalización del Guadiana que se llevaron a cabo a finales de los años 1960, hicieron más profundo el cauce natural del río, alteraron el curso de las aguas, redujeron el encharcamiento de la ribera y limitaron la capacidad de molienda de las piedras que hasta entonces habían sido el motor de la economía local. Las presas fueron inutilizadas y el paisaje cambió radicalmente.
El regadío intensivo y la alteración de la dinámica natural del Guadiana condujeron a una situación insostenible. Las Tablas perdieron su equilibro natural, puesto que las aguas superficiales (cada vez más escasas) dejaron de encontrarse con las subterráneas, que ya no manaban del acuífero por la sobreexplotación a la que se le sometió.
Fue entonces cuando algunos recordaron el efecto regulador de las presas de los molinos, pero el estado de ruina en que se encontraban tras años de inactividad hizo imposible su rehabilitación. Sin embargo, el plan de regeneración hídrica que se puso en marcha en los años ochenta del siglo XX recuperó la esencia de su funcionamiento.
Para salvar Las Tablas se levantaron varias presas. Las dos más importantes fueron la de Puente Navarro y la del Morenillo. La primera se sitúa a la salida del Parque, a escasos metros del antiguo molino de El Navarro, mientras que la segunda se alza allí donde el Cigüela y el Guadiana se encuentran. La misión de ambas es mantener el nivel encharcamiento y asegurar una mínima lámina de agua, algo que, en los últimos años, ni tan siquiera ha sido posible debido, en parte y entre otros factores, a los efectos del cambio climático y la presión antrópica, que han reducido las lluvias y aumentado las extracciones del acuífero que antes alimentaba de manera natural al Guadiana.
La tercera presa es el molino de Molemocho (restaurado en 1998), que hunde sus cimientos en el río y que cierra la superficie encharcada de Las Tablas por su extremo suroriental.
La existencia de estas tres barreras cobra sentido en momentos puntuales, marcados por la abundancia de lluvias, dando lugar a fenómenos como el que ha ocurrido este año o como el acaecido durante el ciclo húmedo que tuvo lugar entre 2009 y 2013, un periodo de lluvias por encima de la media.
Cuando el cielo es generoso, el Cigüela vierte en Las Tablas y la superficie encharcada llega a su límite. Entonces, el agua rebasa la barrera central (presa del Morenillo), sigue su camino y desborda Puente Navarro. Si los niveles de encharcamiento persisten, incluso se hace necesario abrir las compuertas del Molemocho.
Es justo en ese momento cuando, como Button, el Guadiana desafía el orden natural y su corriente remonta el cauce en busca de su origen. El fenómeno no solo es curioso, sino muy positivo porque el agua termina infiltrándose en el subsuelo y contribuye a la recarga del acuífero.
Cierto es que es una situación anómala, temporalmente corta y que suele durar lo que dura la inundación máxima de Las Tablas, pero no es menos verdad que alerta acerca de la necesidad de controlar los niveles de encharcamiento y de lo mucho que la historia de las infraestructuras hidráulicas de aquella comarca puede enseñar a propios y extraños del lugar.
Francisco J. Moreno Díaz del Campo forma parte del Proyecto de Investigación «PERMASEPI. Percepción y materialidad de los sistemas socio-ecológicos en la Península Ibérica (siglos XIV-XVIII)» (PID2024-155668NA-100) financiado por el MICIU, la AEI y por el FEDER.
La primavera y el verano es época de avispas, eso seguro. Molestas, irritantes, muchas veces construyen sus nidos en zonas urbanas, bajo tejados, en jardines y en diversas estructuras. Una situación que genera mucha interacción con los humanos, con riesgo de picaduras y problemas derivados si no tenemos cuidado.
Existen poco más de un centenar de especies de véspidos en toda España. La mayoría son especies solitarias, como las avispas alfareras, que a menudo pasan desapercibidas. Más conocidas son, sin embargo, las avispas sociales, como las papeleras, con sus nidos de celdas hexagonales, que construyen con material vegetal y agua.
A menudo no las aceptamos, pero hay que decir que desempeñan un papel importante en muchas interacciones de la naturaleza, ya sea como depredadoras o como polinizadoras; unos roles estratégicos para la estructura y el equilibrio de las redes de interacción en la naturaleza.
La avispa asiática sale de su refugio en primavera
La mayoría de estas avispas son autóctonas, pero en los últimos años se han añadido especies exóticas que llegan por acción voluntaria o involuntaria de los humanos, como es el caso de la avispa asiática (Vespa velutina).
No ha sido una aparición natural, sino provocada por el movimiento de mercancías desde China, con la primera detección en Francia en 2004. Desde entonces se ha extendido rápidamente por toda Europa, a una media de 50–60 km anuales. Se considera una especie invasora, especialmente por sus impactos demostrados sobre el sector primario de la apicultura.
Las claves de su éxito son que tienen pocos competidores, depredadores y parásitos, y que encuentran los recursos necesarios para aumentar su abundancia y ampliar su distribución.
La avispa asiática presenta un ciclo de vida de un año. Las reinas fecundadas del año anterior, que salen de sus refugios invernales hacia febrero-marzo, construyen por sí solas los nidos embrionarios en lugares protegidos, a poca altura.
¿Cuáles son sus escondites?
En ellos ponen los primeros huevos fecundados, de los que nacen las avispas obreras. A partir de ese momento, la reina ya no sale del nido. Serán las obreras quienes trabajarán e iniciarán la búsqueda de los recursos necesarios (azúcares, proteína, celulosa y agua) para hacer crecer el nido hacia un nido primario.
Más adelante, generalmente construirán un segundo nido más grande, llamado secundario. Lo harán en una zona más elevada, como copas de árboles, cornisas de edificios, salientes de paredes o cuevas en acantilados. Es aquí, ya hacia el otoño, cuando aparecen los machos (de huevos no fecundados) y las reinas vírgenes. Los machos fecundarán a estas reinas, que se prepararán para pasar el invierno en algún lugar resguardado y protegido. El resto de la colonia va muriendo (reina vieja, obreras y machos) al entrar el invierno. Y así se inicia un nuevo ciclo.
Además del efecto social, con casos graves sobre la salud de las personas, el principal impacto demostrado de esta especie es sobre el sector de la apicultura, especialmente cuando los nidos son medianos o grandes en verano y otoño.
Las avispas visitan las granjas de colmenas para encontrar el “bufé libre” de proteína (la abeja de la miel,Apis mellifera) que necesitan para alimentar a sus larvas. Los visitan de forma periódica y recurrente.
La gran capacidad de dispersión de las nuevas reinas, que pueden volar varios kilómetros en un solo día, contribuye a la rápida expansión y a la presión constante sobre las granjas de colmenas.
Por todos estos motivos que se hace imposible su erradicación en las zonas donde ya ha llegado. Todo juega a su favor.
Mejores opciones para combatirlas
No hay estudios que demuestren que determinadas acciones sean efectivas para minimizar su impacto, como por ejemplo trampear reinas en primavera.
Ahora bien, sí se puede mejorar el manejo y la gestión de las granjas de colmenas in situ desde el sector de la apicultura, en función de la presencia de esta especie.
Los apicultores realizan trashumancia para evitar su presencia y ajustan temporalmente el movimiento de las colonias, o utilizan distintas herramientas para proteger las colmenas de la abeja de la miel, aunque presentan limitaciones, especialmente en periodos de alta presión.
Esta trampa está diseñada para capturar obreras y reinas de manera selectiva delante de las colmenas sin afectar a las abejas, permitiendo un control más sostenible y aplicable en granjas de distintos tamaños.
Toda la información científica disponible y la que se pueda generar en el futuro sobre la gestión de la avispa asiática es clave como estrategia para establecer protocolos que permitan su control, ya sea para reducir los riesgos para las personas, para otros polinizadores o para la protección de las colonias de abejas de la miel. En este último caso, no se compromete la producción de miel y otros productos apícolas, y se establece un control selectivo y sostenible.
La avispa asiática ha llegado para quedarse.
Josep Maria Bas Lay no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.