Commerce, résilience, durabilité : la recette du G20 pour l’Afrique

Source: The Conversation – in French – By Wandile Sihlobo, Senior Fellow, Department of Agricultural Economics, Stellenbosch University

Le groupe de travail sur les systèmes alimentaires et agricoles durables du Business 20, un groupe consultatif du G20, a approuvé trois principes qui, selon lui, contribueront à la mise en place de systèmes alimentaires et d’une agriculture durables. Ces principes sont l’augmentation des échanges commerciaux, la résilience des chaînes d’approvisionnement et les pratiques agricoles durables.

L’économiste agricole Wandile Sihlobo explique ces trois principes et comment les pays africains peuvent les mettre à profit.

Qu’est-ce que la sécurité alimentaire mondiale ? En quoi diffère-t-elle de la pauvreté alimentaire ?

La sécurité alimentaire mondiale est un concept plus large. Elle vise à relever les défis liés à l’accès à la nourriture, à la nutrition, à la durabilité et à l’accessibilité financière. Elle cherche aussi à renforcer la coopération entre les pays – notamment les membres du G20 – pour réduire la pauvreté, à la fois dans le monde, au niveau national et au sein des ménages.

Pour atteindre cet objectif, chaque pays doit adapter ses politiques agricoles. Cela passe par une hausse de la production, une approche respectueuse de l’environnement et une réduction des obstacles au commerce.

Les pays qui ne produisent pas assez doivent pouvoir importer de la nourriture à un coût abordable. Cela implique de faciliter la logistique mondiale, de supprimer certains droits de douane et de lever, dans certains cas, les interdictions d’exportation. En 2023, par exemple, l’Inde a interdit l’exportation du riz non basmati, ce qui a provoqué une hausse des prix mondiaux.

C’est pour cette raison que je défends l’approche consistant à « assurer la sécurité alimentaire grâce au commerce ». Dans un monde où les échanges sont souvent entravés, cette approche permet de réduire les coûts et d’améliorer le niveau de vie, notamment dans les régions les plus pauvres principalement le Moyen-Orient et l’Asie.

Comment l’augmentation des échanges commerciaux, la résilience des chaînes d’approvisionnement et les pratiques agricoles durables peuvent-elles renforcer la sécurité alimentaire ?

Ces leviers sont au cœur de la réduction des coûts. Si les obstacles au commerce (tarifs douaniers, barrières non tarifaires ou interdictions d’exportation) sont allégés, il devient plus facile et moins cher d’acheminer les denrées des zones de production vers les zones de consommation à un prix abordable.

Des chaînes d’approvisionnement résilientes signifient également que les denrées alimentaires peuvent être produites, transformées et acheminées vers les points de consommation avec moins d’obstacles, même en cas de catastrophes naturelles et de conflits.

Quant aux pratiques agricoles durables, elles sont essentielles au système alimentaire mondial. Cela ne signifie pas qu’il faut abandonner les semences améliorées, la recherche génétique ou les intrants chimiques. Il s’agit principalement de mieux les utiliser.

J’ai remarqué une tendance inquiétante à l’activisme qui vise à éliminer les intrants agricoles, une voie qui conduirait à une baisse de la productivité et de la production agricoles, et finalement à une aggravation de la faim. La clé réside dans une utilisation sûre et optimale de ces intrants.

Lors des récentes manifestations agricoles dans l’Union européenne, l’approche réglementaire de l’UE en matière de pratiques agricoles durables a été l’un des principaux risques soulevés par les agriculteurs. Ils ont cité le Pacte vert pour l’Europe, qui vise à accélérer la réduction de l’utilisation d’intrants tels que les pesticides, les engrais et certains autres produits chimiques, qui sont essentiels à l’augmentation de la production.

À mon avis, le G20 devrait se prémunir contre les initiatives militantes qui mettent en danger la sécurité alimentaire mondiale.

Quelles politiques spécifiques les pays, en particulier les nations africaines, devraient-ils mettre en place pour garantir le succès de ces principes ?

L’Afrique du Sud et l’Union africaine, qui sont toutes deux membres du G20, devraient promouvoir trois grandes interventions dans le domaine de l’agriculture afin de mettre en œuvre les trois principes du G20 et de stimuler la production alimentaire au profit du continent africain.

1. Agriculture intelligente face au climat

Tout d’abord, il convient d’appeler fermement au partage des connaissances sur les pratiques agricoles intelligentes face au climat. Il s’agit de nouvelles innovations et méthodes agricoles qui minimisent les dommages causés aux cultures par les catastrophes climatiques telles que la sécheresse et les vagues de chaleur. Cela est important car l’Afrique est très vulnérable aux catastrophes naturelles.

Pour que l’agriculture africaine puisse se développer, les gouvernements doivent mettre en place des politiques coordonnées sur la manière de répondre aux catastrophes. Ces réponses doivent inclure tout ce dont les pays africains ont besoin pour atténuer les catastrophes climatiques, s’adapter au changement climatique et se remettre rapidement lorsque des catastrophes surviennent.

2. Réforme commerciale

Deuxièmement, l’Afrique doit faire pression pour une réforme du système commercial mondial et améliorer la sécurité alimentaire en Afrique grâce au commerce. L’Afrique du Sud bénéficie déjà d’un meilleur accès au commerce agricole avec plusieurs économies du G20 grâce à des droits de douane réduits et à un accès en franchise de droits.

Tous les membres du G20 ont intérêt à défendre un commerce ouvert entre les nations. Cela permet d’acheter et de vendre des produits agricoles à moindre coût. Ce qui est essentiel dans un contexte mondial où certains pays adoptent une attitude plus conflictuelle en matière de commerce.

Les pays africains dont l’agriculture est moins productive, avec des rendements généralement faibles ou médiocres, pourraient ne pas bénéficier autant, à court terme, d’un commerce ouvert. Ils en tireront toutefois profit à long terme.

3. Améliorer l’accès aux engrais

Troisièmement, l’Afrique doit continuer à prioriser la production et le commerce des engrais. Dans la plupart des pays d’Afrique subsaharienne, l’accès et l’usage des engrais restent faibles. Or, ils sont essentiels pour accroître la production et réduire l’insécurité alimentaire. L’accès à des financements abordables est également un défi pour l’agriculture africaine.

Il est donc essentiel de relier les discussions sur les engrais aux investissements dans les industries de réseau telles que les routes et les ports. Disposer d’engrais est une chose, mais leur acheminement vers les zones agricoles est difficile dans certains pays et augmente les coûts pour les agriculteurs. Dans ce cadre, le G20 devrait encourager la production locale.

La production d’engrais sur le continent atténuerait l’impact négatif des chocs mondiaux sur les prix. Elle permettrait également aux pays africains les plus vulnérables d’acheter et de distribuer des engrais à un prix abordable.

Comment concilier productivité agricole et réduction de l’impact climatique ?

Nous devons utiliser la technologie pour nous adapter au changement climatique plutôt que de diaboliser l’utilisation des produits agrochimiques et la sélection des semences, qui est certainement une tendance à la hausse dans certaines régions d’Afrique du Sud. Si nous utilisons des variétés de semences à haut rendement, des engrais et des produits agrochimiques pour lutter contre les maladies, nous pouvons alors cultiver une superficie relativement plus petite et compter sur un rendement suffisant.

Mais si nous réduisons considérablement ces intrants, nous dépendons davantage de l’expansion de la superficie que nous cultivons. Cultiver plus de terres signifie nuire à l’environnement. L’accent devrait être mis sur l’utilisation optimale et sûre des intrants agricoles afin d’améliorer la production alimentaire. C’est la clé pour parvenir à la sécurité alimentaire mondiale.

Le G20 a un rôle à jouer pour garantir que nous nous dirigeons vers un monde meilleur. Les principes agricoles évoqués ici offrent une feuille de route concrète pour construire un monde meilleur avec plus de sécurité alimentaire.

The Conversation

Wandile Sihlobo is the Chief Economist of the Agricultural Business Chamber of South Africa (Agbiz) and a member of the Presidential Economic Advisory Council (PEAC).

ref. Commerce, résilience, durabilité : la recette du G20 pour l’Afrique – https://theconversation.com/commerce-resilience-durabilite-la-recette-du-g20-pour-lafrique-269627

NASA goes on an ESCAPADE – twin small, low-cost orbiters will examine Mars’ atmosphere

Source: The Conversation – USA – By Christopher Carr, Assistant Professor of Aerospace Engineering, Georgia Institute of Technology

This close-up illustration shows what one of the twin ESCAPADE spacecraft will look like conducting its science operations. James Rattray/Rocket Lab USA/Goddard Space Flight Center

Envision a time when hundreds of spacecraft are exploring the solar system and beyond. That’s the future that NASA’s ESCAPADE, or Escape and Plasma Acceleration and Dynamics Explorers, mission will help unleash: one where small, low-cost spacecraft enable researchers to learn rapidly, iterate, and advance technology and science.

The ESCAPADE mission launched on Nov. 13, 2025 on a Blue Origin New Glenn rocket, sending two small orbiters to Mars to study its atmosphere. As aerospace engineers, we’re excited about this mission because not only will it do great science while advancing the deep space capabilities of small spacecraft, but it also will travel to the red planet on an innovative new trajectory.

The ESCAPADE mission is actually two spacecraft instead of one. Two identical spacecraft will take simultaneous measurements, resulting in better science. These spacecraft are smaller than those used in the past, each about the size of a copy machine, partly enabled by an ongoing miniaturization trend in the space industry. Doing more with less is very important for space exploration, because it typically takes most of the mass of a spacecraft simply to transport it where you want it to go.

A patch with a drawing of two spacecraft, one behind the other, on a red background and the ESCAPADE mission title.
The ESCAPADE mission logo shows the twin orbiters.
TRAX International/Kristen Perrin

Having two spacecraft also acts as an insurance policy in case one of them doesn’t work as planned. Even if one completely fails, researchers can still do science with a single working spacecraft. This redundancy enables each spacecraft to be built more affordably than in the past, because the copies allow for more acceptance of risk.

Studying Mars’ history

Long before the ESCAPADE twin spacecraft Blue and Gold were ready to go to space – billions of years ago, to be more precise – Mars had a much thicker atmosphere than it does now. This atmosphere would have enabled liquids to flow on its surface, creating the channels and gullies that scientists can still observe today.

But where did the bulk of this atmosphere go? Its loss turned Mars into the cold and dry world it is today, with a surface air pressure less than 1% of Earth’s.

Mars also once had a magnetic field, like Earth’s, that helped to shield its atmosphere. That atmosphere and magnetic field would have been critical to any life that might have existed on early Mars.

A view of Mars' crater-flecked surface from above.
Today, Mars’ atmosphere is very thin. Billions of years ago, it was much thicker.
©UAESA/MBRSC/HopeMarsMission/EXI/AndreaLuck, CC BY-ND

ESCAPADE will measure remnants of this magnetic field that have been preserved by ancient rock and study the flow and energy of Mars’ atmosphere and how it interacts with the solar wind, the stream of particles that the sun emits along with light. These measurements will help to reveal where the atmosphere went and how quickly Mars is still losing it today.

Weathering space on a budget

Space is not a friendly place. Most of it is a vacuum – that is, mostly empty, without the gas molecules that create pressure and allow you to breathe or transfer heat. These molecules keep things from getting too hot or too cold. In space, with no pressure, a spacecraft can easily get too hot or too cold, depending on whether it is in sunlight or in shadow.

In addition, the Sun and other, farther astronomical objects emit radiation that living things do not experience on Earth. Earth’s magnetic field protects you from the worst of this radiation. So when humans or our robotic representatives leave the Earth, our spacecraft must survive in this extreme environment not present on Earth.

ESCAPADE will overcome these challenges with a shoestring budget totaling US$80 million. That is a lot of money, but for a mission to another planet it is inexpensive. It has kept costs low by leveraging commercial technologies for deep space exploration, which is now possible because of prior investments in fundamental research.

For example, the GRAIL mission, launched in 2011, previously used two spacecraft, Ebb and Flow, to map the Moon’s gravity fields. ESCAPADE takes this concept to another world, Mars, and costs a fraction as much as GRAIL.

Led by Rob Lillis of UC Berkeley’s Space Sciences Laboratory, this collaboration between spacecraft builders Rocket Lab, trajectory specialists Advanced Space LLC and launch provider Blue Origin – all commercial partners funded by NASA – aims to show that deep space exploration is now faster, more agile and more affordable than ever before.

NASA’s ESCAPADE represents a partnership between a university, commercial companies and the government.

How will ESCAPADE get to Mars?

ESCAPADE will also use a new trajectory to get to Mars. Imagine being an archer in the Olympics. To hit a bull’s-eye, you have to shoot an arrow through a 15-inch – 40-centimeter – circle from a distance of 300 feet, or 90 meters. Now imagine the bull’s-eye represents Mars. To hit it from Earth, you would have to shoot an arrow through the same 15-inch bull’s-eye at a distance of over 13 miles, or 22 kilometers. You would also have to shoot the arrow in a curved path so that it goes around the Sun.

Not only that, but Mars won’t be at the bull’s-eye at the time you shoot the arrow. You must shoot for the spot that Mars will be in 10 months from now. This is the problem that the ESCAPADE mission designers faced. What is amazing is that the physical laws and forces of nature are so predictable that this was not even the hardest problem to solve for the ESCAPADE mission.

It takes energy to get from one place to another. To go from Earth to Mars, a spacecraft has to carry the energy it needs, in the form of rocket fuel, much like gasoline in a car. As a result, a high percentage of the total launch mass has to be fuel for the trip.

When going to Mars orbit from Earth orbit, as much as 80% to 85% of the spacecraft mass has to be propellant, which means not much mass is dedicated to the part of the spacecraft that does all the experiments. This issue makes it important to pack as much capability into the rest of the spacecraft as possible. For ESCAPADE, the propellant is only about 65% of the spacecraft’s mass.

ESCAPADE’s route is particularly fuel-efficient. First, Blue and Gold will go to the L2 Lagrange point, one of five places where gravitational forces of the Sun and Earth cancel out. Then, after about a year, during which they will collect data monitoring the Sun, they will fly by the Earth, using its gravitational field to get a boost. This way, they will arrive at Mars in about 10 more months.

This new approach has another advantage beyond needing to carry less fuel: Trips from Earth to Mars are typically favorable to save fuel about every 26 months due to the two planets’ relative positions. However, this new trajectory makes the departure time more flexible. Future cargo and human missions could use a similar trajectory to have more frequent and less time-constrained trips to Mars.

ESCAPADE is a testament to a new era in spaceflight. For a new generation of scientists and engineers, ESCAPADE is not just a mission – it is a blueprint for a new collaborative era of exploration and discovery.

This article was updated on Nov. 13, 2025 to reflect the ESCAPADE launch’s date and success.

The Conversation

Christopher E. Carr is part of the science team for the Rocket Lab Mission to Venus (funding from Schmidt Sciences and NASA). More information is available at https://www.morningstarmissions.space/rocketlabmissiontovenus

Glenn Lightsey does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. NASA goes on an ESCAPADE – twin small, low-cost orbiters will examine Mars’ atmosphere – https://theconversation.com/nasa-goes-on-an-escapade-twin-small-low-cost-orbiters-will-examine-mars-atmosphere-269321

How the Plymouth Pilgrims took over Thanksgiving – and who history left behind

Source: The Conversation – USA (3) – By Thomas Tweed, Professor Emeritus of American Studies and History, University of Notre Dame

‘The First Thanksgiving, 1621,’ by Jean L. G. Ferris. Library of Congress

Nine in 10 Americans gather around a table to share food on Thanksgiving. At this polarizing moment, anything that promises to bring Americans together warrants our attention.

But as a historian of religion, I feel obliged to recount how popular interpretations of Thanksgiving also have pulled us apart.

Communal rituals of giving thanks have a longer history in North America, and it was only around the turn of the 20th century that most people in the U.S. came to associate Thanksgiving with Plymouth “Pilgrims” and generic “Indians” sharing a historic meal.

The emphasis on the Pilgrims’ 1620 landing and 1621 feast erased a great deal of religious history and narrowed conceptions of who belongs in America – at times excluding groups such as Native Americans, Catholics and Jews.

Farming faiths and harvest festivals

The usual Thanksgiving depiction overlooks Indigenous rituals that give thanks, including harvest festivals.

The Wampanoag, who shared food with the Pilgrims in 1621, continue to celebrate the cranberry harvest, and similar feasts were held long before Columbus sailed and Pilgrims landed.

As I note in my 2025 book, “Religion in the Lands That Became America,” for instance, celebrants gathered for a communal feast in the late 11th century in the 50-acre plaza of Cahokia. That Native city, across the river from present-day St. Louis, was the largest population center north of Mexico before the American Revolution.

An overhead view of a grassy green area with several raised mounds.
The St. Louis, Mo., skyline is seen beyond Monks Mound at Cahokia Mounds State Historic Site in Collinsville, Ill., on July 11, 2019.
Daniel Acker for The Washington Post via Getty Images

Cahokians and their neighbors came in late summer or early autumn to give deities thanks, smoke ritual tobacco and eat special food – not corn, their dietary staple, but symbolically significant animals such as white swans and white-tailed deer. So, those Cahokians attended a thanks-giving feast five centuries before the Pilgrims’ harvest-time meal.

‘Days of Thanksgiving’

The usual depiction also de-emphasizes the tradition of officials announcing special “Days of Thanksgiving,” a practice familiar to the Pilgrims and their descendants.

The Pilgrims, who settled in what is now Plymouth, Massachusetts, were separatist Puritans who had denounced the Catholic elements that remained in the Protestant Church of England. They first sought to form their own “purified” church and community in Holland. After about 12 years, many of them moved again, crossing the Atlantic in 1620. The Pilgrims’ colony southeast of Boston was gradually absorbed into Massachusetts Bay Colony, founded in 1630 by a larger group of Puritans who did not split from England’s official church.

As historians have noted, Puritan ministers in Massachusetts’ state-sanctioned Congregational Church didn’t just speak on Sundays. Now and then they also gave special thanksgiving sermons, which expressed gratitude for what the community considered divine interventions, from military victory to epidemic relief.

The practice continued and spread. During the American Revolution, for instance, the Continental Congress declared a Day of Thanksgiving to commemorate the victory at Saratoga in 1777. President James Madison announced Days of Thanksgiving during the War of 1812. Leaders of the United States and the Confederate states did the same during the Civil War.

This tradition influenced Americans such as Sarah Hale, who called for a national Thanksgiving holiday. A magazine editor and poet best known for “Mary Had a Little Lamb,” she successfully pitched the idea to Abraham Lincoln in 1863.

Harvest feast of 1621

Many Americans’ view of “The First Thanksgiving” resembles the scene depicted in a Jean Ferris painting by that name. Finished around 1915, it is similar to another popular image painted around the same time, Jennie Augusta Brownscombe’s “The First Thanksgiving at Plymouth.”

A painting in muted colors of a small group of people in plain clothing seated around a table outside, with a log cabin in the background.
‘The First Thanksgiving at Plymouth’ by Jennie A. Brownscombe.
Stedelijk Museum De Lakenhal/Wikimedia Commons

Both images distort the historical context and misrepresent Indigenous attendees from the nearby Wampanoag Confederacy. The Native leaders wear headdresses from Plains tribes, and there are too few Indigenous attendees.

Only one eyewitness account survives: a 1621 letter from the Pilgrim Edward Winslow. He reported that the Wampanoag’s leader, Massasoit, brought 90 men. That means, some historians suggest, the shared meal was as much a diplomatic event marking an alliance as an agricultural feast celebrating a harvest.

Ferris’ painting also implies that the English provided the food. Plymouth residents brought “fowl,” as Winslow recalled – probably wild turkey – but the Wampanoag added five killed deer. Even the harvest of “Indian corn” depended on Native aid. Tisquantum or Squanto, the lone survivor of the village that the Pilgrims called Plymouth, had offered lifesaving advice about planting as well as diplomacy.

The image’s cheerful scene also obscures how death had destabilized the area. The Pilgrims lost almost half their group to famine or exposure that first winter. After earlier European contact, however, even larger numbers of the Wampanoag had died in a regional epidemic that raged between 1616-1619. That’s why the Pilgrims found Squanto’s village abandoned, and why both communities were open to the alliance he brokered.

Pilgrims’ primacy

The Pilgrims were latecomers to the Thanksgiving table. Lincoln’s 1863 proclamation, published in Harper’s Monthly, mentioned “the blessing of fruitful fields,” but not the Pilgrims. Nor were Pilgrims depicted in the magazine’s illustrated follow-up. The page showed town and country, as well as emancipated slaves, celebrating the feast day by praying at “the Union altar.” For years before and after the proclamation, in fact, many Southerners resisted Thanksgiving, which they saw as a Northern, abolitionist holiday.

Several small black-and-white illustrations around a larger one of a woman with long hair and a star headdress kneeling in prayer.
This ‘Thanksgiving Day’ illustration, made by cartoonist Thomas Nast, commemorated its first celebration as a U.S. holiday.
Syracuse University Art Museum

The Pilgrims’ absence makes sense, since they were not the first Europeans to land on North America’s eastern coast – or to give thanks there. Spanish Catholics had founded St. Augustine in 1565. According to an eyewitness account, the Spanish leader asked a priest to celebrate Mass on Sept. 8, 1565, which Native Americans attended, and “ordered that the Indians be fed.”

Two decades later, an English group had tried and failed to establish a colony on Roanoke Island, North Carolina – including a Jewish engineer. The English had more success when they settled Jamestown, Virginia, in 1607. A commander leading a new group to Virginia was instructed to mark “a day of Thanksgiving to Almighty God” in 1619, two years before the Plymouth meal.

But over the years, Plymouth’s Pilgrims still moved slowly toward the center of the national holiday – and America’s founding narrative.

In 1769, Plymouth residents promoted their town by organizing a “Forefathers’ Day.” In 1820 the Protestant politician Daniel Webster gave a speech commemorating the bicentennial of the landing at Plymouth Rock and praising the Pilgrims’ arrival as “the first footsteps of civilized man” in the wilderness. Then in an 1841 volume, “Chronicles of the Pilgrim Fathers,” a Boston minister reprinted the 1621 eyewitness account and described the shared harvest meal as “the first Thanksgiving.”

Rising immigration

Between 1880 and 1920, the Pilgrims emerged as the central characters in national narratives about both Thanksgiving Day and America’s origin. It was no coincidence that these years were the peak of immigration to the U.S., and many Americans saw the new immigrants as inferior to those who had landed at Plymouth Rock.

An illustration in faded colors of a group of men and women standing, a bit disoriented, on a hill beside the ocean.
A late-1800s depiction of the Plymouth landing, published by the printmaking business Currier and Ives.
Mabel Brady Garvan Collection/Yale University Art Gallery

Irish Catholics already had a presence in Boston when the “Pilgrim Fathers” volume appeared in 1841, and more came after the Irish potato famine later that decade. Boston’s foreign-born population increased further as poverty and politics pushed Italian Catholics and Russian Jews to seek a better life in America.

The same was happening in many northern cities, and some Protestants were alarmed. In an 1885 bestseller called “Our Country,” a Congregational Church minister warned that “the glory is departing from many a New England village, because men, alien in blood, in religion, and in civilization, are taking possession of homes in which were once reared the descendants of the Pilgrims.”

During the 300th anniversary of the Pilgrims’ landing and harvest meal, celebrated in 1920 and 1921, the federal government issued commemorative stamps and coins. Officials staged pageants, and politicians gave speeches. About 30,000 people gathered in Plymouth, for instance, to hear President Warren Harding and Vice President Calvin Coolidge praise the “Pilgrim Spirit.”

Soon nativist worries about the newcomers, especially Catholics and Jews, led Coolidge to sign the Immigration Act of 1924, which would largely close America’s borders for four decades.

Americans kept telling the Pilgrim story after U.S. immigration policy became more welcoming in 1965, and many will tell it again next year as we celebrate the nation’s 250th anniversary. Understood in its full context, it’s a story worth telling. But we might use caution since, as history reminds us, stories about the country’s spiritual past can either bring us together or pull us apart.

The Conversation

Thomas Tweed does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How the Plymouth Pilgrims took over Thanksgiving – and who history left behind – https://theconversation.com/how-the-plymouth-pilgrims-took-over-thanksgiving-and-who-history-left-behind-267944

Dormir bien y moverse más: las 24 horas mágicas para niños sanos

Source: The Conversation – (in Spanish) – By Alicia Mª Alonso Martínez, Vicedecana Grado en Ciencias de la Actividad Física y del Deporte / Profesora Titular área de Educación Física y Deportiva Facultad Ciencias de la Salud, Universidad Pública de Navarra

alexkoral/Shutterstock

Si alguna vez han visto a una niña de cinco años lanzar un balón con la intensidad de una final del Mundial, ya conocen la magia de las habilidades motrices básicas. Correr, saltar, lanzar o atrapar objetos no son simples juegos, sino los cimientos de la confianza en el parque, del gusto por el movimiento y la actividad física y uno de los factores más decisivos para mantenerse activos al crecer.

Estos cimientos en ocasiones no se establecen con la solidez necesaria, por causas diversas, como demasiado sedentarismo en la escuela, poco tiempo para jugar al aire libre, dificultades de acceso a zonas adecuadas… Por eso es tan importante pensar de manera global en las 24 horas de un día de un niño o niña: cuánto se mueve, cuánto está sentado o cómo duerme, tanto en casa como en la escuela.

Recientemente hemos investigado cómo es posible mejorar las destrezas motrices en conjunción con buenas rutinas de sueño y hábitos que combaten el sedentarismo. Nuestras conclusiones apuntan a beneficios consistentes en las funciones ejecutivas y en la regulación emocional. Es decir, con este enfoque global los niños y las niñas se desarrollan con mayores habilidades físicas, pero también intelectuales y emocionales.

¿Qué nos dice la evidencia?

El análisis de doce estudios con casi 5 000 niños y niñas de entre 4 y 6 años en entornos de educación infantil muestra que los programas que combinan juegos motrices, retos cognitivos sencillos y mensajes para organizar las 24 horas –es decir, más movimiento, menos sedentarismo y sueño de calidad–, producen mejoras sólidas en competencia motriz, especialmente en las destrezas de control de objetos, como lanzar y atrapar una pelota o botar un balón sin que se escape.

En cambio, los avances en resistencia, fuerza o velocidad son más discretos, porque para mejorar la condición física se necesita repetición y progresión a lo largo del tiempo.

Nuestros resultados muestran que para favorecer el desarrollo infantil es clave variar los juegos y actividades, evitando la rutina. Por ejemplo, alternar juegos de cooperación, equilibrio y lanzamiento con nuevas consignas o materiales mantiene la motivación. En cambio, repetir los mismos ejercicios o circuitos durante meses limita el interés y el progreso. Por eso, no es la duración, sino la variedad y calidad de las experiencias lo que impulsa un desarrollo motor y cognitivo real.




Leer más:
Cómo fomentar el juego al aire libre


De la habilidad a la confianza y la participación

Las habilidades con objetos son mucho más que simples ejercicios. Abren la puerta a juegos con pelota como “balón prisionero” o “bomba” y también a la participación en deportes de equipo como el balonmano o el waterpolo. Son clave en espacios donde niños y niñas aprenden no sólo a moverse sino también a compartir, cooperar, competir y disfrutar de la actividad física en grupo.

Cuando un niño se siente motrizmente competente, ocurre algo especial: participa más, se divierte más y busca nuevas oportunidades para repetir esa experiencia positiva. Se crea así un pequeño círculo virtuoso que refuerza la confianza y la motivación: “Sé hacerlo, me gusta, lo repito”. Y lo más importante es que este ciclo puede mantenerse en el tiempo, siempre que la escuela y la familia ofrezcan espacios adecuados para la práctica y el juego.

Movimiento, cognición y las emociones

Desarrollar la competencia motriz va mucho más allá del simple movimiento: implica pensar. No es casualidad que actividades como coordinar el cuerpo, ajustar la fuerza necesaria, esperar turnos o seguir las reglas de un juego requieren discurrir, decidir y autocontrolarse y se vinculan con la mejora de funciones ejecutivas fundamentales como la atención, la memoria de trabajo y el control inhibitorio. Los programas con reglas variables o consignas que obligan a replantear decisiones muestran mejoras visibles en el procesamiento ejecutivo y en el comportamiento en el aula.

En el ámbito emocional sucede algo similar. El juego activo con reglas claras, tiempos de espera y retroalimentación inmediata favorece la autorregulación tanto en la conducta, como en las emociones. Por ejemplo, un niño que aprende a “parar, mirar y tirar” en un juego suele también aprender a “parar, pensar y actuar” en otras situaciones de su vida diaria.

Este vínculo entre desarrollo motriz, cognición y emoción refuerza la importancia de programas integrales que estimulen no solo el movimiento físico, sino también el desarrollo cognitivo y el control emocional desde edades tempranas.




Leer más:
Problemas de sueño y TDAH: ¿cómo se relacionan estos dos trastornos?


Sueño, movimiento y alimentación: pilares del desarrollo

Las guías de comportamiento que abarcan las 24 horas del día insisten en abordar la actividad física, el sedentarismo y el sueño como un sistema integrado. ¿Por qué el sueño, con horarios regulares y de calidad, resulta clave para un desarrollo físico, cognitivo y socioemocional óptimo en niños y niñas de 4 a 6 años?

Un descanso adecuado y reparador mejora el rendimiento ejecutivo, mientras que el sueño corto o irregular dificulta la concentración y la regulación emocional, afectando el desarrollo infantil. Y, en general, las intervenciones que combinan actividad física con desafío mental reducen el sedentarismo y regulan los tiempos de sueño favoreciendo la atención, la memoria y la gestión emocional durante la infancia.

El camino hacia la mejora

Las siguientes pautas nos servirán para aplicar en casa este enfoque:

• Permitir a los niños correr, saltar, lanzar, girar… Dejar que la condición física emerja de forma natural con la práctica continua.

• Integrar retos mentales sencillos durante el juego (cambiar reglas, contar, nombrar, enumerar).

• Multiplicar los momentos activos durante el día. Todo movimiento suma.

• Promover que jueguen sin pantallas. El juego es el momento de conectar de verdad.

• Fomentar rutinas de sueño. A los 3-4 años se necesitan 10-13 horas diarias, incluyendo siestas, con horarios fijos.

• Ser ejemplo: los niños imitan lo que ven. Si los adultos evitamos pantallas y nos movemos, harán lo mismo.

Familias, docentes y comunidades deberían implicarse en promover hábitos saludables con este enfoque global, en especial mejorando espacios en el entorno urbano para que los niños tengan lugares protegidos de juego.

Para crear un cambio sostenible, será fundamental que la opción saludable, como moverse más, dormir bien y reducir el sedentarismo, sea la más accesible, sencilla y natural para todos los niños y niñas y sus familias.

The Conversation

Alicia Mª Alonso Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Dormir bien y moverse más: las 24 horas mágicas para niños sanos – https://theconversation.com/dormir-bien-y-moverse-mas-las-24-horas-magicas-para-ninos-sanos-268111

El coste psicológico del acoso digital que sufren las deportistas en las redes sociales

Source: The Conversation – (in Spanish) – By Erika Borrajo Mena, Doctora en Ciencias Sociales/Ciencias de la Actividad Física y el Deporte, Universidad de Deusto

Con cada victoria, las deportistas ganan seguidores, pero también detractores que las observan desde la trinchera del anonimato. La tenista británica Katie Boulter, número uno del circuito en su país, lo vivió tras un torneo internacional: mensajes anónimos en redes le desearon la muerte a ella y a su familia.

Aunque pueda parecerlo, no es un caso aislado. En España, la campeona olímpica de waterpolo Paula Leitón tuvo que enfrentarse a una oleada de insultos por su físico, justo después de ganar el oro en París 2024. Tal y como contó en RTVE, en lugar de celebraciones tuvo que leer mensajes como “¿se valen focas?” o “¿no se vació la piscina?”.

Sus testimonios reflejan una realidad cada vez más presente en el deporte: el acoso digital que muchas mujeres reciben en redes y que afecta a su bienestar personal y profesional. En otras palabras, una forma contemporánea de violencia simbólica que se disfraza de opinión.

Visibilidad + algoritmos = exposición

La visibilidad trae consigo logros y reconocimiento, pero también exposición.
Una investigación de World Athletics reveló que, en recientes campeonatos internacionales, el 59 % de los abusos en redes se dirigieron a deportistas mujeres, y un 36 % tenían carácter sexual.

En redes sociales, la visibilidad no se mide por mérito, sino por reacción. Plataformas como Instagram, X o TikTok premian lo que genera debate, sin distinguir si es apoyo u odio. Un comentario ofensivo o una imagen viral pueden alcanzar miles de personas en segundos. En ese juego de algoritmos, las deportistas quedan doblemente expuestas: por lo que hacen y por cómo se ven.

Sexualización

La raíz del problema no se encuentra en la tecnología, sino en el hecho social. Es la versión 2.0 del sexismo que ha existido históricamente en el deporte. Las redes sociales se han convertido en un espacio donde se repiten las mismas lógicas de sexualización que antes se daban en otros medios.

A ellas se las juzga no solo por su rendimiento, sino por su aspecto, su ropa o su forma de expresarse. El anonimato refuerza la impunidad: decir en línea lo que no se diría cara a cara. Y la falta de estructuras de apoyo –protocolos, recursos, acompañamiento psicológico– deja a muchas deportistas enfrentándose solas a un problema que es colectivo.

Consecuencias psicológicas, sociales y profesionales

Recibir insultos o críticas constantes no es algo “normal” ni debería asumirse como parte del juego. El acoso digital deja huellas invisibles que van más allá de la pantalla: ansiedad, inseguridad, insomnio o aislamiento son algunas de sus consecuencias más comunes. El abuso y el acoso en línea están entre los factores que más dañan la salud mental y el bienestar de las mujeres deportistas. Muchas optan por reducir su presencia en redes o delegar su gestión a otras personas para protegerse, aunque eso implique perder visibilidad u oportunidades profesionales. Todo esto sabiendo que el rendimiento mediático pesa casi tanto como el deportivo, y que desconectarse también tiene coste.

Hacia entornos digitales seguros

El acoso digital a las deportistas no es una cuestión de sensibilidad, sino de responsabilidad colectiva. No basta con denunciar los ataques: hacen falta medidas estructurales que garanticen entornos digitales seguros.

Algunos torneos internacionales ya están dando pasos en esa dirección. Uno de los más destacados es el sistema Threat Matrix, creado por la empresa británica Signify Group y adoptado por Wimbledon y la Asociación de Tenis Femenino (WTA), entre otros. Esta tecnología analiza en tiempo real miles de mensajes en redes sociales para detectar amenazas, insultos o comentarios sexistas en más de treinta idiomas. Cuando identifica contenido abusivo, alerta a un equipo humano que decide si debe avisar a las plataformas o a las autoridades competentes.

De forma parecida, el torneo de Roland Garros utiliza Bodyguard, un software que filtra automáticamente los mensajes de odio antes de que lleguen a las deportistas. Si bien es cierto que estas herramientas no eliminan el problema, intentan prevenirlo. Y, sobre todo, buscan proteger la salud mental de quienes compiten fomentando una cultura digital más segura y respetuosa.

Los clubes, las federaciones y los medios de comunicación deben dejar de mirar hacia otro lado. Las plataformas tecnológicas también tienen una responsabilidad: actuar con la misma rapidez para detener el odio que cuando impulsan una polémica. Y el público debe recordar que, detrás de cada mensaje, hay una persona que lo lee, lo siente y lo sufre.

Conquista del respeto

Cuando las deportistas ganan visibilidad, inspiran a miles de niñas que las miran como referentes. Esta inspiración solo tiene sentido si el entorno digital es un espacio seguro, donde puedan mostrarse sin miedo al juicio o al insulto. Es curioso hablar de ello cuando el deporte femenino ha conquistado por fin su espacio en los estadios. Ahora le toca conquistar también su espacio en las redes: libre de miedo, de insultos y de juicios sobre cuerpos o voces. Porque, al fin y al cabo, ¿de qué sirve ganar una medalla si después hay que seguir luchando para ser respetadas?

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. El coste psicológico del acoso digital que sufren las deportistas en las redes sociales – https://theconversation.com/el-coste-psicologico-del-acoso-digital-que-sufren-las-deportistas-en-las-redes-sociales-267952

Hombres y mujeres que votan a la derecha radical populista: ¿les mueven las mismas preocupaciones?

Source: The Conversation – (in Spanish) – By Antonia María Ruiz Jiménez, Associate Professor (Sociology Department), Universidad Pablo de Olavide

Mitin de Santiago Abascal, líder de Vox, en Valencia el 13 de julio de 2023. Aitor Serra Martin/Shutterstock

El fortalecimiento de la democracia europea exige comprender por qué amplios sectores de la población han dejado de sentirse representados por los partidos tradicionales.

El proyecto UNTWIST, financiado por la Unión Europea, ha estudiado este fenómeno desde una perspectiva de género, revelando que la falta de respuesta a las necesidades reales de hombres y mujeres ha contribuido al auge de las formaciones de derecha radical populista en Europa.

Su informe Fortalecer la democracia mejorando la representación de género sintetiza los resultados de 18 grupos de discusión desarrollados en seis países –España, Reino Unido, Alemania, Dinamarca, Hungría y Suiza– con personas que habían votado previamente a partidos tradicionales y que en las últimas elecciones optaron por partidos de derecha radical populista.

Los hallazgos muestran que la mayoría de estos electores no rechazan la igualdad ni los valores democráticos, sino que expresan una profunda desafección hacia los partidos tradicionales, a quienes culpan de su situación.

Ignorados por un sistema que no responde a las preocupaciones cotidianas

Lo que une a estos votantes no es una ideología extremista: es más bien la percepción de haber sido ignorados por un sistema que no responde a sus preocupaciones cotidianas.

El estudio de UNTWIST plantea que la crisis de representación no es un simple cambio de preferencias electorales, sino un reto de fondo para la calidad de la democracia.

Cuando los partidos tradicionales dejan de reflejar las preocupaciones de los sectores más vulnerables, se debilitan los principios de equidad, legitimidad e inclusión sobre los que se asienta el sistema democrático.

Esta falta de conexión genera un terreno fértil para los discursos populistas, que prometen dar voz a quienes se sienten ignorados. Sin embargo, la representación que ofrecen está distorsionada por una ideología antiliberal que tiende a instrumentalizar las demandas sociales y de género, reinterpretándolas desde valores conservadores y nacionalistas.

Allí donde estas fuerzas políticas han alcanzado poder, se observan retrocesos en derechos de las mujeres y en libertades individuales, lo que confirma el carácter regresivo de su propuesta.

Frente a ello, el proyecto UNTWIST subraya la necesidad de reconstruir la representación democrática a partir de un conocimiento más preciso de las necesidades y experiencias de los distintos grupos sociales, reconociendo las diferencias entre hombres y mujeres y atendiendo a las condiciones materiales que estructuran sus vidas.

Motivaciones de los nuevos votantes

Los grupos de discusión realizados en los seis países muestran que los votantes que cambian su apoyo hacia partidos de derecha radical populista suelen ser personas que buscan expresar su frustración con las opciones políticas tradicionales. No esperan necesariamente soluciones concretas por parte de los nuevos partidos, pero utilizan el voto como medio de protesta.

En España, el análisis de los grupos revela que el ámbito familiar ocupa un lugar central en los discursos de hombres y mujeres, independientemente de la clase social.

Sin embargo, existen diferencias significativas en la forma de expresar el malestar. Los hombres, especialmente los de clase media, emplean un lenguaje más abstracto y político, mientras que las mujeres, sobre todo de clase trabajadora, articulan sus preocupaciones desde la experiencia cotidiana, vinculándolas con la conciliación, el cuidado y la precariedad laboral.

El estudio también identifica una sensación compartida de fatiga social y emocional, descrita como “fatiga de emancipación”: la percepción de que, a pesar de los avances formales en igualdad, las condiciones materiales no garantizan una vida digna ni equilibrada. Este sentimiento es más pronunciado entre las mujeres, que combinan el trabajo remunerado con una carga desigual de tareas domésticas y de cuidado.

Los datos obtenidos muestran que las preocupaciones económicas son el principal motor del voto hacia los partidos populistas. Para los hombres, la atención se centra en la legislación laboral y en la sensación de desigualdad percibida en políticas de empleo o cuotas. Las mujeres, por su parte, destacan la dificultad de equilibrar trabajo y familia y reclaman condiciones laborales que les permitan atender sus responsabilidades de cuidado, que reivindican como propias, sin perder autonomía económica.

El Estado del bienestar es otro ámbito de preocupación. Hombres y mujeres comparten una visión crítica del uso político de las ayudas sociales y expresan la sensación de que ciertos colectivos reciben apoyo inmerecido.

En el terreno educativo, los hombres tienden a preocuparse por la pérdida de referentes culturales, mientras que las mujeres subrayan la falta de oportunidades laborales para sus hijos, incluso con estudios superiores.

En la esfera familiar, los discursos muestran tensiones entre los roles tradicionales y las nuevas realidades económicas. Los hombres, especialmente los de clase trabajadora, lamentan no poder sostener el hogar con un solo salario, mientras que las mujeres reclaman más apoyo institucional y una corresponsabilidad efectiva en los cuidados.

Hacia políticas sensibles al género

A partir de estos resultados, UNTWIST propone repensar la acción política desde una sensibilidad de género que supere la retórica y se traduzca en medidas concretas. El objetivo no es reforzar una agenda identitaria, sino desarrollar políticas que reconozcan las diferencias en las experiencias de hombres y mujeres y que beneficien a la ciudadanía en su conjunto.

Este enfoque implica priorizar la seguridad económica, la conciliación y la educación pública como pilares de una democracia inclusiva. Las políticas de igualdad, señala el informe, deben presentarse como instrumentos de cohesión social y no como campos de confrontación ideológica.

The Conversation

Antonia María Ruiz Jiménez es la Coordinadora Científica del proyecto UNTWIST.

Este proyecto ha recibido financiación del programa de investigación e innovación Horizonte Europa de la Unión Europea en virtud del acuerdo de subvención n.º 101060836. El consorcio del Reino Unido está financiado por UK Research and Innovation (UKRI) en virtud de la garantía de financiación Horizonte Europa del Gobierno del Reino Unido (número de subvención n.º 10066730). El consorcio suizo está financiado por la Secretaría de Estado de Educación, Investigación e Innovación (SERI) de Suiza (acuerdo de subvención n.º 22.00615).

Financiado por la Unión Europea, UK Research and Innovation y la Secretaría de Estado suiza para la Educación, la Investigación y la Innovación. No obstante, las opiniones y puntos de vista expresados son exclusivamente los de los autores y no reflejan necesariamente los de la Unión Europea, la Agencia Ejecutiva de Investigación Europea (REA) ni los demás financiadores. Ni la Unión Europea, ni la autoridad concedente, ni los demás financiadores pueden ser considerados responsables de ellos.

ref. Hombres y mujeres que votan a la derecha radical populista: ¿les mueven las mismas preocupaciones? – https://theconversation.com/hombres-y-mujeres-que-votan-a-la-derecha-radical-populista-les-mueven-las-mismas-preocupaciones-266935

Existe una burbuja de la inteligencia artificial y esto es lo que podría pasar si estallase

Source: The Conversation – (in Spanish) – By Sergi Basco, Profesor Agregado de Economia, Universitat de Barcelona

Koshiro K/Shutterstock

Los auges y las crisis son una característica recurrente de la economía moderna, pero cuando el valor de un activo se infla en exceso, un auge se convierte rápidamente en una burbuja.

Los dos episodios de este tipo más recientes fueron la burbuja puntocom en Estados Unidos (1996-2000) y las burbujas inmobiliarias que surgieron alrededor de 2006 en diferentes países. Ambas terminaron en recesión: la primera fue relativamente leve y la segunda, catastróficamente grave. Los recientes y vertiginosos aumentos en los precios de las acciones de las empresas relacionadas con la IA han llevado a muchos inversores a preguntarse: “¿Estamos presenciando otra burbuja de precios de activos?”.

Es importante situar el actual auge de la IA en su contexto. El precio de las acciones de Nvidia, que fabrica muchos de los chips informáticos que alimentan la industria de la IA, se ha multiplicado por 13 desde principios de 2023. Las acciones de otras empresas relacionadas con la IA, como Microsoft y Alphabet, la empresa matriz de Google, se han multiplicado por 2,1 y 3,2, respectivamente. En comparación, el índice S&P 500, que sigue la evolución de las acciones de las empresas más importantes de Estados Unidos, solo se ha multiplicado por 1,8 en el mismo periodo.

Es importante destacar que estas empresas relacionadas con la IA están incluidas en el S&P 500, lo que aumenta aún más la diferencia con las empresas no relacionadas con la IA. Por lo tanto, parece que existe una burbuja de IA, pero no tiene por qué acabar repitiéndose lo ocurrido en 2008.

Cómo se forma una burbuja

El precio de cualquier acción se puede desglosar en dos componentes: su valor fundamental y el valor inflado de la burbuja. Si el precio de la acción está por encima de su valor fundamental, existe una burbuja en su precio.

El valor fundamental de un activo es la suma descontada de sus dividendos futuros esperados. La palabra clave aquí es “esperados”. Dado que nadie, ni siquiera ChatGPT, puede predecir el futuro, el valor fundamental depende de las expectativas subjetivas de cada inversor. Pueden ser optimistas o pesimistas; con el tiempo, algunos tendrán razón y otros se equivocarán.

Los inversores optimistas esperan que la IA cambie el mundo y que los propietarios de esta tecnología obtengan beneficios (casi) infinitos. Al no saber qué empresa saldrá victoriosa, invierten en todas las empresas relacionadas con la IA.

Por el contrario, los inversores pesimistas piensan que la IA es solo un programa informático complejo, en lugar de una tecnología verdaderamente innovadora, y ven burbujas por todas partes.

Una tercera posibilidad son los inversores más sofisticados. Se trata de personas que piensan, o saben, que hay una burbuja, pero siguen invirtiendo con la esperanza de poder aprovechar la ola y salir antes de que sea demasiado tarde.

La última de estas posibilidades recuerda la infame cita del director ejecutivo de Citigroup, Chuck Prince, antes de que estallara la burbuja inmobiliaria de 2008: “Mientras suene la música, hay que levantarse y bailar”.

Como economista, puedo afirmar con seguridad que es imposible que todas las empresas relacionadas con la IA acaben dominando el mercado. Esto significa, sin lugar a dudas, que el valor de al menos algunas acciones relacionadas con la IA tiene un gran componente de burbuja.




Leer más:
Inteligencia artificial: ¿estamos ante una nueva burbuja tecnológica?


Escasez de activos

Las burbujas de los precios de los activos pueden ser la respuesta natural del mercado a la escasez de activos. En un momento en el que la demanda de activos supera la oferta (especialmente en el caso de activos seguros como los bonos del Estado), hay margen para que surjan otros activos más nuevos.

Este patrón explica la aparición, por ejemplo, de la burbuja puntocom de la década de 1990 y la posterior burbuja inmobiliaria de la década de 2000. En ese contexto, el papel cada vez más importante de China en los mercados financieros aumentó la demanda de activos en Occidente: el dinero se destinó primero a las empresas puntocom en la década de 1990 y, cuando estalló esa burbuja, a financiar la vivienda a través de valores respaldados por hipotecas.

En el contexto actual, una combinación de factores ha allanado el camino para la burbuja de la IA: el entusiasmo por las nuevas tecnologías, los bajos tipos de interés (otro indicio de la escasez de activos) y las enormes cantidades de efectivo que fluyen hacia las grandes empresas.




Leer más:
¿Otra vez la burbuja? Por qué se han disparado los precios del sector inmobiliario en Madrid y Barcelona


El estallido de la burbuja: escenarios buenos, malos y feos

Como mínimo, parte del aumento vertiginoso del valor de las acciones relacionadas con la IA es una burbuja, y una burbuja no puede mantenerse inflada para siempre. Tiene que estallar por sí sola o, en el mejor de los casos, desinflarse cuidadosamente mediante medidas específicas del Gobierno o del Banco Central. La actual burbuja de la IA podría terminar en uno de estos tres escenarios: bueno, malo o feo.

El bueno: auge, no burbuja

Durante la burbuja puntocom, muchas empresas malas recibieron demasiado dinero; el ejemplo clásico fue Pets.com. Pero la burbuja también proporcionó financiación a empresas como Google, lo que (posiblemente) contribuyó a convertir internet en una tecnología que mejora la productividad.

Algo similar podría ocurrir con la IA, ya que la actual avalancha de inversiones podría, a largo plazo, crear algo bueno: una tecnología que beneficie a la humanidad y que, con el tiempo, genere un retorno de la inversión. Sin los niveles de flujo de caja propios de una burbuja, no se financiaría.

En este escenario optimista, la IA, aunque pueda desplazar algunos puestos de trabajo a corto plazo (como ocurre con la mayoría de las tecnologías), resultará positiva para los trabajadores. También supongo que, obviamente, no conducirá a la extinción de la humanidad. Para que esto sea así, los Gobiernos deben introducir regulaciones adecuadas y sólidas. También es importante destacar que no es necesario que los países inventen o inviertan en nuevas tecnologías, sino que deben adaptarlas y proporcionar aplicaciones para que sean útiles.

El malo: un estallido suave

Todas las burbujas acaban estallando. Tal y como están las cosas, no sabemos cuándo ocurrirá esto, ni el alcance de los posibles daños, pero probablemente se producirá una corrección del mercado cuando un número suficiente de inversores se dé cuenta de que muchas empresas están sobrevaloradas. Esta caída del mercado bursátil provocará inevitablemente una recesión.

Esperemos que sea de corta duración, como la recesión de 2001 que siguió al estallido de la burbuja puntocom. Aunque ninguna recesión es indolora, esta fue relativamente leve y duró menos de un año en Estados Unidos.

Sin embargo, el estallido de la burbuja de la IA puede ser más doloroso porque hay más hogares que participan (ya sea directamente o indirectamente a través de fondos de inversión) en el mercado de valores que hace 20 años.

Aunque la función de los bancos centrales no es controlar los precios de los activos, es posible que tengan que plantearse subir los tipos de interés para desinflar la burbuja antes de que crezca demasiado. Cuanto más repentino sea el colapso, más profunda y costosa será la recesión posterior.

El feo: colapso y caída

El estallido de la burbuja de la IA sería grave si compartiera más características de las que imaginamos con la burbuja inmobiliaria de la década de 2000. En el lado positivo, las acciones de IA no son viviendas. Esto es bueno porque, cuando estallan las burbujas inmobiliarias, los efectos sobre la economía son mayores y más duraderos que con otros activos.

La burbuja inmobiliaria no solo causó la crisis financiera de 2008: también provocó el colapso del sistema financiero mundial. Otra razón para ser optimistas es que el papel de los bancos comerciales en las finanzas de la IA es mucho menor que en la vivienda, ya que una gran cantidad del dinero de cada banco está perpetuamente inmovilizado en hipotecas.

Sin embargo, una advertencia importante es que no sabemos cómo reaccionará el sistema financiero si estas grandes empresas de IA incumplen el pago de su deuda. Resulta alarmante que esta parezca ser la forma en que están financiando actualmente nuevas inversiones: un análisis reciente del Bank of America advirtió que las grandes empresas tecnológicas dependen en gran medida de la deuda para construir nuevos centros de datos, muchos de los cuales están destinados a cubrir una demanda que aún no existe.

The Conversation

Sergi Basco no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Existe una burbuja de la inteligencia artificial y esto es lo que podría pasar si estallase – https://theconversation.com/existe-una-burbuja-de-la-inteligencia-artificial-y-esto-es-lo-que-podria-pasar-si-estallase-269731

Para comprender y gestionar mejor los incendios forestales debemos observar el paisaje

Source: The Conversation – (in Spanish) – By Irene Repeto Deudero, Doctoranda en Biología, Universidad de Cádiz

Plantación de Pino marítimo (_Pinus pinaster_) en la Sierra de la Culebra (Zamora) un año después del incendio de 2022. Juli G. Pausas

En los últimos años, los incendios forestales se han vuelto más extensos, más frecuentes y más graves en muchas partes del mundo. Los veranos son más calurosos, las sequías más largas y los incendios que hace unas décadas eran excepcionales hoy resultan algo habitual.

Según el Sistema Europeo de Información sobre Incendios Forestales, en agosto de 2025 ardieron más de 540 000 hectáreas en la península ibérica, la cifra más alta desde que empezaron estos registros.

Paisajes ricos en combustible

Ante la pregunta de si el cambio climático está detrás de ellos, la respuesta no es nada sencilla. Sin duda, el cambio climático alarga las temporadas de riesgo y crea condiciones más propicias para que ocurra un incendio, pero no es la única causa. Los incendios forestales también dependen de las fuentes de ignición, del terreno y de la vegetación que los alimenta.

Para entender los incendios actuales también tenemos que mirar al paisaje que hemos construido.

Desde el siglo XIX se extendieron por toda Europa diversos programas de plantación a gran escala diseñados con el fin de producir madera, proteger el suelo o potenciar el desarrollo económico. En España, se plantaron más de 5 millones de hectáreas, la mayoría con especies de pino, un legado que ha marcado profundamente el paisaje actual.

Con el tiempo, el abandono rural ha aumentado la cantidad y la continuidad de la biomasa, creando paisajes ricos en combustible que ahora son muy vulnerables al fuego. Pero, ¿cómo influyen los diferentes tipos de combustible en la severidad de un incendio y en su recuperación? ¿Puede la gestión reducir el impacto del fuego en los paisajes dominados por plantaciones?




Leer más:
Incendios forestales: no todo es cambio climático


Lecciones aprendidas de los incendios en España

Nuestro equipo estudió tres grandes incendios en España (Sierra Bermeja, La Culebra y Las Hurdes, ocurridos entre 2021 y 2023) y encontramos que las plantaciones de pino ardieron con mayor severidad que robledales, bosques mixtos o matorrales. Además, estos tres últimos tipos de vegetación mostraban signos claros de recuperación después de un año, mientras que las plantaciones continuaron prácticamente desérticas.

Un año después del incendio, el paisaje de las áreas forestadas no se parecía al ecosistema original, pero tampoco a una plantación funcional. También observamos que las plantaciones pueden poner en riesgo a sus vecinos. En los tres incendios, la intensidad del fuego en la vegetación colindante fue mayor cuanto más cerca estuvieran de dichas plantaciones.

Sin embargo, no todas las plantaciones se quemaron por igual. Detectamos un umbral en torno a los 440 pinos por hectárea: por encima de esa densidad, la severidad del incendio se dispara. En cambio, en aquellas plantaciones en las que se había gestionado la densidad de árboles y el sotobosque, las consecuencias del incendio fueron mucho menos graves.

Estas observaciones suponen una buena noticia, porque significa que en estas plantaciones la gestión puede marcar la diferencia. Prácticas como los clareos, las podas o la tala selectiva bajan la carga y la continuidad del combustible, y fueron efectivas para reducir el impacto del fuego en esas zonas. Pasar de una plantación abandonada a una gestionada podría marcar la diferencia entre un incendio que se puede apagar u otro extremadamente difícil de manejar.




Leer más:
Estrategias de gestión forestal para adaptar el paisaje a un mundo más cálido y proclive a los incendios


Fomentar un paisaje más diverso y menos inflamable

En el pasado, las plantaciones de pino tuvieron un papel clave en la economía europea y configuraron gran parte del paisaje que vemos hoy en día. Algunas repoblaciones ayudaron a frenar la pérdida de suelo tras décadas de sobreexplotación de los montes, y los salarios de la actividad forestal permitieron que muchas familias vivieran con dignidad en una economía de posguerra.

Sin embargo, en un contexto donde las condiciones climáticas son cada vez más duras, esas plantaciones están en riesgo de convertirse en puntos críticos para los grandes incendios.

Sierra Bermeja (2021, Málaga, España) un año después del incendio
Paisaje en Sierra Bermeja (Málaga) un año después del incendio de 2021.
Juli G. Pausas

Los resultados de nuestra investigación demuestran que no toda la vegetación arde de la misma forma, sino que el tipo, la densidad y la conectividad del combustible determinan las consecuencias del fuego en el ecosistema y su capacidad para recuperarse. Este hallazgo es importante: implica que hacer inversiones fuertes en gestión forestal ya no es opcional.

Debemos dejar atrás el enfoque centrado en la extinción de incendios una vez han ocurrido y empezar a apostar por reducir la vulnerabilidad del territorio antes de que se origine el fuego.

Fomentar un paisaje más diverso y menos inflamable, además de mantener las plantaciones bajo manejo activo, es una estrategia realista y eficaz. Las medidas que implica no solo aportan beneficios a corto plazo, sino que también fortalecen los planes regionales de prevención y adaptación al fuego. Además, complementan, que no sustituyen, las estrategias globales enfocadas a mitigar el cambio climático.

Si bien su puesta en marcha supone grandes costes y retos logísticos, también ofrece oportunidades para impulsar una industria forestal más sostenible, paliar las consecuencias del abandono rural y promover paisajes donde las plantaciones formen parte de un equilibrio entre la productividad económica y la conservación de los ecosistemas.

En un mundo cada vez más cálido y propenso a los incendios, plantar árboles como estrategia de mitigación climática conlleva riesgos importantes. Sin embargo, a diferencia del clima o la topografía, el combustible sí está bajo nuestro control.

Repensar qué especies, dónde y cómo las plantamos, y sobre todo, qué ocurre con ellas después, es una condición esencial para construir paisajes más resilientes al fuego y, en definitiva, para aprender a convivir con él.

The Conversation

Irene Repeto Deudero recibió fondos de la Universidad de Cádiz.

ref. Para comprender y gestionar mejor los incendios forestales debemos observar el paisaje – https://theconversation.com/para-comprender-y-gestionar-mejor-los-incendios-forestales-debemos-observar-el-paisaje-268444

Sensores basados en bacterias, los nuevos guardianes invisibles del agua

Source: The Conversation – (in Spanish) – By Anna Salvian, Investigadora posdoctoral del Grupo BioE, IMDEA AGUA

“El agua es la fuerza motriz de toda la naturaleza”, escribió Leonardo Da Vinci. Abrir el grifo y que salga agua limpia parece sencillo, pero detrás hay un sistema complejo que va desde la captación y distribución hasta la depuración y, cada vez más, la reutilización.

Hoy ese equilibrio se complica: el cambio climático, la escasez de recursos, la contaminación y el elevado consumo energético del tratamiento hacen cada vez más difícil garantizar un suministro seguro y sostenible. Afrontar estas amenazas exige avanzar hacia una economía circular del agua, con decisiones estratégicas basadas en datos y más orientadas a la eficiencia y la resiliencia.

La revolución de los biosensores bioelectroquímicos

Hasta ahora, controlar la calidad del agua en cada etapa de su ciclo significaba recoger muestras y analizarlas en el laboratorio. El método es fiable, pero lento y costoso, y no siempre refleja lo que ocurre en tiempo real. Por eso, disponer de tecnologías que permitan controlar al instante y con fiabilidad la calidad del agua es esencial para optimizar su gestión a lo largo de todo el ciclo, desde la captación hasta su uso, tratamiento y reutilización.

En este contexto, los biosensores bioelectroquímicos destacan por su versatilidad y capacidad de adaptación a las distintas fases del ciclo del agua. Estos dispositivos emplean microorganismos capaces de “alimentarse” de los contaminantes presentes en el agua, utilizando esas sustancias como fuente de energía.

Durante este proceso metabólico, las bacterias liberan electrones –partículas atómicas cargadas negativamente–, que son captados por el sensor y transformados en una señal eléctrica medible. De esta manera, el nivel de corriente generado refleja directamente la actividad biológica y el grado de contaminación del agua en tiempo real.

Colocados en diferentes puntos del ciclo del agua, estos dispositivos permiten:

  • Detectar la contaminación en origen, antes de que llegue al consumidor.

  • Optimizar el tratamiento en las depuradoras.

  • Garantizar la seguridad de la reutilización.

Antes de la depuración: función preventiva

El ciclo comienza en manantiales, ríos y acuíferos, fuentes cada vez más expuestas a contaminantes químicos, vertidos ilegales o infiltraciones de aguas residuales.

Aquí, los biosensores instalados en aguas subterráneas o superficiales permiten detectar en continuo la presencia de contaminantes. Su función es preventiva: ayudan a evitar intoxicaciones y a garantizar que el agua llegue en condiciones seguras a las plantas de potabilización.

Por ejemplo, se ha demostrado que los biosensores bioelectroquímicos pueden detectar la presencia de hidrocarburos derivados del petróleo, un avance fundamental, ya que estos compuestos se encuentran entre los contaminantes más comunes de las aguas subterráneas.

Durante: tratamientos más eficientes

Tras su uso, el agua llega a las estaciones depuradoras, donde se eliminan los contaminantes antes de devolverla al medio natural. En esta fase, los biosensores bioelectroquímicos desempeñan un doble papel.

Por un lado, permiten monitorizar la carga total de contaminantes orgánicos de entrada: cuanto mayor es la carga orgánica, más electricidad generan las bacterias del sensor, y esa corriente eléctrica puede medirse para estimar la cantidad de materia que debe ser tratada.

En un estudio desarrollado por científicos de España y Reino Unido, demostramos que las comunidades bacterianas que crecen en el ánodo (uno de los electrodos) de estos sensores son muy resistentes, lo que les permite funcionar incluso en aguas sucias o entornos adversos sin perder eficacia.

Esta información es especialmente útil porque las depuradoras, aunque son instalaciones esenciales, tienen un alto consumo energético: gran parte de la electricidad se destina a la aireación de los reactores biológicos necesaria para que los microorganismos degraden los contaminantes orgánicos.

Al medir en tiempo real la demanda de oxígeno de los microorganismos para la degradación o la carga contaminante, los operadores pueden ajustar la aireación de forma dinámica. De esta forma, reducen el consumo eléctrico, disminuyen las emisiones de gases de efecto invernadero y mantienen la calidad del agua tratada. Una ventaja doble: económica y ambiental.

Por otro lado, estos sensores también pueden detectar la presencia de sustancias tóxicas que alteran la actividad de las bacterias encargadas de depurar el agua. Dado que el tratamiento biológico depende de la salud de estos microorganismos, es crucial asegurarse de que no estén expuestos a compuestos que los dañen.

En este contexto, se han desarrollado biosensores bioelectroquímicos capaces de identificar cambios en la actividad metabólica microbiana provocados por floculantes –sustancias empleadas en procesos industriales o en las depuradoras para aglomerar partículas– o sus residuos tóxicos, metales pesados y biocidas, como los pesticidas. Este sistema ofrece una señal temprana de toxicidad, permitiendo actuar de inmediato y proteger el equilibrio biológico del proceso de depuración.

Después: agua segura para su reutilización

Cada vez más, el ciclo del agua se cierra con la reutilización. En un contexto de sequías, el agua regenerada se destina al riego agrícola, la limpieza urbana o incluso a procesos industriales.




Leer más:
El reto de regenerar las aguas residuales para usarlas en agricultura


Pero para reutilizar el agua se necesita garantizar su buena calidad. Los biosensores permiten vigilar en tiempo real el agua depurada, asegurando que cumple los estándares de seguridad antes de darle un nuevo uso. Gracias a ello, se fortalece la confianza en la reutilización y se avanza hacia un modelo de economía circular.

Además, este tipo de sensores no se limita al agua. También pueden aplicarse al estudio del suelo, especialmente en terrenos regados con agua depurada. Es posible monitorizar cómo evoluciona la actividad microbiana y las condiciones del suelo para garantizar que la reutilización del agua no altere su equilibrio biológico.

Esa información es muy valiosa porque la vida microbiana del suelo está directamente ligada a su fertilidad: un suelo con un microbioma equilibrado y activo favorece una mejor disponibilidad de nutrientes y, en consecuencia, una mayor productividad de los cultivos.




Leer más:
Guía para conocer los microorganismos que dan vida a los suelos y aseguran el futuro agrícola


Del control al futuro predictivo

La gran ventaja de los biosensores es que permiten pasar de un sistema reactivo a un sistema predictivo. Ya no se trata solo de comprobar la calidad del agua cuando el problema ya ha ocurrido, sino de anticiparse, gestionar mejor los recursos y responder en tiempo real.

Estos modelos predictivos son posibles gracias a la recopilación de grandes volúmenes de datos (big data) y al uso de herramientas de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning). Todo ello permite analizar patrones y predecir el comportamiento futuro con gran precisión.

Un grupo de investigación en Estados Unidos ya ha aplicado estas técnicas a biosensores bioelectroquímicos, logrando identificar las variables que influyen en la generación de corriente eléctrica del sensor y predecir la eliminación de carbono y nitrógeno durante el proceso de depuración.

Integrados en la digitalización del ciclo del agua, estos avances abren la puerta a un modelo de gestión más transparente, eficiente y respetuoso con el medio ambiente, que protege la salud pública, mejora la eficiencia energética y reduce la huella de carbono de las infraestructuras hídricas.

Un futuro más seguro y sostenible

En un mundo donde la demanda de agua podría superar en un 40 % a los recursos disponibles en 2030, apostar por la innovación tecnológica es imprescindible. Los biosensores se perfilan como aliados clave para garantizar un agua limpia, segura y gestionada con criterios de sostenibilidad.

El agua, como decía Da Vinci, es la fuerza que mueve la naturaleza. Hoy, gracias a la ciencia, tenemos nuevos guardianes invisibles para protegerla: biosensores que la vigilan gota a gota, en tiempo real.

The Conversation

Anna Salvian recibe financiación del Programa de Investigación e Innovación Horizonte Europa de la Unión Europea (proyecto n.º 101058174 “TrineFlex”).

ref. Sensores basados en bacterias, los nuevos guardianes invisibles del agua – https://theconversation.com/sensores-basados-en-bacterias-los-nuevos-guardianes-invisibles-del-agua-268042

¿Cómo podemos conocer la historia de la Tierra?

Source: The Conversation – (in Spanish) – By Laura Damas Mollá, Investigadora en Geología, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Formaciones con estratos bien visibles en Zumaia (Gipuzkoa, España). Guillermo Guerao Serra/Shutterstock

Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com


Pregunta formulada por el curso de 2º de la ESO del Instituto de Educación Secundaria Miguel de Unamuno, en Gasteiz (Álava)


Nuestro planeta es mucho, muchísimo más antiguo que cualquier civilización humana. Sus 4 500 millones de años de historia han dejado numerosas huellas en las rocas, y la geología es la ciencia que se encarga de descifrarlas para que podamos leer los diferentes capítulos del “libro de la Tierra”, con tramas que se entrelazan.

Hablan los sedimentos

Antes que nada, recordemos que las rocas tienen varios orígenes: a través de magma o lava se forman las ígneas y por transformación de otras rocas, las metamórficas. Pero aquí las que más nos interesan, de momento, son las del tercer grupo: las sedimentarias.

Las rocas sedimentarias nacen al acumularse partículas, más o menos finas, generadas por la descomposición y erosión de rocas que afloran en relieves elevados como montañas. Estas partículas son transportadas por distintas vías (ríos, viento, glaciares…) hacia las zonas de acumulación. Así, los sedimentos se van depositando, capa a capa, en niveles más o menos horizontales: los estratos.

Estratos de roca en Muskiz (Bizkaia, España).
Laura Damas Mollá

Según la llamada ley de horizontalidad de los estratos, establecida por el científico danés Nicolás Steno en el siglo XVII, el estrato inferior es el más antiguo. El problema es que no nos los encontramos siempre así.

Acantilados del Eoceno (hace entre 56 y 33,9 millones de años) formados por una alternancia de dos tipos de rocas: areniscas y lutitas. Aquí, los estratos se disponen verticalmente. San Sebastián, Gipuzkoa.
Laura Damas Mollá

Al estudiar las rocas sedimentarias, el primer dato que debemos deducir es dónde se depositaron sus materiales, o sea, saber si se formaron en mares, ríos, lagos…. Los restos fósiles de seres vivos nos pueden proporcionar la solución del problema. Así, una roca caliza con fósiles de organismos marinos, como moluscos o corales, surgió en un ambiente tropical de aguas poco profundas, porque la fauna es similar a la actual. Si esos fósiles se encuentran enteros podemos incluso llegar a reconstruir los arrecifes.

Por otro lado, si nos encontramos los fósiles rotos y mezclados, supondremos que algún tipo de corriente los ha removido y desplazado de su hábitat. En otras ocasiones, como ocurre con las areniscas, presentan finas líneas o lineaciones que marcan la dirección e incluso el sentido de las corrientes que transportaban los sedimentos, igual que pasa actualmente en la playa.

Estas piezas del puzle de la historia terrestre se interpretan según el principio del “actualismo”. Acuñado por el geólogo británico Charles Lyell en 1830, indica que “el presente es la clave para entender el pasado”.

Sección longitudinal de molusco bivalvo (rudista) del Cretácico, hace entre 143 millones y 66 millones de años. Cantera de Andrabide (Gautegiz Arteaga, Bizkaia).
Laura Damas Mollá

Detalles que delatan la edad

Con estas pistas es posible interpretar el ambiente donde se depositaron las rocas sedimentarias, pero aún no sabemos su edad. Para averiguarla también existen varias técnicas.

En primer lugar, los minerales que forman esas rocas contienen isótopos radioactivos, componentes químicos cuyo análisis nos permite saber cuánto tiempo llevan en la Tierra. Este método se basa en la desintegración de un isótopo “padre” que se va transformando de forma progresiva a lo largo del tiempo en su “hijo”. Al conocer la proporción existente entre ellos en la muestra se puede obtener su edad.

En el caso de la célebre técnica del carbono-14 se necesitan muestras con un origen orgánico, por lo que no se puede aplicar en muchas rocas y minerales. Además, la “vida” de ese isótopo es de poco más de 60 000 años. Para rocas, minerales y fósiles utilizamos otras relaciones de isótopos radioactivos, como el uranio/torio o el uranio/plomo, que permiten dataciones de entre 500 000 años y varios miles de millones de años, más adecuadas para conocer la larga historia de la Tierra.

Y una curiosidad: ¿sabías que existe también una técnica para saber la edad de la última vez que ha visto la luz del sol un grano de cuarzo? Se llama luminiscencia ópticamente estimulada y se utiliza para estimar la antigüedad de muestras de entre 1 000 y 500 000 años.

Pero estas herramientas no sirven para todo tipo de rocas, así que también usamos otros métodos de datación. El más conocido consiste en examinar la variación del contenido fósil a lo largo del tiempo; es decir, la evolución. La vida de la Tierra se transforma a lo largo del tiempo, y encontrar determinadas asociaciones de fósiles nos permite establecer un rango de edad para los estratos. Aunque los más famosos son los grandes fósiles, como los dinosaurios, normalmente utilizamos microfósiles que se estudian con lupas.

Rocas sometidas a “torturas” geológicas

Pero la historia de las rocas está incompleta si solo averiguamos el ambiente donde se forjaron y su edad. Diferentes procesos geológicos hacen que rocas nacidas en fondos marinos, por ejemplo, formen parte de las montañas actuales. Porque desde que se produce el depósito de los materiales hasta la actualidad, las rocas sedimentarias sufren un proceso que se llama diagénesis: se calientan, se aplastan por enterramiento y experimentan diversos cambios en sus componentes (algunos se disuelven, otros se transforman, otros se fracturan…).

La mayor parte del tiempo, una roca sedimentaria está sometida a esas “torturas”, que podemos entender y ordenar cronológicamente. Para ello utilizados unos microscopios especiales, llamados petrográficos, y láminas de rocas de 0,3 mm de espesor.

Y por si esto fuera poco, los estratos no siempre se encuentran en posición horizontal, como las capas de una tarta. Igual que cuando empujamos un mantel con la mano, las fuerzas de las placas tectónicas pliegan los estratos rocosos. Los geólogos tenemos que “leer” también los capítulos protagonizados por las rocas ígneas, que nos cuentan la historia de las erupciones volcánicas del pasado, y las metamórficas, que nos hablan de transformaciones de unas rocas en otras.

Así, poco a poco, reconstruimos la biografía del planeta, desde las variaciones ambientales a la evolución de la vida. Comprender esa historia nos permite entender los cambios que están ocurriendo hoy en día y reflexionar sobre nuestro breve capítulo como homínidos, ya que la Tierra seguirá transformándose más allá de nuestra presencia en ella.

Si miras a tu alrededor y te pones las gafas de geólogo o geóloga, descubrirás qué historias conservan las rocas para saber hacia dónde vamos.


La Cátedra de Cultura Científica de la Universidad del País Vasco colabora en la sección The Conversation Júnior.


The Conversation

Laura Damas Mollá no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Cómo podemos conocer la historia de la Tierra? – https://theconversation.com/como-podemos-conocer-la-historia-de-la-tierra-266404