Walk into any grocery store to stock up for Halloween and you will discover that, for chocolate treats, you have two basic choices:
Will it be Mars or Hershey?
I often buy both, but that is beside the point. The point is that the two giants compete for market share, but both enjoy robust sales. In other words, a relatively stable duopoly defines the U.S. chocolate candy market.
But it wasn’t always like this.
Before the 1960s, the Hershey Chocolate Corp. reigned supreme as the undisputed chocolate king. It was in that decade that Mars went for Hershey’s jugular. Hershey Chocolate’s response brought lasting change – to its candy business, the local community and Hershey Park, its chocolate-themed amusement park.
As a professor of American studies at Penn State Harrisburg who has recently published a book on Hershey Park, I am astounded by how these changes continue to reverberate today.
Milton Hershey’s paternalistic capitalism
Before the 1960s, change was not a word one associated with either the town of Hershey, Pennsylvania, or its famous chocolate company. Better words would be “stability” and “productivity” – and this was by the founder’s design.
When Milton Hershey entered the confection industry in the 1880s, violent clashes between corporations and labor roiled American society. Hershey imagined a better way: paternalistic capitalism.
In the early 1900s, he built a chocolate factory and planned community out in the farms and pastures of central Pennsylvania. Instead of offering men and women wage-earning jobs and nothing else, he took care of his workers. They owned nice homes and benefited from a generous array of free or subsidized services and amenities: snow removal, garbage collection, trolley lines, good schools, a junior college, zoo, museum, sports arena, library, community center and theater.
But this was a reciprocal relationship. In return, employees were expected to work hard, exhibit loyalty, practice clean living and refrain from labor agitation. With the exception of a strike during the Great Depression, the company and town lived in harmony. Milton Hershey called the place an “industrial utopia,” and residents largely agreed.
Harmony also defined Hershey’s relations with Mars. At the time, Hershey produced only solid chocolate – think of Hershey bars and Kisses. In contrast, Frank Mars’ company specialized in chocolate-covered snacks, suches Snickers or Milky Way, in which milk chocolate is poured over nuts, caramel or nougat.
Where did that chocolate coating come from?
Hershey, of course.
In those days, Mars was a client, not a rival. Without competition, Hershey enjoyed the luxury of not having to worry about market share. Amazingly, the company did not advertise under Milton Hershey and continued this policy after his death in 1945.
Hershey in crisis
Everything changed in 1964. The catalyst for change was Forrest Mars, the founder’s hard-charging son who was a true disrupter.
After seizing control of his father’s company, Forrest Mars set his sights on dethroning Hershey. As reporter and author Joël Glenn Brenner explains, the younger Mars boldly terminated the partnership with Hershey while ordering his engineers to learn how to make Hershey-caliber chocolate in six months. He also modernized the factory and ordered a surge in advertising, all to wrestle market share away from Hershey, the “sleeping giant.”
The strategy worked. By the decade’s end, Mars had caught Hershey in terms of market share and pushed the chocolate colossus into crisis.
The good news for Hershey was that it had at the helm two forward-looking leaders, Harold Mohler and Bill Dearden. Though standard practice had always been to hire locally and from within, Mohler and Dearden recruited outsiders with MBAs from Harvard and Wharton to initiate sweeping reforms aimed at modernizing its archaic business practices.
The company opened a public relations office, conducted market research, installed IBM mainframe computers to crunch numbers, retrained its sales force and created a marketing department. Many employees, a new executive joked, were so behind the times that they had thought marketing was “what their wives did … with a shopping cart.”
This effort culminated with the release of the company’s first TV commercials starting in 1969. The sleeping giant had awoken.
An iconic TV commercial for Reese’s, which was purchased by Hershey in the early 1960s.
The company’s next move altered the town forever. As a cost-cutting measure, it terminated the free services and amenities at the core of Milton Hershey’s vision. The era of paternalism was over.
As the company liquidated assets, residents howled in protest.
For residents, the only consolation was that at least the amusement park would stay the same.
Or would it?
By the late 1960s, Hershey Park had degenerated into what one executive called “an iron park with a bunch of clanging rides.” Leadership faced a pivotal decision: renovate the park or close it forever.
The park had such a “rich heritage,” one executive recalled, that to shutter it would “put a stamp of negative feeling within the community.”
The company elected to renovate.
Hersheypark’s transformation
But how to renovate was another matter.
In the 1960s and 1970s, owners of traditional amusement parks had to think twice before investing in their properties. That was because Disneyland, the nation’s first theme park, had caused a sensation when it debuted in 1955. Its incredible popularity, and the opening of the more spectacular Disney World in 1971, placed pressure on old-fashioned amusement parks everywhere.
After commissioning a feasibility study, Hershey officials decided to gamble: Instead of fixing up the old amusement park, they would convert it into a Disney-style theme park. To pay for the massive overhaul, they redirected capital earned from the dismantling of Milton Hershey’s paternalism. Reborn as “Hersheypark” in 1973, the ever-growing complex has become a mecca for chocolate lovers and thrill-ride seekers from across the Northeast.
Every year, Halloween reminds me of this remarkable transformation. The stores become stocked with Hershey brands, and the theme park comes alive with its spooky “Dark Nights” entertainment.
In the past, workers at the Hershey plant would joke that they had “chocolate syrup in their veins.” These days, they clearly have innovation too, and that creative spirit is largely due to Forrest Mars. By giving Hershey the jolt it needed, he shook up the status quo and changed the chocolate company, town and park forever.
John Haddad does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Motor vehicle crashes kill more than 40,000 people in the U.S. every year. Cavan Images/Getty Images
Much has been written about the unprecedented impact that the second Trump administration has had on the Centers for Disease Control and Prevention, from massive job cuts and entire programs being wiped out to leadership shake-ups and the undermining of science. But behind every headline, countless stories have gone untold about the real-world impacts that these changes will have on everyday people.
I’m a public health expert who spent 18 years as a scientist at the CDC. I see the systematic dismantling of the agency as a significant risk to the country’s ability to keep Americans safe and give medical professionals the data needed to keep them that way.
Most of my time at the CDC was spent in the National Center for Injury Prevention and Control, one of the hardest hit of the agency’s programs. The center has lost more than half of its staff through layoffs alone and as many as two-thirds when other reductions are accounted for.
Injuries affect people of all ages
More Americans die from injuries and violence in the first half of life than from any other cause, including cancer, HIV or the flu. These include suicide, overdose, homicide and unintentional injuries.
The mass layoffs that the Trump administration has carried outin 2025 struck at the core of the injury center’s programs on violence prevention and eliminated the work being done to prevent unintentional injuries like drowning, traumatic brain injuries, falls in older adults and motor vehicle crashes.
As of late October, only the CDC programs focused on overdose prevention, suicide and the National Violent Deaths Reporting System remain in the injury center.
Every unintentional injury represents a preventable tragedy — a fall, a crash, a drowning — that alters the course of a life. Like me, many Americans are eager for information about keeping their loved ones safe.
Making youth sports safer
One critical injury center program that was cut from CDC in April is its HEADS UP program, which is aimed at preventing and reducing head trauma. The program includes online courses for youth coaches, health care providers, schools, athletic trainers and others that provide information about how to protect kids from concussions and other serious brain injuries.
Traumatic brain injury affects more than 230,000 people in the U.S. A traumatic brain injury is a disruption in the normal function of the brain that can be caused by a bump, blow or jolt to the head, or a penetrating head injury.
People of all ages are at risk of experiencing a traumatic brain injury. For young people, concussions from contact sports account for 45% of all emergency department visits for a traumatic brain injury each year.
Concussions in youth contact sports are the cause of nearly half of all traumatic brain injury emergency room visits annually. SDI Productions/E+ via Getty Images
HEADS UP specifically aims to create education and awareness around youth traumatic brain injuries. Currently, 45 states recommend or require HEADS UP materials or training to be used by sports programs and schools in their concussion prevention laws.
The elimination of the CDC’s injury prevention team will undoubtedly result in a loss of progress in preventing these avoidable injuries. It will also leave gaps in states whose coaches are unable to fulfill their training requirements.
It did so on a shoestring: With only $2 million annually appropriated by Congress, the team stretched every penny to maximize its impact on public health by strengthening data systems and supporting communities in getting access to lifesaving swimming and water safety skills.
Every drowning death of a young child is a preventable, costly tragedy.
Injuries also affect older adults in significant ways.
Falls are the leading cause of injury and death among adults age 65 and over, and 1 of 4 older adults falls each year. Falls result in hospitalizations, hip fractures and traumatic brain injuries, which can be debilitating and deadly for older adults.
A CDC program known as STEADI – short for Stopping Early Accidents, Deaths and Injuries – provides educational materials to make preventing falls a routine part of clinical care that doctors provide. Staff cuts resulted in the elimination of STEADI.
In the U.S. $2 out of every $3 of the $80 billion spent in medical costs on falls are paid by Medicare, representing 9% of the total Medicare spending on older adults.
Strategies aimed at reducing falls in older adults are key to lowering Medicare spending, showing how the critical work of the CDC is essential to reducing health care costs to individuals and taxpayers.
In the U.S., motor vehicle crashes are a leading cause of death, killing more than 100 people every day and over 40,000 people each year. In 2023, deaths from road crashes resulted in an estimated $457 billion in medical costs and expenses.
Before this program was eliminated by the Trump administration, CDC’s experts created resources for parents of teen drivers like me to keep their teens safe on the road. They also shared information to improve the safety of child passengers and older adult drivers.
Turning complex data into usable information
When health care providers and others face questions about keeping children and adults safe, they have long turned to the CDC to translate complex information into practical, actionable advice.
As a public health expert, I see the deep cuts to CDC’s injury prevention programs as serious threats to public health broadly. As a mother, sister, daughter and neighbor, I worry that my loved ones and their doctors will not have the information and resources they need to stay healthy and injury-free.
Greta Massetti does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
In the course of construction work in 2013, the remains of 36 individuals of African descent were uncovered in the heart of downtown Charleston, South Carolina. They had lain hidden for some 200 years in an unmarked 18th-century burial ground.
For more than two centuries, such burial grounds, especially those in the former American slave states, have often been erased or obscured – paved over by parking lots, built upon by highways or private development, or simply left unknown and untended. In recent years, descendant communities in places such as Bethesda, Maryland, Richmond, Virginia, St. Petersburg, Florida, and Sugarland, Texas, have called for greater recognition and respect for these long-neglected sites.
A tombstone bearing the name of Caezer Smith and dated 1839 is displayed on the site of a recently rediscovered African burial ground in Kingston, N.Y., in August 2024. AP Photo/Seth Wenig
Cemeteries obscured by history
Since the British colonial period, racist laws and customs across America prevented enslaved and free people of African descent from using white burial grounds to bury their dead. On plantations, enslavers controlled where and how the enslaved were buried and whether burials could be marked or visited. In cities from Charleston to New York, segregated burial grounds, many now forgotten, were established by local authorities for indigent Black and white people.
Pushed to the margins, people of African descent maintained burial traditions and used impermanent or specific grave markers such as shells, bottles, clocks or ceramics – items that were culturally meaningful but often invisible or unimportant to white observers. As a result, many of these sites were neither recorded in historical documents nor officially recognized as burial grounds.
From the 1770s, African American churches, benevolent societies and funeral homes sought to establish cemeteries where Black communities could honor the dead with dignity. What began regionally – especially in Charleston and Philadelphia – quickly spread nationally during the 19th century across the American South and North.
In both rural and urban areas, Black burial grounds were often located on less valuable lands, sites that today are increasingly threatened by gentrification, development and the effects of climate change.
The Gullah Geechee, who descend from enslaved Africans from West Africa and still preserve unique cultural traditions in the southeastern U.S., argue these burial sites were never abandoned and that ancestors are still present. This perspective views the dead as actively connected to the living. For them, lacking formally designated cemetery space doesn’t make the sites any less sacred.
A tradition of sacred spaces
For many African Americans, especially in the South, death during slavery was seen as not merely an ending but a spiritual return — a “homegoing.”
The Gullah Geechee traditions of coastal South Carolina emphasize ancestral presence, spiritual continuity and the sanctity of the land. In that worldview, with a porous boundary between the living and the dead, proper burial and remembrance are not only cultural imperatives but necessary for community well-being.
It was not until the early 1990s that recognition of rights over ancestral remains and sacred burial grounds began to find a wider audience.
Discovered during construction in lower Manhattan, the 18th-century burial ground contained the remains of more than 400 enslaved and free Africans. Community advocacy led to the site’s protection, descendant-led research, ceremonial reburial and the establishment of a national memorial in 2006.
The Outdoor Memorial of the African Burial Ground National Monument in lower Manhattan is an important archaeological find of the 20th century and one of the most preeminent memorials to the struggle of Africans and African descendants. Keith Getter/Getty Images
Since this time, across the U.S. and the Atlantic world, descendant-led ceremonies from Portsmouth, New Hampshire, to Key West, Florida, have restored dignity to ancestral remains.
In Charleston, the Anson Street African Burial Ground project stands out for the way Gullah Geechee traditions and descendant collaboration shaped every stage of the process — from scientific study to reinterment.
Launched as a community-led initiative in 2017, the team began by listening. Through regular gatherings, they invited questions about the ancestors’ lives and identities, and about their hopes for the reburial, centering Black community voices at every stage. The team combined scientific investigations of ancestry and health while also creating space for spiritual guidance, ceremony and descendant leadership. In doing so, the project became more than a study of the past; it became a communal act of repair and remembrance, reconnecting Charleston’s present communities with the ancestors whose stories had long been buried.
Over the next two years, the team wove this commitment into every aspect of its work: youth art programs, a college course on memorial design, public exhibitions, and school partnerships. One of the most moving moments came from conversations with schoolchildren, who decided that the ancestors should be given names before they were reburied.
That naming ceremony took place in April 2019. The names were conferred by Natalie Washington-Weik, a Yorùbá-Orisa Ọ̀ṣun priestess, a spiritual leader in a West African tradition and an African historian. She described the ritual as an “important step forward in reclaiming the humanity of the deceased people who were most likely forced to travel across the Atlantic Ocean under the terror of other humans – who saw them merely as animals.”
The ancestors were finally reinterred in a powerful public ceremony that reflected their ancestries and West-Central African spiritual traditions.
When pain is acknowledged, healing can occur
The 2019 naming and reinterment ceremonies were not simply commemorations; they were rituals of remembrance and healing.
Construction for a permanent memorial at the Anson Street site, designed by artist Stephen L. Hayes Jr., has now begun. At its center is a basin fabricated with sacred soil collected from 36 African-descended burial grounds across the Charleston region. From the basin, 36 bronze hands will rise – cast from living community members whose profiles reflect those of the ancestors. Raised in gestures of prayer, resistance and reverence, these hands link past to present.
Throughout the memorialization process, community members reflected on what it meant to participate in such a project. Many spoke of feeling pride, reverence, joy, sadness and peace. “This conversation makes me feel complete,” one participant said.
As Charleston demonstrates, these projects are not only about preserving the past – they are acts of recognition, respect and reconciliation, helping communities nationwide confront and honor the histories long denied to African-descended peoples.
Joanna Gilmore has received funding from the City of Charleston, the National Geographic Society, and the College of Charleston. She previously worked for the Gullah Society, Inc. a not-for-profit organization.
For months, a Washington state bill generated controversy over two critical interests: protecting children from abuse and protecting the freedom of religion.
Signed by the governor in May 2025, SB 5375 designated clergy as mandatory reporters, requiring them to report child sexual abuse, physical abuse and neglect – even if they learned of the abuse during a confidential sacred rite.
Reporting laws can be complicated by what is known as “legal privilege”: the rights granted to certain people, such as spouses or lawyers of suspects, to keep confidentiality by refusing to cooperate with an investigation. As a law professor, I have written often about clergy privilege, as well as other legal privileges. The attorney-client privilege is the oldest, dating to the 16th century, but the “priest-penitent privilege” has a long history as well.
US landscape
It was not until the 1960s that U.S. states began using mandatory reporting laws to protect children from abuse. Some laws apply to any person who learns of abuse. Others specifically mention categories of people, such as nurses and teachers.
Today, a majority of states require religious personnel to report suspected child abuse to law enforcement. However, most have an exemption for clergy who learn about abuse during a rite or prayer.
Before SB 5375, Washington excluded clergy entirely from mandatory reporting requirements that apply to many other professionals, such as medical professionals, therapists and school personnel.
Now, under the October agreements filed in court, clergy are included in the list of mandatory reporters, but they are not required to report anything they learn about during a confession or sacred rite. The Vatican also instructs bishops to report abuse by priests, deacons and prelates to civil authorities.
2 key issues
There are two issues at play in clergy reporting laws.
One is whether clergy must take the initiative to report abuse that they learn about through their professional duties.
The other is whether clergy members have an evidentiary privilege – that is, the right to refuse to testify in court, or to answer questions during investigations, in order to protect their parishioners’ privacy.
Although mandatory reporting and clergy privilege are separate issues, both may apply in particular cases.
Washington state recognizes a “priest-penitent privilege.” Therefore, a priest who hears about abuse during confession may refuse to divulge what he’s heard if called into a legal proceeding. Originally, however, Washington’s new law would have required clergy to make an initial report to law enforcement, breaking the “seal of confession” – but they could have refused to cooperate with the resulting investigation.
Now, under the stipulations, clergy do not need to make an initial report if they learn of abuse through a confidential rite such as confession. In contrast, other individuals who have a legal privilege under Washington state law – for example, a spousal privilege or a physician privilege – must still report in the event of child abuse.
Under English law, the origin of most early American law, the “minister’s privilege,” as it was called, was not recognized after the Protestant Reformation of the 16th century.
In the U.S., a clergy privilege was first recognized in 1813. In People v. Philips, a Catholic priest in New York was summoned to testify about the return of some stolen jewelry – which apparently he required a parishioner to do, after hearing about the theft during confession. The court reasoned that requiring the priest to testify about what the parishioner revealed would violate his religious liberty.
Four years later, in another New York case, People v. Smith, the court found that a minister did not have grounds for a privilege because, as a Protestant, he was not bound by the same “seal of confession” rules as Catholic priests. In 1828, the New York Legislature passed a statute broadening the privilege to include all ministers and priests.
The general theory of all testimonial privileges is that it protects confidential communications that society wishes to foster. Attorney-client privilege, for example, exists so that the client may receive the best advice. The benefit of a privilege – the right to legal representation or the right to the free exercise of religion – is considered more important than society’s quest for truth.
In the United States, 1 in 4 children experience child abuse or neglect. If society believes that information about child abuse, even if disclosed during a religious rite, is more important than shielding that information, then the clergy privilege should be eliminated or weakened in such cases.
Religious freedom is a core constitutional guarantee. The question is how society should balance these two important interests.
Ann M Murphy does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – in French – By Claudio Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours
La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.
Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.
Moustiques mâles vs moustiques femelles
Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.
Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.
Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.
La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.
Combien de temps une femelle peut survivre sans piquer ?
Une femelle moustique peut survivre plusieurs jours, voire quelques semaines sans piquer, pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.
La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies telles que la fièvre du Nil occidental ou l’encéphalite japonaise.
Influence de l’environnement
La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.
Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette sorte de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.
Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP “REPEL”.
Source: The Conversation – in French – By Hervé Chneiweiss, Président du Comité d’éthique de l’Inserm, Inserm; Centre national de la recherche scientifique (CNRS); Sorbonne Université
Hervé ChneiweissInserm, Fourni par l’auteur
Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.
Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.
The Conversation : Jouer à un jeu vidéo sans manette, voilà qui va séduire plein de monde ! Mais on pourrait y voir des risques aussi, j’imagine ?
Hervé Chneiweiss : Oui, on peut envisager des risques en termes d’addiction ou d’utilisation de vos pensées les plus intimes, par exemple.
Pour comprendre les discussions autour de l’addiction et des neurotechnologies, je vous propose de remonter un peu dans le temps. Il y a trente ans déjà, alors que je travaillais en tant que neurologue sur la maladie de Parkinson, on a posé des implants cérébraux chez certains malades parkinsoniens jeunes et très rigides pour faire de la stimulation cérébrale profonde à haute fréquence, qui permet de débloquer leurs mouvements. C’est à ce moment que la communauté scientifique a constaté certains cas d’effets secondaires de cette stimulation sous forme de troubles compulsifs de comportement soit dans le domaine de la sexualité (hypersexualité) soit dans celui des compulsions d’achat.
En effet, en stimulant le cerveau de ces patients, on libérait manifestement trop de dopamine. Or, la dopamine est le principal neurotransmetteur d’un circuit qu’on appelle le « circuit de la récompense », ou reward en anglais – ce dernier est plus approprié que le terme français, car il traduit l’idée d’« obtenir ce que j’avais prévu d’obtenir ». Ainsi, avec nos électrodes, nous provoquions une libération de la dopamine en excès à un certain endroit du cerveau, ce qui perturbait les processus de décision et orientait les patients vers des comportements compulsifs.
Ces effets secondaires sont assez fréquents – environ un malade sur cinq les expérimente au début de la pose de l’implant, puis ils régressent et disparaissent en général au bout d’un mois ou deux. Il a été jugé que la potentielle survenue de ces effets indésirables était acceptable compte tenu du bénéfice attendu de la thérapeutique.
Depuis, les technologies ont beaucoup progressé : il existe tout un panel de techniques qui permettent de détecter les signaux du cerveau, ou bien de stimuler son activité. Ces techniques utilisent des dispositifs invasifs – comme les électrodes implantées dans le cerveau de patients parkinsoniens, dans les années 1990 – ou bien non invasifs – par exemple, des casques munis de petites électrodes que l’on pose sur la tête.
Le neurogaming utilise pour l’instant des casques posés sur le crâne, et non des électrodes implantées profondément dans le cerveau, comme pour le traitement de la maladie de Parkinson il y a quelques années. Y a-t-il, là aussi, un risque de surstimulation du circuit de la dopamine, et donc de compulsion ?
H. C. : Effectivement, il faut bien faire la différence entre deux types de dispositifs : d’un côté, ceux qui permettent la collecte d’informations sur l’activité cérébrale ; de l’autre, des systèmes qui vont moduler ou stimuler l’activité cérébrale – l’influencer, en somme.
En 2018 déjà, Rodrigo Hübner Mendes a réussi à conduire une Formule 1 simplement avec un casque posé sur la tête. Le signal d’électro-encéphalogramme était suffisamment bien décodé pour lui permettre de piloter cette voiture alors qu’il était tétraplégique et ne pouvait pas toucher le volant. Il l’a conduite simplement avec un casque qui détectait son activité cérébrale et donc, selon sa volonté, son intention d’accélérer ou de tourner à droite ou à gauche que l’interface cerveau-machine transmettait au système de pilotage de la Formule 1. C’est de la pure détection.
Et c’est exactement la même chose avec les systèmes « brain to speech », c’est-à-dire la capacité de décoder l’activité cérébrale responsable du langage avec une interface cerveau-machine, qui traduit cette activité en paroles en un dixième de seconde. Il s’agit de dispositifs qui pourraient venir en aide à des gens qui ont fait un accident vasculaire cérébral, qui ont des troubles du langage, ou par exemple dans la maladie de Charcot. C’est un des domaines des neurotechnologies qui avance le plus vite aujourd’hui. On sait désormais le faire avec des électrodes à la surface du cerveau, et non plus avec des électrodes profondes. D’ici cinq ans, on arrivera probablement à faire la même chose avec des électrodes à la surface du scalp, sur l’extérieur du crâne. Il s’agit là encore de détection.
C’est complètement différent des systèmes de stimulation ou de modulation, dans lesquels la machine envoie un signal au cerveau pour modifier l’activité cérébrale. Dans le premier cas, on ne modifie pas l’activité cérébrale, on se contente de la détecter. Dans le deuxième cas, on modifie l’activité cérébrale.
Est-ce que l’on sait aujourd’hui faire de la stimulation avec des implants non invasifs ?
H. C. : Oui, c’est ce qui se passe aujourd’hui dans le domaine médical avec la stimulation magnétique transcrânienne, qui est très utilisée pour la rééducation des accidents vasculaires cérébraux. On va inhiber l’activité d’une région du cerveau pour permettre la récupération d’une autre région du cerveau. Des résultats prometteurs ont été rapportés pour soigner certaines formes de dépression nerveuse grâce à des petits boîtiers de stimulation électrique, que l’on appelle DCS, qui sont des systèmes de stimulation continue.
Ces dispositifs sont aussi vendus en prétendant que ça peut permettre la relaxation, mais là, il n’y a aucune preuve scientifique que ça fonctionne.
D’autres types de stimulation non invasive peuvent être envisagés, par exemple avec des ultrasons pour essayer de lutter contre des tumeurs et contre des plaques amyloïdes dans la maladie d’Alzheimer.
Il va de soi que ces dispositifs capables de stimuler l’activité cérébrale intéressent beaucoup les gens qui aimeraient bien manipuler d’autres gens. Ces possibilités sont ouvertes par les grands progrès faits en neuroscience depuis trente ans, notamment en découvrant que d’autres régions du cerveau, moins profondes que celles impliquées dans la maladie de Parkinson, sont impliquées dans ces processus de décision : dans le cortex préfrontal, qui est au-dessus du nez, ou dans le cortex temporal. Ces zones sont en surface, relativement accessibles aujourd’hui.
L’objectif des gens qui développent ces technologies à des fins récréatives est d’essayer d’optimiser l’addiction, en stimulant directement les centres de la récompense ou de l’appétit, en corrélation évidemment avec un acte d’achat – ou avec ce qu’on cherche à faire aux gens pour tenter d’orienter les choses dans les jeux vidéo.
Ce qui est fait actuellement, c’est d’essayer de détecter (et non de stimuler – du moins, pas encore) avec ces casques l’état émotionnel de la personne et de modifier le degré de difficulté ou les épreuves du jeu vidéo en fonction de cet état émotionnel.
Est-il facile de détecter les émotions et les pensées aujourd’hui ?
H. C. : La réponse est différente pour les émotions – pour lesquelles oui, c’est facile – et pour les pensées – pour lesquelles, c’est plus difficile, mais on y vient.
Les émotions et la fatigue mentale sont des choses qu’on décrypte d’une façon macroscopique. Par exemple, quand vous êtes fatiguée, votre « saccade oculaire » ralentit, c’est-à-dire que vos yeux balayent moins rapidement la scène devant vous – ce qu’ils font en permanence. Le rythme des saccades est très facile à détecter.
De plus, selon notre degré émotionnel, différentes régions de notre cerveau sont plus ou moins actives. Comme ces régions sont assez grosses, en volume, il est possible de détecter leur niveau d’activité avec différents dispositifs : un casque posé à la surface du crâne ; une imagerie par résonance magnétique (IRM) fonctionnelle – un appareil qui est gros, certes, mais non invasif : nous n’avons pas besoin d’électrodes implantées dans le cerveau pour détecter ces signaux ; des plugs (bouchons) qu’on met dans les oreilles ainsi que de petits systèmes qui fonctionnent dans le proche infrarouge et qui mesurent des changements de vascularisation à la surface du cerveau. Ces dispositifs permettent de mesurer un certain nombre de changements d’activité de certaines régions du cerveau.
Par exemple, avec un casque posé sur la tête, donc non invasif, on peut réaliser des électro-encéphalogrammes (EEG). Quand vous commencez à être fatiguée, on voit des ondes de plus grande amplitude apparaître, puis des pointes d’une forme bien particulière si vous êtes vraiment en train de vous endormir. Ces signaux sont faciles à détecter avec un casque EEG.
Par contre, si vous pensez « J’ai faim » ou que vous vous préparez à prononcer un mot, là c’est plus dur. Des groupes de recherche académique californiens – l’Université de Californie à San Diego et celle de Berkeley, mais aussi Caltech – ont fait des avancées récentes sur le sujet, avec les électrodes placées à la surface du cerveau et des systèmes d’intelligence artificielle entraînés à reconnaître certains motifs d’activité du cerveau du patient – c’est ce que l’on appelle le brain to speech, dont je parlais tout à l’heure. Ils ont découvert que les mêmes régions soutenaient le langage parlé intentionnel et le langage intérieur. Nous nous approchons donc là de la possibilité de détecter la base de la pensée. L’objectif est ici de venir en aide et de restaurer l’autonomie de personnes gravement cérébrolésées. Malheureusement, nous ne connaissons pas les intentions réelles de sociétés commerciales qui développent aussi ce type d’électrodes de surface.
En termes d’encadrement, est-ce que ces dispositifs, que ce soient des casques, des plugs dans les oreilles ou des implants, sont encadrés aujourd’hui, par exemple avec des autorisations de mise sur le marché comme pour les médicaments ?
H. C. : Si c’est un dispositif médical, il y a tout l’encadrement habituel. Si c’est un dispositif non médical, il n’y a rien : aucune garantie.
Dans la déclaration de l’Unesco, vous recommandez de classer « sensibles » certaines données biométriques, qui ne semblent pas susceptibles de donner accès aux émotions ou aux pensées au premier abord. Pourquoi ?
H. C. : On peut utiliser des données qui ne sont pas directement des données cérébrales ou neurales pour faire des déductions sur l’état émotionnel ou de santé : on a parlé des mouvements des yeux, mais il y a aussi le rythme cardiaque combiné à des données comportementales ou à la voix.
Par exemple, si vous enregistrez la voix d’une personne atteinte de la maladie de Parkinson, même débutante, vous allez voir qu’il y a des anomalies de fréquence qui sont caractéristiques de cette maladie. Il n’y a pas forcément besoin d’être capable d’enregistrer l’activité cérébrale pour déduire des choses très privées.
Donc, on a regroupé cet ensemble sous le terme de « données neurales indirectes et données non neurales » : ces données qui, combinées et interprétées par l’intelligence artificielle, permettent de faire des inférences sur nos états mentaux.
Vous recommandez donc de protéger toutes les données neurales – qu’elles soient directes ou indirectes –, car elles permettent d’en déduire des états mentaux, et ce, afin de protéger nos « vies privées mentales ». Pouvez-vous nous expliquer ce que vous entendez par là ?
H. C. : Parmi les droits fondamentaux, il y a le droit à la vie privée. C’est le droit d’empêcher qui que ce soit de connaître les éléments de votre vie privée que vous ne souhaitez pas qu’il ou elle connaisse.
Nos pensées, nos idées, nos désirs, tout ce qui se passe dans notre tête, sont ce que nous avons de plus intime et, donc, de plus privé. La vie mentale est au cœur même de la vie privée.
Souvent, quand on parle d’atteinte à la vie privée, on pense à la diffusion d’une photo qui serait prise à un endroit ou avec une personne, alors qu’on n’avait pas forcément envie que cela se sache. Mais vous imaginez si demain on pouvait avoir accès à vos pensées ? Ça serait absolument dramatique : la fin totale de toute forme de vie privée.
En pratique, imaginons que notre conversation en visioconférence soit enregistrée par un fournisseur de services Internet. Nos saccades oculaires, qui sont donc des données neurales indirectes, sont bien visibles. Est-il possible, aujourd’hui, d’en déduire quelque chose ?
H. C. : En principe, il pourrait y avoir un petit message qui s’affiche sur mon écran en disant : « Attention, la personne en face de vous est en train de s’endormir, il faudrait veiller à raconter quelque chose de plus intéressant. » (rires) Sauf que nous sommes en Europe, et que dans le règlement européen sur l’IA, l’AI act, l’utilisation de logiciels ayant pour objectif de détecter ou d’analyser le comportement des personnes, en dehors de la médecine ou de la recherche, est interdite.
Avec le règlement général sur la protection des données (RGPD) pour protéger nos données personnelles, puis avec l’AI Act, l’Union européenne a déjà pris des mesures de protection de la vie privée et de l’autonomie des individus… Parce qu’une fois que vous avez ces différentes données, vous pouvez essayer de manipuler les personnes, en biaisant leur jugement, ou en essayant de leur faire prendre des décisions qui ne sont plus prises en autonomie. Notre vie privée mentale est aussi la base de notre liberté d’expression et de notre liberté de penser.
Aujourd’hui, dans le cadre d’autres nouvelles technologies, on en vient à chercher à protéger les mineurs, notamment en leur interdisant l’accès à certains dispositifs. C’est le cas sur certains réseaux sociaux et c’est en discussion pour certaines IA génératives, comme ChatGPT. Est-ce une direction que vous recommandez pour les neurotechnologies ?
H. C. : Tout à fait ! Il ne faut jamais oublier que le cerveau d’un enfant n’est pas un petit cerveau adulte, mais un cerveau en développement. De la même façon, le cerveau d’un adolescent n’est pas un petit cerveau adulte, mais un cerveau en révolution – qui se reconfigure.
Aujourd’hui, l’impact de l’utilisation de ces procédés de neurotechnologies sur ces cerveaux en développement est totalement inconnu et, en particulier, la réversibilité de tels impacts potentiels.
Même pour des applications médicales, pourtant mieux encadrées, les choses ne sont pas si simples. Il y a, par exemple, des cas de patients ayant reçu des implants cérébraux pour soigner des pathologies, notamment des céphalées de Horton, avant que l’entreprise responsable de l’implant fasse faillite et ferme, laissant les patients avec des implants sans maintenance. À l’heure où les développements technologiques sont menés en grande partie par des entreprises privées, quels sont les espoirs et les mécanismes qui permettent de croire qu’on peut cadrer le développement des neurotechnologies pour protéger les citoyens du monde entier de potentiels abus ?
H. C. : On parle là de « développement responsable » des technologies. Ce sont des problématiques que nous avons abordées dans le cadre de l’Organisation de coopération et de développement économiques (OCDE), avec une recommandation (no 457), publiée en décembre 2019, qui énonçait neuf principes pour un développement responsable des neurotechnologies. C’est ensuite aux États membres de l’OCDE de la mettre en pratique. Dans ce cas, il n’y en a que 38, bien moins qu’à l’Unesco, avec 195 pays membres.
La nouvelle déclaration qui doit être signée à l’Unesco reflète une vision qui part des droits humains et qui protège les droits humains fondamentaux ; à l’OCDE, il s’agit d’une vision qui cherche le développement économique. Nous cherchions donc dans quelles conditions les entreprises pourront le mieux développer leurs produits : parmi ces conditions, la confiance que le consommateur peut avoir dans le produit et dans l’entreprise.
Malheureusement, dans ce contexte-là, pour l’instant, on n’a pas encore de réponse claire à votre question, sur ce que l’on appelle en anglais « abandonment », que l’on appellerait en français l’« abandon neural ». Des propositions sont en cours d’élaboration, par exemple au niveau du comité Science & société du programme européen EBRAINS.
Néanmoins, au niveau français, avec différents ministères, en collaboration avec les entreprises, avec le secteur associatif et aussi avec le secteur académique, on a élaboré une charte française de développement responsable des neurotechnologies, qui a l’intérêt de vraiment avoir été une coconstruction entre les différents partenaires, une codécision qui porte sur la protection du consommateur, sur son information et sur la prévention des mésusages des neurotechnologies. Elle a été publiée en novembre 2022. La signer est une démarche volontaire, mais qui marche aujourd’hui plutôt bien puisqu’on en est, à ce jour, à une cinquantaine de partenaires : beaucoup d’entreprises, d’associations, d’académies et des agences de régulation.
Ce qui est intéressant aussi, c’est que nous avons ensuite porté cette proposition au niveau européen. La charte européenne des neurotechnologies est très inspirée de la charte française. Elle a été publiée en mai 2025 et a déjà recueilli près de 200 signataires. Le but est d’apporter aux différentes sociétés qui y adhèrent une sorte de « label » pour dire aux consommateurs, « On a fait le choix de respecter mieux vos droits et donc de s’engager dans cette charte des neurotechnologies ».
Cette démarche est plus que nécessaire. Une étude américaine, réalisée en 2024 par la Neurorights Foundation sur 30 entreprises, majoritairement américaines, qui commercialisent des casques EEG et d’autres produits de neurotechnologie, montre que 29 de ces 30 entreprises ne respectaient absolument pas les recommandations de l’OCDE. Par exemple, certaines collectaient et/ou revendaient les données sans l’accord des personnes.
La philosophie, en portant cette discussion auprès de la Conférence générale de l’Unesco, c’est d’avoir une plateforme mondiale, d’ouvrir la discussion dans des pays où elle n’a pas déjà lieu ?
H. C. : Oui, les recommandations de l’Unesco servent en général de base aux différentes juridictions des États membres pour mettre en place des lois afin de protéger les citoyens de l’État.
Avec les neurotechnologies, on est vraiment à un niveau constitutionnel parce qu’il s’agit de droits fondamentaux : le droit à la vie privée, le droit à l’autonomie, le droit à la liberté de pensée, le droit à la liberté d’agir, mais aussi le droit à l’accès aux technologies si elles sont utiles – que les gens qui en ont besoin puissent y avoir accès.
Le Chili est le premier pays à avoir explicité ces droits dans sa Constitution. Le Colorado et la Californie aux États-Unis ont déjà légiféré pour encadrer les neurotechnologies. En France, c’est dans la loi bioéthique, telle qu’elle a été révisée en 2021, que l’on trouve des éléments pour essayer de protéger contre des abus. Au niveau européen, c’est la déclaration de Léon (2023).
Ainsi, même si les déclarations de l’Unesco ne sont pas contraignantes, elles inspirent en général les juristes des pays correspondants.
Y a-t-il des risques que la déclaration de l’Unesco ne soit pas signée en novembre lors de la Conférence générale ?
H. C. : Maintenant que les États-Unis se sont retirés, je ne crois pas… La conférence intergouvernementale que j’ai présidée au mois de mai a adopté la recommandation, il y avait 120 États. Les choses ne sont pas faites, bien sûr, mais on espère que le passage à l’Assemblée générale, avec les 195 pays présents, sera plutôt une formalité.
Les instances internationales sont très formelles. Elles fonctionnent comme ça ; et c’est peut-être une limite du fonctionnement onusien, qui s’appuie sur l’idée un peu irénique de René Cassin et d’Éléonore Roosevelt, après ce qui s’était passé d’effroyable pendant la Deuxième Guerre mondiale, que les États sont de bonne volonté.
On n’est plus tout à fait dans ce cadre-là.
H. C. : Oui, vous avez remarqué, vous aussi ? Mais, si ça marche, on sera surtout heureux d’y avoir contribué en temps et heure. Parce que là, et c’est une chose qui est assez remarquable, c’est qu’on prend les mesures au bon moment. Pour une fois, les réflexions éthiques et de gouvernance ne sont pas en retard sur la technique.
On espère donc que ce sera vraiment utile, et que les neurotechnologies continueront à se développer à bon escient, parce qu’on en a absolument besoin, mais que, grâce à cette prise de conscience précoce, on évitera les abus, les utilisations détournées ou malveillantes de ces technologies.
Et donc : vivrons-nous tous dans la matrice (je fais référence au film Matrix) ?
H. C. : Peut-être qu’il peut y avoir de bons côtés à la matrice et de mauvais côtés. Si ces différents procédés pouvaient rendre leur autonomie, par exemple, à des personnes âgées qui souffrent d’une perte d’autonomie, à des malades qui sont en perte d’autonomie, ou aider des enfants qui ont des difficultés à apprendre à mieux apprendre, là on aura vraiment gagné. Par contre, si c’est pour soumettre les individus à des volontés d’entreprises monopolistiques, là on aura tout perdu. Mais l’avenir n’est pas écrit. C’est à nous de l’écrire.
Toutes les fonctions listées ci-après l’ont été à titre bénévole:
Expert pour les neurotechnologies auprès de l’OCDE de 2015 à ce jour.
Ancien président du Comité international de bioéthique de l’UNESCO (2019-2021) et co-auteur du rapport sur les enjeux éthiques des neruotechnologies (2021).
Co-président du groupe d’experts ad hoc sur la recommandation UNESCO sur les neurotechnologies (2024-2025).
Président du Comité intergouvernemental sur la recommandation sur les neurotechnologie (12-16 mai 2025).
Membre du Comité de la Charte française des neurotechnologies
Co-auteur de la charte européenne des neurotechnologies
Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.
Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.
Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.
Les limites de notre perception visuelle
Il existe des méthodes qui permettent de décomposer un signal (par exemple une image ou un son) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de peau).
Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire. Cette acuité correspond à pouvoir distinguer un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !
Sur une image, cette limite s’appelle la fréquence de coupure : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.
Si l’on applique cette logique, la 8K ne devient vraiment utile que si :
l’écran est très grand,
ou que l’on s’assoit très près,
ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).
Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.
Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal — autrement dit sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »
Ce que dit la transformée de Fourier
Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier et lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.
Une image affichée avec deux résolutions différentes, et les transformées de Fourier correspondantes. USC-SIPI Image Database pour la photo ; Saad Benjelloun pour les modifications, Fourni par l’auteur
Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences (autour de la valeur (0,0)).
Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.
Utiliser des filtres pour couper les hautes et basses fréquences
Regardons de plus près ce qui se passe en manipulant ce spectre — on parle alors de filtres.
On filtre l’image original en supprimant les hautes fréquences et en ne laissant passer que les basses fréquences (on parle de filtre passe-bas). Saad Benjelloun, Fourni par l’auteur
Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.
C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling en anglais) et d’amélioration d’image pour tenter de reconstituer et renforcer ces hautes fréquences manquantes et offrir une meilleure qualité visuelle.
On filtre l’image originale en supprimant les basses fréquences et en ne laissant passer que les hautes fréquences (on parle de filtre passe-haut). Saad Ben Jelloun, Fourni par l’auteur
Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.
Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !
Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Philippes Mbevo Fendoung, Postdoctoral Research Fellow, Centre national de la recherche scientifique (CNRS)
Yaoundé, la capitale camerounaise, est une ville cosmopolite et dynamique où les collines verdoyantes côtoient l’architecture moderne, créant un mélange harmonieux de culture, d’histoire et de dynamisme urbain. La ville s’est considérablement développée au fil des ans en raison de l’urbanisation : sa population est passée de 59 000 habitants en 1957 à près de 4,1 millions en 2020. Cependant, son expansion a entraîné un déclin rapide de la végétation, transformant la ville en un ensemble d’îlots de chaleur urbains.
Une étude récente indique que Yaoundé va se réchauffer au cours des cinq prochaines années. Le phénomène d’îlot de chaleur urbain à Yaoundé est amplifié par le fait que la pauvreté dans la ville est élevée, laissant de nombreux habitants sans les moyens de rafraîchir leurs maisons. Cela entraîne des problèmes de santé, allant des maux de tête et de la fatigue aux difficultés respiratoires. Le géographe Philippes Mbevo Fendoung expose ce qui est nécessaire pour rafraîchir Yaoundé : plus d’espaces verts, moins de surfaces dures, de nouveaux bâtiments réfléchissants, des étangs et des fontaines publics, des ventilateurs pour les habitants, de nouvelles zones ombragées et des systèmes de climatisation abordables.
Qu’est-ce qu’un îlot de chaleur urbain ?
Les îlots de chaleur urbains sont des zones dans les villes où la température est plus élevée que dans les zones rurales environnantes. Cela est principalement dû à la réduction des espaces verts. Les surfaces telles que le béton et l’asphalte absorbent et retiennent la chaleur au lieu de la renvoyer vers l’atmosphère.
Les îlots de chaleur urbains constituent un problème de santé publique. Les personnes qui y vivent souffrent davantage de maladies liées à la chaleur. Les personnes souffrant de problèmes respiratoires voient leur état s’aggraver, et la chaleur a des effets négatifs sur la santé mentale. Tout cela s’aggrave pendant les vagues de chaleur et l’environnement devient généralement inconfortable.
À Yaoundé, au cours des dix dernières années, la superficie forestière autour de la ville a diminué de moitié, rendant la ville encore plus chaude.
Quels sont les problèmes liés à la chaleur auxquels Yaoundé est confrontée ?
La température dans la ville augmente rapidement, et les zones les plus denses sont devenues des îlots de chaleur qui s’étendent à mesure que de plus en plus de personnes quittent les zones rurales pour s’installer à Yaoundé.
Nous avons calculé cela à l’aide d’images satellites, agrandies à 10 mètres, que nous avons traitées dans un logiciel géographique open source afin de cartographier la ville et les espaces verts. Cela nous a permis de voir les différences de température au fil du temps et de repérer les parties de la ville les plus touchées par les îlots de chaleur urbains. Nous avons remarqué que les surfaces dures à Yaoundé (telles que les trottoirs et les parkings) ont été multipliées par six depuis 2015.
Nous avons ensuite utilisé une formule pour prévoir les températures de surface futures à Yaoundé. Nous avons appliqué le taux moyen d’augmentation des températures à la température actuelle, avec une petite marge d’erreur pour tenir compte des changements naturels ou des incertitudes dans les données. De cette manière, nous avons constaté que les températures de 24 à 31 °C en 2015 devraient atteindre 38 °C d’ici 2030.
Il y a plusieurs raisons à cela :
Les bâtiments réchauffent la ville : les bâtiments en béton et les routes en asphalte absorbent et retiennent la chaleur du soleil, la libérant la nuit, ce qui empêche la ville de se refroidir.
L’environnement est une jungle de béton : les arbres et les plantes jouent un rôle essentiel dans la régulation de la température locale grâce à l’évapotranspiration. Leur absence rend l’îlot de chaleur encore plus chaud et moins agréable.
Pollution atmosphérique : avec l’augmentation du nombre de véhicules sur les routes de Yaoundé, les émissions de gaz d’échappement augmentent. Les particules fines et les gaz d’échappement augmentent les températures locales et provoquent des maladies respiratoires et cardiovasculaires, notamment en période de forte chaleur.
Le changement climatique est arrivé à Yaoundé : la hausse des températures et la fréquence accrue des phénomènes météorologiques extrêmes (tels que les sécheresses et les fortes pluies) rendent Yaoundé encore plus chaude.
Des bâtiments mal conçus qui ne peuvent pas se rafraîchir : de nombreux bâtiments à Yaoundé, en particulier dans les quartiers populaires, sont mal conçus. Sans climatisation ni ventilation adéquate, les températures intérieures peuvent devenir insupportables.
La ville a besoin d’eau, mais elle en manque : plus Yaoundé se réchauffe, plus la demande en eau augmente. Mais la ville subit de fréquentes coupures d’eau et l’eau est parfois impropre à la consommation. Le manque d’eau potable et d’eau pour irriguer les cultures aggrave l’impact de la chaleur et met en péril l’approvisionnement alimentaire.
Yaoundé ne parvient pas à suivre le rythme de sa croissance démographique : l’urbanisation rapide s’est traduite par une croissance non régulée, des services insuffisants pour tous, une mauvaise gestion des déchets et une dégradation de l’environnement. La croissance de la ville n’étant pas planifiée, il est difficile d’y aménager des espaces verts.
Comment les habitants de Yaoundé vivent-ils la hausse des températures ?
Nous avons interrogé 300 ménages à Yaoundé et avons constaté que seuls 2,9 % d’entre eux disposaient de la climatisation. Tous les ménages ne disposaient pas de ventilateurs. Environ 45,5 % des familles de Yaoundé ont des revenus très faibles, compris entre 89 et 177 dollars américains par mois. Même si ce montant est légèrement supérieur au salaire minimum mensuel national de 70 dollars américains, il est bien trop faible pour permettre l’achat d’un climatiseur, qui coûte environ 339 dollars américains.
La plupart (91 %) des ménages que nous avons interrogés nous ont dit que la chaleur provoquait davantage de bouffées de chaleur et de problèmes respiratoires tels que l’asthme. Les enfants et les personnes âgées étaient les plus touchés. Ils ressentaient tous du stress et de l’anxiété.
Nous avons également interrogé des agriculteurs. Ils disent que la chaleur empêche les cultures de bien pousser. Ces agriculteurs étaient déjà peu aisés, et la chaleur entraînait une baisse de leurs revenus et une diminution de leur alimentation. Ils ont dû acheter du matériel d’irrigation coûteux et des variétés de cultures résistantes à la chaleur, ce qui a encore réduit leurs profits.
Les travailleurs de l’économie informelle ont déclaré que le fait d’être exposés à la chaleur sans protection adéquate leur causait de la fatigue et des maladies, limitant ainsi leur capacité à travailler.
Les transports publics sont inconfortables pendant les journées chaudes, poussant les gens à rester chez eux. Ce qui réduit les revenus des petits commerçants qui dépendent de la mobilité des clients.
Nos recherches ont montré que les communautés à faibles revenus et les zones défavorisées sont les plus touchées par l’îlot de chaleur urbain. Plus Yaoundé se réchauffe, plus les inégalités s’aggravent, car les personnes démunies ont moins accès aux infrastructures de climatisation et aux soins de santé.
Que faut-il faire maintenant ?
Bâtiments existants : de nouvelles réglementations d’urbanisme adaptatives sont nécessaires pour obliger les promoteurs immobiliers à adapter leurs bâtiments au changement climatique.
Nouveaux bâtiments : Yaoundé a un besoin urgent de plus d’espaces verts, tels que des parcs et des zones arborées. Ceux-ci doivent être obligatoires dans tous les nouveaux projets de construction et de logement.
Habitats informels : On estime que 60 % de la population camerounaise vit dans des quartiers informels urbains avec des routes non goudronnées, des maisons de fortune et un manque d’eau potable et d’assainissement. Ces habitants ont besoin d’une formation sur la manière de construire en utilisant la terre battue afin de rendre leurs maisons plus durables et plus fraîches. Des systèmes de collecte des eaux de pluie et d’assainissement écologiques, tels que des toilettes sèches qui n’utilisent pas d’eau, pourraient être intégrés.
Les habitants des quartiers informels pourraient également apprendre à concevoir des toits verts et des pergolas pour créer de l’ombre.
Des campagnes de sensibilisation du public aux effets de la chaleur doivent être lancées. La ville doit également suivre l’état de santé publique pendant les vagues de chaleur et améliorer le traitement des maladies liées à la chaleur.
Pour y parvenir, les agences gouvernementales, les organisations non gouvernementales et les communautés locales devront élaborer ensemble des plans d’adaptation au changement climatique. Les obligations vertes, les fonds de résilience urbaine, les partenariats public-privé, les écotaxes et la microfinance sont indispensables pour financer ces projets de développement durable.
Philippes Mbevo Fendoung does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
For the first time ever, the opposition parties in Cameroon have come “close” to unseating 92-year-old Paul Biya, who has run the country since 1982.
The stiffest competition for Biya in the 2025 election came from 76-year-old Tchiroma Bakary, a former ally and government spokesperson, who contested on the platform of Cameroon National Salvation Front. He won more than 35% of the vote – the second highest ever scored by an opposition candidate since Biya has been contesting. Though it was one of the best performances by opposition parties in Cameroon since 1992, the opposition suffered from its failure to present a united front and field a single candidate.
Biya once again triumphed, albeit with a reduced majority of 53.66%. Other candidates scored a combined 11%. His previous win in 2018 was at 71.28% against Maurice Kamto’s 14.23%.
This result is at variance with Bakary claiming overwhelming victory at the polls with 60%. His claims have been dismissed by the constitutional court and the electoral commission.
I am a long time scholar of and political commentator on African politics, regime types and democratic governance with a keen interest in Cameroon.
I argue that Cameroon is at an inflection point, where Biya’s triumph might herald a “quiet” resignation to see through one of the world’s longest presidencies. For Biya, the to-do list couldn’t have got any longer. For Cameroon and the continent, democracy is yet again being asked hard questions with no obvious answers.
Divided opposition
Determined by a simple majority, the election meant that Biya – sometimes described as the absent landlord due to his prolonged stay outside Cameroon – only needed a sliver of support to triumph for a life term presidency. His new seven-year term of office ends in 2032, by which time he would be close to 100 years old.
Though his share of the vote fell by about 20 percentage points, he triumphed again because of the perennial challenges faced by the opposition.
Failure to coalesce around a single unifying candidate meant that the opposition with 11 candidates was still seen as divided.
With all state apparatus, especially the constitutional court, stacked against the opposition, it was not surprising that they were fighting a losing battle from the start.
With dissatisfaction running high, one of the core priorities is to ensure the political stability of his regime. Recent forced regime changes in west Africa, and very recently in Madagascar, would perhaps give pause for thought about the vulnerability of the regime.
It is possible that sustained political upheaval could provoke a palace coup, as Gabon attests. That said, Biya’s effort to coup proof his regime with loyalist military co-ethnics, the Betis, appears to have bought him some comfort. Many of the senior officers’ fate would be intertwined with Biya’s.
The reality that his reported triumph comes with a much reduced mandate would mean re-asserting legitimacy will be another priority. Biya will have to work to establish or “enforce” his legitimacy both domestically and internationally.
The South West continues to be a place of concern. With the Anglophone crisis – caused by perceived marginalisation of the Anglophone south-west – still festering, the election result may galvanise the rebellion in the hope that renewed active hostilities may create conditions for willingness to settle the conflict before Biya bows out.
There is no question that Biya has entered into the last mile of his life presidency. It is inevitable that the political elite jostling for post Biya relevance will become more pronounced.
This infighting could destabilise the regime and make it a challenge to hold course. Ambitious elites may abandon Biya’s ship, as Bakary did.
On the campaign trail, Biya promised especially the young Cameroonians and women that their “best is yet to come”. He was acutely aware of the high level of dissatisfaction and his regime will be pressed to address their plight.
According to the World Bank, about 40% of Cameroonians live below the poverty line. Urban unemployment is running at 35% and many educated youths face challenges in obtaining formal employment.
A 2024 Afrobarometer survey says 51% of young Cameroonians have considered emigrating.
The perennial challenges of systemic corruption, service delivery, poverty and slow growth persist. Today, the average Cameroonian is no more wealthy than in 1986. How Biya’s new term attends to this will be crucial to temporarily assuaging pent up frustration.
As the 92-year-old Biya begins another term of office along with the president of the constitutional court, Clement Atangana (84), chief of staff Claude Meka (86), president of the senate Marcel Niat (90) and national assembly speaker Cavaye Yegue (85), Cameroon should confidently be looking at a generational shift after the Biya era.
David E Kiwuwa does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – (in Spanish) – By José María Bodoque, Investigador en modelización hidrológica e hidráulica, hidromorfología y evaluación del riesgo por inundación, Universidad de Castilla-La Mancha
La rambla o barranco del Poyo a su paso por el municipio de Chiva (Valencia) tras el paso de la dana en octubre de 2024.BlackFarm/Shutterstock
La dana que el 29 de octubre de 2024 afectó a varias regiones del este de la península ibérica constituyó el episodio de precipitación más extremo del siglo XXI en España. Según la Agencia Estatal de Meteorología (AEMET), este fenómeno se formó porque una bolsa de aire frío en altura se situó entre el golfo de Cádiz y el estrecho de Gibraltar, empujando aire muy húmedo desde el Mediterráneo hacia la costa. Las tormentas se organizaron en cadenas que durante horas se reactivaron repetidamente sobre las mismas localizaciones.
La AEMET registró en Turís (Valencia) 185 litros por metro cuadrado (l/m²) en una hora y 772 l/m² en 24 horas. La combinación de intensidades extremas y persistencia espaciotemporal desencadenó crecidas relámpago en pocas horas.
La Confederación Hidrográfica del Júcar estimó caudales máximos de 3 500 metros cúbicos por segundo (m³/s) en el cruce de la rambla del Poyo con la A-3 y 2 400 m³/s en el río Magro, a la entrada de la presa de Forata.
Vista de satélite de la dana sobre Valencia y su entorno el 29 de octubre de 2024 a las 6:30 horas. EUMETSAT, CC BY-NC-SA
Además de los 229 fallecidos en la Comunidad Valenciana, se registraron víctimas en Castilla-La Mancha (una en Mira, Cuenca, y seis en Letur, Albacete) y en Andalucía (una en Alhaurín de la Torre, Málaga). Del total, 68 fueron hallados en las plantas bajas de viviendas y 35 en aparcamientos y sótanos. Según el Centro de Integración de Datos (CID), más de la mitad de las víctimas tenía 70 años o más, con 15 personas de 90 años o más. El mayor porcentaje de fallecidos (24 %) se encontraba en la franja de 80 a 89 años.
¿Qué factores contribuyeron a la tragedia?
La urbanización de espacios fluviales se intensificó durante el desarrollismo español (décadas de 1960 y 1970 del siglo pasado) y, más tarde, durante la burbuja inmobiliaria (1997-2008). De las 75 000 viviendas afectadas por las inundaciones, el 31 % se construyeron en este segundo período. Además, la vulnerabilidad física de las edificaciones agravó la tragedia, pues muchas plantas bajas, situadas a pie de calle, se convirtieron en trampas mortales al quedar inundadas.
A las 7:36 horas del 29 de octubre, la AEMET activó una alerta roja por lluvias extremas. Según la Generalitat Valenciana, la Confederación Hidrográfica del Júcar informó que a las 12:07 horas la rambla del Poyo había superado el umbral de prealerta. El caudal alcanzó los 1 686 m³/s a las 18:43 horas.
Aunque el Gobierno central ofreció apoyo desde las primeras horas, hubo controversia sobre el nivel de su implicación al no asumir la dirección plena mediante la declaración de emergencia de interés nacional (nivel de situación 3 de protección civil).
La baja percepción del riesgo de la población, junto con el retraso de la alerta ES_Alert, fueron determinantes. Un factor clave fue que no estaba lloviendo en muchos de los municipios afectados, lo que generó una falsa percepción de seguridad entre los vecinos. Esta confianza llevó a la adopción de comportamientos de riesgo, como bajar a los garajes para rescatar vehículos, y a circular en tramos anegados de la red de carreteras.
¿Cómo podemos mitigar el impacto de futuras danas?
Para evitar que futuros fenómenos meteorológicos similares tengan unas consecuencias tan trágicas, podemos llevar a cabo diferentes acciones.
Caracterizar la incertidumbre del análisis de riesgos: hay que elaborar mapas probabilísticos que incorporen rangos de incertidumbre, que permitan cuantificar la probabilidad de inundación en diferentes zonas (por ejemplo, 70 % frente a 30 %). Esta aproximación permite una ordenación del territorio más efectiva, en la que las áreas con mayor probabilidad de inundación tengan mayores restricciones, mientras que las zonas con menor probabilidad se pueden destinar a usos compatibles con cierto nivel de riesgo.
Mapa de riesgo por inundaciones basado en probabilidades. De mayor a menor riesgo: rojo, naranja y verde. Bodoque et al., 2023, CC BY-SA
Integrar la vulnerabilidad y resiliencia en la gestión del riesgo: conviene desarrollar índices de vulnerabilidad y resiliencia para identificar las áreas donde reside la población con menor capacidad adaptativa, condiciones habitacionales inadecuadas (plantas bajas, sótanos), limitaciones de movilidad o aislamiento social. Con esta información, las autoridades pueden diseñar planes de evacuación específicos para la población vulnerable, establecer redes de apoyo vecinal y priorizar mejoras en las viviendas más vulnerables.
Los municipios de Castilla y León que aparecen coloreadas en el mapa presentan una problemática de vulnerabilidad por crecidas súbitas. Los clusters representan grupos de municipios con características de vulnerabilidad similares. Aroca-Jiménez et al., 2022, CC BY-NC-SA
Concurso de fotografías y videos sobre inundaciones como parte del plan de comunicación del riesgo de Navaluenga, Ávila. Bodoque et al., 2019, CC BY-NC-SA
Hacia una gobernanza participativa: el fortalecimiento del capital social es una estrategia eficaz para mejorar la resiliencia comunitaria, actuando como facilitador de la gobernanza participativa al crear espacios de diálogo donde las partes interesadas (sociedad civil, autoridades, expertos) pueden involucrarse en la toma de decisiones sobre la gestión del riesgo.
Implantación de un sistema de ayuda a la decisión (SAD): hay que implantar un (SAD) que conecte en tiempo real los datos de la AEMET con los registros de la Conferencia Hidrográfica del Júcar. El SAD ofrece información de actualización continua sobre la intensidad de la lluvia o la profundidad del agua, facilitando la toma de decisiones y acortando las consultas entre administraciones.
La gestión exitosa del riesgo de inundación exige una transformación profunda que combine el conocimiento científico, la participación ciudadana y la voluntad política. La experiencia acumulada debe traducirse en sociedades mejor informadas y preparadas, capaces de anticiparse y adaptarse a un contexto climático cada vez más desafiante.
José María Bodoque no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.