Le cinéma d’horreur, miroir de nos angoisses contemporaines

Source: The Conversation – France (in French) – By Jean-Baptiste Carobolante, Professeur d’histoire et théorie de l’art, ESA / École Supérieure d’Art / Dunkerque – Tourcoing

Dakota Fanning dans _Vicious_ (2025), de Bryan Bertino. Allociné

Alors que nous traversons une époque de plus en plus troublée, un constat s’impose : le cinéma d’horreur, lui, se porte à merveille. Ce succès n’a rien d’anodin : il reflète la manière dont les inquiétudes sociétales, toujours plus prégnantes, trouvent dans l’horreur un terrain d’expression privilégié, un miroir révélateur de nos angoisses collectives.


Ces dernières années ont vu émerger nombre de films et de séries rencontrant un véritable engouement, tandis que certains réalisateurs – comme Jordan Peele, Ari Aster ou Jennifer Kent – sont devenus des auteurs plébiscités, voire des figures incontournables du genre.

Les racines du cinéma d’horreur actuel se trouvent dans les productions hollywoodiennes des années 1970. À ce sujet, le critique Jean-Baptiste Thoret relevait que le cinéma de l’époque fut déterminé par la généralisation de la télévision dans les foyers, et de son nouveau registre d’images. Les horreurs du monde extérieur étaient ainsi présentées tous les soirs dans les salons familiaux.

La guerre du Vietnam, les émeutes réprimées de manière sanglante – notamment les sept « émeutes de Watts » aux États-Unis en août 1965 –, les faits divers lugubres s’introduisaient dans le quotidien de tous les Américains, puis de tous les Occidentaux. Le cinéma de possession, l’Exorciste (William Friedkin, 1973), mais aussi les slashers et leurs tueurs barbares arpentant les paisibles zones pavillonnaires (la Dernière Maison sur la gauche, Wes Craven, 1972) en sont des exemples probants : les peurs de la destruction du soi intime et de l’espace domestique furent liées à cette obsession pour un « mal intérieur » que diffusait, incarnait et répandait l’écran de télévision.

Mais c’est aussi, bien sûr, le cinéma de zombies (la Nuit des morts-vivants, George A. Romero, 1968) au postulat très simple : les morts viennent harceler les vivants ; ou, en termes cinématographiques, le hors-champ vient déborder dans le champ. De fait, la décennie posa des bases horrifiques qui sont toujours valides aujourd’hui.

Le cinéma d’horreur est un registre qui tourne toujours autour d’un même sujet : les frontières (d’un monde, d’un pays, d’une maison, d’un corps) sont mises à mal par une puissance insidieuse, puissante, voire surnaturelle.

Le XXIᵉ siècle et la peur des images

Notre siècle se situe de fait dans la continuité des années 1970 qui ont posé les bases du genre. Nous pouvons définir quatre grandes peurs qui traversent toutes les productions horrifiques actuelles : la question du contrôle politique, de son efficience et de ses abus ; la question de l’identité et de la différence ; celle de la violence, de l’agression, voire de la torture ; et, enfin, la peur des médias et de la technologie.

La peur politique est au cœur de nombreuses productions horrifiques. C’est notamment le cas de la saga American Nightmare (James DeMonaco, 2013–2021) qui nous présente une société américaine fondamentalement dysfonctionnelle en raison de ses orientations politiques : une nuit par an, afin de « purger » la société, toutes les lois sont suspendues. Le troisième volet, The Purge : Election Year (James DeMonaco, 2016), ne s’y trompait pas en détournant la casquette du mouvement MAGA sur son affiche promotionnelle.

Mais l’horreur des choix politiques se trouve également au cœur des films apocalyptiques et postapocalyptiques. Qu’ils mettent en scène des zombies, des épidémies ou des extra-terrestres, l’horreur provient bien souvent de l’incapacité institutionnelle à répondre au mal, puis de la violence fondamentale avec laquelle les sociétés se reconstituent ensuite. C’est notamment le cas dans la série The Walking Dead (Frank Darabont, 2010–2022), qui nous présente tout un répertoire de modes de vie collective, en majorité profondément inégalitaires, voire cruelles.

Les questions identitaires, elles, relèvent de l’horreur politique lorsque les films prennent le racisme comme sujet. On retrouve cet aspect dans Get Out (Jordan Peele, 2017), dans lequel de riches Blancs s’approprient les corps d’Afro-Américains afin de s’offrir une seconde jeunesse. Mais c’est aussi le cas, de façon plus générale, du cinéma de possession, qui est toujours un cinéma traitant de problèmes identitaires, du rapport à soi, voire de folie ou de dépression. Possédée (Ole Bornedal, 2012), Mister Babadook (Jennifer Kent, 2014), ou encore Heredité (Ari Aster, 2018) mettent tous en scène des individus combattant un démon – ou une entité maléfique – pour retrouver un sens à leur vie et une stabilité identitaire.

La peur de la violence est peut-être la réponse cinématographique la plus directe aux faits divers qui ont envahi les médias depuis plusieurs décennies. Faits divers ayant même donné naissance à des sous-genres cinématographiques autonomes. Le « torture porn » – illustré par les sagas Saw (depuis 2004), Hostel (2005–2011) et The Human Centipede (Tom Six, 2009–2016), par exemple – est un type de film dont l’objet est la représentation de tortures physiques et/ou psychologiques infligées par un maniaque (ou un groupuscule puissant) à des individus malchanceux. Le « rape and revenge » (« viol et vengeance »), quant à lui, représente, comme son nom l’indique, de jeunes femmes violentées qui prennent leur revanche sur leurs agresseurs, souvent de manière sadique. C’est le cas de films comme Revenge (Coralie Fargeat, 2017) ou la saga I Spit on Your Grave (2010–2015).

Enfin, le dernier territoire que nous mentionnons a fini, selon nous, par englober tous les autres. À notre époque, toute peur est liée à la manière dont nous nous représentons le monde, l’Autre et nous-mêmes, sous la forme d’un simulacre ou via un dispositif technologique intercesseur.

Le réel s’offre à nous à travers des filtres technologiques. Ainsi, c’est toujours à l’écran – télévision, ordinateur ou smartphone – de « rendre réel », de définir ce qui est vrai, et de nous offrir des expériences. Or, nous courons toujours le risque que ces systèmes de représentation abusent de nous et deviennent, à leur tour, oppressants. C’est le postulat même du registre horrifique du « found footage », depuis le Projet Blair Witch (Daniel Myrick et Eduardo Sánchez, 1999), en passant par les sagas Paranormal Activity (2007–2021), REC (2007–2014), ou encore Unfriended (Levan Gabriadze, 2014). Ces films, prenant l’aspect et la forme d’archive retrouvée – bien souvent domestique ou policière –, peuvent centrer leurs récits aussi bien autour de spectres, de tueurs en série ou d’extra-terrestres, car c’est le dispositif d’image lui-même, plus que le monstre, qui crée la matière horrifique.

L’inéluctabilité du mal

Deux phénomènes nouveaux semblent, toutefois, se dégager depuis quelques années. Le premier, par son absence relative dans le cinéma d’horreur, et le second, par son omniprésence.

Il s’agit tout d’abord du cataclysme écologique, que l’on retrouve de façon prégnante dans le cinéma de science-fiction, mais très peu dans les films d’horreur. Cette absence, plutôt que de témoigner d’une incapacité de représentation, relève peut-être d’un enjeu trop mondial pour être abordé par un genre finalement plus attaché à des parcours intimes, à des trajectoires d’individus confrontés à l’horreur, plutôt qu’à des horreurs sociétales.

Bien sûr, le cinéma de zombies ou d’apocalypse traite déjà en substance de cet effondrement civilisationnel, mais il faut que ce soit l’humain qui meure, et non le vivant, la nature ou l’environnement, pour que l’horreur devienne manifeste.

Quelques films, comme le long métrage français la Nuée (Just Philippot, 2020), tentent toutefois de poser la question d’une horreur humaine à partir d’une bascule environnementale. Notons également que la pandémie de Covid-19 n’a pas laissé de trace significative dans le genre horrifique. L’horreur pandémique est déjà présente au cinéma depuis les zombies de la fin des années 1960, lorsque la peur et la paranoïa suscitée par le confinement sont déjà figurées au cinéma à travers le motif de la maison hantée qui nous présente toujours des individus prisonniers d’un espace domestique devenu oppressant, voire létal.

Enfin, l’omniprésence actuelle que nous évoquions est certainement celle de l’inéluctabilité du mal. Alors que le cinéma d’horreur des décennies précédentes était encore un cinéma globalement centré sur le monstre (tueur, démon, alien, spectre, etc.), tangible et donc affrontable, notre époque contemporaine présente des antagonistes qui ne sont rien d’autre qu’une puissance abstraite de destruction.

Des films sortis cette année, comme les Maudites (El Llanto, Pedro Martin-Galero, 2024) ou Vicious (Bryan Bertino, 2025), représentent le mal comme une volonté omniprésente, omnipotente, qui dépasse et qui détruit tous les cadres de protection. La société, la famille, le réel volent en éclats ; et nous, spectatrices et spectateurs, ne pouvons que contempler la longue descente aux enfers d’individus voués au néant.

Ce motif horrifique ne nous semble pas anecdotique, tant il dit quelque chose de notre époque, de ses peurs, voire de son désespoir. Comme dans le cinéma expressionniste allemand des années 1930, une puissance a pris le contrôle de la société, et le cinéma d’horreur actuel semble se résigner à le laisser dramatiquement triompher.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Jean-Baptiste Carobolante ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le cinéma d’horreur, miroir de nos angoisses contemporaines – https://theconversation.com/le-cinema-dhorreur-miroir-de-nos-angoisses-contemporaines-268442

L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ?

Source: The Conversation – France in French (2) – By Corinne Augé, Professeur en génétique moléculaire et biotechnologie, Université de Tours

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?


Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.

Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.

Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.

Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.

Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.

Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.

L’intelligence, un construit théorique multidimensionnel

Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?

Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).

Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.

Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.

En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.

D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.

Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.

Que nous apprend la littérature scientifique ?

En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.

Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !

L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.

La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.

Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.

Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.

Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.

Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corinne Augé a reçu des financements de l’INCa et La Ligue

Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ? – https://theconversation.com/lintelligence-peut-elle-etre-expliquee-par-la-genetique-et-lepigenetique-267059

Demain, des virus au service de la médecine pour traiter des cancers, comme alternatives aux antibiotiques notamment

Source: The Conversation – France in French (3) – By María Teresa Tejedor Junco, Catedrática de Microbiología, Universidad de Las Palmas de Gran Canaria

Nous associons les virus à des maladies infectieuses. Mais des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.


Nous ne devons pas analyser la nature d’un point de vue anthropocentrique. De plus, dans de nombreuses occasions, nous ne disposons pas des connaissances suffisantes pour évaluer le rôle que jouent certains éléments (vivants ou inanimés) dans un écosystème donné.

Mais il est certain que les virus ont « mauvaise réputation ». En général, lorsque nous pensons aux microorganismes, la première chose qui nous vient à l’esprit, ce sont les maladies. Puis, petit à petit, nous nous souvenons d’aspects bénéfiques. Par exemple, la production d’antibiotiques (certaines moisissures et bactéries), des aliments comme le yaourt (bactéries) ou des boissons comme la bière (levures).

Et les virus, à quoi servent-ils ? On pourrait penser qu’ils ne servent qu’à causer des maladies… Ou alors, pas seulement ? Avons-nous des virus dans notre organisme même quand nous ne sommes pas malades ?




À lire aussi :
Les virus, ces messagers invisibles de la conversation du vivant


Impossible de résumer dans un seul article tout ce que les virus apportent à notre existence. Mais nous pouvons passer en revue quelques exemples.

Traitement de cancers et d’autres pathologies

Aspect d’un rétinoblastome. I. Aerts, L. Lumbroso-Le Rouic, M. Gauthier-Villars, H. Brisse, F. Doz, L. Desjardins, « Retinoblastoma » in Orphanet Journal of Rare Diseases, 1, 31, 2006.
Wikimedia, CC BY

Le rétinoblastome est un type de cancer de l’œil qui touche principalement les enfants. Il peut entraîner la cécité et, s’il ne répond pas au traitement, il faut alors retirer les yeux pour éviter qu’il ne se propage à l’ensemble du corps.

Un adénovirus génétiquement modifié a été utilisé avec succès pour traiter cette maladie. Il attaque et élimine les cellules cancéreuses sans affecter les cellules saines.

Il existe également des essais visant à utiliser des virus modifiés dans le traitement d’autres types de tumeurs : mélanomes, glioblastomes. Et même pour traiter le cancer du col de l’utérus, causé par un autre virus.

Parmi les maladies chroniques, l’utilisation de bactériophages (virus qui attaquent les bactéries) est à l’étude pour le traitement de la mucoviscidose et de la colite ulcéreuse.

Quelques études montrent que les personnes en bonne santé ont une composition en phages dans leur intestin différente de celle des personnes atteintes de colite ulcéreuse (appelée également rectocolite hémorragique, ndlr) ou de la maladie de Crohn, deux troubles intestinaux graves.

Cela pourrait également être lié à l’efficacité de la transplantation fécale. Chez la souris, la présence d’un virus entérique semble compenser la fonction bénéfique du microbiome intestinal.

Il existe même un virus, appelé GBV-C, qui contribue à améliorer le pronostic des malades atteints du sida. Les personnes porteuses de ce virus, apparenté à celui de l’hépatite mais qui ne provoque aucune maladie, ne sont pas à l’abri du sida. Cependant, elles présentent moins de symptômes et la mortalité dans ce groupe est plus faible.

Une alternative aux antibiotiques pour traiter les infections

Bactériophage infectant une bactérie.
Dr Graham Beards/Wikimedia, CC BY-SA

La phagothérapie consiste à utiliser des bactériophages pour traiter des infections graves. Elle constitue une alternative à l’utilisation d’antibiotiques, en particulier dans le cas d’infections où les bactéries sont résistantes à la plupart des antibiotiques disponibles.

Ces virus sont très spécifiques. Ils peuvent attaquer les bactéries pathogènes sans avoir aucun effet sur notre microbiome « bénéfique ».

En 1919, D’Herelle avait déjà recours à des phages pour traiter les infections. Actuellement, il s’agit d’un type de traitement très contrôlé, qui n’est utilisé que dans les cas d’infections très graves et lorsqu’il n’existe aucune autre option.

D’autre part, les phages pourraient constituer une alternative à l’utilisation d’antibiotiques, ce qui réduirait ainsi la pression sélective et l’apparition de résistances.

Contribuer à la sécurité alimentaire

Plusieurs entreprises travaillent au développement de « cocktails de phages » destinés à être administrés aux animaux d’élevage. Efficaces contre les bactéries pathogènes les plus courantes chez chaque espèce, ils améliorent la santé des animaux. Ils contribuent également à réduire le recours aux antibiotiques.

Les industries alimentaires sont particulièrement intéressées par l’utilisation des phages contre les principales bactéries pathogènes d’origine alimentaire. Ils pourraient même être utilisés pour désinfecter les installations de production.

Leur utilisation est également proposée pour lutter contre les microorganismes qui altèrent les aliments.

Les virus comme bioinsecticides

Aspect des baculovirus au microscope électronique.
J. R. Adams/Wikimedia

Les insecticides chimiques présentent plusieurs inconvénients. D’une part, ils génèrent des résistances. D’autre part, ils peuvent affecter des espèces d’insectes utiles et être toxiques pour l’être humain et d’autres vertébrés.

Les baculovirus présentent le grand avantage d’être hautement spécifiques à certaines espèces d’insectes. Ils ne sont pas pathogènes pour les plantes ni pour les vertébrés. De plus, ils n’affectent pas les autres espèces d’insectes.

Ils forment une capsule protéique qui les protège de l’environnement. Ils infectent les cellules de l’intestin moyen de l’organisme parasite et passent directement dans l’hémolymphe, ce qui provoque la mort de l’insecte responsable du ravage.

Fabriquer des vaccins

Micrographie électronique de transmission d’adénovirus.
CDC/Dr William Gary Jr./Wikimedia

Outre leur utilisation comme bioinsecticides, les baculovirus sont également utilisés pour fabriquer des vaccins (à usages vétérinaires, ndlr). Pour ce faire, le gène d’intérêt est introduit dans le virus, puis l’insecte est infecté, ce qui le transforme en une petite « bio-usine » qui produit les protéines d’intérêt.

Certains vaccins mis au point contre le SARS-CoV-2 utilisent des adénovirus (les vaccins AstraZeneca et Janssen, notamment, reposent sur cette technologie mais il ne s’agit pas des vaccins recommandés aujourd’hui par le ministère de la santé français contre le Covid-19, ndlr). Des adenovirus ont également été utilisés pour fabriquer un vaccin contre Ebola.

Un vaccin polyvalent contre la grippe aviaire et la maladie de Newcastle a été créé à partir d’un virus recombinant.

Virus marins

On estime qu’il existe entre 1028 et 1030 virus dans les océans. Ils constituent des éléments clés des écosystèmes marins. Ils peuvent infecter les animaux, les algues et les plantes marines ou d’autres microorganismes.

La grande majorité de ces virus sont des bactériophages. Certains auteurs ont calculé que les virus libèrent 145 gigatonnes de carbone par an dans les océans tropicaux et subtropicaux. Ils constituent donc un élément fondamental du cycle du carbone dans les écosystèmes.

De plus, ils sont responsables du transfert horizontal de gènes dans les océans.

D’autres bénéfices des virus

En 2017, une thérapie génique à base d’adénovirus a été approuvée aux États-Unis pour traiter une maladie héréditaire rare causant la cécité.

Les patients présentent une mutation au niveau des deux copies d’un gène. Cela les empêche de synthétiser une enzyme essentielle au développement normal de l’œil. À l’aide d’un adénovirus modifié, une copie normale du gène est ajoutée directement dans la rétine. Une seule injection suffit pour leur redonner la vue.

Les virus en général, et pas seulement les virus marins, sont de grands générateurs de diversité génétique. Ils ont généralement un taux de mutation élevé, ont tendance à se mélanger entre eux et peuvent s’intégrer (et se désintégrer) dans le génome de leur hôte.

Ils confèrent aux bactéries la capacité de résister à certains antibiotiques ou de produire des toxines, ce qui est bon pour elles, mais pas pour nous. Il existe également des virus insérés dans le génome des vertébrés, y compris des humains. Ils semblent être impliqués dans la régulation génétique et peuvent contribuer à l’apparition de nouvelles fonctions.

Le plus surprenant chez les virus est peut-être leur rôle dans le développement de la vie humaine. Le génome humain contient 8 % d’ADN viral. Il s’agit de restes de rétrovirus qui se sont insérés dans notre ADN au cours de l’histoire de l’humanité. Jusqu’à récemment, on les considérait comme de l’« ADN poubelle ». Cependant, plusieurs études ont démontré leur importance.

Cet ADN viral code une protéine, la syncytine, qui est essentielle à la formation du placenta, l’organe qui permet l’échange de substances entre le sang de la mère et celui du fœtus.

Il existe de nombreux autres aspects dans lesquels les virus contribuent à améliorer notre existence. N’oublions pas que seul un faible pourcentage d’entre eux peut l’aggraver… mais de manière drastique.

The Conversation

María Teresa Tejedor Junco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Demain, des virus au service de la médecine pour traiter des cancers, comme alternatives aux antibiotiques notamment – https://theconversation.com/demain-des-virus-au-service-de-la-medecine-pour-traiter-des-cancers-comme-alternatives-aux-antibiotiques-notamment-264527

Gouvernement Lecornu : les enjeux d’une nouvelle décentralisation

Source: The Conversation – France in French (3) – By Tommaso Germain, Chercheur en science politique, Sciences Po

Sébastien Lecornu a donné jusqu’à ce 31 octobre aux élus locaux pour lui remettre des propositions relatives à la décentralisation. Alors qu’Emmanuel Macron a plutôt « recentralisé » depuis 2017, son nouveau premier ministre promet un « grand acte de décentralisation » visant à redéfinir le partage – souvent confus – des compétences entre les acteurs (État, régions, départements, métropoles, communes, intercommunalités…). Une telle ambition est-elle crédible alors que le gouvernement envisage un budget d’austérité impactant lourdement les collectivités territoriales ?


La décentralisation est l’un des principaux chantiers annoncés par le premier ministre Sébastien Lecornu avant sa démission du 6 octobre et qui a été réaffirmé dès la constitution de son second gouvernement. Depuis l’élection d’Emmanuel Macron à la présidence de la République en 2017, aucune loi n’a poursuivi les trois premiers actes de décentralisation (1982, 2004, 2015). Des formes d’organisation locales et hétérogènes se sont multipliées.

Dans sa déclaration de politique générale, le chef du gouvernement entend mettre fin à cette hétérogénéité en clarifiant le partage des compétences entre l’État et les collectivités. Mais une « rupture » avec la décentralisation telle qu’observée aujourd’hui est-elle possible ?

Décentraliser le pouvoir en France, une histoire longue

On sait que la France est un pays historiquement centralisé, des Capétiens à la monarchie absolue, de la révolution jacobine à la Ve République. L’État hérité de la féodalité est d’abord demeuré centré sur des fonctions dites « régaliennes » : l’armée, la fiscalité, la diplomatie, la police ou la justice, avec, en son cœur, un appareil administratif professionnalisé. À l’ère moderne, l’État s’adosse à la nation, et poursuit sa croissance indépendamment du régime politique (monarchie, république, empire). Il faut pourtant signaler que ce qu’on appelle « l’État-providence » s’est en grande partie développé localement, les initiatives territoriales étant parfois reprises et généralisées par le centre, dès le Second Empire et la IIIᵉ République, dans le domaine de l’assistance et de l’action sociale.

Pourtant, depuis plus de quarante ans, une politique de décentralisation est à l’œuvre. Les trois premières étapes ou premiers moments, que l’on appelle « actes » pour leur donner la puissance de l’action, ont profondément modifié le système de pouvoir et d’action publique. D’abord, au début des années 1980, des régions autonomes ont été créées et les échelons communaux et départementaux renforcés, ces trois collectivités disposant de conseils élus. La fonction publique territoriale est également créée.

En 2003-2004, le second acte a renforcé l’autonomie des collectivités tout en transférant certaines compétences, telle la politique sociale, transférée au département, pleinement responsable. D’aucuns y ont vu l’apparition d’un « département-providence ».

Quant au dernier acte en date, il remonte au quinquennat du socialiste François Hollande : regroupement des régions pour atteindre une taille critique, affirmation des métropoles, clarification du partage de compétences.

Parallèlement à ce processus, l’État n’a cessé de revoir son ancrage territorial, depuis les années 1990. La réforme de l’administration territoriale de l’État (dite RéATE), en 2007, a régionalisé l’action de l’État. À la suite de la crise des gilets jaunes (2018-2019), le gouvernement a déployé une réorganisation territoriale discrète, renforçant l’articulation interministérielle et le rôle du préfet.

En revanche, depuis 2017, la décentralisation n’a plus bougé. Emmanuel Macron n’en a pas fait un axe structurant de ses mandats – lesquels sont même perçus comme recentralisateurs.

Des formes locales très différentes ont finalement proliféré, questionnant le principe initial d’une République « une et indivisible ». Que l’on pense au sinueux bâtissage de la métropole du Grand Paris, aux spécificités des métropoles d’Aix-Marseille ou de Lyon, à la communauté européenne d’Alsace qui a uni, en 2021, deux départements historiques, aux intercommunalités rurales souvent indispensables, au regroupement de communes, au statut spécifique de la Corse intégrée depuis 1768 ou encore à Mayotte refondée en 2025 et à la Nouvelle-Calédonie, dont le statut est actuellement négocié.

Sébastien Lecornu a choisi de remettre en ordre cette nature proliférante, résultant à la fois de la réorganisation de l’État localement et de la décentralisation.

Une « rupture » dans le modèle de partage des compétences ?

Dans sa déclaration de politique générale, le premier ministre a assumé sa volonté de « rupture », clé de la légitimité de son gouvernement et des réformes nécessaires au redressement de la France. S’agit-il également d’une rupture avec l’arrêt de la décentralisation sous Emmanuel Macron ? Pour Sébastien Lecornu, la décentralisation ne doit plus suivre l’ancienne logique de rationalisation et de délégation. Il déclare ainsi :

« Je proposerai un principe simple, celui de l’identification d’un seul responsable par politique publique. Il s’agira soit d’un ministre, soit d’un préfet, soit d’un élu. Il ne faut pas décentraliser des compétences. Il faut décentraliser des responsabilités, avec des moyens budgétaires et fiscaux et des libertés, y compris normatives. »

Si le gouvernement semble tout adéquat pour les politiques régaliennes et les préfets pour leur déploiement, quels élus locaux seront responsables ? Le principe d’un décideur par politique publique imposerait de repenser l’ensemble de l’action publique – c’est un chantier pharaonique.

Car malgré les trois actes de décentralisation, les compétences ne sont pas à ce jour clairement réparties : quel citoyen pourrait clairement savoir à quel niveau de gouvernement s’adresser selon sa demande ? Le rapport Ravignon (2024) évoque une « grande confusion » des citoyens devant cette complexité. Il montre aussi que de nombreuses politiques publiques sont éclatées et dépendent parfois de trois acteurs ou plus, comme le tourisme, la culture ou le développement économique. Cela est également visible dans l’aménagement du territoire, où les évolutions dépendent de l’État, de la stratégie régionale et des départements, voire des intercommunalités et des communes.

Pour certaines politiques, on assiste même à une concurrence entre autorités publiques. Les communes (ainsi que certaines métropoles) disposent de la clause générale de compétences, qui leur permet de toucher à tout sujet dont elles souhaitent s’emparer. On les retrouve ainsi intervenant là où le font déjà l’État (logement, transition écologique…), les régions (développement économique, tourisme…) ou les départements (culture, insertion…).

Notons, par ailleurs, la montée en puissance des métropoles qui s’est faite de manière discrète, notamment par le biais des politiques d’aménagement. Créées en 2010 et généralisées en 2014, désormais au nombre de 21, elles tendent à devenir la nouvelle frontière de l’État-providence, c’est-à-dire l’espace où la modernisation du système social se réalise en regroupant un large éventail de compétences. C’est encore plus vrai lorsque les compétences sociales du département sont intégrées à cet éventail, comme dans le cas de Lyon ou de Paris.

On comprend mieux pourquoi le rapport Woerth de 2024 proposait de recentrer l’action des métropoles. Les compétences sociales, qui représentent une lourde charge, restent principalement à la charge des départements, expliquant souvent leurs problèmes financiers, comme dans le cas emblématique de la Seine-Saint-Denis, soutenue directement par l’État. Une clarification sur ce sujet deviendrait nécessaire, d’autant plus que les départements continuent d’investir le développement économique (pourtant responsabilité de la région depuis l’acte III de la décentralisation, en 2015).

Le regroupement de communes et d’intercommunalités mériterait également de se poursuivre, notamment en zone rurale. Si Matignon souhaite un recentrage de l’État sur les fonctions régaliennes, la question du retrait de l’État de politiques qu’il tend à réinvestir, comme l’urbanisme ou la lutte contre la pauvreté, se pose également. Cela supposera également de penser une nouvelle étape de déconcentration.

Enfin, certaines compétences méritent d’être mieux organisées pour faire face à des défis qui ne feront qu’augmenter dans les années et décennies à venir, à l’instar du grand âge. Mais une telle clarification ne saurait se faire sans base financière durable.

La décentralisation en contexte de crise budgétaire

Pour la première fois, le chantier de la décentralisation revient avec grande ambition, à l’heure de la crise budgétaire. Devant le Sénat, Sébastien Lecornu a affirmé que « le grand acte de décentralisation » s’inscrivait pleinement dans cette problématique financière, qui vient en justifier l’urgence également.

S’il y a « rupture », ce serait dans l’idée que seul un transfert massif « des responsabilités » aux collectivités pourra garantir la hausse des moyens des fonctions régaliennes de l’État, alors que l’effort financier demandé aux collectivités représente au moins 4,6 milliards d’euros selon le gouvernement, mais jusque 8 milliards d’euros selon les élus locaux. Face à cet impératif budgétaire, une décentralisation poussée, de « rupture » est-elle envisageable ? Le projet de loi à venir, vraisemblablement début 2026, saura éclairer ces aspects.

The Conversation

Tommaso Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Gouvernement Lecornu : les enjeux d’une nouvelle décentralisation – https://theconversation.com/gouvernement-lecornu-les-enjeux-dune-nouvelle-decentralisation-268026

« Shutdown » aux États-Unis : quel impact sur la natalité ?

Source: The Conversation – France in French (3) – By Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Le gel du fonctionnement du gouvernement fédéral des États-Unis, depuis le 1er octobre, se traduit notamment par la réduction de différentes aides sociales et par la suspension du versement des salaires de nombreux fonctionnaires. Alors que la natalité est déjà nettement inférieure au seuil de renouvellement des générations, ce contexte pesant pourrait pousser de nombreuses personnes à remettre à plus tard leur projet parental, voire à y renoncer purement et simplement. En outre, la situation actuelle accroît les risques en matière de santé maternelle et néonatale.


C’est un fait : la natalité aux États-Unis est en berne depuis plusieurs années, avec un taux de 1,6 enfant par femme, alors que le seuil de renouvellement des générations est estimé à environ 2,05 enfants par femme, hors immigration. Cette dénatalité s’explique dans une large mesure par les difficultés économiques : augmentation du coût de la vie et de l’éducation des enfants, prix excessifs des logements, des garderies et des assurances privées, remboursement des prêts d’études pendant plusieurs années, etc.

Donald Trump espère inverser la tendance grâce aux mesures financières incitatives contenues dans sa « grande et belle loi budgétaire » promulguée en juillet dernier, mais il faut rappeler que des mesures plus ou moins similaires n’ont pas eu l’effet escompté dans d’autres pays du monde. La politique nataliste de Trump a d’ailleurs fait l’objet de certaines critiques : elle favoriserait la reproduction des riches et des Blancs, au détriment des pauvres et des Noirs, avec un risque d’eugénisme, et creuserait les inégalités raciales en matière de richesse.

Le shutdown qui perdure depuis le 1er octobre aux États-Unis faute d’accord entre les républicains et les démocrates sur le budget fédéral pourrait accroître le déclin de la natalité dans le pays, conduisant certains à renoncer à leur projet parental ; plus grave encore, la mortalité maternelle et néonatale pourrait augmenter.

Chez les fonctionnaires fédéraux

Dans un contexte de shutdown, certains fonctionnaires fédéraux dont les activités sont jugées « non essentielles » sont mis au chômage technique avec leur salaire gelé, pendant que d’autres continuent de travailler. Les uns comme les autres sont rétroactivement rémunérés après le déblocage du shutdown.

En 2013, sous la présidence de Barack Obama, le shutdown avait duré 16 jours. Près de 800 000 fonctionnaires fédéraux avaient été placés au chômage technique. Neuf mois plus tard, la capitale américaine avait connu un pic de natalité, avec une hausse de 30 % des naissances par rapport à la normale à l’époque. Le taux de natalité resta toutefois en berne au niveau national.

Le shutdown qui se poursuit actuellement va-t-il générer un baby-boom, du moins chez les fonctionnaires fédéraux placés au chômage technique ?

Si près de 700 000 fonctionnaires fédéraux sont au chômage technique depuis le 1er octobre, la situation est plus tendue qu’en 2013 et qu’en décembre 2018-janvier 2019, quand le shutdown avait duré 35 jours.

La paralysie budgétaire qui s’étire depuis le 1er octobre est déjà plus longue que celle de 2013, et risque de durer plus longtemps que celle de 2018-2019, car chaque partie semble déterminée à camper sur ses positions. Faute de salaire, certains employés fédéraux sont déjà en situation de précarité et font appel à des banques alimentaires ou à des prêts pour payer leur loyer. Plus de 4 000 fonctionnaires fédéraux ont aussi reçu un avis de licenciement.

« “Shutdown” aux États-Unis : l’aide alimentaire suspendue à partir du mois de novembre », Euronews, 27 octobre 2025.

Pis : la Maison Blanche a annoncé qu’elle comptait en licencier plus de 10 000 si le shutdown se poursuivait. Bien qu’une juge fédérale ait temporairement bloqué ces licenciements, dans un tel climat d’inquiétude économique de nombreux fonctionnaires fédéraux pourraient différer leur projet parental, voire y renoncer.

Chez les bénéficiaires du programme « Women, Infants and Children »

WIC (Women, Infants and Children) est un programme fédéral d’aide alimentaire et d’éducation à la nutrition et à l’allaitement destiné aux ménages à faibles revenus, quelle que soit la nationalité des bénéficiaires. Il s’adresse aux femmes enceintes ou allaitantes, aux mères en période post-partum ainsi qu’aux enfants de moins de cinq ans présentant un risque de carence nutritionnelle, c’est-à-dire un risque lié à un déséquilibre alimentaire susceptible d’entraîner des problèmes de santé et des maladies.

Durant l’année fiscale 2024, près de 6,7 millions de femmes et d’enfants ont pu bénéficier, chaque mois, des services de ce programme.




À lire aussi :
2 in 5 US babies benefit from the WIC nutrition program


Mi-octobre, l’administration Trump a alloué au programme WIC 300 millions de dollars (environ 259 millions d’euros), en provenance des recettes douanières, afin d’assurer la continuité de son fonctionnement durant le shutdown. Selon la National WIC Association (NWA), ces fonds ne seront plus suffisants au 1ᵉʳ novembre. La NWA réclame 300 millions de dollars (soit, environ 259 millions d’euros) supplémentaires pour garantir la pérennité des différents services de WIC durant les deux premières semaines de novembre.

Et si le shutdown se prolongeait et WIC se retrouvait à court de fonds ?

Le département de la santé du New Jersey a déjà exprimé ses craintes.

Dans le Michigan, une mère célibataire bénéficiaire de WIC, comme beaucoup d’autres, a fait part de son inquiétude :

« Les gens dépendent de WIC pour leurs besoins essentiels : lait, œufs, pain. Ne pas savoir si l’on pourra bénéficier de cette aide le mois prochain… est très angoissant. »

Dans certains États fédérés, les bureaux de WIC sont déjà impactés par la paralysie budgétaire. Au Kansas, un bureau de WIC a dû fermer ses portes, tandis que le département de la santé du Mississippi a été contraint de mettre de nombreuses demandes d’inscription à WIC sur liste d’attente.

Une telle situation met en péril la santé de nombreuses femmes enceintes. En effet, selon un rapport de l’Unicef publié en 2023 et intitulé « Dénutries et oubliées : Une crise nutritionnelle mondiale pour les adolescentes et les femmes », les femmes enceintes ayant une mauvaise alimentation ont un risque plus élevé de contracter des infections et de connaître des complications mortelles pendant la grossesse.

De surcroît, les complications résultant du shutdown pourraient avoir une prévalence plus élevée chez les femmes noires bénéficiaires de WIC par rapport aux femmes blanches. Cette hypothèse peut être déduite des données du Centre pour le contrôle et la prévention des maladies, selon lesquelles les femmes noires aux États-Unis présentent un risque de mortalité lié aux complications de la grossesse ou de l’accouchement trois fois supérieur à celui des femmes blanches. Comme le souligne Ebony Hilton, anesthésiste à l’Université de Virginie et experte des disparités dans l’accès aux soins de santé, « Il a été maintes fois démontré que les femmes noires ne reçoivent pas le même niveau de soins. »

« Les femmes noires, premières victimes de la mortalité maternelle aux États-Unis », France 24, 4 décembre 2019.

En l’absence de financement pour assurer la continuité du programme WIC, les carences nutritionnelles dont seraient victimes les femmes enceintes pourraient également avoir un impact négatif sur la santé de leur enfant à naître : naissance prématurée, faible poids, vulnérabilité aux maladies, augmentation du risque de mortalité néonatale, etc.




À lire aussi :
Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés


Chez les immigrés

Une politique d’accueil favorable aux immigrés pourrait permettre aux États-Unis de faire face au déclin de la natalité dans le pays. Mais Donald Trump est connu pour son hostilité envers les immigrés, qu’ils soient en situation régulière ou non, à l’exception notable de certains, comme les Afrikaners, les Blancs (descendants de colons néerlandais ou français) d’Afrique du Sud. Depuis son retour au pouvoir, Trump mène une politique anti-immigration agressive, avec des arrestations et des expulsions massives d’immigrants illégaux ou présumés l’être.




À lire aussi :
Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?


L’un des principaux points de désaccord ayant conduit au shutdown concerne précisément la couverture médicale de certains immigrés. Les démocrates souhaitent que les immigrés présents légalement (les réfugiés, les demandeurs d’asile, etc.) aux revenus modestes puissent continuer à percevoir des subventions pour souscrire à l’assurance santé dite « Obamacare », officiellement connue sous le nom d’Affordable Care Act (ACA), afin de pouvoir accéder à des soins de base. Ce dispositif a été supprimé pour cette population par la loi budgétaire de juillet dernier. Or, les républicains refusent d’accéder à la requête des démocrates, au faux motif que ces derniers réclameraient une couverture santé gratuite pour les immigrés en situation irrégulière.




À lire aussi :
How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means


Sans la couverture médicale de l’ACA, le coût de l’éducation d’un enfant, ajouté à celui de la souscription à une assurance santé privée, pourrait constituer un facteur déterminant pour les immigrés légalement présents à faibles revenus dans le cadre de leur projet parental. Il est donc à craindre que certains des 1,4 million de migrants présents légalement, qui ne seront plus couverts par l’ACA, ainsi que les femmes immigrées qui ne remplissent pas les conditions de revenu pour bénéficier du programme WIC, renoncent à avoir des enfants, ou en aient moins.

In fine, dans le contexte actuel du shutdown ou après son déblocage, des inégalités économiques et raciales risquent, de nouveau, de se creuser en matière de procréation aux États-Unis.

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Shutdown » aux États-Unis : quel impact sur la natalité ? – https://theconversation.com/shutdown-aux-etats-unis-quel-impact-sur-la-natalite-268423

Bad Bunny au Super Bowl : une polémique emblématique des États-Unis de Donald Trump

Source: The Conversation – France in French (3) – By Ediberto Román, Professor of Law, Florida International University

La présence de Bad Bunny à la mi-temps du Super Bowl 2026 suscite une levée de boucliers dans les rangs trumpistes. L’artiste, né à Porto Rico – territoire disposant d’un statut spécifique, dont les habitants sont citoyens des États-Unis mais ne peuvent pas voter à l’élection présidentielle et ne disposent pas de représentants au Congrès –, devient malgré lui le symbole d’un système qui célèbre la culture latino tout en la réprimant à ses marges. Au moment où les abus de la police de l’immigration (ICE) alimentent la peur parmi les Hispaniques, l’apparition du rappeur sur la scène la plus médiatisée du pays met en évidence les contradictions du rapport des États-Unis à cette large communauté.


La désignation du rappeur portoricain Bad Bunny par la National Football League (NFL) pour effectuer un court concert lors de la mi-temps du Super Bowl 2026, le 8 février prochain, a déclenché les foudres des médias conservateurs et de plusieurs membres de l’administration Trump.

Alors que le président a qualifié ce choix d’« absolument ridicule », la secrétaire à la sécurité intérieure, Kristi Noem, a promis que des agents de la police de l’immigration (ICE) « seraient présents partout au Super Bowl ». Le célèbre commentateur de droite Benny Johnson a déploré dans un tweet posté sur X que le répertoire du rappeur ne contienne « aucune chanson en anglais », tandis que la polémiste Tomi Lahren a déclaré que Bad Bunny n’était pas états-unien.

Bad Bunny, né Benito Antonio Martínez Ocasio, est une superstar et l’un des artistes les plus écoutés au monde. Et comme il est portoricain, il est également citoyen des États-Unis.

Il est certain que Bad Bunny coche de nombreuses cases qui irritent les conservateurs. Il a apporté son soutien à Kamala Harris pour la présidence en 2024. Il a critiqué les politiques anti-immigration de l’administration Trump. Il a refusé d’effectuer une tournée sur le continent américain, craignant que certains de ses fans ne soient pris pour cible et expulsés par l’ICE. Et ses paroles explicites – dont la plupart sont en espagnol – feraient frémir même les plus ardents défenseurs de la liberté d’expression. Sans même parler de sa garde-robe androgyne.

Et pourtant, en tant qu’experts des questions d’identité nationale et des politiques d’immigration des États-Unis, nous pensons que les attaques de Lahren et Johnson touchent au cœur même de la raison pour laquelle le rappeur a déclenché une telle tempête dans les rangs de la droite. Le spectacle d’un rappeur hispanophone se produisant lors de l’événement sportif le plus regardé à la télévision états-unienne constitue en soi une remise en cause directe des efforts déployés par l’administration Trump pour masquer la diversité du pays.

La colonie portoricaine

Bad Bunny est né en 1994 à Porto Rico, un « État libre associé » aux États-Unis, rattaché à ces derniers après la guerre hispano-américaine de 1898.

Cette terre est le foyer de 3,2 millions de citoyens états-uniens de naissance. Si le territoire était un État fédéré des États-Unis, il serait le 30e le plus peuplé par sa population, d’après le recensement de 2020.

Mais Porto Rico n’est pas un État ; c’est une colonie issue de l’époque révolue de l’expansion impériale américaine outre-mer. Les Portoricains n’ont pas de représentants votant au Congrès et ne peuvent pas participer à l’élection du président des États-Unis. Ils sont également divisés sur l’avenir de l’île. Une grande majorité souhaite soit que Porto Rico devienne un État états-unien, ou obtienne un statut amélioré par rapport à l’actuel, tandis qu’une minorité plus réduite aspire à l’indépendance.

Mais une chose est claire pour tous les Portoricains : ils viennent d’un territoire non souverain, avec une culture latino-américaine clairement définie – l’une des plus anciennes des Amériques. Porto Rico appartient peut-être aux États-Unis ; et de nombreux Portoricains apprécient cette relation privilégiée, mais l’île elle-même ne ressemble en rien aux États-Unis, ni dans son apparence ni dans son atmosphère.

Les plus de 5,8 millions de Portoricains qui résident dans les 50 États compliquent encore davantage le tableau. Bien qu’ils soient légalement citoyens des États-Unis, les autres États-Uniens ne les considèrent souvent pas comme tels. En effet, un sondage réalisé en 2017 a révélé que seuls 54 % des États-Uniens savaient que les Portoricains étaient citoyens du même pays qu’eux.

Le paradoxe des citoyens étrangers

Les Portoricains vivent dans ce que nous appelons le « paradoxe des citoyens étrangers » : ils sont citoyens des États-Unis, mais seuls ceux qui résident sur le continent jouissent de tous les droits liés à la citoyenneté.

Un rapport récent du Congrès américain a conclu que la citoyenneté états-unienne des Portoricains « n’est pas une citoyenneté égale, permanente et irrévocable protégée par le 14e amendement […] et le Congrès conserve le droit de déterminer le statut du territoire. » Tout citoyen états-unien qui s’installe à Porto Rico ne jouit plus des mêmes droits que les citoyens états-uniens du continent.

La désignation de Bad Bunny pour le spectacle de la mi-temps du Super Bowl illustre bien ce paradoxe. Outre les critiques émanant de personnalités publiques, il y a eu de nombreux appels parmi les influenceurs pro-Trump à expulser le rappeur.

Ce n’est là qu’un exemple parmi d’autres qui rappelle aux Portoricains, ainsi qu’aux autres citoyens latino-américains, leur statut d’« autres ».

Les arrestations par l’ICE de personnes semblant être des immigrants – une tactique qui a récemment reçu l’aval de la Cour suprême – illustre bien leur statut d’étrangers.

La plupart des raids de l’ICE ont eu lieu dans des communautés majoritairement latino-américaines à Los Angeles, Chicago et New York. Cela a contraint de nombreuses communautés latino-américaines à annuler les célébrations du Mois du patrimoine hispanique.

Clip du titre « NUEVAYoL » issu du dernier album de Bad Bunny. Sorti en ligne le 4 juillet 2025, jour de la fête nationale des États-Unis, il enregistre plus de 43 millions de vues.

L’impact mondial de Bad Bunny

La vague de xénophobie contre Bad Bunny a poussé des responsables politiques comme le président de la Chambre des représentants Mike Johnson à réclamer son remplacement par une personnalité « plus appropriée » pour le Super Bowl, comme l’artiste de musique country Lee Greenwood, 83 ans, supporter de Donald Trump. À propos de Bad Bunny, Johnson a déclaré : « Il semble qu’il ne soit pas quelqu’un qui plaise à un large public. »

Mais les faits contredisent cette affirmation. L’artiste portoricain occupe la première place des classements musicaux mondiaux. Il compte plus de 80 millions d’auditeurs mensuels sur Spotify. Et il a vendu près de cinq fois plus d’albums que Greenwood.

Cet engouement mondial a impressionné la NFL, qui organise sept de ses rencontres à l’étranger cette saison et souhaite encore accroître ce nombre à l’avenir. De plus, les Latino-Américains représentent la base de fans qui connaît la plus forte croissance au sein de la ligue, et le Mexique est son plus grand marché international, avec 39,5 millions de fans selon les chiffres publiés.

La saga « Bad Bunny au Super Bowl » pourrait bien devenir un moment politique important. Les conservateurs, dans leurs efforts pour mettre en avant « l’altérité » de Bad Bunny – alors que les États-Unis sont l’un des premiers pays hispanophones au monde – ont peut-être involontairement sensibilisé les États-Uniens au fait que les Portoricains étaient leurs concitoyens.

Pour l’heure, les Portoricains et le reste de la communauté latino-américaine des États-Unis continuent de se demander quand ils seront acceptés comme des égaux sur le plan social.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Bad Bunny au Super Bowl : une polémique emblématique des États-Unis de Donald Trump – https://theconversation.com/bad-bunny-au-super-bowl-une-polemique-emblematique-des-etats-unis-de-donald-trump-267885

Some animals are more equal than others: the dark side of researching popular species

Source: The Conversation – Africa (2) – By Laura Tensen, Assistant Professor, University of Greifswald

Biologists often form deep bonds with the species they study. For some, that relationship begins early in their careers and shapes decades of research. The connection can be personal, even affectionate, but it can also create tensions when others set their sights on the same species.

In biology, certain plants and animals are considered “charismatic species” by the general public. They capture the public imagination through beauty, uniqueness, or cultural significance. Think giant pandas, tigers, or orchids.

Many scientists are drawn to these charismatic species, but that does not always mean they have the opportunity to study them. Competition can be fierce in some academic fields.

We conducted research on these charismatic species, to understand how this field may exclude some academics and give the monopoly on research to others.

Research monopolisation can have several negative effects. For instance, samples may be less commonly shared between scientists. It may even impede an academic’s progress. This can be in the form of sabotaging a competitor’s work, stealing creative ideas and performing biased peer review of funding proposals and publications.

This behaviour doesn’t just harm individual researchers. It can weaken scientific integrity, stifle creativity and drive talented people out of academia. And while our study focused on biology, the patterns are likely echoed across competitive academic fields where prestige and resources are limited.

Charismatic species are easy to love and they’re also good for science. Research on these species attracts more funding, more media coverage, and more space in prestigious journals. But popularity comes with a cost. Our new study reveals that working on these species often fuels competition and, in some cases, fosters exclusionary behaviour.

Over 18 months, we examined academic exclusion in the biological sciences: where established researchers try to prevent potential competitors from studying their preferred animal or plant. We surveyed 826 academics across 90 countries and analysed 800 scientific papers.

The results were striking. We found a positive correlation between a species’ charisma and the impact and volume of scientific outputs. That highlights the benefits of studying such species for a researcher’s prestige and career prospects. But studying charismatic species also tended to increase the likelihood of negative workplace experiences. Younger colleagues, women and researchers based in the regions where the species actually live were the ones who suffered.

Competition and monopolies

Nearly half (46%) of survey participants said they had encountered some form of research monopolisation. Respondents linked charismatic species to greater difficulty obtaining permits or samples, strained relationships with colleagues, and cliquey work environments.

We also found a striking imbalance in participation. Researchers from universities in North America and Europe frequently studied species in Africa, South America and Asia – but the reverse was rarely true. For instance, the eastern barred bandicoot (Perameles gunnii) occurs and was only studied in Australia. The striped skunk (Mephitis mephitis) occurs in the US, where it was studied. But the Malayan culogo (Galeopterus variegatus) was commonly studied by institutions outside Malaysia, as was the aye aye (Paradoxurus hermaphroditus) from Madagascar. This pattern was less pronounced for non-charismatic species.

The result is a skewed scientific landscape. Non-charismatic species, despite their ecological importance, are often underfunded and overlooked.




Read more:
Africa’s freshwater ecosystems depend on little creatures like insects and snails: study maps overlooked species


Career advantages and disadvantages

For those who secure access to charismatic species, the career payoffs can be enormous. Working on them tends to result in more publications, higher citation rates and more opportunities for international collaboration.

The largest collaborative effort we found was for the charismatic cheetah (Acinonyx jubatus), with a total of 50 authors, 37 institutions and 21 countries on one paper. This effort was rewarded with a journal impact factor of 11.1 and 193 citations, showing the benefit to be gained from collaborating. These advantages feed into the academic reward system, where prestige and productivity often dictate career progression.

A journal with an impact factor of 2-3 is considered solid in most fields, 5-10 is highly regarded, and 15+ is exceptional, usually limited to big multidisciplinary journals like Nature or Science. Only a small fraction of academics (perhaps the top 5%-10%) regularly publish in those very high impact journals. Citations vary hugely by discipline and career stage. A typical early-career researcher might have 20-100 citations total, whereas established mid-career academics often have a few hundred to a few thousand.

Our study also highlights the darker side of this system. Early-career scientists and women reported higher rates of exclusion, including refusals to collaborate, appropriation of research ideas and even harassment.

Gender inequities are particularly stark, despite the biological sciences having a much more even gender balance than most other science fields. Women were less likely to participate in international collaborations, which are strongly linked to career advancement. And when women did lead studies, their papers received fewer citations than those with male first or last authors.

The first author is usually the person who did most of the hands-on work – designing the study, collecting and analysing data, and writing the first draft. The last author is typically the senior researcher or group leader who supervised the project, secured funding and guided the work conceptually. In total, of all first authors, 69% were men, and of all last authors, 81% were men. Male dominance differed depending on the study species, where charismatic mammal species scored relatively high.

Productivity in academia manifests itself in publication rates, publication visibility and citation patterns. These can have a cumulative advantage and lead to substantial inequality among researchers. In our survey, 51% of female respondents reported gender-based discrimination.




Read more:
We think there’s a better way to assess the research of African academics: here’s how


Editorial boards also play a role. Many biodiversity conservation journals have male-dominated boards and a bias towards publishing studies on charismatic species. Species preference intertwines with gender inequity. For instance, studies on large carnivores are known to be historically male-dominated, and this association may give men a head start in their careers.

Rethinking incentives

What can be done? One solution is to broaden how scientific success is measured. Instead of focusing so heavily on academic output – publications, citations and journal impact factors – institutions and funders could also value contributions such as community engagement, public communication and policy impact.

This may reduce cumulative advantage in science and increase a sense of fairness, hopefully reversing the subtle ways in which organisational logistics serve to perpetuate disparities in academic institutions.

Such measures are becoming increasingly important in biodiversity conservation, where connecting science with society is essential. By shifting incentives, we may reduce the negative side-effects that arise from competition.




Read more:
University ranking systems are being rejected. African institutions should take note


Scientists themselves also have a role to play. Instead of racing to publish first, research groups could coordinate their work, share data and agree on joint publication strategies. Collaboration over competition could benefit everyone, not least the species that need protecting.

Charisma may help a species capture attention, but it shouldn’t determine who gets to study it, or who gets to succeed in science.

The Conversation

Laura Tensen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Some animals are more equal than others: the dark side of researching popular species – https://theconversation.com/some-animals-are-more-equal-than-others-the-dark-side-of-researching-popular-species-266306

Where did the first people come from? The case for a coastal migration from southern Africa

Source: The Conversation – Africa (2) – By Alan Whitfield, Emeritus Chief Scientist, NRF-SAIAB, National Research Foundation

The origins and migrations of modern humans around the world are a hot topic of debate. Genetic analyses have pointed to Africa as the continent from which our ancestors dispersed in the Late Pleistocene epoch, which began about 126,000 years ago. Various dispersal routes have been suggested.

As a group of scientists who have been studying human evolution, we propose in a recently published review paper that the coast of southern Africa was likely where Homo sapiens began this worldwide journey. We suggest that some people started leaving this area about 70,000 years ago, took a route along the east coast and left the continent about 50,000 to 40,000 years ago.

We base this hypothesis on various kinds of evidence, including geography, climate and environment, marine food resources, genetics, trace fossils, and the technical and cultural abilities of people in that region at that time. The reasons for migration and the advantages of a coastal route out of Africa, compared to an inland route, are outlined in our review.

This proposed route is counter to the current belief among most scientists that the Out-of-Africa migration began in eastern Africa and not southern Africa.

A southern Cape origin?

In our review we accepted that modern humans arose in Africa during the Middle Stone Age about 200,000 years ago and then replaced populations of hominins outside the continent between 60,000 and 40,000 years ago.

We suggested that their African origin was in the southern Cape region of what’s now South Africa, and that their migration along the eastern African coastline and onto the Arabian Peninsula may have happened over a period of less than 20,000 years.

In reviewing available evidence, we focused on the possibility that our ancestors in coastal South Africa were ideally placed to colonise the world. They had an enabling culture that allowed them to survive almost anywhere.

The Pinnacle Point cave complex and other sites in this area are a UNESCO World Heritage Site because they provide the most varied and best-preserved record known of the development of modern human behaviour, reaching back as far as 162,000 years.

Food from the sea, like shellfish, set southern Cape Homo sapiens on their evolutionary path to becoming advanced modern humans. They had an advantage over those who relied solely on hunting and food gathering inland, especially during cold and dry periods on the African subcontinent. The harnessing of bow and arrow technology was also key for their success when compared to other hominins during the same period.

Climate and culture

Episodes of global cooling, also known as ice ages, resulted in a global lowering of sea levels, and had two main effects in Africa. One was that the width of the Red Sea between the Horn of Africa and the Arabian Peninsula narrowed. The other was that in the southern Cape, a vast coastal plain was exposed, providing extra habitat and plenty of food.

Increased cognitive capacity to interpret lunar cycles would have allowed ancestral humans to undertake timed excursions to the shore over spring tidal periods. The predictable coastal food sources might also, however, have led to inter-group conflict and territoriality, which could have played a role in the exodus of groups of people from the southern Cape.

In other parts of the world, there was a cold, dry period from 190,000 years to 130,000 years ago. And the dark, long “winter” after the Mount Toba (Indonesia) super-eruption 74,000 years ago would have reduced food resources in tropical regions. Hominins in the southern Cape appear to have survived these major global climate change events and continued to advance both culturally and technologically. We know something about these advances from research at cave sites such as Klasies River, Blombos and Pinnacle Point. Forms of ancient art have been found in these caves, indicating cognitively advanced humans.

Technical advances meant that the tools carried by these people on their journey were “state of the art” for 70,000 years ago – more advanced than those possessed by other humans encountered on their migration northwards.

Evidence mounts

In summary, the idea of a coastal migration out of Africa is based on:

  • the earliest evidence for humans consuming seafood and developing adaptations for living close to the sea shore about 162,000 years ago

  • the first evidence of dedicated coastal foraging for seafood, which may have enhanced our ancestors’ cognitive capacity

  • the first “recipes” in early human food preparation around 82,000 years ago

  • among the earliest reports of bone tool technology from around 100,000 years ago, which may have been used to make complex clothing and shoes

  • the regular use of pigments such as red ochre as early as 162,000 years ago

  • palaeoart in the form of engravings in ochre dated 100,000 to 85,000 years ago, and a drawing using an ochre crayon dated to 73,000 years ago

  • the earliest evidence for making small stone blades around 71,000 years ago

  • the earliest evidence for heat treatment of stone to produce advanced tools and weapons

  • use of jewellery for adornment

  • survival during a period of climate change following the Mount Toba eruption

  • complementary evidence from the trace fossil (ichnology) record from the same region and time period. This includes the oldest reported use of sticks by humans, and the oldest reported evidence of humans jogging or running.

When the era of global cooling ended about 18,000 years ago and sea levels rose again, almost all of this Pleistocene landscape would have been covered by water. So it’s remarkable that so much evidence still exists.

There is no equivalent evidence of an advanced modern human presence from eastern Africa or anywhere else in the world.

Why migrate?

Why would some people choose to move and migrate? It is likely that increasing pressure from successful, growing, competing bands of humans, combined with climatic and environmental changes and a limited number of suitable cave occupation sites, provided a trigger for an initial eastward and then north-eastward migration.

At the same time, advanced cognition skills would have permitted increasing intra-group co-operation, enabling these humans to make their remarkable journey.

We think a coastal migration up and out of Africa was more likely to succeed than an overland migration. The reasons include the availability of seafood, fresh water, level ground, warm temperatures and fewer big, dangerous animals along the intertidal coastline. It seems there weren’t other people in the way either: for example, there is no evidence of an equivalent culture associated with the sea on the eastern coast of Africa.

The lack of suitable coastal caves to live in north of South Africa may have encouraged human clans to keep moving up the coast.

Out of Africa

The exit from the Horn of Africa into the Arabian Peninsula was distinctly feasible from 60,000 years ago onwards. Records from the Red Sea indicate that sea levels in the region were about 100 metres below present levels 65,000 years ago.

Our examination of the available evidence points to the southern Cape coast as a cradle of modern human development. The people of this region were ideally placed 70,000 years ago to undertake a quick and effective migration out of Africa, and then around the world.

The Conversation

Francis Thackeray has received funding from the National Research Foundation.

Nothing to disclose.

Alan Whitfield, Charles Helm, and Renee Rust do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Where did the first people come from? The case for a coastal migration from southern Africa – https://theconversation.com/where-did-the-first-people-come-from-the-case-for-a-coastal-migration-from-southern-africa-267299

Trump and Putin didn’t hold new peace talks after all — but that was likely Putin’s plan all along

Source: The Conversation – Canada – By Oleksa Drachewych, Assistant Professor in History, Western University

Donald Trump’s administration recently announced a forthcoming meeting between the American president and Russian leader Vladimir Putin to take place in Hungary. High-level talks from representatives of both the United States and Russia were to set up such a meeting in the near future.

Within a few days, such a meeting was no more. The Kremlin announced it had never agreed to it. Trump, on the other hand, implied Russia had cancelled the meeting. Since then, Trump has argued any meeting with Putin would be a “waste of time” without a peace agreement in hand.

While tempting to see this as a brief “what could have been,” it really highlights how Putin manages his relationship with Trump — to the detriment of Ukraine.




Read more:
How Trump’s separate meetings with Putin and Zelenskyy have advanced Russian interests


Personalized politics

Putin and Ukrainian President Volodymyr Zelenskyy each see the U.S. as playing a critical role in the eventual outcome of Russia’s war against Ukraine.

Putin wants Russia to again be perceived as a great power, equal in stature to the United States. To meet these ends, Putin has used personalized politics with Trump, recognizing that Trump seems to admire him.

Putin plays to Trump’s ego; after he met Trump in Alaska in August, Trump shared in follow-up interviews how Putin agreed with Trump’s concerns about mail-in ballots in American elections.

In October, he praised Trump’s supposed peacemaking capabilities after he was not named the recipient of the 2025 Nobel Peace Prize. Putin, privately and publicly, praises Trump or supports him on political issues important to the president, ensuring he remains in Trump’s good graces.

Putin then uses his discussions with Trump to share Russian talking points about why Russia launched a full-scale invasion of Ukraine in 2022, to share Russia’s weaponization of history to justify its claims on Ukraine or to explain “the root causes of the conflict” in Russia’s eyes.

In the aftermath of these direct calls and meetings, Trump tends to parrot these Russian talking points publicly and in meetings with other leaders, as he did in February and August. He did so again on Oct. 17, 2025, when Trump met with Zelenskyy and reportedly argued with him, claiming Ukraine would be destroyed by Russia if it did not agree to Putin’s demands.

Putin’s 3 aims

Putin does all this for three purposes.

First, it strains the American relationship with Ukraine. Recall the infamous meeting between Zelenskyy, Trump and U.S. Vice-President JD Vance in the Oval Office in February, which took place after Trump first spoke with Putin.

Second, it often delays or ends certain supports Ukraine hopes to obtain from its American allies. Take the now-aborted Hungarian summit — it was announced the day before Zelenskyy was going to meet Trump to discuss the Ukrainian purchase of Tomahawk missiles. After their meeting, there was no such agreement.

With this new potential long-range threat off the table, the Kremlin apparently saw no reason to continue the charade.

Third, Putin aims to strain the American-European alliance. Since February 2022, generally speaking, Europe and the United States have been united in their support for Ukraine. But Trump’s pronouncements criticizing European nations for their defence spending — along with Trump’s perceived closer ties to Putin — have caused alarm.

When Trump met with Putin in Alaska, Ukraine and its allies feared peace terms favourable to Russia would be forced upon Ukrainians. When Zelenskyy met with Trump just days later, European leaders joined him, hoping to avoid catastrophe.

Instead, the meeting went well, and the U.S. seemed to be in alignment with European leaders, including even, albeit briefly, offering American security guarantees in developing a possible peace plan.

This episode also highlights how Zelenskyy too has capitalized on personal meetings with Trump to his benefit. Ukraine still sees the U.S. as an important ally and has tried to manage Trump’s transactional nature, signing a raw mineral deal and agreeing to purchase American weapons with NATO support.

Zelenskyy has also relied on personal meetings to mend the relationship. In April, he met privately with Trump at Pope Francis’s funeral, moving on from the aforementioned contentious Oval Office meeting.

In August, Zelenskyy aimed to make a positive impression to counter a potential pro-Russian meeting with Trump. He even wore a suit, a nod to one of the notable criticisms against him during the Oval Office meeting, as he showcased his willingness to play to Trump’s ego.

Because Trump has emphasized a desire to negotiate peace between Russia and Ukraine, both Putin and Zelenskyy have used this focus to manage their relationship with the American leader.




Read more:
Why justice for Ukraine must be at the forefront of peace negotiations


Another chapter in the Trump saga

Since the Hungarian meeting was postponed — or cancelled, depending on who you believe — the U.S. has since implemented harsher sanctions on Russian oil companies and those who purchase Russian oil. Trump has also said he’s done “wasting his time” until Putin is serious about peace.

He’ll likely be waiting a long time. Putin has not seriously altered his demands in Ukraine at any point since Russia began its full-scale invasion of the country more than three years ago.

There will likely be an actual meeting between Trump and Putin again in the future. While many are hopeful for peace, these episodes are more reflective of Putin’s ability to manage Trump when needed than any real desire for ending Russia’s war in Ukraine.

The Conversation

Oleksa Drachewych does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump and Putin didn’t hold new peace talks after all — but that was likely Putin’s plan all along – https://theconversation.com/trump-and-putin-didnt-hold-new-peace-talks-after-all-but-that-was-likely-putins-plan-all-along-267717

Les cyclistes ont peut-être raison de brûler arrêts et feux rouge. Voici pourquoi

Source: The Conversation – in French – By Steve Lorteau, Long-Term Appointment Law Professor, L’Université d’Ottawa/University of Ottawa

Écoutez cet article en version audio générée par l’IA.

Sur nos routes, les interactions entre les différents usagers de la route sont souvent une source de frustration, avec en tête d’affiche celles entre automobilistes et cyclistes.

Par exemple, plusieurs automobilistes sont frustrés de voir les vélos traverser une intersection sans s’immobiliser complètement, alors qu’eux-mêmes se voient dans l’obligation de le faire.

Pour beaucoup, ce geste est perçu comme une marque d’indiscipline, voire une double mesure pour les cyclistes. En effet, les cyclistes ne semblent pas encourir de véritable risque à ralentir au passage d’un panneau d’arrêt plutôt qu’à s’y immobiliser.

En comparaison, les automobilistes risquent une amende salée pour conduite dangereuse s’ils brûlent un arrêt.

Alors, faut-il exiger des cyclistes qu’ils respectent les mêmes règles de la route que les automobilistes, ou au contraire, reconnaître que ces règles ne reflètent pas toujours la réalité du vélo en ville ?

En tant que professeur de droit à l’Université d’Ottawa spécialisé dans les questions d’urbanisme, j’ai étudié diverses approches réglementaires adoptées à travers le monde, qui présentent différents avantages et désavantages.


Cet article fait partie de notre série Nos villes d’hier à demain. Le tissu urbain connaît de multiples mutations, avec chacune ses implications culturelles, économiques, sociales et – tout particulièrement en cette année électorale – politiques. Pour éclairer ces divers enjeux, La Conversation invite les chercheuses et chercheurs à aborder l’actualité de nos villes.

L’égalité stricte entre les cyclistes et les conducteurs

Au Québec, comme dans d’autres juridictions, les codes de la route s’imposent à tous les usagers, qu’ils soient automobilistes ou cyclistes.

Par exemple, tous les usagers doivent faire un arrêt complet aux arrêts et aux feux rouges. Lorsqu’ils contreviennent à ces règles, les cyclistes « sont assujetti(s) aux mêmes obligations que le conducteur d’un véhicule », selon les mots de la Cour suprême du Canada.

Ainsi, peu importe les différences entre une voiture et un vélo, la loi les traite de façon égale. Bien sûr, cette égalité demeure souvent théorique, car l’application des règles varie selon les contextes et les comportements.




À lire aussi :
À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Une égalité trompeuse

L’application uniforme des règles de la route peut sembler juste, mais peut créer une fausse égalité dans les faits.

D’une part, les risques associés aux différents moyens de transport sont incommensurables. Une voiture qui franchit un feu rouge peut causer des blessures graves, voire mortelles. Un cycliste, en revanche, peut difficilement infliger de tels dommages.

Une pancarte électorale borde une piste cyclable
L’enjeu des pistes cyclables est au centre de la campagne électorale de Montréal.
La Conversation Canada, CC BY

D’autre part, l’efficacité du vélo dépend du maintien de la vitesse. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.

Traiter de la même manière deux moyens de transport si différents revient donc à privilégier implicitement l’automobile, un peu comme si l’on imposait les mêmes limitations de vitesse à un piéton et à un camion.

L’arrêt Idaho

Plutôt que de traiter les vélos et les voitures comme étant égaux, certaines juridictions ont opté pour une autre voie. Un exemple notable d’un traitement différent est celui de l’État de l’Idaho.

En Idaho, depuis 1982, les cyclistes peuvent traiter un panneau d’arrêt comme un cédez-le-passage et un feu rouge comme un panneau d’arrêt. Plusieurs États américains (comme l’Arkansas, le Colorado et l’Oregon) et pays, comme la France et la Belgique, ont adopté des règlements semblables. Au Canada et au Québec, des discussions sont en cours pour adopter un tel règlement.




À lire aussi :
Moins de cyclistes… ou répartis autrement ? Le Réseau Express Vélo (REV) à l’épreuve des données


Il est important de noter que l’arrêt Idaho ne cherche pas à légaliser le chaos sur les routes. En effet, les cyclistes doivent quand même céder la priorité aux voitures qui les précèdent au panneau d’arrêt, ainsi qu’en tout temps aux piétons, et ne peuvent s’engager dans l’intersection que lorsqu’elle est libérée.

L’arrêt Idaho a trois avantages principaux.

Premièrement, la règle reconnaît que les dynamiques du vélo diffèrent fondamentalement de celles de la voiture, et ainsi, que ceux-ci ne peuvent pas être traités de façon équivalente.

Deuxièmement, l’arrêt Idaho permet de décharger les tribunaux et les policiers de contraventions.

Troisièmement, l’efficacité du vélo dépend de la conservation de l’élan. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les effets de la réforme

Face à ces deux approches très différentes quant au Code de la route des vélos, on peut se demander laquelle est la plus appropriée.

Plusieurs études empiriques indiquent que l’adoption de l’arrêt Idaho n’entraîne pas d’augmentation des collisions routières.

Certaines études suggèrent même une diminution modeste des collisions avec l’Arrêt Idaho. En effet, les cyclistes libèrent plus rapidement les intersections, ce qui réduit leur exposition aux voitures. De plus, les automobilistes deviennent plus attentifs aux mouvements des cyclistes.

D’ailleurs, la majorité des usagers de la route, automobilistes comme cyclistes, ne respectent souvent pas les arrêts de façon stricte. Selon une étude menée par la Société de l’assurance automobile du Québec (SAAQ), seulement 35 % des automobilistes font leurs arrêts correctement. Encore selon la SAAQ, seulement 27 % des cyclistes déclarent faire un arrêt complet aux panneaux d’arrêt obligatoires.

Bref, l’adoption de l’arrêt Idaho ne créerait pas le chaos, mais viendrait encadrer une pratique déjà commune, et ce, sans compromettre la sécurité publique, contrairement à certaines inquiétudes. Les cyclistes, qui s’arrêtent rarement complètement en l’absence de circulation, ralentissent toutefois avant de traverser, conscients de leur vulnérabilité.

Un changement de culture

Par ailleurs, l’arrêt Idaho au Québec invite à une réflexion plus large.

Depuis des décennies, nos lois et nos infrastructures routières sont conçues principalement pour les voitures. Plusieurs automobilistes considèrent encore que les cyclistes sont dangereux et adoptent des comportements délinquants.




À lire aussi :
À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Pourtant, il est important de se souvenir que les voitures représentent le principal danger structurel sur nos routes, et que les cyclistes sont en réalité vulnérables. Ce danger structurel s’est d’ailleurs accru avec la croissance des véhicules utilitaires sport (VUS) et camions, ce qui augmente les risques pour les piétons et des cyclistes.

L’adoption de l’arrêt Idaho ne donne pas un passe-droit aux cyclistes, mais reconnaît leurs réalités, et légitimise le vélo comme mode de transport, avec un code routier adapté à ses risques et à ses bénéfices. Cette réforme, modeste mais symbolique, pourrait s’inscrire dans un ensemble plus vaste de changements qui offriraient aux citoyens une véritable liberté et sécurité pour se déplacer.

La Conversation Canada

Steve Lorteau a reçu des financements du Conseil de recherches en sciences humaines, l’Association du Barreau canadien et les Instituts de recherche en santé du Canada.

ref. Les cyclistes ont peut-être raison de brûler arrêts et feux rouge. Voici pourquoi – https://theconversation.com/les-cyclistes-ont-peut-etre-raison-de-bruler-arrets-et-feux-rouge-voici-pourquoi-265049