Quel âge avez-vous réellement ? Tout sur les derniers tests d’« âge biologique » – et leur fiabilité

Source: The Conversation – in French – By Hassan Vally, Associate Professor, Epidemiology, Deakin University

Nous aimons tous nous imaginer bien vieillir. Aujourd’hui, un simple test sanguin ou salivaire promet de nous le dire en mesurant notre « âge biologique ».

Par la suite, comme plusieurs l’ont déjà fait, nous pourrons partager notre « jeunesse » sur les réseaux sociaux, ainsi que nos secrets pour y parvenir.

Alors que l’âge chronologique correspond à la durée de votre vie, les mesures de l’âge biologique visent à indiquer l’âge réel de votre corps, en prétendant mesurer « l’usure » au niveau moléculaire.

L’attrait de ces tests est indéniable. Les gens soucieux de leur santé peuvent voir leurs résultats comme une confirmation de leurs efforts pour contrer leur vieillissement.

Mais ces tests sont-ils vraiment fiables ? Offrent-ils réellement des informations utiles ? Ou s’agit-il simplement d’un habile stratagème marketing déguisé en science ?


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Comment les tests fonctionnent-ils ?

Au fil du temps, les processus chimiques qui permettent à notre corps de fonctionner, appelés « activité métabolique », entraînent des dommages et un déclin de l’activité de nos cellules, tissus et organes.

Les tests d’âge biologique visent à saisir certains de ces changements, offrant ainsi un aperçu de notre état de santé ou de notre état de vieillissement au niveau cellulaire.

Notre ADN est également affecté par le processus de vieillissement. En particulier, des marqueurs chimiques (groupes méthyles) s’y fixent et affectent l’expression des gènes. Ces changements se produisent de manière prévisible avec l’âge et les expositions environnementales, dans un processus appelé méthylation.

Des études scientifiques ont utilisé des « horloges épigénétiques », qui mesurent la méthylation de nos gènes, pour estimer l’âge biologique. En analysant leurs niveaux à des endroits spécifiques du génome à partir d’échantillons prélevés sur les participants, les chercheurs appliquent des modèles prédictifs pour estimer l’usure cumulative du corps.

Que dit la recherche à propos de leur utilisation ?

Bien que la science évolue rapidement, les preuves étayant l’utilisation des horloges épigénétiques pour mesurer le vieillissement biologique dans les études de recherche sont solides.

Des études ont montré que l’estimation de l’âge biologique épigénétique est un meilleur prédicteur du risque de décès et des maladies liées au vieillissement que l’âge chronologique.

Il a également été démontré que les horloges épigénétiques sont fortement corrélées au mode de vie et aux expositions environnementales, telles que le tabagisme et la qualité de l’alimentation.

De plus, elles se sont avérées capables de prédire le risque de maladies telles que les maladies cardiovasculaires, qui peuvent entraîner des crises cardiaques et des accidents vasculaires cérébraux.

Dans l’ensemble, un nombre croissant de recherches indiquent que les horloges épigénétiques sont des mesures fiables du vieillissement biologique et sont étroitement liées au risque de maladie et de décès.

Mais ces tests sont-ils vraiment fiables pour les individus ?

Si ces tests sont précieux pour étudier des populations dans le cadre de la recherche, l’utilisation d’horloges épigénétiques pour mesurer l’âge biologique des individus est une tout autre affaire et nécessite un examen approfondi.

Le facteur le plus important à prendre en considération pour les tests au niveau individuel est sans doute leur précision. Il s’agit de déterminer si un seul échantillon prélevé sur un individu peut donner des résultats très différents.

Une étude réalisée en 2022 a révélé que les échantillons présentaient des écarts pouvant aller jusqu’à neuf ans. Ainsi, un échantillon identique prélevé sur une personne de 40 ans peut indiquer un âge biologique aussi bas que 35 ans (une raison de se réjouir) ou aussi élevé que 44 ans (une source d’inquiétude).

Bien que ces tests aient été considérablement améliorés au fil des ans, leur précision varie considérablement d’un fournisseur à l’autre. Ainsi, selon la personne à qui vous envoyez votre échantillon, votre âge biologique estimé peut varier considérablement.

Une autre limite réside dans l’absence actuelle de normalisation des méthodes utilisées pour ces tests. Les entreprises commerciales effectuent ces tests de différentes manières et utilisent différents algorithmes pour estimer l’âge biologique à partir de données.

Comme on peut s’y attendre, ces entreprises ne divulguent pas leurs méthodes. Il est donc difficile de les comparer et de déterminer laquelle fournit les résultats les plus précis, et ce que vous obtenez pour votre argent.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une troisième limite réside dans le fait que, bien que les horloges épigénétiques soient étroitement liées au vieillissement, elles ne sont qu’un « indicateur » et ne constituent pas un outil de diagnostic.

En d’autres termes, elles peuvent fournir une indication générale du vieillissement au niveau cellulaire. Mais elles ne fournissent aucune information spécifique sur les problèmes potentiels d’une personne qui « vieillit plus vite » qu’elle ne le souhaiterait ni sur ce qu’elle fait de bien si elle « vieillit bien ».




À lire aussi :
La musculation a des bienfaits insoupçonnés sur la santé, surtout avec l’âge


Ainsi, quel que soit le résultat de votre test, tout ce que vous obtiendrez probablement d’un fournisseur commercial de tests épigénétiques, ce sont des conseils génériques sur ce que la science considère comme un comportement sain.

Est-ce que cela en vaut la peine ? Ou que devrais-je faire à la place ?

Même si les entreprises qui proposent ces tests ont de bonnes intentions, n’oubliez pas que leur objectif final est de vous vendre ces tests et de réaliser un profit. Et à environ 500 dollars canadiens, ils ne sont pas bon marché.

Si l’idée d’utiliser ces tests comme un outil de santé personnalisé est prometteuse, il est clair que nous n’en sommes pas encore là.

Pour que cela devienne une réalité, les tests devront être plus reproductibles, standardisés entre les différents prestataires et validés par des études à long terme établissant un lien entre les changements de l’âge biologique et des comportements spécifiques.

Ainsi, si les tests ponctuels de l’âge biologique font sensation sur les réseaux sociaux, ils représentent pour la plupart des gens un coût important et offrent une valeur réelle limitée.

La bonne nouvelle, c’est que nous savons déjà ce qu’il faut faire pour augmenter nos chances de vivre plus longtemps et en meilleure santé. Cela comprend notamment :

Nous n’avons pas besoin de connaître notre âge biologique pour apporter dès maintenant des changements dans notre vie afin d’améliorer notre santé.

La Conversation Canada

Hassan Vally ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel âge avez-vous réellement ? Tout sur les derniers tests d’« âge biologique » – et leur fiabilité – https://theconversation.com/quel-age-avez-vous-reellement-tout-sur-les-derniers-tests-d-age-biologique-et-leur-fiabilite-259862

Faut-il partager ou épargner les terres ? Pourquoi le dilemme agriculture-biodiversité est dépassé

Source: The Conversation – in French – By Damien Beillouin, Docteur en agronomie, Cirad

Faut-il séparer les espaces agricoles et ceux consacrés à la biodiversité, ou bien les réunir ? Bernd Dittrich/Unsplash, CC BY

Ce dilemme ne vous dit peut-être rien, mais il a constitué une question centrale chez tous ceux qui veillent à la protection de la biodiversité. C’est celui du land sparing ou du land sharing.


Depuis plus de vingt ans, un débat anime les chercheurs qui travaillent sur la protection de la biodiversité : faut-il séparer les espaces agricoles des espaces naturels, ou les faire cohabiter ? Ce débat oppose deux visions connues sous les termes anglais land sparing (épargner les terres) et land sharing (partager les terres).

Formulé au milieu des années 2000 par des chercheurs de l’Université de Cambridge, ce dilemme part d’une idée simple :

  • soit on intensifie la production agricole sur des surfaces restreintes, pour préserver le reste des terres pour la nature (sparing),

  • soit on intègre des pratiques plus favorables à la biodiversité directement dans les champs (sharing), par exemple via l’agriculture biologique, l’agroforestierie, ou d’autres formes de diversification des cultures.

Pourquoi opposer agriculture et biodiversité ?

Dans la logique du land sparing, agriculture et biodiversité sont pensées comme deux mondes séparés : l’un occupe l’espace productif, l’autre les zones mises à l’écart. L’agriculture y est vue comme l’adversaire du vivant. Et dans l’état actuel des pratiques, ce constat n’est pas infondé. Le rapport mondial de la Plateforme intergouvernementale pour la biodiversité et les services écosystémiques (IPBES) rappelait en 2019 que l’agriculture était le principal facteur de pression sur les écosystèmes, du fait de l’intensification des pratiques, de la pollution, et de la fragmentation des paysages qu’elle engendrait.

Une réalité confirmée par un rapport récent

  • Le rapport EAT-Lancet publié il y a quelques jours confirme cette responsabilité à une échelle plus globale. Il montre que les systèmes alimentaires figurent parmi les principaux moteurs du dépassement de plusieurs limites planétaires, notamment pour la biodiversité, l’usage des terres et les cycles de l’azote et du phosphore. Pour la première fois, ce rapport propose des « limites alimentaires sûres » qui relient directement nos modes de production et de consommation à la stabilité écologique de la planète.

Au milieu des années 2000 et 2010, des travaux, comme ceux des zoologues anglais Rhys Green en 2005 puis Ben Phalan en 2011, concluaient ainsi que le land sparing était la meilleure stratégie pour préserver les espèces. Ces travaux ont eu un large écho, confortant l’idée que l’intensification agricole « durable » pourrait sauver la biodiversité.

Mais entre land sparing et land sharing, faut-il vraiment choisir ? Des travaux récents montrent plutôt qu’aucune de ces deux options n’est une solution miracle généralisable partout, et qu’il est de plus en plus nécessaire de dépasser l’opposition stricte entre agriculture et nature.

Quand les modèles rencontrent la réalité

Les critiques du land sparing se sont de fait accumulées au fil des années. Les modèles initiaux reposaient sur des hypothèses simplificatrices : ils ignoraient les coûts sociaux et environnementaux de l’intensification. Or, intensifier l’agriculture suppose en général des intrants (engrais, pesticides, semences améliorées), de la mécanisation lourde et des infrastructures de marché. Cela favorise souvent les grandes exploitations au détriment des petits producteurs, qui peuvent être marginalisés, expulsés ou contraints de coloniser de nouvelles terres. De plus, certaines pratiques liées à l’intensification, comme la promotion des organismes génétiquement modifiés, renforcent le contrôle de certaines grandes firmes sur la production agricole.

Ces modèles simplifiaient aussi le rôle de la biodiversité. Pourtant celle-ci fournit de nombreux services écosystémiques essentiels à l’agriculture et aux sociétés : pollinisation, régulation des ravageurs, qualité de l’eau, stockage du carbone… L’agriculture intensive maximise souvent la production alimentaire, mais peut aussi générer des risques pour la santé ou les activités humaines.

Une agriculture intensive qui appauvrit également notre résilience alimentaire

  • L’agriculture intensive réduit largement la diversité des espèces et des variétés cultivées, érodant ainsi la diversité génétique de notre système alimentaire et agricole. Cette réalité peut entraîner la disparition de cultures présentant des propriétés nutritionnelles uniques, des capacités d’adaptation aux aléas climatiques et d’autres valeurs potentiellement déterminantes pour le futur. La perte de ce type de biodiversité qui soutient notre système alimentaire amplifie le risque d’épidémies et d’infestations parasitaires ainsi que la vulnérabilité de la chaîne de valeur alimentaire aux chocs climatiques, commerciaux et tarifaires.

Les tentatives d’évaluation économiques montrent de fait que la valeur de ces services dépasse souvent de plusieurs fois celle des produits agricoles eux-mêmes. Par exemple, la valeur annuelle des services écosystémiques des forêts françaises surpasse largement le revenu issu de leur exploitation. Fonder les stratégies sur la seule valeur marchande des produits agricoles est donc une démarche incomplète.

Le land sparing présente également des limites face aux changements globaux. Les polluants agricoles – engrais et pesticides – ne restent pas confinés aux champs. Ils contaminent les cours d’eau et les sols, et peuvent même être transportés dans l’atmosphère, jusqu’à être détectés dans des nuages à des centaines de kilomètres des zones cultivées.

Ainsi, les zones protégées ne garantissent pas toujours la survie des espèces : par exemple, les grenouilles rousses (Rana temporaria) et les crapauds communs (Bufo bufo) déclinent dans certaines régions d’Europe, car les pesticides utilisés dans les champs voisins contaminent leurs habitats aquatiques. Les abeilles sauvages et domestiques subissent également les effets des néonicotinoïdes, réduisant la pollinisation et perturbant les services écosystémiques essentiels à l’agriculture.

De plus, l’argument central du sparing – « produire plus pour convertir moins » – ne se vérifie pas toujours. Les économistes parlent alors d’effet rebond ou « Jevons paradox » : augmenter la productivité peut accroître la rentabilité des terres agricoles, incitant à en exploiter davantage au lieu d’en libérer. Ce phénomène a été documenté dans plusieurs études, notamment en Amérique latine ou en Asie du Sud-Est, où l’intensification locale de la culture de soja ou de palmier à huile a alimenté la déforestation importée.

Mais le land sharing n’est lui non plus pas exempt de limites. Intégrer la biodiversité directement dans les champs – par exemple, à travers l’agroforesterie caféière en Amérique latine, des bandes fleuries pour les pollinisateurs en Europe, ou des haies favorisant les auxiliaires de culture – peut améliorer à la fois la production et la biodiversité.

Cependant, ces pratiques ne suffisent pas toujours à protéger les espèces. Certaines espèces très spécialisées, comme les oiseaux forestiers de la forêt humide du Costa Rica ou certaines abeilles sauvages européennes, ont besoin de grands habitats continus ou de corridors connectés entre les zones naturelles pour survivre : des bandes fleuries ou quelques arbres isolés dans les champs ne leur apportent pas ce dont elles ont besoin.

Autre limite souvent pointée : la productivité. Les critiques du land sharing se sont concentrées sur le fait que les pratiques favorables à la biodiversité – comme l’agroforesterie, les haies ou les bandes fleuries – peuvent réduire légèrement les rendements agricoles par hectare. Si ces rendements ne suffisent pas à couvrir les besoins alimentaires ou économiques, cela pourrait théoriquement pousser à exploiter davantage de surface agricole, réduisant ainsi l’espace disponible pour la nature. Par exemple, certaines études en Europe centrale montrent que l’intégration de bandes fleuries ou de haies peut diminuer de 5 % à 10 % la surface cultivable productive. Dans ce cas, si les agriculteurs compensent en étendant leurs cultures sur d’autres terres, le gain pour la biodiversité pourrait être annulé.

Enfin, le succès du sharing dépend fortement de l’adhésion et de la capacité des agriculteurs à appliquer ces pratiques. Sans soutien technique, économique ou incitatif, les bandes fleuries ou l’agroforesterie peuvent être abandonnées après quelques années, et l’impact sur la biodiversité disparaît.

Un débat qui s’enrichit

Aujourd’hui, la recherche montre que sparing et sharing ne sont pas des solutions exclusives, mais deux pôles d’un continuum d’options. Selon les contextes, les deux approches peuvent se combiner. Protéger des zones à haute valeur écologique reste essentiel, mais il est tout aussi crucial de rendre les paysages agricoles plus accueillants pour la biodiversité et d’aménager des corridors écologiques entre zones protégées trop petites pour assurer seules la survie de certaines espèces.

Par exemple, une étude récente souligne que de 20 % à 25 % au moins d’habitat semi-naturel par kilomètre carré sont nécessaires dans les paysages modifiés par l’être humain pour maintenir les contributions de la nature aux populations humaines. En deçà de 10 %, la plupart des bénéfices fournis par la nature sont presque complètement perdus.

Mais œuvrer à des pratiques agricoles hospitalières pour la biodiversité ne signifie pas qu’il faille renoncer à améliorer les rendements. Cela ne signifie pas non plus que « tout ne se résout pas à l’échelle de la parcelle ou de la ferme ».

Dans certaines régions, maintenir une productivité suffisante est nécessaire pour réduire la pression sur les terres. L’enjeu est donc de l’inscrire dans une stratégie multifonctionnelle, combinant protection d’espaces naturels, diversification agricole et politiques alimentaires.

L’agroécologie propose des pratiques concrètes : associer cultures et arbres, maintenir haies et prairies, ou diversifier les rotations. Ces actions soutiennent à la fois la production et les services écosystémiques essentiels, comme la pollinisation, la régulation des ravageurs et la fertilité des sols. Par exemple, introduire des bandes fleuries ou des haies favorise les prédateurs naturels des insectes nuisibles : dans certaines cultures maraîchères européennes, cela a permis de réduire jusqu’à 30 % l’incidence des ravageurs tout en maintenant les rendements.

À l’inverse, l’agriculture intensive peut parfois voir ses rendements diminuer : l’usage répété de pesticides favorise la résistance des ravageurs, et les systèmes monoculturaux sont plus vulnérables aux aléas climatiques, comme la sécheresse ou les vagues de chaleur. L’agriculture de conservation, qui limite le labour et favorise le développement de couvertures végétales, peut ainsi augmenter la production tout en préservant la santé des sols, alors que le labour intensif et l’usage accru d’intrants conduisent souvent à une dégradation progressive du sol.

Une synthèse de 95 méta-analyses, couvrant plus de 5 000 expériences à travers le monde, montre que ces pratiques augmentent en moyenne la biodiversité de 24 % et la production de 14 %. De manière complémentaire, 764 comparaisons dans 18 pays indiquent que des rendements équivalents ou supérieurs à ceux de l’agriculture conventionnelle sont souvent possibles, même si cela dépend du contexte et des pratiques adoptées.

Les baisses de production restent généralement limitées et sont fréquemment compensées par d’autres bénéfices écosystémiques. Autrement dit, diversifier les cultures est réalisable et peut être gagnant-gagnant dans de nombreux cas, mais il n’existe pas de solution universelle.

Enfin, les politiques agricoles doivent dépasser la seule logique du rendement pour inclure des indicateurs de bien-être humain, d’équité sociale et de résilience écologique. Cela suppose d’impliquer les agriculteurs et les communautés locales dans la définition des priorités, plutôt que d’imposer des modèles dits « universels ».

Dans une étude que nous avons publiée en 2025, nous avons voulu dépasser le faux dilemme entre intensification et partage. Nous montrons que se focaliser uniquement sur les rendements agricoles est une impasse : cela occulte les coûts cachés des systèmes alimentaires (estimés à plus de 10 000 milliards de dollars, ou 8,6 milliards d’euros, en 2020 en équivalent pouvoir d’achat).

Par exemple, les systèmes agricoles actuels utilisent de grandes quantités d’eau, qui peuvent limiter et polluer l’accès à l’eau potable des personnes, générant des coûts qui sont imputés à d’autres secteurs, comme celui de la santé. De la même manière, ces systèmes agricoles produisent de plus en plus de situations de malnutrition, de famine ou d’obésité, qui ont des coûts énormes pour les sociétés qui doivent les assumer. D’autres coûts sur les écosystèmes (par émission de gaz à effet de serre, par exemple) doivent également être pris en compte.

Nos travaux soulignent qu’une approche centrée sur le rendement risque d’accélérer la perte de biodiversité et d’agrobiodiversité, tout en renforçant la dépendance des petits producteurs aux intrants et aux grandes firmes. Or les transitions agricoles ne sont pas de simples choix techniques. Ce sont des processus socio-écologiques, qui engagent des questions de pouvoir, de justice et de culture. On les observe, par exemple, dans les zones dites de frontière agricole, où des populations autochtones, ou premières nations, sont déplacées par les porteurs de nouveaux modèles techniques, avec toutes les conséquences sociales engendrées par ces déplacements.

Un tournant pour la science et les politiques

Le débat entre land sparing et land sharing a eu le mérite d’ouvrir une réflexion structurante sur les liens entre agriculture et biodiversité. Mais les solutions ne passent pas par des choix binaires. La réalité impose de penser la durabilité à travers des solutions hybrides et contextualisées qui intègrent les dimensions écologiques, sociales et économiques.

En fin de compte, la question n’est pas seulement « Comment produire plus avec moins », mais « Comment produire mieux, avec et pour la biodiversité ». C’est ce changement de perspective qui peut réellement orienter les transitions agricoles vers des systèmes à la fois productifs, justes et respectueux du vivant.

The Conversation

Sarah Jones is part-funded by CGIAR donors, through the CGIAR Multifunctional Landscapes and Policy Innovations science programs.

Bruno Rapidel et Damien Beillouin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Faut-il partager ou épargner les terres ? Pourquoi le dilemme agriculture-biodiversité est dépassé – https://theconversation.com/faut-il-partager-ou-epargner-les-terres-pourquoi-le-dilemme-agriculture-biodiversite-est-depasse-267904

Programme 13-Novembre : comprendre et réparer la mémoire traumatisée

Source: The Conversation – France in French (3) – By Francis Eustache, Directeur de l’unité Neuropsychologie et imagerie de la mémoire humaine, Inserm, Ecole Pratique des Hautes Etudes, Université de Caen Normandie, Université de Caen Normandie

En avril 2016, quelques mois après les attentats du 13 novembre 2015 qui ont endeuillé la France, démarrait un ambitieux projet de recherche, le Programme 13-Novembre. À l’initiative du neuropsychologue Francis Eustache et de l’historien Denis Peschanski, des spécialistes de tous horizons allaient travailler ensemble pour tenter de mieux comprendre ce moment traumatique et ses conséquences sur les individus et la société, sur le temps long. Une décennie plus tard, voici ce qu’il faut retenir de ces travaux dans le champ de l’étude de la mémoire traumatique. L’occasion de démonter quelques idées reçues.


Lorsqu’un événement traumatisant percute une société de plein fouet, pourquoi certains témoins vont-ils développer un trouble de stress post-traumatique, et pas d’autres ? Quels sont les mécanismes neurologiques à l’œuvre ? La façon dont est construite et évolue la mise en récit par la société peut-elle faciliter – ou contrarier – la guérison ? Autrement dit, comment s’articulent les mémoires individuelles, collectives, sociales (ou sociétales) ?

Pour répondre à ces questions, le Programme 13-Novembre a conjugué l’expertise de chercheurs de nombreux horizons : neurobiologistes, psychopathologues, sociologues, historiens, neuropsychologues, spécialistes d’intelligence artificielle, de big data, linguistes… Une décennie plus tard, leurs travaux ont permis de faire avancer les connaissances sur ces sujets. Avec l’espoir de mieux prendre en charge les conséquences des événements traumatiques, au niveau individuel comme au niveau collectif.

La mémoire n’est pas figée

Une erreur, en matière de représentation de notre mémoire, est de s’imaginer une sorte de système de stockage dans lequel seraient emmagasinés des souvenirs et des connaissances inaltérables, un peu à la manière d’un disque dur d’ordinateur.

En réalité, notre mémoire n’est pas figée. Nos souvenirs évoluent au fil du temps, en fonction des relations que l’on a avec notre environnement, de nos aspirations, de nos projets, de nouveaux événements qui surviennent autour de nous. Notre mémoire autobiographique, celle qui nous définit et se compose de connaissances générales sur nous-mêmes ainsi que de souvenirs stockés sur le temps très long, se construit en lien avec les autres et se modifie au fil de notre existence. En vieillissant, nous changeons notre perception du passé, car nos souvenirs évoluent au fil de nos relations, de nos rencontres, de nos convictions et de nos paroles.

Mais il arrive que la mécanique se grippe. En cas d’exposition à un choc intense, la mémoire autobiographique peut être bouleversée. Dans une telle situation, chez certaines personnes, la mémoire semble se figer : le traumatisme envahit l’ensemble de l’identité de la personne, phénomène qui transparaît dans son récit. C’est, de fait, ce qui arrive aux individus souffrant de trouble de stress post-traumatique, contraints de revivre en boucle des éléments saillants de l’événement qui a menacé leur existence.

Le symptôme principal de ce trouble est la survenue de ce que l’on appelle des reviviscences (ou des « intrusions ») : les personnes revoient des images (ou réentendent des sons, perçoivent des odeurs, etc.) de la scène du traumatisme. Il ne s’agit pas de « souvenirs traumatiques », comme cela est trop souvent écrit, mais elles « reviviscences de la scène sous forme de « flashbacks ».

Les intrusions ne sont pas des souvenirs

    Les intrusions ne doivent pas être confondues avec des souvenirs, et encore moins avec des souvenirs flash (alors qu’ils constituent une manifestation inverse du fonctionnement de la mémoire). Le souvenir flash est un “vrai” souvenir, particulièrement intense: il nous donne l’impression subjective de nous souvenir très précisément de conditions dans lesquelles nous avons appris la survenue d’un événement marquant, qui nous a surpris et a déclenché en nous une forte émotion.
    Les intrusions, elles aussi très émotionnelles, correspondent à des éléments disparates, désorganisés, chaotiques, très sensoriels. L’individu qui en est victime les perçoit comme si l’événement se produisait à nouveau, dans le présent (au contraire des souvenirs qui appartiennent au passé), ce qui empêche la blessure psychique causée par le traumatisme de se résorber. Pour s’en protéger, la personne développe des mécanismes d’évitement qui finissent par avoir un impact sur sa vie sociale (et ainsi la priver du soutien social). À quoi s’ajoutent les stigmates de la blessure psychique que sont les cauchemars, les sursauts, les troubles du sommeil, les pensées négatives, etc., et parfois d’autres troubles (comorbidités): dépression, anxiété, addictions…

Comment cette expression particulière de la mémoire traumatique, puisée dans l’horreur du passé et envahissant le quotidien, peut-elle à nouveau évoluer au fil du temps et retrouver sa plasticité ? Pour le comprendre, le Programme 13-Novembre s’est articulé autour de deux études principales : l’étude « 1 000 » (pour 1 000 participants) et l’étude biomédicale « Remember ».

Deux études pour mieux comprendre la mémoire traumatique

L’étude 1 000 a consisté à diviser les participants en quatre cercles, selon leur proximité avec les attentats du 13-Novembre. Le cercle 1 correspond aux personnes directement exposées aux attentats. Le cercle 2, aux personnes qui vivent ou travaillent dans les quartiers visés, mais n’étaient pas présentes au moment des attaques. Le cercle 3 est constitué par les personnes qui vivaient en région parisienne à l’époque (à l’exclusion des personnes des deux premiers cercles). Enfin, dans le cercle 4, on retrouve des personnes qui vivaient en province, plus précisément dans trois villes : Caen (Calvados), Metz (Moselle) et Montpellier (Hérault). Les personnes des cercles 2, 3 et 4 ont appris la survenue de l’attentat à la radio, à la télévision, par téléphone, sur les réseaux sociaux, etc.

Les participants ont d’abord intégré l’étude 1 000, qui consiste en des entretiens filmés, avec l’appui de l’Institut national de l’audiovisuel (certains extraits ont donné lieu à la réalisation d’un film 13-Novembre, nos vies en éclats).

Dans un second temps, 200 personnes (parmi les 1 000), appartenant uniquement aux cercles 1 (120 personnes) et 4 (80 personnes), ont intégré l’étude Remember. Elles ont alors bénéficié d’examens médicaux, psychologiques, et d’imagerie cérébrale (IRM) afin de décrypter les mécanismes impliqués dans le développement d’un trouble de stress post-traumatique (TSPT), ainsi que les éléments qui les renforcent ou les résorbent. Les objectifs de l’étude étaient ainsi de comprendre, à différents niveaux d’analyse, les facteurs favorisant le TSPT ou au contraire la résilience.

Dans l’étude Remember, le groupe des personnes exposées aux attentats (venant du cercle 1) a été subdivisé en deux sous-groupes, selon qu’elles ont développé un trouble de stress post-traumatique ou non. Les membres des deux sous-groupes ont ensuite été appariés en fonction de leur situation face aux scènes des attentats (dans la fosse du Bataclan, sur une terrasse, plus loin…) et de leur rôle (public, policiers, médecins, etc.).

Un défaut de contrôle des intrusions

Pour comprendre les mécanismes neurologiques à l’œuvre, les chercheurs ont eu recours à l’IRM de haute résolution. L’activité cérébrale des participants a été analysée pendant qu’ils se livraient à une tâche expérimentale appelée « think – no think ». Ce paradigme, adapté à la compréhension du TSPT par le chercheur Pierre Gagnepain au sein du laboratoire, consiste à faire surapprendre aux participants des associations entre des couples de concepts. Par exemple, le mot bateau et l’image d’une maison. Après cet apprentissage, quand le participant lit le mot bateau, immédiatement lui vient à l’esprit l’image d’une maison, de façon quasi irrépressible.

De cette façon, la survenue d’une « intrusion expérimentale » et éphémère est provoquée, mais sans réactiver le traumatisme, ce que nous voulions bien sûr éviter. Après toute cette phase d’apprentissage, les participants sont ensuite installés dans l’IRM. Lorsque le mot bateau leur est montré écrit en lettres vertes, ils doivent laisser s’imposer dans leur conscience l’image associée (celle d’une maison dans cet exemple). C’est la partie « think ». Si le mot est écrit en rouge, au contraire, ils doivent bloquer l’image de la maison qui survient. On mesure l’activité du cerveau dans cette situation précise.

Les résultats montrent que la capacité à réfréner les intrusions, qui permet la résilience, est liée à des capacités de contrôle de cette forme de mémoire reposant sur des structures en réseau coordonnées par le cortex préfrontal, situé à l’avant du cerveau.

Quand, dans l’exemple précédent, une personne résiliente cherche à repousser l’intrusion de l’image de la maison, toutes les connexions neuronales de cette zone se synchronisent avec d’autres structures cérébrales impliquées dans les perceptions, les émotions, la mémoire et tout particulièrement les hippocampes, structures clés pour cette fonction. Ce couplage permet ainsi au cortex préfrontal de contrôler les régions du cerveau impliquées dans ces différentes fonctions et in fine d’inhiber les intrusions intempestives.

Point intéressant : chez les personnes résilientes, ce contrôle est particulièrement efficace. Ce travail ne met donc pas seulement en évidence des mécanismes défaillants, mais aussi ceux qui sont préservés et dans certains cas amplifiés pour permettre aux victimes de surmonter l’adversité.

Ces résultats ont été confirmés lorsque, deux ans plus tard, en 2018, nous avons réanalysé l’activité cérébrale de personnes chez qui le trouble de stress post-traumatique était devenu chronique et que nous l’avons comparée avec celle de personnes qui n’en souffraient plus (dites « rémittentes »). Nous avons découvert que le retour à la normale des processus de contrôle inhibiteur, qui régulent la résurgence des intrusions, prédisait non seulement la rémission du syndrome de stress post-traumatique, mais précédait également la réduction des intrusions.

Cette amélioration de ces mécanismes de contrôle était en outre associée à l’interruption de l’atrophie induite par le stress observée dans une région spécifique de l’hippocampe.

Souvenirs et émotions

Le trouble de stress post-traumatique est une pathologie de la mémoire émotionnelle. On sait que la mémorisation d’un souvenir est renforcée par le contexte dans lequel il se produit.

L’exemple typique est le « souvenir flash » : lorsque l’on ressent une émotion forte au cours d’un événement marquant, le souvenir est particulièrement durable. Si l’on demande aux gens ce qu’ils faisaient lorsque les attentats du 13 novembre se sont produits, l’immense majorité a l’impression subjective de se souvenir de ce qu’ils faisaient à ce moment-là (97 % des personnes interrogées par le Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc) – lors d’une première enquête menée en juin 2016 dans le cadre du Programme 13-Novembre).

Mais si l’émotion est extrême, comme chez les victimes, l’activité de certaines régions du cerveau impliquées dans les émotions (le circuit amygdalien notamment) devient désordonnée. La mémorisation ne fonctionne plus correctement, et des éléments disparates issus de l’événement traumatique vont devenir des intrusions.

Les personnes rappellent alors des éléments sensoriels : des odeurs (la poudre, le sang…), des sons (des bruits « de pétards » correspondant aux détonations des cartouches…). Parfois, on constate aussi que certains éléments du contexte de l’événement ont été « oubliés » (on décèle parfois une réelle amnésie, dite dissociative) ou au contraire que les gens se sont focalisés sur des éléments spécifiques, qu’ils jugent a posteriori saugrenus, ce qui peut être une réaction de mise à distance du danger.

Après l’événement, les victimes vont essayer d’intégrer ces éléments étrangers à leur vécu, en entamant spontanément un travail de réflexion qui va parfois modifier profondément leurs vies, en changeant leurs priorités, leurs perspectives, leurs façons de voir le monde.

Améliorer les thérapies existantes, en élaborer de nouvelles

Les travaux menés dans le cadre de l’étude Remember se poursuivent actuellement au cours d’une troisième phase de recueil de données. En parallèle, de nombreuses données collectées en psychopathologie et en neuropsychologie font l’objet d’analyses approfondies qui portent notamment sur l’évolution des symptômes et de diverses modifications cognitives.

Ce qui ressort de ces travaux, c’est que le trouble de stress post-traumatique affecte le traitement précoce des informations fortement émotionnelles, comme l’expression des visages, ce qui a des conséquences sur leur compréhension et leur mémorisation, et peut contribuer à rompre des liens sociaux. Toutefois, il faut se garder de décrire une situation univoque car les trajectoires sont extrêmement diverses d’une situation et d’une personne à l’autre.




À lire aussi :
Stress post-traumatique : rompre le silence


Une autre piste d’analyse des données, qui prend place aux confins de l’étude 1 000 (les récits enregistrés) et de l’étude Remember, porte sur la mémoire autobiographique. Les récits des personnes souffrant de trouble de stress post-traumatique sont en effet envahis par le traumatisme lui-même. Ce dernier affecte le passé, le présent et obère toute projection dans l’avenir.

Les travaux visent à comprendre les mécanismes de raisonnement autobiographique qui permettent de « sortir » progressivement du trauma. Menés conjointement avec des psychopathologues et reposant sur l’emploi des outils de l’intelligence artificielle, ils ouvrent des pistes fructueuses pour élaborer de nouvelles formes de thérapies, ou apporter des éléments théoriques et méthodologiques supplémentaires à des thérapies existantes.

Trouble de stress post-traumatique : éviter la tentation du déterminisme

Lorsque l’on parle de traumatisme, il faut intégrer le fait qu’il existe des différences interindividuelles notables. Les gens ne réagissent pas tous de la même façon. Néanmoins, si l’on parle en terme statistique, on constate que plus le traumatisme correspond à un événement lié à une intention de faire du mal, et plus l’impact sera délétère sur la victime. Typiquement, un attentat ou un viol vont avoir un impact plus délétère qu’une catastrophe naturelle ou un accident de voiture, par exemple, car, dans ces derniers cas, il n’y a pas cette intentionnalité.

On parle là d’événements qui ne se répètent pas. Le cas d’événements traumatiques qui se répètent sur des durées longues, comme dans le cas de conflits armés, pose d’autres problèmes. Lors d’une guerre, les traumatismes sont récurrents et multiples. Leur impact va être différent, et mener à un trouble de stress post-traumatique différent lui aussi, dit « complexe ». C’est également le cas des violences intrafamiliales.




À lire aussi :
Reconnaître enfin le trouble de stress post-traumatique complexe, pour mieux le soigner


Il faut cependant se garder, lorsqu’on aborde la question du traumatisme, d’adopter une vision déterministe : être exposé à un événement traumatique ne mène pas systématiquement à développer un trouble de stress post-traumatique.

La trajectoire la plus fréquente est la résilience, qui concerne environ 75 % des gens. Ce chiffre va évoluer au fil du temps. Durant les premières heures, les premiers jours, 90 % des gens vont faire des cauchemars, repenser à tout cela. Au bout d’un mois, environ 50 % des gens vont faire des cauchemars, avoir un sentiment de stress augmenté, être méfiants dans la rue… Au-delà de cette période, 25 % vont développer un trouble de stress post-traumatique. Et parmi ces 25 %, environ 15 % finiront par se remettre avec le temps.

Pour bien accompagner les personnes concernées, il est essentiel de comprendre pourquoi, chez certains, survient un « point de rupture » émotionnel et ce qui l’influence : la nature de l’événement, la façon dont la personne l’a ressenti, dont elle va être aidée ensuite… Nos travaux ont par exemple révélé que les professionnels (policiers, membres des professions médicales…) étaient mieux protégés vis-à-vis de ce trouble que les autres victimes. Probablement en raison de leur formation, et du fait qu’elles sont intervenues avec un rôle précis et selon un protocole d’intervention bien rodé.

Comprendre ces phénomènes, la façon dont ils vont impacter la mémoire émotionnelle et son évolution est essentiel. Le soutien social, en particulier, est primordial, car les chemins de la résilience passent par une synergie des mémoires.

Mémoire individuelle, mémoire collective, mémoire sociale

S’agissant d’un traumatisme collectif comme les attentats du 13-Novembre, la mémoire de la société tout entière joue un rôle important dans la guérison des individus qui ont directement vécu l’événement.

La mémoire collective va elle aussi influencer, positivement ou négativement, le devenir des individus traumatisés. Cette représentation du passé, qui participe à la construction identitaire de la société dans son ensemble ou de groupes spécifiques, va retenir certains événements et pas d’autres. Or, les traumatismes continuent de s’écrire en lien avec le monde qui évolue autour de la victime. Ils peuvent être réactivés par certains événements (guerres, nouveaux attentats…).

La façon dont on souvient collectivement (ou dont on ne se souvient pas) de l’événement va aussi avoir un impact sur les victimes. Dix ans après, on constate que les attentats du 13-Novembre deviennent parfois « les attentats du Bataclan ». On imagine l’effet que peut avoir ce raccourci sur les personnes qui étaient présentes au Stade de France ou sur les terrasses des cafés parisiens attaqués…

Après un événement traumatique majeur, la mémoire sociale qui se construit influence profondément la mémoire individuelle. Les individus qui ont vécu un traumatisme doivent être accompagnés dans ces différentes strates de mémoire. Si on ne prend pas en compte ces dimensions collectives et sociales en plus de la dimension individuelle, il n’est pas possible de comprendre les pathologies qui en découlent.


Pour aller plus loin

Couverture de l’ouvrage « Faire face. Les Français et les attentats du 13 novembre 2015
Faire face. Les Français et les attentats du 13 novembre 2015, Flammarion, octobre 2025.
DR, Fourni par l’auteur

Remerciements

L’auteur exprime sa reconnaissance à toutes les personnes qui se sont portées volontaires pour participer aux études mentionnées dans cet article, aux associations de victimes qui ont soutenu ce projet ainsi qu’à tous les chercheurs impliqués, en particulier Denis Peschanski, Carine Klein-Peschanski et Pierre Gagnepain.

Ce travail a bénéficié d’une aide de l’État gérée par l’Agence nationale de la recherche (ANR) au titre de France 2030 portant la référence ANR-10-EQPX-0021. Ces études sont réalisées dans le cadre du « Programme 13-Novembre », parrainé par le CNRS et l’Inserm et soutenu administrativement par l’Université Paris 1 Panthéon-Sorbonne, regroupant 35 partenaires).

The Conversation

Francis Eustache a reçu des financements de l’Agence nationale de la recherche (ANR) pour le Programme 13-Novembre.

ref. Programme 13-Novembre : comprendre et réparer la mémoire traumatisée – https://theconversation.com/programme-13-novembre-comprendre-et-reparer-la-memoire-traumatisee-269655

L’Irlande a une présidente de gauche, mais la vie politique reste dominée par des hommes de droite

Source: The Conversation – France in French (3) – By Camille Barbe, Doctorante en droit public, Université de Bordeaux

La victoire d’une femme de gauche à la présidentielle qui vient de se tenir en Irlande ne signifie pas que la politique du pays sera significativement changée. Contrairement à la France, la présidence, en Irlande, est une fonction secondaire, l’essentiel du pouvoir exécutif se trouvant entre les mains du chef du gouvernement.


Le vendredi 24 octobre, le corps électoral irlandais s’est rendu aux urnes pour choisir sa future présidente. Le suspense a été de courte durée : Catherine Connolly, candidate indépendante et soutenue par les partis de gauche, est arrivée largement en tête. Elle devance Heather Humphreys, sa rivale investie par le parti de centre droit Fine Gael.

Connue pour ses engagements en faveur de la justice sociale et de la protection du climat, Catherine Connolly a fréquemment dénoncé le génocide du peuple palestinien durant sa campagne, n’hésitant pas à critiquer ouvertement les actions de Donald Trump. Peu après sa victoire, elle a assuré, en irlandais et en anglais, qu’elle serait « une présidente inclusive ».

Cette large victoire ne signifie pourtant pas qu’une politique de gauche sera désormais mise en œuvre en Irlande, les prérogatives de la présidence irlandaise étant nettement moins étendues que celles de son homologue française.

Le classement : l’originalité du mode de scrutin irlandais

Au premier abord, ce sont les similitudes entre les deux fonctions qui frappent. En France, comme en Irlande, c’est le peuple qui est directement chargé de désigner la personne qui occupera la fonction. Les modalités de ce vote sont pourtant très différentes.

En France, l’élection se déroule au scrutin majoritaire uninominal à deux tours, et le corps électoral s’exprime en sélectionnant un candidat à chaque tour. Le système irlandais est plus complexe, mais offre plus d’espace à l’expression démocratique. Le scrutin se fait à la proportionnelle et repose sur un vote unique transférable.

Dans l’isoloir, chaque personne à la possibilité de classer les candidates et les candidats. La première préférence sera systématiquement comptabilisée. Si aucun candidat n’a atteint la majorité absolue après le premier dépouillement des premières préférences, le candidat arrivé en dernier est éliminé et le transfert débute. Si le candidat classé premier sur un bulletin est éliminé après le dépouillement des premières préférences, le vote sera transféré au candidat classé deuxième et ainsi de suite jusqu’à ce qu’un candidat ou une candidate soit élue. Vendredi dernier, aucun transfert n’a été nécessaire pour élire Catherine Connolly puisqu’elle a obtenu 63,36 % des premières préférences.

Des compétences constitutionnelles en apparence similaires

Les dispositions consacrées à la présidence dans les Constitutions française et irlandaise confirment les ressemblances. Dans les deux pays, la présidence est normalement assurée de mener son mandat à terme (elle ne peut être forcée à la démission par le Parlement que dans des circonstances exceptionnelles ; en France comme en Irlande, aucune destitution n’a jamais abouti). Elle est également, à la tête des forces armées, chargée de promulguer les lois, de nommer le premier ministre et son gouvernement, et de prononcer la dissolution de la chambre basse du Parlement. Pourtant, des détails importants distinguent les deux fonctions.

Le pouvoir de nomination de la présidence irlandaise n’est pas libre : il s’exerce systématiquement sur avis du Dáil Éireann (la chambre basse du Parlement irlandais), comme le veut la pratique traditionnelle des régimes parlementaires. Le pouvoir de dissolution est lui aussi conditionné à la demande du Taoiseach, le premier ministre irlandais. La présidente peut néanmoins refuser une telle demande si le premier ministre ne dispose plus de la confiance de l’Assemblée. À ce jour, aucun refus n’a jamais été exprimé.

La présidente irlandaise peut également transférer un projet de loi à la Cour suprême pour contrôler sa conformité à la Constitution – l’équivalent d’une saisine du Conseil constitutionnel par la présidence française –, mais cette compétence est également rarement utilisée.

Une présidence irlandaise moins genrée car moins puissante

Lorsqu’elle est entrée en fonctions le 11 novembre, Catherine Connolly est devenue la troisième femme à occuper la présidence irlandaise.

La première, Mary Robinson, a été élue en 1990 et a démissionné en 1997 afin de devenir Haut-Commissaire des Nations unies aux droits de l’homme. L’élection qui a suivi la démission de Mary Robinson a vu le succès d’une autre Mary. Mary McAleese, présidente pendant quatorze ans, entre 1997 et 2011, a été la première présidente née en Irlande du Nord.

En comparaison, la fonction présidentielle française, qui n’a jamais été occupée par une femme, est plus marquée par les normes de genre. Cependant, il ne faut pas en tirer de conclusions hâtives. La gouvernance en Irlande est menée par le Taoiseach (le premier ministre). L’histoire irlandaise n’a vu que des hommes se succéder à cette fonction. En France comme en Irlande, jusqu’ici, jamais une femme n’a exercé le rôle principal et chargé de mener la politique du pays (la présidence en France et le Taoiseach en Irlande).

La composition de l’actuel gouvernement irlandais, dirigé par le Taoiseach Micheál Martin (Fianna Fáil, centre droit), confirme tristement l’actualité de ces stéréotypes de genre, puisqu’il ne compte que 3 femmes sur 15 membres, ce qui reflète le classement de l’Irlande à la dernière place en Europe en termes de proportion de femmes députées.

Le gouvernement actuel de l’Irlande comporte au total 5 femmes sur 19 membres, dont 3 femmes sur 15 ministres de plein exercice.
Government Information Service

Une présidence qui préside, l’autre qui gouverne

Les différences les plus significatives entre les présidences française et irlandaise se révèlent dans la pratique de ces fonctions et dans leur relation au pouvoir politique.

La présidence irlandaise ne s’aventure pas dans le jeu politique et la politique du pays, sphère confiée au Taoiseach et au gouvernement. Pourtant, Eoin Daly rappelle que la présidence irlandaise peut être amenée à un jouer un rôle d’arbitre dans la procédure législative, notamment en cas de conflits entre les deux chambres de l’Oireachtas, le Parlement irlandais.

Dans les faits, l’émergence de majorités stables au sein des deux assemblées du Parlement a cantonné les occupants de la présidence à un rôle cérémonial.

Les occupants de la présidence irlandaise ont démontré beaucoup de réticences à s’immiscer dans les questions de politique intérieure. On peut tout de même noter une tendance grandissante de la présidence à exprimer des positions politiques depuis les années 1990 et le mandat de Mary Robinson. Le président sortant, le populaire Michael D. Higgins, est connu pour ses positions critiques à l’égard de certaines politiques gouvernementales. Il a notamment dénoncé l’incapacité des politiques publiques à contrôler la crise du logement en Irlande.

Dans le contexte français, dès 1958, positionner la présidence dans la posture d’un arbitre ne satisfaisait pas. Face au Conseil d’État, Michel Debré (qui a dirigé le groupe de rédaction de la Constitution de la Vᵉ République, ndlr) esquissait à l’époque, une présidence qui serait « bien plus qu’un arbitre entre les partis », une véritable « clé de voûte » des institutions, selon la célèbre formule. Le président, élu au suffrage universel depuis 1962, dispose de prérogatives dispensés de contreseing, dont l’usage n’est pas conditionné à l’aval du Parlement.

C’est là une différence majeure avec la présidence irlandaise. Sous la Ve République, l’Élysée est devenu le centre gravitationnel du pouvoir, son occupant étant souvent simultanément chef de l’État, chef de parti et chef de majorité politique à l’Assemblée nationale. La réunion de ces trois fonctions autour d’une figure populairement désignée a notamment permis l’émergence d’une pratique présidentialiste du régime.

La Constitution faite « par et pour le pouvoir exécutif » a néanmoins aussi vu des présidents en difficulté. Cependant, même lorsqu’un président s’est retrouvé en retrait, soit parce qu’il devait cohabiter avec un premier ministre d’une autre formation politique, soit parce qu’il n’était plus soutenu par une majorité stable, comme Emmanuel Macron depuis 2022, les présidents sont restés – sous différentes formes et par divers moyens – des figures actives dans la gouvernance du pays.

Les paradoxes des présidences française et irlandaise

Pour Eoin Daly, la campagne présidentielle précédant l’élection de Catherine Connolly a illustré les paradoxes de la fonction. Alors que, durant la campagne, les débats ont longuement évoqué les positionnements politiques des deux candidates sur des problèmes politiques actuels, la fonction est presque exclusivement cérémoniale après l’élection.

Aussi, les conséquences de la large victoire de la candidate de gauche ne doivent pas être surestimées. L’Irlande a déjà eu des présidentes de gauche, mais elle n’a jamais eu un gouvernement de gauche.

Le journaliste Fintan O’Toole y voit le grand paradoxe de la vie politique irlandaise :

« les victoires présidentielles de la gauche n’ont pas inauguré la social-démocratie, mais un capitalisme financier féroce. »

L’élection directe par le peuple d’une personnalité ne vaut pas adoption de son positionnement politique à l’échelle nationale. Daly souligne ainsi que les candidats doivent ainsi « faire campagne pour obtenir un mandat du peuple, mais une fois en fonction, ils ne trouvent aucun moyen réel, autre que la parole, pour remplir ce mandat ». Bref, l’élection éclipse la fonction.

Ce déséquilibre est absent du contexte français, tant la présidence a progressivement gagné en pouvoir depuis 1962. Pourtant, les événements politiques des deux dernières années ont ravivé le paradoxe propre à la pratique du mandat présidentiel français. La présidence n’a pu s’imposer qu’en comptant sur des majorités parlementaires dévouées et disciplinées. Une fois ce socle fragilisé (en 2022) puis rompu (en 2024), elle s’est éloignée des schémas connus jusqu’ici et tente désormais de maintenir un équilibre précaire. Du fait des compétences que lui attribuent la Constitution, la présidence française, contrairement à la fonction irlandaise, ne sera jamais uniquement réduite à la parole, même si la valeur de celle-ci peut drastiquement baisser dans certaines circonstances.

The Conversation

Camille Barbe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’Irlande a une présidente de gauche, mais la vie politique reste dominée par des hommes de droite – https://theconversation.com/lirlande-a-une-presidente-de-gauche-mais-la-vie-politique-reste-dominee-par-des-hommes-de-droite-268722

Nos ancêtres du Paléolithique savaient fabriquer des outils simples et efficaces

Source: The Conversation – in French – By Evgeniya Osipova, Préhistoire, Université de Perpignan Via Domitia

Archéologue sur le site paléolithique du nord de la mer d’Aral. Étude du matériel. E.A. Osipova

L’industrie lithique – soit l’ensemble des objets en pierre taillée, pierre polie et matériel de mouture – est souvent le seul témoignage de la culture matérielle préhistorique qui nous soit parvenu. Or, nos ancêtres disposaient d’un kit d’outillage en pierre très diversifié : à chaque activité correspondait un outil spécifique, en particulier pour tout ce qui touchait à la recherche de nourriture et la découpe de la viande.


La viande était une source d’alimentation importante pour les humains préhistoriques, depuis les premiers hominidés, Homo habilis (entre 2,4 millions et 1,6 million d’années), jusqu’à l’apparition de notre espèce, Homo sapiens archaïque (il y a 300 000 ans). Pour trouver de la viande, ils pratiquaient le charognage opportuniste avec les animaux carnivores, puis bien plus tard, la chasse sélective et spécialisée des animaux herbivores.

Mais parvenir à dégager de la viande des carcasses d’animaux nécessite de réaliser une séquence de gestes complexes, en utilisant des outils performants. Au Paléolithique inférieur (entre 800 000 et 300 000 ans avant notre ère) et Paléolithique moyen (entre 300 000 ans et 40 000 ans), il s’agissait d’outils de découpe : des couteaux ou d’autres outils utilisés comme tels. Au fil du temps et en fonction des sites, certains outils travaillés sur deux faces sont devenus de véritables marqueurs culturels. Il s’agit d’abord des bifaces, ces « outils à tout faire » en pierre taillée, qui sont traditionnellement attribués à la culture acheuléenne (entre 700 000 et 200 000 ans en Europe).

Ce sont ensuite des couteaux à dos – le dos correspondant à une partie du bord de la pièce, aménagée ou naturelle, non tranchante et opposée au bord actif, souvent tranchant – autrement appelés des Keilmesser, qui sont typiques de la culture micoquienne (entre 130 000 et 50 000 ans).

Outils de découpe

Les bifaces sont omniprésents en Eurasie, tandis que les couteaux à dos sont majoritairement concentrés en Europe centrale et orientale, dans le Caucase, dans la plaine d’Europe orientale. Les deux catégories d’outils, souvent utilisés pour plusieurs activités, ont en commun une fonction de découpe.

La partie de l’objet qui sert aux pratiques de boucherie est dotée d’un bord suffisamment tranchant et plus ou moins aigu. La fonction de découpe peut être assurée par des éclats simples non aménagés (c’est-à-dire non travaillés par la main humaine) qui ont souvent un bord assez coupant.

La réalisation de ces outils sophistiqués nécessite à la fois de se procurer les matières premières adaptées et d’avoir des compétences avancées en taille de pierre. Mais nos ancêtres avaient-ils vraiment besoin d’outils aussi complexes et polyfonctionnels pour traiter les carcasses d’animaux ? Existait-il d’autres solutions pour obtenir un outil de découpe aussi efficace ?

Notre étude de la période paléolithique à partir d’outils trouvés en Asie centrale, au Kazakhstan, répond en partie à cette question.

Fracturation intentionnelle

La fracturation intentionnelle est une technique qui consiste à casser volontairement un outil en pierre par un choc mécanique contrôlé fait à un endroit précis. Cette technique a été abordée pour la première fois dans les années 1930 par le préhistorien belge Louis Siret. Elle était utilisée au cours de la Préhistoire et de la Protohistoire pour fabriquer des outils spécifiques : burins et microburins, racloirs, grattoirs… La fracture intentionnelle détermine la forme de l’outil en fonction de l’idée de celui qui le taille.

Mais les pièces fracturées sont souvent exclues des études, car la fracture est généralement considérée comme un accident de taille, qui rend la pièce incomplète. Néanmoins, la fracture intentionnelle se distingue d’un accident de taille par la présence du point d’impact du coup de percuteur, qui a provoqué une onde de choc contrôlée, tantôt sur une face, tantôt sur les deux.

À travers l’étude d’une série de 216 pièces en grès quartzite (soit le tiers d’une collection provenant de huit sites de la région Nord de la mer d’Aral), nous avons découvert une alternative simple et efficace aux outils complexes aménagés sur deux faces.

Les objets sélectionnés dans cet échantillon sont uniquement des pierres intentionnellement fracturées. La majorité des pièces présentent un point d’impact laissé par un seul coup de percuteur, porté au milieu de la face la plus plate de l’éclat de grès quartzite. D’autres pièces, plus rares, montrent la même technique, mais avec l’utilisation de l’enclume. La fracture est généralement droite, perpendiculaire aux surfaces de la pierre, ce qui permet d’obtenir une partie plate – un méplat, toujours opposé au bord coupant d’outil.

La création des méplats par fracturation intentionnelle est systématique et répétitive dans cette région du Kazakhstan. Parmi ces outils, on en trouve un qui n’avait encore jamais été mentionné dans les recherches qui y ont été menées : le couteau non retouché à méplat sur éclat, créé par fracture intentionnelle. Cette catégorie de méplat correspond à une fracture longue et longitudinale, parallèle au bord coupant d’un éclat de pierre.

La fabrication de cet outil peu élaboré et pourtant aussi efficace que le biface et le Keilmesser pour la découpe de la viande prend peu de temps et nécessite moins de gestes techniques. C’est pourquoi ils sont abondants et standardisés dans la collection étudiée.

Avec le biface et le Keilmesser, le couteau à méplat sur éclat pourrait ainsi être le troisième outil de découpe du Paléolithique ancien, utilisé dans la région de la mer d’Aral. Les recherches à venir permettront de mieux comprendre le comportement gastronomique de nos ancêtres et d’en savoir plus sur leurs kits de « couverts » en pierre.

The Conversation

Cette recherche a été financée par une subvention du Comité de la Science du Ministère de la Science et de l’Enseignement supérieur de la République du Kazakhstan (Projet N° AP22788840 « Études archéologiques des sites paléolithiques de la région Est de la Mer d’Aral »).

Rimma Aminova, Saule Rakhimzhanova et Yslam Kurmaniyazov ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Nos ancêtres du Paléolithique savaient fabriquer des outils simples et efficaces – https://theconversation.com/nos-ancetres-du-paleolithique-savaient-fabriquer-des-outils-simples-et-efficaces-263352

Le marché des chevaux de course : entre passion, économie et patrimoine vivant

Source: The Conversation – in French – By Éric Le Fur, Professeur, INSEEC Grande École

Avec 12 097 ventes, les yearlings sont majoritaires, suivis des juments avec 4 951 ventes et des chevaux d’entraînement avec 3 417 ventes. LukasGojda/Shutterstock

Derrière le glamour des courses hippiques se joue un marché mondial des chevaux de course évalué à 300 milliards de dollars (ou 259,2 milliards d’euros). Véritables actifs vivants, les pur-sang attirent investisseurs et passionnés dans un univers où performances sportives, pedigree et spéculation s’entremêlent. Mais entre prestige et rentabilité, le rapport rendement/risque reste souvent défavorable.

Le monde des courses de chevaux n’est pas seulement un sport, c’est un écosystème économique et culturel, où un actif unique, le cheval de course, concentre enjeux financiers, prestige et tradition. Comprendre ce marché, c’est plonger dans un univers où la performance sportive rencontre l’investissement et la passion. Notre contribution questionne ainsi le risque et le rendement de cet investissement.

Définition et catégories d’un cheval de course

C’est un équidé élevé, dressé et entraîné spécifiquement pour participer à des compétitions officielles de vitesse ou d’endurance. Il ne faut pas le confondre avec un cheval de sport qui est utilisé dans d’autres disciplines équestres, comme le saut d’obstacles, le dressage ou le concours complet. Sa valeur dépend à la fois de sa performance sportive, de sa lignée génétique et de son potentiel de reproduction. Les chevaux de course sont classifiés en fonction de leur âge.


Fourni par l’auteur

Marché des chevaux de course et ventes aux enchères

Contrairement à un actif financier, un cheval est un actif vivant qui peut courir, gagner des compétitions, générer des revenus, participer à la reproduction et être vendu. C’est un marché où la performance sportive et la valeur économique sont fortement liées. Ce marché, mondial, est évalué à 300 milliards de dollars (259,2 milliards d’euros).

La France, le Royaume-Uni et l’Irlande représentent 133 milliards de dollars (114,9 milliards d’euros). Les États-Unis et le Canada totalisent 118 milliards de dollars (101,9 milliards d’euros). Le reste des ventes se répartit entre l’Asie-Océanie (Australie, Chine, Hong-kong et Japon), l’Afrique du Sud, et le Moyen-Orient (Arabie saoudite et les Émirats arabes unis).

Chevaux yearlings, ou chevaux pur-sang anglais, descendants du pur-sang arabe.
ErinDaugherty/Shutterstock

L’événement phare en France est la vente de yearlings d’août aux enchères de Deauville (Calvados), organisée par Arqana, des pur-sang dans leur deuxième année. Depuis plusieurs années, les records dans les ventes aux enchères s’accumulent. Par exemple, le 9 décembre 2023, lors de la vente d’élevage de Deauville, Place-du-Carrousel, une jument de 4 ans a été adjugée 4,025 millions d’euros. Lors de la même vente en 2022, Malavath, une pouliche d’entraînement, a été adjugée 3,2 millions d’euros. Enfin, une pouliche de Dubawi, acquise en 2015 pour 2,6 millions d’euros par Godolphin, l’écurie du cheikh Mohammed Al-Maktoum, émir de Dubaï, détient le record pour un yearling vendu aux enchères publiques en France.

Construction d’un indice de prix pour déterminer le risque et le rendement

Nous utilisons 28 310 ventes aux enchères provenant du site Arqana entre novembre 2016 et novembre 2023. Avec 12 097 ventes, les yearlings sont majoritaires, suivis des juments (4 951 ventes) et des chevaux d’entraînement (3 417 ventes).

Plus de 93 % des ventes sont réalisées à Deauville ; le reste, 1 054 à Saint-Cloud (Hauts-de-Seine), 553 en ligne, 87 à Chantilly (Oise) et 29 à Auteuil (Paris XVIᵉ). Les amateurs représentent 22 % des acheteurs. La difficulté de l’analyse repose sur le fait que chaque cheval possède des caractéristiques uniques (généalogie, pays d’origine, sexe, âge). Afin d’extraire une tendance des prix qui mesure l’évolution de la valeur globale des chevaux de course en prenant en compte leurs attributs spécifiques, nous construisons un indice de prix hédonique.

Évolution de l’indice de prix hédonique pour l’ensemble des chevaux de course.
Fourni par l’auteur

La tendance générale est à la hausse, avec une accélération des prix après la pandémie de Covid-19. Cependant, l’analyse des indices par catégorie révèle des évolutions de prix très différentes. Alors que les chevaux de deux ans, les chevaux d’entraînement et les juments ont connu des tendances stables, voire en baisse, après la pandémie de Covid-19, les yearlings et les pouliches ont atteint des sommets.

Rendements et risques d’un investissement dans les chevaux de course

Nos résultats indiquent des rendements positifs mais faibles. Tous les rendements trimestriels et semestriels sont positifs, suggérant qu’investir dans les chevaux de course pourrait être une opportunité, mais sont généralement inférieurs au taux sans risque.

Par conséquent, investir dans les chevaux de course semble davantage relever de la passion que de la rentabilité financière. Par catégorie, les yearlings sont les plus attractifs pour les investisseurs prêts à prendre des risques, surtout depuis la pandémie de Covid-19.

Autres caractéristiques des chevaux à prendre en compte pour mieux appréhender les rendements

Certaines informations ne sont pas prises en compte dans notre modèle et permettraient probablement d’affiner les résultats. La valeur d’un cheval de course dépend aussi de ses caractéristiques physique, morale et esthétique. Un corps bien proportionné, un cœur puissant, un métabolisme efficace et une récupération rapide sont des éléments clés de la performance et de la longévité. Le tempérament du cheval joue également un rôle crucial. La couleur de la robe, bien qu’elle n’ait aucune influence sur les aptitudes physiques, peut susciter l’attrait commercial. Enfin, dans certaines catégories, les informations sur les performances passées peuvent peser significativement sur le prix.

Compte tenu de ces facteurs, le retour sur investissement des chevaux de course est une équation complexe. Il dépend de la différence entre les prix de revente et d’achat, ou des bénéfices actualisés, incluant le prix de revente. Supposons que l’investissement consiste à acheter un cheval de sa conception à sa mort. Dans ce cas, la valeur actuelle nette prend en compte négativement les prix actualisés de la saillie, de l’élevage, de l’entraînement, du transport et de l’entretien post-carrière, et positivement les bénéfices actualisés des courses et de l’élevage. Il est également nécessaire de prendre en compte les risques de blessure, de maladie et de sous-performance potentielle.

Les chevaux de course représentent-ils davantage un investissement de prestige ou de passion ?

Comme nous le démontrons, les chances de profit sont faibles, et il peut être plus facile de considérer cet investissement comme une dépense récréative. Investir dans un cheval de course peut être émotionnellement gratifiant. Pour les passionnés, le prestige et la passion justifient les pertes.

Posséder un cheval de course pour les élites et la communauté équestre, surtout s’il remporte des courses prestigieuses, est synonyme de reconnaissance. Ainsi, certains investisseurs sont davantage motivés par l’amour des chevaux, la passion des sports équestres et l’excitation des courses que par la rentabilité financière. Il s’agit d’un loisir coûteux, comme les voitures de collection.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Le marché des chevaux de course : entre passion, économie et patrimoine vivant – https://theconversation.com/le-marche-des-chevaux-de-course-entre-passion-economie-et-patrimoine-vivant-265991

Paris grapples with the remembrance of terrorist attacks, from 1974 to November 13, 2015

Source: The Conversation – France in French (3) – By Sarah Gensburger, Directrice de recherche au CNRS, Centre de Sociologie des Organisations Sciences Po Paris, Sciences Po

Since 1974, almost 150 terrorist attacks have either taken place in or departed from Paris. The sinister list includes the attacks against the synagogue on Copernic Street (1980), the Jo Goldenberg restaurant on Rosiers Street in the Marais district (1982), the Tati shop in the rue de Rennes high street (1986), as well as two bomb explosions on the RER B commuter train at Saint-Michel (1995) and Port-Royal (1996) stations. However, only a few attacks continue to be recollected in urban memory. Why have so many fallen into oblivion?

On November 13, 10 years after the Islamist terrorist attacks in Paris and its northern suburb of Saint-Denis, the French capital’s mayor will open a garden in tribute to the victims, located on Saint-Gervais Square at the back of city hall. Well-tended and original, the new memorial site comes after the plaques that were placed in front of the targeted locations of the attacks in November 2016. Some of the names of the victims have already been honoured in other spaces. This is the case, for example, of Lola Saline and Ariane Theiller, who used to work in the publishing industry and whose names adorn a plaque in the interior hall of the National Book Centre in the 7th arrondissement.

The attacks of November 13 have profoundly transformed the Parisian public space. While commemorative plaques are now more numerous and almost systematic, they also shed light on the memory lapses surrounding most of the terrorist attacks that have taken place in the capital since 1974.

Collective memory and oblivion

In Paris, there are now more than 15 plaques commemorating the various attacks that have taken place in the city and paying tribute to their victims. Spread across seven arrondissements, they commemorate the attacks of October 3, 1980 against the synagogue on rue Copernic (16th arrondissement); August 9, 1982 against the kosher restaurant Jo Goldenberg on rue des Rosiers (4th arrondissement); September 17, 1986 against the Tati store on rue de Rennes (6th arrondissement); and the two explosions that targeted the RER B commuter train on July 25, 1995 at Saint-Michel station (5th arrondissement) and December 3, 1996 at Port-Royal station (5th arrondissement).

The rest of these plaques refer to attacks in January, 2015 (11th and 12th arrondissements), and, above all, November 2015 (10th and 11th arrondissements), with the exception of those commemorating the attack that killed Xavier Jugelé on April 20, 2017 on the Champs-Élysées (8th arrondissement), and the attack that killed Ronan Gosnet on May 12, 2018 on rue Marsollier (2nd arrondissement).

Commemorative plaques for the November 13, 2015 attacks.
Fourni par l’auteur

While demonstrating a desire for commemoration, these examples of urban memory also highlight the real memory gap surrounding most of the terrorist attacks that have occurred in Paris in the contemporary period.

How the 1974 attack on the Drugstore Publicis paved the way for modern-day terrorism

The French state has designated 1974 as the starting point of contemporary terrorism. Indeed, this year has been retained as the start of the period that the permanent exhibition of the future Terrorism Memorial Museum aims to cover. And the “victims of terrorism”, who stand apart in France through their right to be awarded a special medal, are those affected by attacks that have occurred since 1974. This choice refers to the attack on the Drugstore Publicis Saint-Germain-des-Prés, which took place in Paris (on the Boulevard Saint-Germain, 6th arrondissement) on September 15 of that year. This chronological milestone is, of course, open to debate, as is any temporal division. However, it is taken here as a given.

Since 1974, historian Jenny Raflik-Grenouilleau has recorded nearly 150 attacks in Paris or originating in Paris in her preliminary research for the Terrorism Memorial Museum. Of this total, 130 attacks resulted in at least one injury and just over 80 resulted in the death of at least one victim. Depending on where one chooses to draw the line between what is worthy of commemoration – from deaths to property damage alone – there are more than 80 attacks and up to nearly 150 in Paris that could potentially have given rise to a permanent memorial in the public space.

The 17 existing plaques therefore concern only a very small minority of the terrorist acts that have taken place in the city. In this respect, the situation in Paris mirrors that described by Kenneth Foote in his pioneering study: plaques are both sources of memory and producers of oblivion. For example, the attack on the Drugstore Publicis Saint-Germain-des-Prés in 1974 left two people dead and thirty-four wounded. Although it is considered the starting point of the contemporary wave of terrorism, there is no plaque to remind passers-by, whether they are Parisians or tourists, many of whom pass through this busy crossroads in the Saint-Germain-des-Prés neighbourhood every day.

Selective narratives and invisible perpetrators

What do the few plaques in Paris that commemorate attacks there have in common?

Firstly, it appears that it is the deadliest attacks that are commemorated, foremost among which, of course, are those of November 13, 2015. All attacks that have claimed at least four lives are commemorated in public spaces. There is only one exception: the bomb attack by a revolutionary brigade in June 1976, which targeted a temporary employment agency to denounce job insecurity. The building’s concierge and her daughter, as well as two residents, were killed.

Only two attacks that resulted in a single death are commemorated: these are the most recent ones, which occurred in 2017 and 2018, and whose victims were named above.

Furthermore, the existing plaques only refer to attacks carried out by Islamist organisations (Armed Islamic Group, al-Qaida, Daesh, etc.) on the one hand, or attacks claimed in the name of defending the Palestinian cause on the other. In this respect, the existing plaques primarily reflect the infinitely more criminal nature of the attacks carried out by these groups, as well as their majority presence. Nevertheless, they consequently only show two sides of terrorism.

Diverse forms of terrorism, but a partial memory

And yet, there has been no shortage of variety since 1974. For example, memory of extreme left-wing terrorism and, to a lesser extent, of extreme right-wing terrorism is nowhere to be found in the public space – notwithstanding their importance in the 1970s and 1980s and the many injuries and deaths left in their wake.

Take, for example, the 1983 attack carried out by far-right group Action Directe at the restaurant Le Grand Véfour, which left Françoise Rudetzki seriously injured as she was having dinner. The event inspired Rudetzski to found SOS Attentats, an organisation that enabled public authorities to compensate terrorism victims. However, even today, there is not a word about the attack on the walls of the building in question in the 1st arrondissement.

The memory gap is all the more puzzling given that the justifications put forward for these invisible attacks have not disappeared. Between July 5 and 21, 1986, Action Directe carried out three successive bomb attacks. The attack on July 9 targeted the police anti-gang squad, killing one officer and injuring 22 others. In their claim, the perpetrators mentioned that they had sought to “avenge” Loïc Lefèvre, a young man killed by a member of the security forces in Paris four days earlier. In October 1988, this time it was Catholic fundamentalists who attacked the Saint-Michel cinema, which was screening Martin Scorsese’s film The Last Temptation of Christ, which they considered blasphemous. The attack injured 14 people. These two examples show how some of the attacks that have remained invisible in the public sphere nonetheless resonate with themes that are still very much present in contemporary public debate, from “police violence” to “freedom of expression”.

Finally, no plaque mentions the motivations of the perpetrators of the attack. Whether they were installed in 1989 or 2018, Paris’s plaques either pay tribute to “the victims of terrorism” or commemorate an “act of terrorism”, without further detail. Although, here too, there is an exception to this rule, which in turn allows us to reflect implicitly through a borderline case. The plaques commemorating the 1982 attack on the kosher restaurant Jo Goldenberg and the 2015 attack on the Hyper Casher supermarket on avenue de la Porte de Vincennes are the only ones to add an adjective, in this case “antisemitic”, to the mention of the attack, while the plaque hung on rue Copernic, which was targeted by a bomb in 1980, refers to “the heinous attack perpetrated against this synagogue”, thus specifying the reason for the attack. To date, only antisemitic attacks are named as such.

Commemorative plaque for the attack on the Jo Goldenberg restaurant on rue des Rosiers.
Fourni par l’auteur

Memorial practices in Parisian public spaces

Only a tiny fraction of the terrorist acts committed in Paris since 1974 are now marked for passers-by’s attention, producing, thereby, memory as well as oblivion. The question of how these reminders of the past are used in Parisian public spaces remains open.

While the issue is not specific to the commemoration of terrorist attacks, it is particularly acute in the case of plaques referring to them, since they refer to an event – “terrorism” – which, unlike a war marked by a beginning and an end, is an ongoing process that is difficult to consider as having ended. In 1996, when the public transport company, the RATP, was asked by the families of the victims of the RER B attack to have their names included on a plaque, it initially expressed its hesitations. It said it feared dangerous crowds on the narrow metro platform. These fears proved unfounded. Very few passengers actually look up to see the plaque.

In this respect, the new November 13, 2015 memorial garden creates a form of commemoration that leaves open the possibility of new ways of remembering, combining the uses of an urban park with participation in the preservation of memory.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Sarah Gensburger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Paris grapples with the remembrance of terrorist attacks, from 1974 to November 13, 2015 – https://theconversation.com/paris-grapples-with-the-remembrance-of-terrorist-attacks-from-1974-to-november-13-2015-269237

Sarkozy interdit de contact avec Darmanin : l’indépendance de la justice renforcée ?

Source: The Conversation – France in French (3) – By Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre

Nicolas Sarkozy a été mis en liberté sous contrôle judiciaire, lundi 10 novembre, par la Cour d’appel de Paris. Il n’a plus le droit de quitter le territoire, et ne doit pas entrer en contact avec les personnes liées à l’enquête ni avec le ministre de la justice Gérald Darmanin. Cette interdiction est liée à la visite que lui a rendu le ministre en prison, interprétée comme une pression exercée sur les magistrats. Le contrôle judiciaire de l’ancien président de la République va donc dans le sens d’une réaffirmation du principe d’indépendance des magistrats vis-à-vis du pouvoir exécutif. Au-delà de l’affaire Sarkozy, quelles sont les capacités d’influence du pouvoir exécutif sur la justice ?


Le 10 novembre 2025, la Cour d’appel de Paris a fait droit à la demande de mise en liberté de Nicolas Sarkozy. Contrairement à ce qu’on pourrait penser, cette décision n’est nullement le résultat des pressions diverses qui pèsent sur l’institution judiciaire depuis le prononcé de la condamnation de l’ancien chef de l’État. D’une part, la Cour d’appel a estimé que les conditions de la détention provisoire n’étaient pas réunies, aucun élément objectif ne laissant craindre que l’ancien chef de l’État soit tenté de prendre la fuite avant le jugement définitif de son affaire. D’autre part, et surtout, la Cour a assorti la mise en liberté d’un contrôle judiciaire strict, interdisant en particulier à M. Sarkozy tout contact avec le garde des sceaux Gérald Darmanin et avec son cabinet, considérant que de tels liens lui permettraient d’influer sur le cours de la procédure.

Ce faisant, la juridiction vient non seulement réaffirmer l’indépendance du pouvoir judiciaire, mais aussi apporter une réponse à la polémique soulevée par la visite du garde des sceaux, agissant à titre officiel, à l’ancien locataire de l’Élysée incarcéré, le 27 octobre. Cette démarche avait en effet suscité de nombreuses critiques au sein du monde judiciaire, à l’image des propos du procureur général de la Cour de cassation dénonçant un risque « d’obstacle à la sérénité et d’atteinte à l’indépendance des magistrats » ou, plus encore, de la plainte pour prise illégale d’intérêt déposée à l’encontre du ministre par un collectif d’avocats.

Le ministre de la justice peut-il rendre visite à un détenu ?

Au-delà de la polémique médiatique, c’est d’abord l’état de la relation entre le pouvoir exécutif et le pouvoir judiciaire – sensément séparés et indépendants – que cette visite interroge. Certes, les textes actuels permettent bien au ministre, au moins indirectement, d’y procéder. Le Code pénitentiaire reconnaît en effet à certains services de l’administration pénitentiaire le droit de procéder à des visites de contrôle du bon fonctionnement des établissements carcéraux. Dans la mesure où le ministre de la justice est à la tête de cette administration, rien ne lui interdit donc, en théorie, de procéder lui-même à de telles visites. Par ailleurs, toute personne détenue « peut demander à être entendue par les magistrats et fonctionnaires chargés de l’inspection ou de la visite de l’établissement, hors la présence de tout membre du personnel de l’établissement pénitentiaire ». Ainsi, le cadre juridique aujourd’hui applicable au contrôle des prisons n’interdit pas au garde des sceaux de visiter lui-même un établissement et de s’entretenir, à cette occasion, avec les personnes incarcérées.

Mais c’est justement un tel cadre qui, du point de vue de la séparation des pouvoirs, mérite d’être questionné. Faut-il le rappeler, c’est toujours en vertu d’une décision de l’autorité judiciaire qu’un individu peut être mis en prison, qu’il s’agisse d’un mandat de dépôt prononcé avant l’audience ou de la mise à exécution d’un jugement de condamnation définitif. C’est également l’autorité judiciaire, en la personne du juge d’application des peines, qui est seule compétente pour décider des mesures d’aménagement des peines d’emprisonnement (réduction de peines, semi-liberté, libération conditionnelle…). Et si la direction de l’administration pénitentiaire peut prendre seule certaines décisions (placement à l’isolement, changement d’établissement…), c’est sous le contrôle du juge administratif, non du ministre.

C’est pourquoi la visite dans un établissement carcéral du garde des sceaux, lequel – à la différence des fonctionnaires placés sous son autorité – est membre du pouvoir exécutif, est toujours porteuse d’un risque d’immixtion ou de pression, au moins indirecte, sur le pouvoir judiciaire. Tel est notamment le cas quand cette visite a pour seul objet d’accorder, sinon un soutien, du moins une attention particulière à un détenu parmi d’autres, quand les juges ont pour mission de traiter chacun d’entre eux sur un strict pied d’égalité.

À cet égard, il est intéressant de relever que les autres autorités habilitées – aux côtés des magistrats – à se rendre en prison ont, quant à elles, pour seule attribution de veiller au respect des droits fondamentaux de l’ensemble des personnes emprisonnées, à l’image du défenseur des droits et du contrôleur général des lieux de privation de liberté ou, encore, du comité de prévention de la torture du conseil de l’Europe.

Les leviers du pouvoir exécutif sur le pouvoir judiciaire

La polémique suscitée par la visite faite à l’ancien chef de l’État a ainsi le mérite de mettre en lumière à quel point le pouvoir exécutif dispose, encore aujourd’hui, de nombreux leviers pour intervenir plus ou moins directement dans le champ d’intervention du pouvoir judiciaire. Ainsi, ce qui est vrai pour l’exécution des peines l’est, plus encore, pour l’exercice de la police judiciaire, c’est-à-dire l’ensemble des actes ayant pour objet la constatation et l’élucidation des infractions pénales. Alors que l’ensemble des agents et officiers de police judiciaire sont en principe placés sous l’autorité exclusive du procureur de la République ou – lorsqu’il est saisi – du juge d’instruction, ils demeurent en pratique sous l’autorité du ministre de l’intérieur, seul compétent pour décider de leur avancement, de leurs mutations et, plus largement, de leurs conditions générales de travail. C’est en particulier le ministère qui décide, seul, de l’affectation des agents à tel ou tel service d’enquête, du nombre d’enquêteurs affectés à tel service et des moyens matériels qui leur sont alloués. En d’autres termes, les magistrats chargés des procédures pénales n’ont aucune prise sur les conditions concrètes dans lesquelles leurs instructions peuvent – ou non – être exécutées par les services de police.

Mais le pouvoir exécutif dispose d’autres leviers lui permettant d’exercer encore plus directement son influence sur le cours de la justice. Les magistrats du parquet sont ainsi placés sous la stricte subordination hiérarchique du garde des sceaux, seul compétent pour décider de leur affectation, de leur avancement, et des éventuelles sanctions disciplinaires prises à leur encontre.

Une situation de dépendance institutionnelle qui explique que, depuis plus de quinze ans, la Cour européenne des droits de l’homme considère que les procureurs français ne peuvent être regardés comme une autorité judiciaire au sens du droit européen. Si les magistrats du siège bénéficient quant à eux de réelles garanties d’indépendance, ils ne sont pas à l’abri de toute pression. Certes, ils sont inamovibles et le Conseil supérieur de la magistrature a le dernier mot sur les décisions disciplinaires et les mutations les concernant. Toutefois, si les juges ne peuvent être mutés contre leur gré, c’est le ministère qui reste compétent pour faire droit à leurs demandes de mutation, le Conseil n’intervenant que pour valider (ou non) les propositions faites par les services administratifs – à l’exception des présidents de tribunal et des magistrats à la Cour de cassation, qui sont directement nommés par le Conseil supérieur de la magistrature.

Des juridictions dépendantes du ministère pour leur budget

Par ailleurs, alors que le conseil d’État négocie et administre en toute indépendance le budget qui lui est confié pour la gestion des juridictions de l’ordre administratif, les juridictions judiciaires ne bénéficient quant à elles d’aucune autonomie budgétaire. Là encore, c’est le ministère de la justice qui, seul, négocie le budget alloué aux juridictions et prend les principales décisions quant à son utilisation, notamment en matière d’affectation des magistrats et des greffiers à telle ou telle juridiction et en matière immobilière. Le pouvoir exécutif dispose ainsi d’une influence considérable sur l’activité concrète des tribunaux et, en particulier, sur leur capacité à s’acquitter de leurs missions dans de bonnes conditions.

Au final, c’est peu dire qu’il existe de significatives marges de progression si l’on veut soustraire pleinement le pouvoir judiciaire à l’influence du pouvoir exécutif. Une émancipation qui, faut-il le rappeler, n’aurait pas pour fonction d’octroyer des privilèges aux magistrats, mais tendrait uniquement à assurer à tout justiciable – et, plus largement, à tout citoyen – la garantie d’une justice véritablement indépendante, à même d’assurer à chaque personne le plein respect de ses droits, quelle que soit sa situation sociale.

The Conversation

Vincent Sizaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sarkozy interdit de contact avec Darmanin : l’indépendance de la justice renforcée ? – https://theconversation.com/sarkozy-interdit-de-contact-avec-darmanin-lindependance-de-la-justice-renforcee-269620

Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée

Source: The Conversation – in French – By Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Mycena cf chlorophos est un champignon totalement lumineux : chapeau, lamelles et mycelieum. Parc National de Cuc Phuong, Vietnam Romain Garrouste, Fourni par l’auteur

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.


Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.

Une lumière naturelle… et vivante

La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.

Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humidescmais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.

Une chimie simple, une magie complexe

La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.

Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.

Pourquoi un champignon brille-t-il ?

Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.

Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.

Le champignon Omphalotus illudens.
I. G. Safonov (IGSafonov) at Mushroom Observer, CC BY

L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.

Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.

Lumière sur la nature

Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.

J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.

Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.

Bioluminescence et écologie fongique

Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.

Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.

The Conversation

Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l’Océan (Sorbonne Univ.)

ref. Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée – https://theconversation.com/ces-champignons-qui-brillent-dans-la-nuit-la-bioluminescence-fongique-decryptee-268937

Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science

Source: The Conversation – in French – By Andor J. Kiss, Director of the Center for Bioinformatics and Functional Genomics, Miami University

James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.


James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.

Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.

La quête du gène selon Watson

Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.

Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.

Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.

Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.

C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.

Le prix et la controverse

Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.




À lire aussi :
Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée


Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.

Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.

Une prise de conscience collective

Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.

Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.

J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.

Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.

Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.

Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.

En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.

The Conversation

Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science – https://theconversation.com/mort-a-97-ans-james-watson-incarna-a-la-fois-le-meilleur-et-le-pire-de-la-science-269460