Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications

Source: The Conversation – in French – By Alexis Aulagnier, Chercheur postdoctoral, Centre Emile Durkheim, Sciences Po Bordeaux

La loi Duplomb sera examinée ce mardi 8 juillet à l’Assemblée nationale. Le texte reprend plusieurs revendications de longue date du syndicat majoritaire agricole, historiquement opposé à l’objectif de réduction de l’utilisation de pesticides. Il est le fruit d’une séquence au cours de laquelle la FNSEA est parvenue à s’appuyer sur la colère des agriculteurs pour imposer certaines de ses demandes.


La période est aux régressions en matière de politiques écologiques. Les reculs se multiplient en ce qui concerne le climat, l’énergie ou encore la biodiversité, comme l’atteste ce récent rapport du réseau Action climat. Comment expliquer ces rétropédalages environnementaux ?

Nous proposons d’analyser le cas des politiques liées aux pesticides, au cœur de l’actualité en raison de la proposition de loi « visant à lever les contraintes à l’exercice du métier d’agriculteur », dite Duplomb. Ce texte, soutenu par la ministre de l’Agriculture Annie Genevard, acterait notamment la réintroduction temporaire d’un néonicotinoïde interdit depuis 2020, l’acétamipride.

Or ce texte n’est pas un fait isolé : il intervient au terme d’un processus à l’œuvre depuis deux ans, qui a vu des acteurs syndicaux comme la FNSEA réussir à fragiliser des politiques limitant l’usage de ces substances controversées.

Le plan Ecophyto, symbole du rejet de l’objectif de réduction des pesticides par une partie du monde agricole

Un rappel nécessaire : les pesticides sont encadrés, en France, par deux ensembles de politiques publiques. En amont de leur mise sur le marché, l’efficacité et les risques liés à leur usage sont évalués : c’est le système d’homologation, en place en France depuis près d’un siècle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Depuis la fin des années 2000, des politiques publiques visent par ailleurs à réduire l’usage de ces substances, dont les impacts apparaissent difficiles à contrôler. En 2008 a été lancé le plan Ecophyto, qui visait initialement à réduire de 50 % la consommation de pesticides.

Une part de la profession agricole, représentée en particulier par le syndicat majoritaire de la Fédération nationale des syndicats d’exploitants agricoles (FNSEA), n’a jamais fait mystère de son opposition à Ecophyto. Pour cette organisation, l’existence même d’une politique de réduction est illégitime, étant entendu que les risques liés aux pesticides sont déjà pris en charge par le système d’homologation.

Quand la FNSEA profite des manifestations pour remettre en cause le plan Ecophyto

En janvier et février 2024, le monde agricole a été secoué par un important mouvement de protestation sur l’ensemble du territoire français. Ces manifestations sont parties de la base, avec un mécontentement croissant dans plusieurs territoires à partir de l’automne 2023. Rien n’indique qu’Ecophyto était l’objet prioritaire de revendications au sein des collectifs mobilisés. Les spécialistes des mondes agricoles décrivent un malaise agricole multiforme, mêlant l’excès de normes et d’opérations administratives, un sentiment d’abandon et des préoccupations en matière de rémunération et de partage de la valeur.

En janvier 2024 pourtant, l’échelon national de la FNSEA, face à un exécutif déstabilisé par les mobilisations, a formulé une très large liste de revendications, incluant un « rejet d’Ecophyto ».

La stratégie a été gagnante : la mise en pause du plan a effectivement compté parmi les premières mesures annoncées par le gouvernement. Par la suite, le syndicat a imposé un changement d’indicateur pour ce plan, l’affaiblissant considérablement. Ce faisant, la FNSEA est parvenue à imposer une interprétation bien particulière de la colère des exploitants, instrumentalisant sa prise en charge politique pour contester un plan auquel elle s’opposait de longue date.

Cette séquence confirme la capacité de cette organisation à imposer ses priorités politiques, notamment dans des moments de crise. Les relations entre ce syndicat et les pouvoirs publics ont historiquement été privilégiées, notamment lors de la phase de modernisation de l’agriculture, qui s’est ouverte à la sortie de la Seconde Guerre mondiale. S’est mis en place à l’époque un système dit de « cogestion », dans lequel le ministère de l’Agriculture et les organisations professionnelles agricoles menaient de front l’intensification des productions.

Cette relation de cogestion s’est considérablement affaiblie à partir des crises sanitaires (vache folle, nitrates) et économiques (quotas laitiers) des années 1990, qui ont vu ces politiques modernisatrices être questionnées. Mais à l’heure où l’agriculture est mise face au défi de l’écologisation, ce syndicat continue d’apparaître comme un interlocuteur incontournable pour les pouvoirs publics.

La loi Duplomb reprend le « pas d’interdiction sans solutions » de la FNSEA

On retrouve cette même dynamique autour de la loi Duplomb, dont le contenu a été fixé en Commission mixte paritaire le 30 juin. Ce texte prévoit notamment la réautorisation temporaire de l’acétamipride, un pesticide utilisé par des agriculteurs dans les productions de betterave et de fruits à coque. Il fait partie de la famille des néonicotinoïdes, dont l’usage a progressivement été proscrit en France, en raison notamment de leurs impacts sur les populations d’insectes.

Au-delà du seul cas de l’acétamipride, la disposition du texte qui permet sa réintroduction apparaît comme particulièrement problématique. Elle inscrit dans la loi la possibilité de déroger temporairement à l’interdiction de pesticides si « les alternatives disponibles à l’utilisation de ces produits sont inexistantes ou manifestement insuffisantes ». Ce texte législatif reprend une logique devenue depuis quelques années un leitmotiv défendu par la FNSEA : « Pas d’interdiction sans solution ».

À première vue, cette demande semble légitime : il apparaît raisonnable de ne pas priver les agriculteurs de substances nécessaires à leurs productions en l’absence d’alternatives clairement identifiées. Mais à y regarder de plus près, conditionner le retrait de pesticides à la disponibilité d’alternatives comporte plusieurs limites.

Premièrement, pour satisfaire à cette logique, il convient de définir ce qui est considéré comme une alternative à un pesticide. Or, les agronomes ont montré que la réduction de l’usage de ces substances peut passer par l’adoption de pratiques alternatives – modification des rythmes de culture ou des assolements, diversification des cultures, entre autres – et pas seulement par l’usage de technologies de substitution. De telles méthodes ou pratiques culturales peuvent facilement être négligées au moment de passer en revue les alternatives identifiées.

Deuxièmement, les solutions alternatives aux pesticides gagnent à être pensées en interaction les unes avec les autres – c’est ce que les agronomes appellent une approche systémique. Les stratégies alternatives de protection des cultures sont d’autant plus efficaces qu’elles sont associées. Or, dans la logique dessinée par la loi Duplomb, les alternatives sont envisagées isolément les unes des autres.

Enfin, le « pas d’interdiction sans solutions » nécessite de définir les paramètres retenus pour décréter qu’une alternative est « équivalente » au pesticide qu’elle est censée remplacer. À ce stade, la loi Duplomb précise qu’une solution alternative doit procurer une « protection des récoltes et des cultures semblable à celle obtenue avec un produit interdit » et être « financièrement acceptable ». Cette définition d’apparent bon sens comporte le risque de disqualifier nombre de solutions, en imposant la comparaison terme à terme de méthodes de protection des cultures très différentes.

La FNSEA, un interlocuteur clé pour l’État malgré une représentativité qui s’érode

Il ne s’agit pas ici de délégitimer la recherche de solutions alternatives aux pesticides, qui est un enjeu essentiel. De multiples projets ont été lancés ces dernières années, en lien avec les filières agricoles, pour identifier et diffuser des stratégies de protection à même de remplacer les pesticides les plus dangereux. Mais conditionner le retrait de substances à la disponibilité d’alternatives présente le risque de maintenir indéfiniment sur le marché des produits chimiques controversés.

Les opposants à la réduction de l’usage des pesticides l’ont bien compris, et ont fait de ce « pas d’interdiction sans solution » un slogan. L’introduction de cette logique dans le droit est une victoire – revendiquée – pour la FNSEA. La loi Duplomb était censée être une réponse législative aux malaises agricoles. Elle comprend en réalité des mesures techniques qui ne concernent qu’un nombre réduit d’exploitants, en particulier ceux qui possèdent les exploitations à l’orientation la plus intensive. Elle néglige une série d’enjeux essentiels : répartition des revenus, règles commerciales, etc. Plus qu’une prise en compte réelle des difficultés du monde agricole, elle apparaît comme un nouveau véhicule de revendications anti-écologistes d’un syndicat toujours majoritaire – mais en recul – et qui ne représente plus qu’une partie d’un monde agricole toujours plus fragmenté.

Une politique prenant en charge le malaise agricole et les enjeux environnementaux devra nécessairement passer par une réflexion de fond sur les modalités de représentation du secteur, notamment la gouvernance des chambres d’agriculture.

The Conversation

Alexis Aulagnier est membre du Comité scientifique et technique (CST) du plan Ecophyo. Le présent article est signé à titre individuel et ne reflète en rien la position du comité.

ref. Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications – https://theconversation.com/loi-duplomb-et-pesticides-comment-la-fnsea-a-impose-ses-revendications-260603

Le « brassage cognitif » peut-il vraiment vous aider à vous endormir ?

Source: The Conversation – France in French (3) – By Melinda Jackson, Associate Professor at Turner Institute for Brain and Mental Health, School of Psychological Sciences, Monash University

S’endormir n’est pas toujours simple, en particulier lorsque l’on est en proie au stress. Ursula Ferrara/Shutterstock

Plutôt que de se focaliser sur leurs préoccupations, les personnes promptes à s’endormir ont tendance à laisser divaguer leurs pensées, ce qui mène leur cerveau vers un état propice au sommeil. Une méthode que l’on peut tenter de mimer en cas de difficultés d’endormissement, grâce à un exercice appelé « brassage cognitif ».


Si vous fréquentez un tant soit peu les réseaux sociaux – peut-être en plein milieu de la nuit, quand vous n’arrivez pas à dormir, tout en vous disant que ce n’est pas la solution pour trouver le sommeil… – vous avez probablement vu passer l’une des nombreuses vidéos qui vantent les mérites du « brassage cognitif » (« cognitive shuffling » en anglais), une méthode qui, selon ses partisans, favoriserait l’endormissement.

Le principe est de solliciter son cerveau en lui soumettant des images et des idées aléatoires, selon un protocole spécifique qui consiste à :

  • choisir un mot au hasard (par exemple « cookie ») ;

  • se concentrer sur la première lettre de ce mot (ici C) et énumérer une série de mots débutant par cette lettre : chat, carotte, calendrier, etc. ;

  • visualiser chaque nouveau mot ;

  • lorsque vous vous sentez prêt, passer à la lettre suivante (O) et renouveler le processus ;

  • poursuivre avec chaque lettre du mot initial (donc, ici, O, K, I puis E) jusqu’à ce que vous soyez prêt à changer de mot ou que vous sombriez dans le sommeil.

Certes, cette méthode rencontre un certain succès sur Instagram et TikTok. Mais repose-t-elle sur des bases scientifiques ?

D’où vient cette idée ?

La technique du brassage cognitif a été popularisée voici plus d’une dizaine d’années par le chercheur canadien Luc P. Beaudoin, après la publication d’un article décrivant ce qu’il nommait « serial diverse imagining » (« visualisation diversifiée sérielle »), une méthode présentée comme facilitant l’endormissement.

L’un des exemples proposés par Luc Beaudoin mettait en scène une femme pensant au mot « blanket » (couverture en anglais). Elle imaginait ensuite un vélo (en pensant au mot « bicycle », équivalent anglais de bicyclette), puis se visualisait en train d’acheter des chaussures (« buying », « acheter » en anglais). Ensuite, elle faisait surgir dans son esprit un bananier, en pensant au mot « banana » (« banane »), etc.

En passant à la lettre L, elle évoquait son ami Larry, puis le mot « like » (« aimer »), en imaginant son fils qui serrait son chien dans ses bras, avant de basculer sur la lettre A, pensant au mot « Amsterdam », qui lui faisait évoquer mentalement un marin réclamant une autre portion de frites en levant sa large main, dans un bar proche des docks de la capitale batave, tandis qu’en fond sonore, un accordéoniste jouait de son instrument désaccordé… Peu après, elle sombrait dans le sommeil.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Selon Luc Beaudoin, l’objectif de ces exercices mentaux est de penser brièvement à une « cible » neutre ou agréable, puis de passer à d’autres cibles, sans lien avec les précédentes, et ce, fréquemment, soit toutes les 5 à 15 secondes environ. Il ne s’agit ni de relier les mots évoqués entre eux, ni de satisfaire la tendance naturelle de notre esprit à donner du sens. Le brassage cognitif vise plutôt à imiter le fonctionnement cérébral des « bons dormeurs ».

Trier le bon grain pro-endormissement de l’ivraie insomniante

Des recherches ont démontré qu’avant de s’endormir, l’esprit des « bons dormeurs » est envahi de pensées « hallucinatoires », proches du rêve. Ces visions oniriques, désordonnées, sont radicalement différentes des préoccupations angoissées qu’expérimentent les personnes qui ont des tendances à l’insomnie. Ces dernières ont en effet plutôt tendance à se focaliser davantage sur leurs préoccupations, leurs problèmes ou les bruits environnants, tout en s’inquiétant sans cesse de ne pas trouver le sommeil.

Pages semblent s’envoler d’un livre et se transformer en oiseaux.
Les bons dormeurs ont généralement des pensées plus hallucinatoires et moins ordonnées avant de s’endormir que les mauvais dormeurs.
fran_kie/Shutterstock

Le brassage cognitif a pour but de détourner l’attention des pensées qui empêchent la somnolence (inquiétudes, planifications, ruminations) pour privilégier celles qui la favorisent (images calmes et neutres propices au sommeil). Il procure un moyen de s’apaiser et de s’évader, ce qui permet de diminuer le stress lié aux difficultés d’endormissement, et envoie au cerveau le signal que l’on est prêt à sombrer dans le sommeil.

Le va-et-vient d’images aléatoires mis en œuvre mime ce qu’il se passe naturellement lors de l’endormissement : l’activité cérébrale ralentit et produit sans effort conscient des séquences d’images déconnectées, appelées hallucinations hypnagogiques.

Les recherches préliminaires menées par Luc Beaudoin et son équipe suggèrent que cette méthode aiderait à réduire l’excitation mentale avant le sommeil, améliorerait la qualité de ce dernier et faciliterait l’endormissement.

Néanmoins, le nombre d’études étayant ces premiers résultats demeure limité, et des travaux complémentaires sont encore nécessaires pour les confirmer.

Et si cela ne fonctionne pas ?

« C’est en forgeant qu’on devient forgeron » : comme pour tout nouvel exercice, acquérir la maîtrise du brassage cognitif passe par une période d’entraînement. Ne soyez pas découragé si l’effet n’est pas immédiat. Persévérez, et faites preuve de bienveillance envers vous-même. Gardez aussi à l’esprit que chaque individu réagit différemment.

Par ailleurs, selon votre relation au stress, d’autres stratégies vous conviendront peut-être davantage :

  • instaurer une routine régulière avant le coucher pour inciter votre cerveau à se détendre ;

  • observer vos pensées, sans aucun jugement, pendant que vous êtes allongé ;

  • noter vos inquiétudes ou élaborer des listes de tâches plus tôt dans la journée, afin d’éviter de les ressasser au moment du coucher.

Enfin, si malgré tous vos efforts, vos pensées nocturnes continuent à nuire à la qualité de votre sommeil ou à votre bien-être, n’hésitez pas à consulter votre médecin ou un spécialiste du sommeil.

The Conversation

Melinda Jackson a reçu des financements du Medical Research Future Fund, du National Health and Medical Research Council (NHMRC), de l’Aged Care Research & Industry Innovation Australia (ARIIA) et de Dementia Australia. Elle est membre du conseil d’administration de l’Australasian Sleep Association.

Eleni Kavaliotis a déjà bénéficié d’une bourse du Programme de formation à la recherche (RTP) du gouvernement australien. Elle est membre du Conseil sur l’insomnie et la santé du sommeil de l’Association australasienne du sommeil (Australasian Sleep Association’s Insomnia and Sleep Health Council).

ref. Le « brassage cognitif » peut-il vraiment vous aider à vous endormir ? – https://theconversation.com/le-brassage-cognitif-peut-il-vraiment-vous-aider-a-vous-endormir-260685

Réinventer les universités : et si nous leur donnions une mission planétaire ?

Source: The Conversation – in French – By François Taddei, Président (Chief Exploration Officer), Learning Planet Institute (LPI)

Si elles veulent s’adapter à l’accélération des changements du monde et de la technologie, toutes les universités à travers la planète gagneraient à se réinventer. De quels atouts disposent-elles pour s’affirmer en « laboratoires de la transition » face aux défis actuels ?


Nous sommes aujourd’hui confrontés à ce qu’Edgar Morin a qualifié de « polycrise ». Des défis mondiaux de toutes sortes nous font face et menacent nombre de nos communs planétaires, et par là même la viabilité de notre espèce. Par communs planétaires, on entend les communs naturels comme le climat et la biodiversité, les communs culturels comme la confiance, la démocratie et l’éducation, ou encore les nouveaux communs numériques tels que les données « open source ».

Dans ce contexte, l’université est elle aussi à la croisée des chemins. Forte d’une histoire pluriséculaire de résilience et d’adaptation, héritière des idéaux des Lumières et ancrée dans les paradigmes hérités de la révolution industrielle, elle doit aujourd’hui adapter ses missions fondamentales – l’éducation, la recherche et le développement de la société – aux défis de notre temps.

Si elles veulent s’adapter à l’accélération des changements du monde et de la technologie, toutes les universités à travers la planète gagneraient à se réinventer.

Le modèle universitaire traditionnel est à bout de souffle

L’âge d’or de l’université semble révolu. Produit de la modernité en Occident, de ses avancées dans les idées et les technologies, elle en porte aussi les limites et perpétue (souvent de manière inconsciente) des paradigmes disciplinaires, et parfois un héritage colonial, patriarcal et extractiviste, enraciné dans l’histoire européenne.

Mais ce n’est qu’un aspect de la crise multidimensionnelle que traversent les universités aujourd’hui, une crise qui touche à leurs missions fondamentales d’éducation, de recherche et de contribution au développement des sociétés dans leur ensemble.

La mission éducative de l’université est remise en cause : les étudiants attendent d’être formés à des compétences qui leur permettront d’être acteurs du changement (dans l’entrepreneuriat, la durabilité, le numérique, la société) mais les structures universitaires, parfois rigides, ne parviennent pas toujours à adapter suffisamment vite leurs contenus et leurs formats aux besoins des jeunes face à l’urgence des transitions.

A contrario, les parcours académiques restent en grande majorité dans des cadres disciplinaires peu ouverts à une diversité de savoirs. Or, l’avenir de l’éducation repose sur la « polyversité », un modèle qui encourage la collaboration entre communautés pour relever les défis planétaires.

La mission de recherche de l’université est elle aussi en crise. Les enseignants-chercheurs évoluent dans un système qui valorise l’hyper-productivité (« publier ou périr », course aux financements…) et la compétition (mesurée par le volume de la production scientifique ou la renommée institutionnelle) en vue d’être les meilleurs au monde, alors qu’ils devraient aspirer à être « les meilleurs pour le monde ».

D’autre part, les universités se voient aujourd’hui concurrencées par des acteurs agiles et hybrides (entreprises, ONG, think tanks) plus aptes à proposer des solutions concrètes aux défis actuels, notamment dans le domaine de l’intelligence artificielle (IA), pourtant incontournable.

La dernière mission de l’université, celle de sa contribution au développement de la société, s’érode également. Les institutions universitaires manquent de ressources pour répondre assez rapidement et largement aux grands défis contemporains et sont trop souvent contraintes par des intérêts politiques ou économiques, comme en témoigne la situation aux États-Unis.

L’émergence de l’intelligence artificielle exacerbe la crise de l’université

L’évolution accélérée des modèles d’IA capable d’exécuter la majorité des tâches intellectuelles et cognitives pousse les universités à relever un défi plus grand encore. Elles sont déjà en passe de perdre leur monopole éducatif avec l’apprentissage personnalisé proposé par l’IA et risquent, à terme, de perdre leur rôle de productrices de savoirs puisque l’IA atteint désormais dans toujours plus de domaines une expertise qui peut mériter un prix Nobel.

Alors que la connaissance cesse d’être un « avantage compétitif » pour les universités comme pour les étudiants et les chercheurs, ceux-ci doivent repenser ce qui fait leur spécificité et montrer la valeur ajoutée de leur humanité. De plus, dans un monde saturé d’IA, les jeunes, déjà en proie à une santé mentale fragile, vont être affectés par les changements technologiques à l’œuvre, qui intensifient leur anxiété.

L’université a tous les atouts pour accepter sa mission planétaire

Face à cette polycrise, les universités n’ont d’autre choix que de redéfinir leur raison d’être : « Nous avons deux vies, et la deuxième commence lorsque nous réalisons que nous n’en avons qu’une » disait Confucius. Les universités entrent dans leur seconde vie : certaines sont déjà contraintes de fermer, beaucoup d’autres disparaîtront si elles ne s’adaptent pas.

L’institution universitaire a cependant toutes les cartes en main pour se réinventer et contribuer au monde de demain. C’est un lieu où les générations futures se rassemblent et où naît le changement, un espace où se cultivent les biens communs de l’humanité (les communs naturels, culturels et technologiques), un carrefour d’intelligences (intelligence personnelle, collective, artificielle), et un lieu où l’on peut imaginer de nouveaux modèles de gouvernance participative.

Face à la polycrise environnementale, sociétale, cognitive, sociale, technologique qui nous fait face, une transition de grande ampleur est nécessaire, et l’université, si elle sait se transformer, semble être l’unique organisation qui puisse agir comme « bâtisseur d’avenir ». En effet, elle seule détient des savoirs dans toutes les disciplines, relie les générations, les secteurs et les communautés, elle est ancrée localement, connectée globalement, et est mue par l’intérêt général.

Interdisciplinaire, intergénérationnelle, interculturelle, socio-écologique : l’université a la capacité d’endosser un rôle de tisserande de liens, à l’origine d’écosystèmes d’apprentissage et d’innovation capables de réparer, de retisser et de régénérer le tissu social et les communs planétaires.

Ce rôle de tisserande soutient la nouvelle mission de l’université : celle de faciliter la transition. Cette mission – transnationale et planétaire – intègre et revitalise les fonctions originelles de l’université : éducation, recherche et développement sociétal. Elle garantit que les universités à travers le monde s’emparent de l’urgente tâche de mener l’humanité vers des futurs durables, équitables et pacifiques.

L’université doit d’abord se réinventer de l’intérieur

Les universités ne peuvent servir de laboratoires de la transition si elles n’entrent pas elles-mêmes en transition. Elles doivent d’abord faire de la recherche pour réinventer leurs propres structures, pouvoir évoluer à l’arrivée de chaque nouvelle génération étudiante, et penser non seulement l’échelle nationale mais aussi l’échelle globale, avec, au cœur de leur stratégie, le bien-être de la planète. Mais elles doivent surtout incarner l’éthique du futur, une éthique basée sur la compassion et la solidarité.

De nombreux exemples existent déjà à travers le monde : des universités historiques comme Oxford University, développent des programmes fondamentaux sur les futurs et les enjeux mondiaux. D’autres universités comme Arizona State University intègrent durabilité, innovation et interdisciplinarité au cœur de leur cursus, tandis que les universités entrepreneuriales Utrecht et Aalto se concentrent sur la gestion des écosystèmes, la durabilité et le design régénératif.

Enfin, des écoversités comme Universidad de Medio Ambiente (UMA) ou UCI adoptent des approches régénératrices pour les communautés locales et mondiales, et des institutions comme le Learning Planet Institute, en partenariat avec l’Université des Nations unies et l’Unesco, se fondent sur le besoin de co-construire l’avenir avec les jeunes générations et des principes d’intelligence collective et de collaboration open source.

Chaque université, quelle que soit sa taille, sa région, sa place dans les classements de type “best in the world”, peut opérer un changement de mission en profondeur pour devenir “best for the world”, meilleur pour le monde.

C’est une opportunité historique dont l’ensemble des acteurs du système universitaire mondiale peuvent se saisir.


Cet article est une invitation à la discussion et à l’échange sur ces sujets. Nous ne souhaitons en aucun cas prôner un modèle uniforme, mais lancer une dynamique adaptable à chaque territoire, à chaque université où chacun·e peut contribuer à une démarche collective et à des futurs souhaitables.

Merci de partager vos initiatives, vos idées, vos projets, vos questionnements et contactez-nous pour engager la transformation des universités.

The Conversation

François Taddei a reçu des financements de l’ANR, du SGPI et de fondations. Il préside le Learning Planet Institute.

Pavel Luksha est directeur du groupe de réflexion Global Education Futures et conseiller stratégique du recteur de l’université de gestion d’Almaty (AlmaU). Il a reçu des financements de European Social Fund et de fondations.

ref. Réinventer les universités : et si nous leur donnions une mission planétaire ? – https://theconversation.com/reinventer-les-universites-et-si-nous-leur-donnions-une-mission-planetaire-255541

Est-ce que le « brassage cognitif » peut vraiment vous aider à vous endormir ?

Source: The Conversation – in French – By Melinda Jackson, Associate Professor at Turner Institute for Brain and Mental Health, School of Psychological Sciences, Monash University

S’endormir n’est pas toujours simple, en particulier lorsque l’on est en proie au stress. Ursula Ferrara/Shutterstock

Plutôt que de se focaliser sur leurs préoccupations, les personnes promptes à s’endormir ont tendance à laisser divaguer leurs pensées, ce qui mène leur cerveau vers un état propice au sommeil. Une méthode que l’on peut tenter de mimer en cas de difficultés d’endormissement, grâce à un exercice appelé « brassage cognitif ».


Si vous fréquentez un tant soit peu les réseaux sociaux – peut-être en plein milieu de la nuit, quand vous n’arrivez pas à dormir, tout en vous disant que ce n’est pas la solution pour trouver le sommeil… – vous avez probablement vu passer l’une des nombreuses vidéos qui vantent les mérites du « brassage cognitif » (« cognitive shuffling » en anglais), une méthode qui, selon ses partisans, favoriserait l’endormissement.

Le principe est de solliciter son cerveau en lui soumettant des images et des idées aléatoires, selon un protocole spécifique qui consiste à :

  • choisir un mot au hasard (par exemple « cookie ») ;

  • se concentrer sur la première lettre de ce mot (ici C) et énumérer une série de mots débutant par cette lettre : chat, carotte, calendrier, etc. ;

  • visualiser chaque nouveau mot ;

  • lorsque vous vous sentez prêt, passer à la lettre suivante (O) et renouveler le processus ;

  • poursuivre avec chaque lettre du mot initial (donc, ici, O, K, I puis E) jusqu’à ce que vous soyez prêt à changer de mot ou que vous sombriez dans le sommeil.

Certes, cette méthode rencontre un certain succès sur Instagram et TikTok. Mais repose-t-elle sur des bases scientifiques ?

D’où vient cette idée ?

La technique du brassage cognitif a été popularisée voici plus d’une dizaine d’années par le chercheur canadien Luc P. Beaudoin, après la publication d’un article décrivant ce qu’il nommait « serial diverse imagining » (« visualisation diversifiée sérielle »), une méthode présentée comme facilitant l’endormissement.

L’un des exemples proposés par Luc Beaudoin mettait en scène une femme pensant au mot « blanket » (couverture en anglais). Elle imaginait ensuite un vélo (en pensant au mot « bicycle », équivalent anglais de bicyclette), puis se visualisait en train d’acheter des chaussures (« buying », « acheter » en anglais). Ensuite, elle faisait surgir dans son esprit un bananier, en pensant au mot « banana » (« banane »), etc.

En passant à la lettre L, elle évoquait son ami Larry, puis le mot « like » (« aimer »), en imaginant son fils qui serrait son chien dans ses bras, avant de basculer sur la lettre A, pensant au mot « Amsterdam », qui lui faisait évoquer mentalement un marin réclamant une autre portion de frites en levant sa large main, dans un bar proche des docks de la capitale batave, tandis qu’en fond sonore, un accordéoniste jouait de son instrument désaccordé… Peu après, elle sombrait dans le sommeil.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Selon Luc Beaudoin, l’objectif de ces exercices mentaux est de penser brièvement à une « cible » neutre ou agréable, puis de passer à d’autres cibles, sans lien avec les précédentes, et ce, fréquemment, soit toutes les 5 à 15 secondes environ. Il ne s’agit ni de relier les mots évoqués entre eux, ni de satisfaire la tendance naturelle de notre esprit à donner du sens. Le brassage cognitif vise plutôt à imiter le fonctionnement cérébral des « bons dormeurs ».

Trier le bon grain pro-endormissement de l’ivraie insomniante

Des recherches ont démontré qu’avant de s’endormir, l’esprit des « bons dormeurs » est envahi de pensées « hallucinatoires », proches du rêve. Ces visions oniriques, désordonnées, sont radicalement différentes des préoccupations angoissées qu’expérimentent les personnes qui ont des tendances à l’insomnie. Ces dernières ont en effet plutôt tendance à se focaliser davantage sur leurs préoccupations, leurs problèmes ou les bruits environnants, tout en s’inquiétant sans cesse de ne pas trouver le sommeil.

Pages semblent s’envoler d’un livre et se transformer en oiseaux.
Les bons dormeurs ont généralement des pensées plus hallucinatoires et moins ordonnées avant de s’endormir que les mauvais dormeurs.
fran_kie/Shutterstock

Le brassage cognitif a pour but de détourner l’attention des pensées qui empêchent la somnolence (inquiétudes, planifications, ruminations) pour privilégier celles qui la favorisent (images calmes et neutres propices au sommeil). Il procure un moyen de s’apaiser et de s’évader, ce qui permet de diminuer le stress lié aux difficultés d’endormissement, et envoie au cerveau le signal que l’on est prêt à sombrer dans le sommeil.

Le va-et-vient d’images aléatoires qu’il met en œuvre mime ce qui se passe naturellement lors de l’endormissement : l’activité cérébrale ralentit et produit sans effort conscient des séquences d’images déconnectées, appelées hallucinations hypnagogiques.

Les recherches préliminaires menées par Luc Beaudoin et son équipe suggèrent que cette méthode aide à réduire l’excitation mentale avant le sommeil, à améliorer sa qualité et à faciliter l’endormissement.

Néanmoins, le nombre d’études étayant ces premiers résultats demeure limité, et des travaux complémentaires sont encore nécessaires.

Et si cela ne fonctionne pas ?

« C’est en forgeant qu’on devient forgeron » : comme pour tout nouvel exercice, acquérir la maîtrise du brassage cognitif passe par une période d’entraînement. Ne soyez pas découragé si l’effet n’est pas immédiat. Persévérez, et faites preuve de bienveillance envers vous-même.

Gardez à l’esprit que chaque individu réagit différemment. Par ailleurs, selon votre relation au stress, d’autres stratégies vous conviendront peut-être davantage :

  • instaurer une routine régulière avant le coucher pour inciter votre cerveau à se détendre ;

  • observer vos pensées, sans aucun jugement, pendant que vous êtes allongé ;

  • noter vos inquiétudes ou élaborer des listes de tâches plus tôt dans la journée, afin d’éviter de les ressasser au moment du coucher.

Et si, malgré tous vos efforts, vos pensées nocturnes continuent à nuire à votre sommeil ou à votre bien-être, n’hésitez pas à consulter votre médecin ou un spécialiste du sommeil.

The Conversation

Melinda Jackson a reçu des financements du Medical Research Future Fund, du National Health and Medical Research Council (NHMRC), de l’Aged Care Research & Industry Innovation Australia (ARIIA) et de Dementia Australia. Elle est membre du conseil d’administration de l’Australasian Sleep Association.

Eleni Kavaliotis a déjà bénéficié d’une bourse du Programme de formation à la recherche (RTP) du gouvernement australien. Elle est membre du Conseil sur l’insomnie et la santé du sommeil de l’Association australasienne du sommeil (Australasian Sleep Association’s Insomnia and Sleep Health Council).

ref. Est-ce que le « brassage cognitif » peut vraiment vous aider à vous endormir ? – https://theconversation.com/est-ce-que-le-brassage-cognitif-peut-vraiment-vous-aider-a-vous-endormir-260685

Le protoxyde d’azote, un gaz hilarant… mais parfois responsable de lourdes séquelles

Source: The Conversation – in French – By Philippe Arvers, Médecin addictologue et tabacologue, Université Grenoble Alpes (UGA)

L’interdiction de vente aux mineurs du protoxyde d’azote – le fameux « gaz hilarant » – ne suffit pas. Cette substance continue à être détournée pour des usages récréatifs, au prix d’atteintes neurologiques qui s’accompagnent de séquelles parfois lourdes.


Il y a quelques années, alors que j’intervenais dans une formation organisée dans le cadre du service sanitaire, Bruno Revol, pharmacien et enseignant-chercheur, nous a relaté le décès d’un étudiant de l’université de Grenoble survenue suite à l’inhalation de protoxyde d’azote.

Si ce gaz, mélangé à l’oxygène, est utilisé de longue date dans le milieu médical comme anesthésiant, ce sont d’autres propriétés qui amènent depuis quelque temps un nombre croissant de jeunes gens à détourner son usage : inhaler du protoxyde d’azote provoque en effet fous rires et désinhibition, ce qui lui a valu son surnom de « gaz hilarant ». Au prix, parfois, de graves complications.

Des « air bags parties » à l’invention de l’anesthésie générale

Le protoxyde d’azote, de formule chimique N2O, a été découvert en 1772 par le pasteur anglais Joseph Priestley, connu pour ses travaux de chimiste et de physicien. C’est un autre chimiste britannique, le jeune Humphry Davy, qui découvre ses propriétés euphorisantes et désinhibantes, à la charnière du XVIIIe et du XIXe siècle.

Ses expérimentations font alors école : chimistes, médecins, auteurs de théâtre, chirurgiens, poètes… la haute société anglaise organise de mémorables « air bag parties » pour inhaler ce « gaz hilarant », qui trouve aussi le chemin des foires.

gravure représentant des poètes composant des vers sous l’influence de gaz analogues au gaz hilarant.
Poètes composant des vers lors d’une « air bag party ». Gravure en couleurs de R. Seymour, 1829.
Collection Wellcome

Ce n’est qu’au milieu du XIXe siècle que ses propriétés analgésiques (qui apparaissent au-delà d’une concentration de 10 %) sont découvertes. Si la puissance anesthésique du protoxyde d’azote est faible, et ne permet pas de réaliser un acte chirurgical, ce gaz peut cependant être utilisé comme adjuvant. C’est ainsi qu’en association avec l’inhalation d’éther, il a permis de réaliser les premières opérations chirurgicales sous anesthésie générale.

Le protoxyde d’azote sera ensuite longtemps utilisé par les chirurgiens-dentistes, pour l’extraction de dents. Il sera également mis à contribution dans la prise en charge des blessés, pendant la Première Guerre mondiale, en lieu et place du chloroforme et de l’éther.

Un anesthésiant encore utilisé aujourd’hui

Incolore et inodore, le protoxyde d’azote présente une grande diffusibilité et une faible solubilité dans les tissus, ce qui explique son court délai d’action. Il n’est pas transformé (« métabolisé ») par l’organisme. Par ailleurs, il est éliminé rapidement par voie pulmonaire, dès lors que l’on arrête son administration.

À l’heure actuelle, le protoxyde d’azote est encore utilisé en anesthésie, sous forme d’un mélange composé à 50 % d’oxygène. Appelé MEOPA (Mélange Équimolaire d’Oxygène et Protoxyde d’Azote), ce dernier ne doit pas être confondu avec le protoxyde d’azote pur, comme le souligne le psychiatre Daniel Annequin, spécialiste de la douleur.

Peu onéreux, efficace, d’action rapide et réversible, cet analgésique est utilisé lorsqu’il faut réaliser des gestes douloureux de courte durée en dehors du bloc opératoire (changement de pansements douloureux, brûlés, réalisation de ponction lombaire, sutures, etc.). Il est aussi employé dans les salles d’accouchement, pendant le travail obstétrical.

En France, le MEOPA est le médicament de référence pour les actes et les soins douloureux pédiatriques. Son utilisation est autorisée en médecine libérale, notamment par les dentistes (avec un embout nasal). S’il peut être parfois à l’origine d’effets indésirables (sensations vertigineuses, nausées, vomissements, agitation ou endormissement…), le rapport bénéfice-risque en faveur de son usage est encore considéré comme positif.

Des modalités pratiques d’utilisation en milieu médical ont toutefois été définies, en particulier pour tenir compte de ses effets sur la vitamine B12.

C’est cette toxicité qui est notamment responsable des graves effets observés en cas consommation répétée ou chronique de protoxyde d’azote pur, lorsque son usage « récréatif ».

Hors de l’hôpital, des détournements risqués

Le protoxyde d’azote n’est pas utilisé uniquement en milieu médical. Il est par exemple aussi employé dans le monde du tuning automobile, comme comburant afin d’accroître la puissance des moteurs, ainsi que dans le domaine culinaire, en tant que gaz de compression/propulsion, notamment dans les siphons de cuisine tels que ceux utilisés pour la crème chantilly.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Ce qui pose problème, c’est que ces cartouches sont détournées de leur usage et inhalées, le plus souvent via des ballons de baudruche. Les effets recherchés par les usagers, souvent des adolescents et des jeunes adultes, sont notamment l’euphorie, l’hilarité, le fou rire, la distorsion des perceptions (auditives, visuelles), la sensation de dissociation, le « flottement », et la désinhibition. Ces effets ne durant que deux à trois minutes, les prises sont souvent répétées.

Or, le protoxyde d’azote présente une toxicité neurologique. Il inactive de façon irréversible la vitamine B12. Cette vitamine, essentielle à la fonction nerveuse (ainsi qu’à la formation et à la maturation des globules rouges et à la synthèse de l’ADN) est principalement apportée par les aliments d’origine animale. Stockée dans le foie, elle permet le bon fonctionnement du cerveau (synthèse de neurotransmetteurs) et du système nerveux (myélinisation des neurones).

L’inactivation de la vitamine B12 par le protoxyde d’azote réduit petit à petit le stock hépatique et entraîne une carence d’apport neurologique, au niveau cérébral et des neurones.

Les effets sur la santé

Les risques liés à l’utilisation récréative de protoxyde d’azote peuvent être immédiats : brûlures par le froid du gaz libéré directement depuis la cartouche, asphyxie liée au manque d’oxygène et aux troubles cardiaques induits, perte de connaissance, désorientation temporo-spatiale, risque de chute, troubles de la vigilance, vertiges, surdosage avec troubles moteurs et cardio-respiratoires.

Les complications, en cas de consommations répétées à intervalles rapprochés ou à forte dose, peuvent être sévères, et parfois irréversibles : dépendance, atteintes neurologiques et neuromusculaires (se manifestant par des douleurs, des pertes de sensibilité, de force au niveau des membres, des troubles de la marche, une incontinence), troubles psychiatriques, atteintes cardiaques et troubles de la fertilité.

Ces risques sont majorés quand le gaz est associé à d’autres substances psychoactives, en particulier l’alcool, les poppers, le cannabis ou des psychostimulants.

En cas de consommation chronique, la toxicité du protoxyde d’azote vis-à-vis de la vitamine B12, ainsi que le manque d’oxygène au niveau du cerveau (hypoxie cérébrale) ont des conséquences non négligeables.

Celles-ci se traduisent au niveau neurologique par des atteintes simultanées de la moelle épinière et des nerfs périphériques (myéloneuropathie). En effet, en raison de l’inactivation de la Vitamine B12, une démyélinisation de la moelle se produit, autrement dit une altération de la myéline, la « gaine » qui entoure les fibres nerveuses, essentielle à la transmission de l’influx nerveux.

En conséquence, on observe un engourdissement progressif des membres et des troubles de la coordination des mouvements musculaires (ataxie) dans les deux jambes “”). On observe aussi des troubles neurocognitifs, avec trouble du langage (aphasie) et amnésie.

Le système sanguin est également touché, ce qui se traduit notamment par des troubles hématologiques (atteinte de la moelle, anémie, leucopénie, thrombopénie, etc.). Des problèmes cardiovasculaires tels qu’arythmie, syndrome coronarien, accident vasculaire cérébral (AVC) et embolie pulmonaire peuvent aussi résulter d’une intoxication chronique au protoxyde d’azote.

Par ailleurs, divers troubles psychiatriques et troubles du comportement ont aussi été décrits (paranoïa, délire ou des hallucinations, notamment).

La question de l’addiction au protoxyde d’azote se pose également, en raison de l’existence d’un syndrome de sevrage se traduisant par des nausées, des vomissements, des sueurs, de la tachycardie, des tremblements, des troubles du sommeil, et des hallucinations.

Quelle prise en charge en cas d’intoxication ?

En cas de soupçon d’intoxication par le protoxyde d’azote, voici la conduite à tenir (pour la personne intoxiquée ou son entourage si cette dernière n’est pas en mesure de le faire).

Si l’intoxication survient en journée, et que la victime est consciente, mais présente des symptômes persistants (fourmillements, instabilité, nausées…), le médecin traitant peut être contacté. Les centres antipoison peuvent aussi être sollicités 24h/24 (la liste des numéros de téléphone est accessible sur leur site Internet).

Si la personne perd connaissance, a un comportement anormal, présente des difficultés à respirer, à marcher, ou est victime de convulsions ou des troubles neurologiques soudains, il faut contacter le SAMU (en composant le 15 ou le 112 depuis un portable).

La prise en charge aux urgences repose sur un bilan biologique (dosages plasmatiques d’homocystéine et d’acide méthylmalonique) et sera adaptée à la symptomatologie.

L’intoxication au protoxyde d’azote doit être soupçonnée dès lorsque les personnes présentent des troubles de la marche. Ceux-ci s’expliquent en effet par l’atteinte des cordons postérieurs de la moelle cervicale, ou la présence d’une neuropathie.

Une téléconsultation dédiée à ce phénomène a été initiée par Christophe Riou, addictologue, en collaboration avec le centre d’addictovigilance des Hospices Civils de Lyon et l’hôpital Pierre Wertheimer. Facile d’accès, discrète, elle est adaptée à un jeune public et à son entourage.

Une consommation en hausse en particulier chez les jeunes

D’après les données du Baromètre de Santé publique France, en 2022 14 % des 18-24 ans avaient déjà expérimenté le protoxyde d’azote, et plus de 3 % déclaraient en avoir consommé au cours de l’année.

En 2023, 472 signalements liés à la consommation de protoxyde d’azote ont été enregistrés par les centres d’évaluation et d’information sur la pharmacodépendance-addictovigilance, soit 30 % de plus qu’en 2022. Les centres antipoisons ont quant à eux reçu 305 signalements, soit 20 % de plus qu’en 2022.

Ces chiffres confirment l’augmentation du nombre de cas déclarés de complications associées au protoxyde d’azote observés ces dernières années. L’Association française des centres d’addictovigilance note par ailleurs que la part des signalements concernant des femmes augmente. Ces signalements révèlent également un accroissement des cas liés à un usage répété et prolongé (autrement dit, supérieur à un an).

Parmi ces signalements d’abus, d’usage détourné et de dépendance, 92 % font état d’une consommation de doses élevées et de l’utilisation de bonbonnes de grand volume, tandis que 50 % d’entre eux relatent une consommation quotidienne.

Profil des utilisateurs

Aux Pays-Bas, selon l’European Union Drugs Agency, l’enquête sur la population générale menée en 2020 auprès des adultes âgés de 18 ans et plus a révélé que la consommation de protoxyde d’azote au cours des 12 derniers mois était la plus élevée chez les jeunes adultes âgés de 18 à 19 ans (14,5 %) et de 20 à 24 ans (12,1 %).

Au Danemark, une enquête menée en 2019 a révélé que la consommation au cours de la vie chez les jeunes âgés de 15 à 25 ans était de 13,5 %, contre 6,5 % au cours des 12 derniers mois.

Une enquête menée en 2016 au Royaume-Uni a révélé que 9 % des personnes âgées de 11 à 15 ans s’étaient vu proposer du protoxyde d’azote, et en 2021, 1,8 % des jeunes du même groupe d’âge ont reconnu en avoir consommé.

Selon l’ANSM, les consommateurs sont plus souvent des hommes (58 %) âgés de 22 ans en moyenne, et 10 % sont des mineurs. 80 % des signalements recensent des troubles neurologiques.

Les mesures d’interdiction de vente en France

Depuis le 1er juin 2021, la vente de protoxyde d’azote (gaz hilarant) est interdite aux mineurs, dans tous les commerces, lieux publics et sur Internet. Elle est aussi interdite dans les bars, discothèques, débits de boissons temporaires ou bureaux de tabac.

En juillet 2023, un arrêté a plafonné la quantité vendable aux particuliers à 10 cartouches maximum, toutefois en cas de dépassement, aucune sanction stricte n’est mentionnée.

Le 29 janvier 2025, l’Assemblée nationale a adopté en première lecture une proposition de loi visant à interdire toute vente aux particuliers, sans critère d’âge, dans tous les commerces et en ligne. La mise en application est prévue au 1er janvier 2026 .

Cette interdiction visera l’importation, la vente et la commercialisation, tout en prévoyant des dérogations pour certains professionnels (secteur médical, restauration, industrie alimentaire), via un décret définissant les circuits autorisés et les obligations de traçabilité.

Par ailleurs, après Lyon l’année dernière, la ville de Grenoble a décidé le 5 mai 2025 de prendre des mesures d’interdiction contre la consommation, la vente et l’abandon sur la voie publique de protoxyde d’azote. Le texte s’applique dans l’est et le centre-ville de la municipalité, jusqu’au 31 décembre 2025.

Terminons en rappelant que le protoxyde d’azote est un puissant gaz à effet de serre. Il occupe la troisième place sur le podium des gaz à effet de serre dont l’émission aggrave le réchauffement climatique derrière le dioxyde de carbone (CO2) et le méthane (CH4) (si l’on ne tient pas compte de la vapeur d’eau). Il est 265 fois plus puissant que le CO2, et possède une longue demi-vie, de 120 ans (dans ce cas, la demi-vie est le délai pour que la moitié du produit considéré se transforme). Le protoxyde d’azote est aussi l’un des principaux agents de la destruction de la couche d’ozone..

Or, chaque année, les seules émissions de protoxyde d’azote à usage anesthésique sont estimées à plusieurs millions de tonnes d’équivalent CO2 dans les pays développés. Une consommation qui peine à se réduire en Europe malgré de multiples recommandations médicales en restreignant l’indication. Une raison supplémentaire d’éviter de s’adonner à l’utilisation récréative du protoxyde d’azote, au-delà des risques pour la santé qu’elle représente…


Pour en savoir plus

The Conversation

Philippe Arvers ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le protoxyde d’azote, un gaz hilarant… mais parfois responsable de lourdes séquelles – https://theconversation.com/le-protoxyde-dazote-un-gaz-hilarant-mais-parfois-responsable-de-lourdes-sequelles-259568

5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine

Source: The Conversation – in French – By Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

On retrouve la trace d’un lien direct avec les chiens du Mexique ancien uniquement chez les chihuahuas. Nic Berlin / Unsplash, CC BY

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. En mettant au jour de nombreux fossiles, les scientifiques ont montré une arrivée très tardive sur ce continent par rapport aux autres et une évolution bouleversée par la colonisation européenne.


Parmi tous les animaux élevés et domestiqués par l’humain, le chien est celui avec lequel nous partageons la plus longue relation, avec des indices de soins et d’inhumation volontaire remontant au moins à 14 000 ans. Mais s’il existe un lien avéré entre les sociétés de chasseurs-cueilleurs du début de l’Holocène, il y a moins de 12 000 ans, et les chiens dans de nombreuses régions du monde, il en est d’autres où ils arrivent bien plus tard.

C’est le cas notamment de l’Amérique centrale et de l’Amérique du Sud, où les plus anciens squelettes de chiens ne datent que d’il y a 5000 à 5500 ans. Or on trouve déjà des chiens en Amérique du Nord il y a près de 10 000 ans en Alaska et plus de 8000 ans dans l’Illinois. Pourquoi observe-t-on un tel décalage ? C’est pour aborder cette question que notre équipe internationale et interdisciplinaire, rassemblant des archéozoologues, des archéologues et des paléogénéticiens, a rassemblé des restes de chiens archéologiques pour analyser les lignées représentées et leurs dynamiques. Nous venons de publier nos résultats dans la revue scientifique Proceedings of the Royal Society B : Biological Science.

Nous avons mis en évidence une diversification génétique des chiens il y a environ 7000 à 5000 ans, qui correspond au développement de l’agriculture et aux transferts de plantes entre les différentes régions, en particulier le maïs.

D’autre part, nos travaux montrent que les lignées présentes aujourd’hui en Amérique sont pour l’essentiel très différentes de celles qui étaient présentes avant la colonisation européenne, il y a 500 ans. Ces dernières descendent de chiens venant d’Europe, d’Asie ou d’Afrique, apportés par le commerce trans-océanique. Ce n’est que chez certains chihuahuas que l’on retrouve la trace d’un lien direct avec les chiens du Mexique ancien.

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !

Une quarantaine de sites archéologiques analysés

Avec le développement des analyses paléogénétiques (l’analyse de l’ADN ancien), aborder les questionnements archéologiques demande d’associer des chercheurs aux profils variés et c’est ce que notre projet de recherche a permis. Pour étudier l’origine et les dynamiques des populations de chiens en Amérique centrale et du Sud, il nous a fallu identifier et rassembler des squelettes issus de 44 sites archéologiques, qui s’étendent du centre du Mexique au nord de l’Argentine.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou.
Nicolas Goepfert, Fourni par l’auteur

Nous avons travaillé sur des fouilles récentes, nous permettant d’avoir un maximum d’informations sur les contextes d’où venaient les chiens, mais aussi sur la réanalyse de collections anciennes dans lesquelles des restes de canidés avaient été trouvés. Confirmer l’identification de ces chiens a également été un défi : en Amérique du Sud en particulier, il existe de nombreux canidés dont la taille et la morphologie sont proches de celles du chien : renards, loup à crinière, chien des buissons… Il s’agit d’ailleurs d’animaux qui ont pu être proches des groupes humains, jusqu’à être inhumés. C’est donc l’utilisation d’analyses morphologiques fines qui nous ont permis de sélectionner les os et les dents analysés. Nous avons extrait l’ADN de 123 chiens (dont les poils de 12 chiens modernes, pour nous servir de référentiels) dans des laboratoires spécialisés en France, au Muséum national d’histoire naturelle, et au Royaume-Uni, à l’Université d’Oxford.

Le séquençage de cet ADN s’est fait en deux étapes. Nous avons d’abord étudié l’ensemble des fragments d’ADN disponibles qui nous ont permis de confirmer qu’il s’agissait bien de chiens et pas d’autres canidés sauvages. Les critères morphologiques que nous avions utilisés sont donc confirmés. Mais, dans la plupart des cas, le génome de ces chiens n’était pas assez bien couvert par le séquençage pour en dire plus : il s’agit d’une des conséquences de la dégradation de l’ADN, à la mort d’un individu, qui se fragmente intensément et, comme un puzzle aux pièces minuscules, il devient difficile de reconstituer un génome complet.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou.
Nicolas Goepfert, Fourni par l’auteur

Quand l’ADN mitochondrial révèle ses secrets

Dans un second temps, nous avons réalisé une capture de l’ADN mitochondrial pour filtrer les fragments d’ADN contenus dans les échantillons et garder préférentiellement ceux qui se rapportent au génome mitochondrial. En effet, il existe deux sortes d’ADN dans les cellules : l’ADN nucléaire, contenu dans le noyau de chaque cellule, qui provient pour moitié du père et pour moitié de la mère de chaque chien ; et l’ADN mitochondrial, contenu dans les mitochondries de chaque cellule, et qui, au moment de la fécondation, font partie l’ovule. C’est donc un ADN transmis exclusivement par la mère de chaque chien. Or l’ADN mitochondrial est très court (un peu moins de 17 000 paires de bases, contre 2,5 milliards de paires de bases pour l’ADN nucléaire du chien) et il est présent en multiples exemplaires dans chaque mitochondrie. C’est donc un ADN plus facile d’accès pour la paléogénomique.

Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial
Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial.
Aurélie Manin, Fourni par l’auteur

Nous avons obtenu suffisamment de fragments d’ADN mitochondrial pour reconstituer les lignées maternelles de 70 individus (8 chiens modernes et 62 chiens archéologiques) et les analyser au moyen d’outils phylogénétiques, c’est-à-dire permettant de reconstituer les liens de parenté entre les chiens. Les arbres phylogénétiques que nous avons pu reconstituer nous ont permis de confirmer que l’ensemble des chiens américains de la période pré-contact (c’est-à-dire avant les colonisations européennes de l’Amérique il y a 500 ans) ont un ADN mitochondrial se rapportant à une seule lignée, traduisant bien l’arrivée du chien en Amérique au cours d’une seule vague de migration.

Néanmoins, nos travaux permettent de préciser que l’ensemble des chiens d’Amérique centrale et du Sud se distinguent des chiens d’Amérique du Nord (Canada et États-Unis actuels) dont ils se séparent il y a environ 7000 à 5000 ans. Cet âge, qui correspond au dernier ancêtre commun à tous les chiens d’Amérique centrale et du Sud, coïncide avec le développement des sociétés agraires, une période pendant laquelle on observe de nombreux mouvements de plantes entre les régions, et notamment celui du maïs, domestiqué au Mexique, qui arrive en Amérique du Sud il y a environ 7000 ans. La structure des lignées maternelles suggère par ailleurs que la diffusion des chiens s’est faite de manière progressive, de proche en proche : les chiens les plus proches géographiquement sont aussi les plus proches génétiquement. Ce principe d’isolement génétique par la distance s’applique normalement plus aux animaux sauvages qu’aux animaux domestiques, dont les mouvements sont avant tout marqués par la volonté humaine qui induit un brassage au gré des échanges culturels. Nous nous sommes interrogés sur les mécanismes de diffusion des chiens en Amérique, suggérant une dispersion relativement libre, liée aux changements d’activités de subsistance et à l’augmentation du stockage des ressources, qui peut avoir contribué à attirer des chiens féraux (vivant à l’état sauvage).

Un chihuahua descendant des chiens précoloniaux

Aujourd’hui, on ne retrouve presque plus trace de ces lignées et leur structuration en Amérique. Un des chiens de notre étude, issu du village indigène de Torata Alta, dans les Andes Centrales, et daté d’avant 1600 de notre ère, possède un ADN maternel d’origine eurasiatique. Les Européens arrivent dans la région en 1532, certainement accompagnés de chiens, et cet individu nous montre que leur lignée s’est rapidement intégrée dans l’entourage des populations locales. C’est le seul animal issu d’un contexte colonial inclus dans notre étude et on ne dispose pas de plus d’informations permettant d’expliquer les mécanismes ayant mené à la diversité génétique des chiens observée aujourd’hui. Quoi qu’il en soit, parmi les chiens de race moderne dont on connaît le génome mitochondrial, un chihuahua porte un génome dont la lignée maternelle remonte aux chiens ayant vécu au Mexique à la période pré-contact. Un indice qui vient corroborer les sources concernant l’histoire de cette race, dont les premiers représentants auraient été acquis au Mexique dans la seconde moitié du XIXe siècle.

Ce travail interdisciplinaire nous a permis de mieux comprendre la diffusion et l’origine des populations de chiens en Amérique centrale et du Sud. Néanmoins, il ne porte que sur l’ADN mitochondrial, et donc sur l’évolution des lignées maternelles. L’analyse du génome nucléaire pourrait révéler d’autres facettes de l’histoire des chiens en Amérique que de futurs travaux permettront de développer.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Aurélie Manin a reçu des financements du NERC (Natural Environment Research Council) au Royaume-Uni pendant la réalisation de cette étude.

ref. 5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine – https://theconversation.com/5-000-ans-avant-le-chihuahua-lepopee-des-chiens-en-amerique-latine-260107

Le genre en archéologie : un retard français difficile à justifier

Source: The Conversation – in French – By Caroline Trémeaud, Chargée de recherche Service archéologique des Ardennes, UMR 8215 Trajectoires, Centre national de la recherche scientifique (CNRS)

La notion de genre a commencé à émerger en archéologie à la fin des années 1970, dans les pays nordiques et anglo-saxons. Sa conceptualisation théorique se concrétise à partir des années 1990 avec une multiplication des monographies sur cette question, tant en Europe qu’outre-Atlantique. Or, la recherche française en archéologie, notamment en pré- et protohistoire, ne s’est pas du tout intéressée aux problématiques de genre et ne les a pas intégrées à ses recherches. Pourquoi ?


La première moitié du XXe siècle voit apparaître les prémices des réflexions sur la notion de « rôles sexuels » dans les sciences humaines et sociales, avec notamment les travaux de l’anthropologue américaine Margaret Mead. A la fin des années 1950, Simone de Beauvoir marque une étape avec la distinction entre la femelle et la femme, et son célèbre : « On ne naît pas femme, on le devient ».

A partir des années 1970, avec la montée des mouvements féministes, les sciences humaines et sociales s’emparent de la question des femmes. Entre 1970 et 1990, on assiste à une véritable conceptualisation du genre : sa distinction avec le sexe, sa définition comme un système de différenciation, mais aussi de domination. La terminologie est mise en place et le genre apparaît comme une discipline à part entière au sein des sciences humaines et sociales.

Parallèlement, le genre émerge également en archéologie dès la fin des années 1970, dans un premier temps en Préhistoire, où les problématiques liées à l’interprétation des structures sociales étaient très présentes. Les pays nordiques et le monde anglo-saxon s’emparent du sujet au travers de plusieurs séminaires et publications visant à redonner une place aux femmes comme sujet d’étude, et à gommer les biais androcentriques (qui consistent à envisager le monde d’un point de vue masculin). Les problématiques de genre en archéologie sont définitivement ancrées au début des années 1990 comme un champ de recherche à part entière.

Mais l’archéologie française est restée à l’écart de ce phénomène. Cette constatation est récurrente et soulignée par de nombreux chercheurs sur le genre. Il faut attendre le milieu des années 2010 pour que les premiers ouvrages sur ce sujet soient publiés en France.

Le phénomène est d’autant plus curieux que dans les autres disciplines des sciences humaines et sociales, la recherche française n’est pas absente des problématiques de genre : elle s’y est généralement intéressée dans une chronologie similaire à celle du monde anglo-saxon. Comment expliquer donc cette absence en archéologie ?

Une terminologie problématique en France ?

Le problème de légitimité du terme même de « genre », souvent souligné pour les sciences sociales, est à envisager. En effet, la recherche d’occurrences dans les publications fait clairement ressortir l’absence de l’expression « archéologie du genre » mais aussi la présence d’une autre terminologie : « histoire des femmes », « place des femmes ».

Ce problème de vocabulaire pourrait être lié à la polysémie même du terme de genre, qui est souvent évoquée pour expliquer sa moindre utilisation : le mot renvoie au genre grammatical ou au genre des naturalistes (mâle-femelle), voire à la catégorisation en littérature. Ce problème n’est pas propre à l’archéologie, et s’est traduit dans les sciences sociales françaises avec trois appellations successives depuis les années 1970 : « Études sur les femmes », « Études féministes » et, enfin, « Études sur le genre ».

Les mêmes hésitations ou réticences à utiliser le terme genre ont été à l’œuvre en archéologiques mais une trentaine d’années plus tard, dans les années 2010, lorsque les premières thèses sur le sujet sont réalisées. Ainsi, en 2009, le travail doctoral de Chloé Belard a commencé sous l’appellation : « Les femmes en Champagne pendant l’âge du fer et la notion de genre en archéologie funéraire (dernier tiers du VIe – IIIe siècle av. J.-C.) ». Lors de sa publication en 2017, son titre était devenu : « Pour une archéologie du genre, les femmes en Champagne à l’âge du Fer ». De la simple notion, une véritable revendication du terme (et du travail qui en découle) apparaît alors.

La question du vocabulaire reste cependant insuffisante pour expliquer l’absence de recherche sur cette problématique en archéologie. En effet, bien que son usage soit polémique, les problématiques sont apparues dans d’autres disciplines. Alors, pourquoi des études sur la place des femmes, ou les rapports sociaux de sexe n’ont pas émergé en archéologie française, en Pré – et Protohistoire dès les années 1990 ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une discipline peu adaptée ?

L’hypothèse d’une discipline d’où les femmes (chercheuses) seraient absentes, ce qui n’aurait pas permis de prendre le train du genre en marche, n’est pas recevable : les Françaises archéologues n’étaient ni moins nombreuses, ni moins impliquées que dans d’autres pays.

Une hypothèse propre aux particularités de la discipline archéologique (des données trop fragmentaires, trop ponctuelles) pourrait être proposée. Néanmoins, pourquoi cette limite serait-elle propre à la recherche française ? Le monde anglo-saxon a au contraire développé les recherches sur le genre en archéologie.

L’archéologie française est peut-être restée plus longtemps dans une approche « processualiste » de l’archéologie, plus rattachée à l’étude des cultures matérielles, objective et cartésienne des données ; se tenant alors plus éloignée d’une archéologie théorique et de l’archéologie « post-processualiste », alors que cette dernière prenait son essor dans le monde anglo-saxon, facilitant l’émergence des études de genre.

Entre un manque d’institutionnalisation, les difficultés du terme à s’imposer jusque dans les années 2000 et des données à priori peu adaptée à cette problématique, l’absence de genre en archéologie pré – et protohistorique apparaît comme multifactorielle. Aucune hypothèse explicative ne semble suffisante pour justifier cette lacune ? D’autant qu’en archéologie, en France, des questions sur la place des femmes se sont posées lors de certaines fouilles…

Le cas de la Dame de Vix

En février 1953, dans le nord de la Côte d’Or, à Vix, est découverte une sépulture princière de la fin du VIe s. av. J.-C., comportant notamment un torque en or de plus de 400g et un cratère en bronze d’une capacité de 1 100 l. L’absence d’arme lance un vif débat : cela ouvre la possibilité qu’il puisse s’agir d’une tombe féminine.

En archéologie, une tombe masculine particulièrement riche soulève peu de questions d’interprétation : il s’agit probablement d’un personnage dirigeant. Mais s’il s’agit d’une femme, sa richesse n’est que rarement interprétée comme une marque de son propre pouvoir, mais comme le signe qu’elle est liée à un homme puissant (son mari, son père ou son frère…) On pourrait imaginer que le principe du rasoir d’Ockham s’appliquerait : pour une tombe très riche, avec tous les marqueurs de pouvoirs, peu importe le sexe ou le genre de la personne, l’hypothèse d’un personnage dirigeant doit être discutée. Mais ce n’est pas le cas.

Pendant un demi-siècle, articles scientifiques et de recherches vont essayer de répondre à la question : qui est la Dame de Vix ?

Représentation féminine sur une monnaie gauloise, IIe siècle av J.-C.
Représentation féminine sur une monnaie gauloise, IIe siècle av J.-C.
Musée de Bretagne, Rennes, CC BY

Les hypothèses vont se succéder : religieuse, travestissement, situation de régence… En 2002, on suppose même qu’elle devait être extrêmement laide, ce qui lui aurait permis d’avoir une forme de pouvoir spirituel ou religieux, une position sociale prééminente qui expliquerait sa richesse. Il aura fallu des études ADN (récemment confirmée par la réouverture des fouilles) pour que son sexe ne soit plus remis en question : il s’agit bien d’une femme.

L’aspect le plus étonnant n’est pas tant dans la démultiplication des stéréotypes ou le biais hétéronormatif que souligne cette littérature, mais dans une sorte d’aporie : durant ces 50 ans de débats autour de la Dame de Vix, jamais une réflexion plus globale sur la place des femmes ou sur les rapports sociaux de sexe dans ces sociétés ne sera posée. L’analyse reste au niveau anecdotique, sur un cas particulier.

De l’occultation du genre à l’effet de mode

Depuis le milieu des années 2010, les choses s’améliorent. Le dynamisme des études de genre en archéologie est désormais bien visible, que ce soit à travers la multiplication des publications, des travaux universitaires ou encore des journées d’étude. Cette évolution positive permet une visibilité accrue, des échanges renforcés et stimulés.

Il ne manque désormais qu’une reconnaissance de cette spécialité au travers d’une institutionnalisation universitaire avec l’intégration concrète du genre dans les formations et la création de postes spécialisés.

Ces deux dimensions manquent cruellement. En effet, le genre est devenu le mot-clé des institutions pour promouvoir l’égalité. Aussi bénéfique qu’elle soit, cette reconnaissance est à double tranchant. Sans une approche théorique et méthodologique sérieuse, faire du genre en archéologie revient presque à appliquer les mêmes stéréotypes que ceux dénoncés. Le genre est un réel outil que l’archéologie doit s’approprier : il paraît aujourd’hui plus que nécessaire de le définir, le redéfinir et expliquer son pouvoir heuristique, pour éviter les dérives interprétatives et abus théoriques.

La légitimation du genre en archéologie semble acquise. Désormais, l’archéologie se doit de dépasser l’engouement et produire une archéologie du genre rigoureuse.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Caroline Trémeaud a reçu des financements de l’Institut Emilie du Châtelet, sous la forme d’une allocation doctorale finançant cette recherche.

ref. Le genre en archéologie : un retard français difficile à justifier – https://theconversation.com/le-genre-en-archeologie-un-retard-francais-difficile-a-justifier-255321

L’école face aux fake news : apprendre à décrypter les discours pour former des citoyens avertis

Source: The Conversation – in French – By Marie Coutant, Doctorante en Didactique des Disciplines (LAB-E3D), Université de Bordeaux

Dans un monde où les discours circulent de plus en plus vite et peuvent être générés par des machines, il importe plus que jamais d’apprendre aux élèves à remettre en contexte ce qu’ils lisent et à comparer leurs sources, en s’interrogeant sur les intentions des locuteurs. Exemple en classe de CM2.


Dans un contexte marqué par une surabondance d’informations issues des réseaux sociaux et d’internet, il devient de plus en plus difficile, pour les jeunes, de distinguer les sources fiables des contenus mensongers. Dans ce contexte, le rôle des enseignants dans le développement des compétences critiques des élèves s’avère crucial.

Peu de chercheurs en didactique se sont véritablement attelés à définir ce que recouvre la notion de critique. Ce n’est pas une discipline officiellement enseignée. Cette notion est transversale, on parle plutôt de compétence critique ou de pensée critique.

Voici ce que propose Hannah Arendt dans Juger, sur la philosophie politique de Kant : « Le penser critique n’est possible que là où les points de vue de tous les autres sont ouverts à l’examen ». L’examen c’est l’analyse, l’observation minutieuse d’un élément pour établir une réalité. En histoire, il est difficile d’établir une vérité en dehors des faits, un document portant toujours le point de vue de celui qui l’a créé. On préfère donc le terme de réalité. Afin de mener cet examen, comment s’y prend-on ? Quel processus peut être mis en œuvre ?

Le rôle de l’enseignant

La classe se structure autour de plusieurs pôles : l’enseignant, les élèves et le savoir en jeu, constituant ce que l’on désigne généralement comme le triangle didactique. En amont de la séance, l’enseignant engage une réflexion préalable sur les savoirs à transmettre. Il est alors pertinent d’analyser les modalités concrètes qu’il mobilise en situation d’enseignement, sous la forme de gestes professionnels.

L’enseignant va utiliser cet outil pour guider, orienter les élèves vers le savoir qu’il a décidé de viser : ici, la compétence critique. Étudier son rôle et son langage est donc une entrée pour mieux comprendre le discours des élèves et, à travers leurs paroles, leur faire apprendre un savoir, une compétence. Le discours de l’enseignant va être analysé au prisme de ce qu’on appelle les gestes professionnels langagiers didactiques.

Ce concept de gestes professionnels trouve son origine dans la psychologie du travail. Il renvoie d’abord à des gestes corporels : l’enseignant se déplace, mobilise ses mains et exprime des intentions à travers ses mimiques. Ces gestes sont qualifiés de « professionnels » car ils contribuent à l’instauration de codes partagés au sein de la classe (corriger des copies par exemple). Ils sont également langagiers, dans la mesure où le langage constitue l’outil central de l’enseignant pour transmettre des connaissances : il s’agit d’un discours structuré autour d’un objectif d’apprentissage. Enfin, ces gestes sont didactiques, en ce qu’ils participent à la construction d’un savoir ciblé. Cet ensemble de gestes relève d’un processus d’étayage, visant à guider et orienter l’activité cognitive des élèves.

L’enseignant mobilise le langage de diverses manières : pour mettre en lumière le thème de la discussion (geste de focalisation), valoriser l’intervention d’un élève en la reprenant (geste de reprise), attirer l’attention sur un élément pertinent à analyser (geste de pointage), reformuler et enrichir les propos d’un élève (geste de reformulation), ou encore établir des liens avec des connaissances précédemment construites (geste de tissage didactique).

Ces gestes de l’enseignant peuvent amener les élèves à se poser des questions, à réfléchir et à débuter la construction d’une compétence critique.

Un cours d’histoire en CM2

Les données sont recueillies dans une classe de CM2 lors des séances d’histoire. La démarche de cette recherche est d’étudier des lettres de poilus présentant des points de vue différents, voire divergents. Les élèves sont confrontés à l’avis de quelqu’un qui a vraiment existé et qui nous livre sa pensée. Les élèves sont amenés à utiliser les mêmes outils que les historiens pour comprendre les documents : mener des enquêtes.

Ici il s’agit de deux lettres de poilus (Giono et Prieur) qui ont écrit en étant au même endroit (1916 à Verdun) mais pas tout à fait au même moment. Voici les lettres transcrites.

Initier les élèves à un questionnement méthodique

Afin de mettre en évidence l’intérêt des gestes professionnels langagiers didactiques dans les propos de l’enseignante et leur rôle dans la construction d’une pensée critique, nous analysons un échange portant sur la lettre de Giono (la lettre de Prieur ayant également été travaillée en classe). L’enseignante est désignée par l’abréviation PE, et les prénoms des élèves ont été modifiés. La transcription rend fidèlement les échanges, y compris les erreurs de langage. Les gestes professionnels langagiers didactiques repérés sont signalés en gras.


Fourni par l’auteur

Dans le tour de parole 335, l’enseignante focalise l’attention des élèves sur l’objet de la discussion, à savoir la lettre de Giono. Elle reformule alors l’intervention d’une élève en soulignant que la lettre de Prieur « dit la vérité ». Elle oriente ensuite le regard des élèves vers la lettre de Giono et les invite à réfléchir à la question de sa véracité.

Cela entraîne des réponses intéressantes de la part des élèves : « il ment » (Giono), un autre précise « il dissimule la vérité ». Les élèves questionnent le contenu de la lettre de Giono et réalisent que l’auteur ment : ce que dit Giono est donc potentiellement faux.

L’enseignante reprend sans modification l’intervention d’Archie et demande des précisions sur les indices qui le mènent à cette conclusion.

L’enseignante précise sa question : que manque-t-il dans cette lettre pour être crédible ?

Les élèves répondent de deux manières : en citant les éléments manquants tel le lexique en lien avec le domaine de la guerre (qui sont évoqués dans la lettre de Prieur) et, en réalisant que l’auteur parle de joie, terme qui ne coïncide pas avec la thématique guerrière.

L’enseignante reprend la remarque d’Archie sur le mot « joie » en donnant son avis (« choquant »). Elle incite les élèves à continuer leur enquête en cherchant d’autres mots inattendus dans la lettre de Giono. Archie trouve tout de suite le mot « heureux ».


Fourni par l’auteur

L’enseignante questionne ensuite les élèves dans l’objectif de replacer la situation dans un contexte qui leur permet de comprendre le décalage entre être heureux et être en guerre. Elle engage un tissage didactique, pour chercher un lien entre ce qu’ils connaissent et ce qui est travaillé en classe : « A quel moment de votre vie vous êtes heureux ? »

Jane se positionne et estime que Giono dit la vérité, mais la sienne, en omettant l’aspect négatif que représentent la guerre et ses combats.

Les élèves comprennent ensuite que Giono s’adresse à ses parents âgés et qu’il cherche à ne pas les inquiéter. La compétence critique permet alors aux élèves de saisir non seulement ce que dit l’auteur, mais surtout pourquoi il le formule de cette manière et pas autrement. Elle les amène à comprendre qu’un texte ne se limite pas à transmettre une information : il produit un discours – au sens fort du terme – qui poursuit un objectif spécifique (ici, rassurer ses parents). Les gestes de l’enseignante visent précisément à guider les élèves vers cette compréhension.

Initier les élèves à un questionnement méthodique permettant de mieux comprendre la fonction d’un document relève de gestes professionnels que l’enseignant peut mettre en œuvre en classe. On le voit bien dans cet extrait de transcription : l’enseignante pose des questions pour orienter la réflexion des élèves et cela permet aux élèves de questionner ce qu’ils lisent.

Face aux réseaux sociaux, l’école primaire et le travail autour de la compétence critique doivent permettre aux jeunes d’être en mesure d’analyser les informations reçues et de pouvoir les trier.

The Conversation

Marie Coutant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’école face aux fake news : apprendre à décrypter les discours pour former des citoyens avertis – https://theconversation.com/lecole-face-aux-fake-news-apprendre-a-decrypter-les-discours-pour-former-des-citoyens-avertis-258036

Le « Parti de l’Amérique » d’Elon Musk peut-il faire vaciller le bipartisme ?

Source: The Conversation – in French – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Les tensions entre Donald Trump et Elon Musk semblent avoir atteint un point de non-retour. Le milliardaire de la tech vient d’annoncer la création de sa propre formation politique, le « Parti de l’Amérique ». Si le bipartisme paraît gravé dans le marbre du système états-unien, cette tentative de troisième voie s’inscrit dans une longue tradition de contestation – avec, jusqu’ici, un succès limité.


L’histoire politique des États-Unis a souvent été façonnée par des élans de colère : colère contre l’injustice, contre l’inaction, contre le consensus mou. À travers cette rage parfois viscérale surgit l’énergie de la rupture, qui pousse des figures marginales ou charismatiques à se dresser contre l’ordre établi.

En ce sens, le lancement par Elon Musk du Parti de l’Amérique (« American Party ») s’inscrit dans une tradition d’initiatives politiques issues de la frustration à l’égard d’un système bipartisan jugé, selon les cas, sclérosé, trop prévisible ou trop perméable aux extrêmes. Ce geste politique radical annonce-t-il l’émergence d’une force durable ou ne sera-t-il qu’un soubresaut médiatique de plus dans un paysage déjà saturé ?

Le système bipartisan : stabilité, stagnation et quête d’alternatives

Depuis le début du XIXe siècle, le paysage politique américain repose sur un duopole institutionnalisé entre le Parti démocrate et le Parti républicain. Ce système, bien que traversé par des courants internes parfois contradictoires, a globalement permis de canaliser les tensions politiques et de préserver la stabilité démocratique du pays.

L’alternance régulière entre ces deux forces a assuré une continuité institutionnelle, mais au prix d’un verrouillage systémique qui marginalise les initiatives politiques émergentes. Le scrutin uninominal majoritaire à un tour, combiné à une logique dite de « winner takes all » (lors d’une élection présidentielle, le candidat vainqueur dans un État « empoche » l’ensemble des grands électeurs de cet État), constitue un obstacle structurel majeur pour les nouveaux acteurs politiques, rendant leur succès improbable sans une réforme profonde du système électoral.




À lire aussi :
Débat : Aux États-Unis, le problème est le scrutin majoritaire, pas le collège électoral


Historiquement, plusieurs tentatives ont cherché à briser ce duopole. L’exemple le plus emblématique reste celui de Theodore Roosevelt (président de 1901 à 1909), qui, en 1912, fonda le Progressive Party (ou Bull Moose Party), dont il devint le candidat à la présidentielle de cette année. Le président sortant, William Howard Taft, républicain, vit alors une grande partie des voix républicaines se porter sur la candidature de Roosevelt, qui était membre du Parti républicain durant ses deux mandats, ce dernier obtenant 27 % des suffrages contre 23 % pour Taft ; le candidat du parti démocrate, Woodrow Wilson, fut aisément élu.

Plus récemment, en 1992, dans une configuration assez similaire, le milliardaire texan Ross Perot capta près de 20 % des voix en tant que candidat indépendant lors de l’élection remportée par le démocrate Bill Clinton devant le président sortant, le républicain George H. Bush, auquel la présence de Perot coûta sans doute un nombre considérable de voix. Perot allait ensuite fonder le Reform Party en 1995. Sa rhétorique anti-establishment séduisit un électorat désabusé, mais son mouvement s’effondra rapidement, victime d’un manque de structure organisationnelle, d’idéologie claire et d’ancrage local.

Ross Perot (à droite) lors du troisième débat l’opposant à Bill Clinton et à George H. Bush lors de la campagne présidentielle de 1992.
George Bush Presidential Library and Museum

D’autres figures, telles que les écologistes Ralph Nader (2000, 2004, 2008) et Jill Stein (2012, 2016, 2024) ou le libertarien Gary Johnson (2012 et 2016), ont également porté des candidatures alternatives, mais leur impact est resté marginal, faute de relais institutionnels et d’un soutien électoral durable.

Cette récurrence de la demande pour une « troisième voie » reflète la complexité croissante de l’électorat américain, composé de modérés frustrés par l’immobilisme partisan, de centristes orphelins d’une représentation adéquate et d’indépendants en quête de solutions pragmatiques. Ce mécontentement, ancré dans la perception d’un système bipartisan sclérosé, offre un terrain fertile à des entreprises politiques disruptives, telles que le Parti de l’Amérique d’Elon Musk, qui cherche à transformer cette frustration en une force politique viable.

Le Parti de l’Amérique : une réappropriation symbolique et une réponse au trumpisme

Le choix du nom « Parti de l’Amérique » n’est pas anodin ; il constitue une déclaration politique en soi. En adoptant l’adjectif « American », Musk opère une réappropriation symbolique de l’identité nationale, se positionnant comme une force de rassemblement transcendant les clivages partisans.

Cette stratégie rhétorique vise à redéfinir le débat sur ce que signifie être « américain », un enjeu central dans le discours politique contemporain. Le nom, volontairement générique, cherche à minimiser les connotations idéologiques spécifiques (progressisme, conservatisme, libertarianisme) pour privilégier une identité englobante, à la fois patriotique et universelle, susceptible d’attirer un électorat lassé des divisions partisanes. En outre, en reprenant cette dénomination, qui a été celle de plusieurs formations politiques par le passé, Musk joue avec une mémoire politique oubliée, tout en expurgeant ce terme de ses anciennes connotations xénophobes pour en faire un vecteur d’unité et de modernité.

En effet, dans l’histoire des États-Unis, plusieurs partis politiques ont porté le nom d’American Party bien avant l’initiative d’Elon Musk. Le plus célèbre fut l’American Party des années 1850, aussi connu sous le nom de Know-Nothing Party, un mouvement nativiste opposé à l’immigration, en particulier à celle des catholiques irlandais. Fondé vers 1849, il a connu un succès politique important pendant quelques années, faisant élire des gouverneurs et des membres du Congrès, et présentant l’ancien président Millard Fillmore (1850-1853) comme candidat à l’élection présidentielle de 1856.

Après le déclin de ce mouvement, d’autres partis ont adopté le même nom, notamment dans les années 1870, mais sans impact significatif. En 1924, un autre American Party émerge brièvement comme plate-forme alternative, sans succès durable. Le nom est aussi parfois confondu avec l’American Independent Party, fondé en 1967 pour soutenir George Wallace, connu pour ses positions ségrégationnistes ; ce parti a parfois été rebaptisé American Party dans certains États.

En 1969, une scission de ce dernier a donné naissance à un nouvel American Party, conservateur et anti-communiste. Par la suite, divers petits groupes ont repris ce nom pour promouvoir un patriotisme exacerbé, des idées anti-globalistes ou un retour aux valeurs fondatrices, mais sans réelle influence nationale. Ainsi, le nom American Party a été utilisé à plusieurs reprises dans l’histoire politique américaine, souvent par des partis à tendance nativiste, populiste ou conservatrice, et porte donc une charge idéologique forte.

Le lancement du Parti de l’Amérique de Musk s’inscrit également dans une opposition explicite au trumpisme, perçu comme une dérive populiste du conservatisme traditionnel. Musk, par sa critique des projets budgétaires de Donald Trump, exprime une colère ciblée contre ce qu’il considère comme une gestion économique irresponsable et des politiques publiques inefficaces.

Cette opposition ne se limite pas à une divergence tactique, mais reflète une volonté de proposer une alternative fondée sur une vision techno-libérale, où l’innovation, la rationalité scientifique et l’entrepreneuriat occupent une place centrale. Le Parti de l’Amérique se présente ainsi comme un refuge pour les électeurs désenchantés par les excès du trumpisme et par les dérives perçues du progressisme démocrate, cherchant à dépasser le clivage gauche-droite au profit d’un pragmatisme axé sur l’efficacité, la transparence et la performance publique.

Une idéologie floue : aspirations économiques plutôt que fondements doctrinaires

Le Parti de l’Amérique, malgré son ambition de réinventer la politique américaine, souffre d’une absence de fondements idéologiques cohérents. Plutôt que de s’appuyer sur une doctrine politique clairement définie, le mouvement semble guidé par des aspirations économiques et financières, portées par la vision entrepreneuriale de Musk.

Cette approche privilégie la méritocratie technologique, l’optimisation des ressources publiques et une forme de libertarianisme modéré, qui rejette les excès de la régulation étatique tout en évitant les dérives de l’anarcho-capitalisme. Cependant, cette orientation, centrée sur l’efficacité et l’innovation, risque de se réduire à un programme technocratique, dénué d’une vision sociétale ou éthique plus large.

Le discours du Parti de l’Amérique met en avant la promesse de « rendre leur liberté aux Américains » mais la nature de cette liberté reste ambiguë. S’agit-il d’une liberté économique, centrée sur la réduction des contraintes fiscales et réglementaires pour les entrepreneurs et les innovateurs ? Ou bien d’une liberté plus abstraite, englobant des valeurs civiques et sociales ? L’absence de clarification sur ce point soulève des questions quant à la capacité du parti à fédérer un électorat diversifié.




À lire aussi :
Du populisme de plateforme au populisme politique : Elon Musk change d’échelle


En se focalisant sur des objectifs économiques – tels que la promotion des mégadonnées, de l’intelligence artificielle et de l’entrepreneuriat – au détriment d’une réflexion sur les enjeux sociaux, culturels ou environnementaux, le Parti de l’Amérique risque de se limiter à une élite technophile, éloignant les électeurs en quête d’un projet politique plus inclusif. Cette orientation économique, bien que séduisante pour certains segments de la population, pourrait ainsi entraver la construction d’une base électorale suffisamment large pour concurrencer les partis établis.

Les défis de la viabilité : entre ambition et réalité électorale

La viabilité du Parti de l’Amérique repose sur plusieurs facteurs décisifs : sa capacité à s’implanter localement, à recruter des figures politiques crédibles, à mobiliser des ressources financières et médiatiques durables, et surtout à convaincre un électorat de plus en plus méfiant à l’égard des promesses politiques.

Si Elon Musk dispose d’un capital symbolique et économique considérable, sa transformation en une dynamique collective reste incertaine. Le système électoral américain, avec ses mécanismes favorisant les grands partis, constitue un obstacle majeur. Sans une crise systémique ou une réforme électorale d’envergure, le Parti de l’Amérique risque de reproduire le destin éphémère de ses prédécesseurs.

De plus, la figure de Musk est profondément polarisante. Sa colère, catalyseur de cette initiative, traduit un malaise réel dans la société américaine, mais sa capacité à fédérer au-delà de son audience habituelle – composée d’entrepreneurs, de technophiles et de libertariens – reste à démontrer. Le succès du Parti de l’Amérique dépendra de sa capacité à transcender l’image de son fondateur (lequel ne pourra pas, en tout état de cause, se présenter à l’élection présidentielle car il n’est pas né aux États-Unis) pour incarner un mouvement collectif, ancré dans des structures locales et des propositions concrètes.

L’histoire politique américaine montre que les mouvements de troisième voie, bien que porteurs d’espoir, peinent à s’inscrire dans la durée face aux contraintes structurelles du système électoral.

Le Parti de l’Amérique, malgré l’aura de son instigateur, risque de demeurer un sursaut protestataire plutôt qu’une force durable. Toutefois, il révèle une vérité profonde : l’Amérique contemporaine est en quête d’un nouveau récit politique, et la colère, lorsqu’elle est canalisée, peut parfois poser les bases d’une transformation.

Reste à savoir si le « grand soir » annoncé par Musk saura prendre racine ou s’évanouira dans le tumulte électoral.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le « Parti de l’Amérique » d’Elon Musk peut-il faire vaciller le bipartisme ? – https://theconversation.com/le-parti-de-lamerique-delon-musk-peut-il-faire-vaciller-le-bipartisme-260569

Réforme des retraites : quelle est la valeur juridique d’un « conclave » ?

Source: The Conversation – France in French (3) – By Stéphane Lamaire, Professeur associé au CNAM en droit du travail, Conservatoire national des arts et métiers (CNAM)

Le gouvernement espère toujours un accord entre partenaires sociaux dans le cadre du conclave sur la réforme des retraites. Mais quelle serait la valeur juridique de ce « conclave » ?


Tentant de clore le vif débat ouvert par l’adoption de la Loi au sujet du recul de l’âge légal de départ à la retraite à 64 ans, le 1er ministre a proposé aux représentants des salariés et des employeurs une procédure qu’il a qualifié de « conclave ». Cette dénomination évoquant la désignation d’un nouveau pape est d’autant plus mal choisie qu’elle renvoie en réalité à une vieille procédure fort républicaine de « concertation ». Quels sont ses fondements et ses modalités ?

La « concertation » selon la loi

Notre système politique a longtemps connu une tradition de « concertation » informelle ayant porté ses fruits en donnant lieu à des accords interprofessionnels fondateurs notamment dans le domaine des retraites (accords sur les régimes complémentaires de retraites des salariés cadres – AGIRC – en 1947 ainsi que non-cadres – ARRCO – en 1961). Toutefois la loi du 31 janvier 2007 a institué une procédure de « concertation » préalable aux votes de projets de Loi portant sur les relations individuelles et collectives du travail, l’emploi et la formation professionnelle.

Pour certains, cette institutionnalisation de la participation des parties prenantes à la formation de la loi représente un effort méritoire accordant une nouvelle place aux destinataires de la loi, mais pour d’autres il s’agit bien au contraire d’un abaissement supplémentaire de la place du parlement, voire une atteinte inadmissible à la souveraineté du peuple s’exprimant normalement par la représentation parlementaire. En effet, l’article 3 de notre Constitution précise que : « la souveraineté nationale appartient au peuple qui l’exerce par ses représentants et par la voie du referendum. Aucune section du peuple ni aucun individu ne peut s’en attribuer l’exercice ». Par conséquent, dans les différentes branches du droit, la Loi est exclusivement formée par des parlementaires, le cas échéant sur un projet du gouvernement.

Néanmoins, en matière de droit du travail, la formation de la loi fait désormais l’objet d’une délibération publique associant divers acteurs privés considérés comme représentatifs et dont l’avis est sollicité de façon formelle. Cette procédure ne se confond pourtant pas avec la consécration d’une négociation collective interprofessionnelle préalable au vote de la Loi. Il ne s’agit pas de prévenir (ou de régler) un éventuel antagonisme social par le procédé de la négociation collective, mais de préférer un « dialogue » afin d’obtenir une mise en œuvre efficace des réformes voulues par les autorités publiques.

Pas de compétence autonome des partenaires sociaux

Dans plusieurs systèmes juridiques, comme en Allemagne (l’article 9, alinéa 3 de la constitution allemande, les acteurs sociaux ont obtenu un champ de compétence autonome constituant un domaine réservé en matière de droit du travail. C’est ce qu’ont réclamé les partenaires sociaux français (positions communes des 16 juillet 2001 et 9 avril 2008 sans obtenir satisfaction. En droit français, il n’existe pas de liste de thèmes pour lesquels les protagonistes sociaux bénéficient d’une priorité d’intervention leur permettant de supplanter le législateur. Si le principe constitutionnel de participation garantit et soutient la contribution de la négociation collective à la production normative du droit du travail, le législateur fixer toujours les grands principes.

La « concertation » représente donc un prudent englobement de la « démocratie sociale » par la « démocratie politique », conférant aux acteurs sociaux la possibilité de discuter les termes des projets de réformes du droit du travail mais conservant au bout du compte au législateur le pouvoir du « dernier mot » comme l’écrit Alain Supiot.

Un gouvernement peu contraint par la « concertation »

En outre, l’examen de la portée effective de cette « concertation » démontre sa modestie. Soulignons d’abord que les modalités prescrites sont très peu contraignantes. En effet, le Conseil Constitutionnel et le Conseil d’État estiment que si la Loi adoptée n’a pas respecté la procédure prévue par les articles n°1 et suivants du Code du travail, mais qu’elle a tout de même suivi une procédure de « concertation » au moins équivalente, alors elle peut être jugée comme conforme à la Constitution. Il en découle que le gouvernement peut changer selon sa guise les modalités de la « concertation ». De surcroît, il peut décider d’étendre le domaine des thèmes soumis à la procédure en question comme il le fait actuellement au sujet de l’âge légal de départ à la retraite.

Par la suite, les acteurs professionnels ont le choix de donner une suite favorable ou défavorable à une sollicitation entièrement formulée par les pouvoirs publics. En cas de refus, liberté est laissée au gouvernement de former son projet de façon unilatérale. Cependant s’ils décident de se saisir du sujet, le gouvernement doit attendre la fin de leurs pourparlers. Dans l’hypothèse de la conclusion d’un accord dont le contenu a pour effet de modifier la Loi, le gouvernement se trouve dans l’obligation de reprendre à son compte le texte conventionnel par le biais d’un projet de Loi. Dès lors, celui-ci peut reprendre fidèlement à son compte le texte issu de la négociation collective en l’incorporant intégralement à la Loi ou se réserver la possibilité de le réécrire par addition ou soustraction. Enfin, le projet en question est ensuite soumis au pouvoir d’amendement et de vote du parlement.

En cas d’échec des négociations, le gouvernement a la possibilité d’abandonner son initiative, ou de reprendre les fragments de compromis sociaux de son choix, pour présenter son propre projet au parlement. Selon ces différentes hypothèses, il doit éviter un procès en déloyauté de la part de signataires bafoués ou de négociateurs incapables de trouver un compromis. Dès lors, les marges de manœuvre sont plus ou moins larges selon les diverses situations mais à coup sûr relativement étroites en cas de conclusion d’un accord sur la base d’un large consensus des acteurs professionnels. Il en ressort que le champ de la coproduction des normes légales du travail s’apparente à un espace où le législateur et les protagonistes sociaux se surveillent et formulent des reproches réciproques.

En somme, par le biais de cette modeste procédure, le gouvernement trouve avantage à déléguer de manière contrôlée la formation de la Loi aux acteurs professionnels représentatifs soit pour se délier de sa responsabilité soit pour tenter de renforcer sa légitimité.

The Conversation

Stéphane Lamaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réforme des retraites : quelle est la valeur juridique d’un « conclave » ? – https://theconversation.com/reforme-des-retraites-quelle-est-la-valeur-juridique-dun-conclave-260451