ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa

Source: The Conversation – in French – By Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg

Les outils d’intelligence artificielle semblent dialoguer avec les internautes qui les interrogent. Mais il n’y a aucune réciprocité dans ce type d’échanges, les réponses de ChatGPT résultent d’une production de langage automatisée. Quelles conséquences cette illusion a-t-elle sur notre rapport au savoir ? Mobiliser le concept de « résonance », développé par le philosophe Hartmut Rosa permet de mieux évaluer ces transformations.


L’usage des intelligences artificielles (IA) génératives, et en particulier de ChatGPT, s’est rapidement imposé dans le champ éducatif. Élèves comme enseignants y ont recours pour chercher des informations, reformuler des contenus ou accompagner des apprentissages. Mais, au-delà de la question de l’efficacité, une interrogation plus fondamentale se pose : quel type de relation au savoir ces outils favorisent-ils ?

Pour éclairer cette question, il est utile de mobiliser le concept de « résonance », développé par le sociologue et philosophe allemand Hartmut Rosa. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Rosa voit dans cette forme de rapport au monde une manière de résister à l’aliénation produite par l’accélération contemporaine.

Dans son ouvrage Pédagogie de la résonance, il applique ce cadre au domaine éducatif et précise les conditions dans lesquelles une relation résonante au savoir peut émerger. C’est à l’aune de ces critères que nous proposons d’interroger l’usage de ChatGPT en contexte éducatif.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


Que signifie « entrer en résonance » avec le savoir ?

Chez Hartmut Rosa, la résonance ne se réduit ni au plaisir d’apprendre, ni à l’engagement ponctuel, ni à la simple interaction. Elle désigne une relation au monde dans laquelle le sujet est d’abord affecté – quelque chose le touche, le surprend ou le déstabilise. Cette affectation appelle ensuite une réponse active : le sujet s’engage, répond, tente de faire quelque chose de ce qui lui arrive.

Mais la résonance ne se limite pas à cette dynamique interactive. Elle implique une transformation durable du sujet, parfois aussi de son rapport au monde, et repose sur une condition essentielle : elle ne peut être ni produite à volonté ni entièrement maîtrisée. Pour Rosa, une relation totalement disponible et contrôlable est, par définition, une relation muette.

Ces critères permettent désormais d’interroger ce que l’usage de ChatGPT fait – ou ne fait pas – au rapport au savoir en contexte éducatif.

ChatGPT peut-il satisfaire aux conditions de la résonance ?

ChatGPT se caractérise par une disponibilité quasi permanente : il répond sans délai, s’adapte aux demandes de l’utilisateur et semble toujours prêt à accompagner l’apprentissage. Cette facilité d’accès peut apparaître comme un atout pédagogique évident.

Pourtant, à la lumière de la notion de résonance développée par Hartmut Rosa, elle soulève une difficulté majeure. Une relation résonante au savoir suppose une part d’indisponibilité, une part de résistance et d’imprévisibilité sans lesquelles le rapport au monde risque de devenir purement instrumental.

Cette disponibilité permanente s’accompagne d’une interaction qui peut donner le sentiment d’une relation engageante. ChatGPT répond, reformule, encourage, s’ajuste au niveau de l’utilisateur et semble parfois « comprendre » ce qui lui est demandé. Le sujet peut ainsi se sentir affecté, soutenu, voire stimulé dans son rapport au savoir. Pourtant, cette affectation repose sur une asymétrie fondamentale : si le sujet peut être touché et répondre activement, l’agent conversationnel ne l’est jamais en retour.

La réponse de ChatGPT ne procède pas d’une expérience, d’un engagement ou d’une exposition au monde, mais d’une production de langage optimisée. L’échange peut alors prendre la forme d’un dialogue en apparence vivant, sans que s’instaure pour autant la réciprocité qui caractérise une relation véritablement résonante.

Des transformations à sens unique

La question de la transformation permet de préciser encore cette asymétrie. L’usage de ChatGPT peut incontestablement modifier le rapport du sujet au savoir : il peut faciliter la compréhension, accélérer l’accès à l’information, soutenir l’élaboration d’idées ou influencer des pratiques d’apprentissage. À ce titre, le sujet peut effectivement en ressortir transformé.

Mais cette transformation n’est jamais réciproque. Rien, dans l’échange, ne peut véritablement arriver à l’agent conversationnel : il ne conserve pas de trace existentielle de la relation, n’en est ni affecté ni engagé, et ne voit pas son rapport au monde durablement modifié. La transformation, lorsqu’elle a lieu, concerne donc exclusivement le sujet humain, ce qui marque une différence décisive avec les relations résonantes décrites par Rosa, où les deux pôles de la relation sont susceptibles d’être transformés.

On pourrait toutefois objecter que ChatGPT n’est pas toujours pleinement disponible ni fiable. Il lui arrive de produire des erreurs, d’inventer des références ou de fournir des informations inexactes – ce que l’on désigne souvent comme des « hallucinations ». Ces moments d’échec peuvent interrompre l’échange et surprendre l’utilisateur.




À lire aussi :
Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse


Mais cette forme d’indisponibilité n’est pas celle que décrit Rosa. Elle ne procède pas d’une résistance signifiante du monde, ni d’une altérité qui interpelle le sujet, mais d’un dysfonctionnement du dispositif. Loin d’ouvrir un espace de résonance, ces ruptures tendent plutôt à fragiliser la confiance et à rompre la relation, en rappelant que l’échange repose sur une production de langage fondée sur des modèles probabilistes intégrant des régularités, des associations et des inférences apprises, plutôt que sur une rencontre.

On pourrait également faire valoir que certains agents conversationnels peuvent être configurés pour adopter des réponses plus rugueuses, plus critiques ou moins accommodantes, introduisant ainsi une forme de résistance dans l’échange. Cette rugosité peut déstabiliser l’utilisateur, ralentir l’interaction ou rompre avec l’illusion d’une aide toujours fluide.

Toutefois, cette résistance reste fondamentalement paramétrable, réversible et sous contrôle. Elle ne procède pas d’une altérité exposée à la relation, mais d’un choix de configuration du dispositif. L’indisponibilité ainsi produite est scénarisée : elle peut être activée, modulée ou désactivée à la demande. À ce titre, elle ne satisfait pas à la condition d’indisponibilité constitutive qui, chez Rosa, rend possible une véritable relation de résonance.

Assistance cognitive ou relation résonante ?

La comparaison avec le livre permet de mieux saisir ce qui distingue une indisponibilité scénarisée d’une indisponibilité constitutive. Contrairement à ChatGPT, le livre ne répond pas, ne s’adapte pas et ne reformule pas à la demande. Il impose son rythme, sa forme, ses zones d’opacité, et résiste aux attentes immédiates du lecteur. Pourtant, cette absence de dialogue n’empêche nullement la résonance ; elle en constitue souvent la condition.

Le texte peut affecter, déstabiliser, transformer durablement le sujet précisément parce qu’il demeure indisponible, irréductible à une simple fonctionnalité. À la différence d’un agent conversationnel, le livre expose le lecteur à une altérité qui ne se laisse ni paramétrer ni maîtriser, et c’est cette résistance même qui rend possible un rapport résonant au savoir.

Cela ne signifie pas que l’usage de ChatGPT soit incompatible avec toute forme de résonance. À condition de ne pas l’ériger en point d’entrée privilégié dans le rapport au savoir, l’outil peut parfois jouer un rôle de médiation secondaire : reformuler après une première confrontation, expliciter des tensions, ou aider à mettre en mots une difficulté éprouvée. Utilisé de cette manière, ChatGPT n’abolit pas l’indisponibilité constitutive de la rencontre avec un contenu, mais intervient après coup, dans un temps de reprise et de clarification. Il s’agirait alors moins de produire la résonance que de préserver les conditions dans lesquelles elle peut, éventuellement, advenir.

L’analyse conduite à partir de la notion de résonance invite à ne pas confondre assistance cognitive et relation résonante au savoir. ChatGPT peut indéniablement soutenir certains apprentissages, faciliter l’accès à l’information ou accompagner l’élaboration d’idées. Mais ces apports reposent sur une logique de disponibilité, d’adaptation et de contrôle qui ne satisfait pas aux conditions de la résonance telles que les décrit Hartmut Rosa.

Le risque, en contexte éducatif, serait alors de substituer à un rapport au savoir fondé sur la confrontation, la résistance et la transformation, une relation essentiellement instrumentale, aussi efficace soit-elle. La question n’est donc pas de savoir s’il faut ou non recourir à ces outils, mais comment les inscrire dans des pratiques pédagogiques qui préservent – voire réactivent – les conditions d’un rapport véritablement résonant au savoir.

The Conversation

Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa – https://theconversation.com/chatgpt-ou-lillusion-du-dialogue-comprendre-comment-lia-modifie-le-rapport-au-savoir-avec-la-philosophie-dhartmut-rosa-274259

JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ?

Source: The Conversation – France (in French) – By Matthieu Llorca, Maitre de conférences-HDR en économie, spécialsé en politiques économiques, banque-finance et économie du sport, Université Bourgogne Europe

Le comité des JO de Milan-Cortina 2026 revendique la réutilisation de 85 % d’infrastructures existantes. TinaGutierrez/Shutterstock

Les Jeux olympiques d’hiver à Milan-Cortina en 2026 puis dans les Alpes françaises en 2030 font resurgir la problématique des « éléphants blancs ». Ces mégaprojets, souvent des équipements sportifs et des infrastructures de mobilité, amènent plus de coûts que de bénéfices à l’État et aux collectivités. Alors, concrètement, comment le Comité international olympique et les pays hôtes y répondent-ils ?


Les équipements sportifs mobilisés lors des Jeux olympiques (JO) d’hiver font l’objet de multiples débats, concernant leurs coûts économiques, leurs impacts environnementaux et leurs usages post-JO. Pour répondre à ces critiques, le Comité international olympique (CIO) prône l’usage de sites temporaires ou existants (héritages de Jeux passés) à la construction de nouvelles installations temporaires.

Au cours des Jeux d’hiver du XXIe siècle et ceux à venir de 2026 et de 2030, les controverses sur les sites sportifs – surcoûts, retards, etc. – portent sur le saut à ski, les pistes de bobsleigh, le patinage de vitesse et artistique. Ces quatre sports ont toujours été présents aux Jeux d’hiver, depuis la première édition à Chamonix 1924.

Les Jeux olympiques d’hiver de Milan-Cortina 2026 coûteront 4 milliards d’euros à la charge de la Simico, l’agence publique chargée des infrastructures, pour la construction et rénovation des sites sportifs et infrastructures de transport, et autour de 1,7 milliard d’euros pour le Comité d’organisation des Jeux olympiques (COJO), soit un total provisoire de 5,7 milliards d’euros.

Ces mégaprojets appelés « éléphants blancs » font craindre des coûts exorbitants pour les pays hôtes et les collectivités locales, sans bénéfices à long-terme. Selon la professeur d’architecture et d’urbanisme Juliet Davis, « ils représentent des infrastructures sportives coûteuses, construites pour les Jeux, qui deviennent obsolètes, sous-utilisées, voire laissées à l’abandon, faute d’utilité ou de planification adéquate, et qui sont un fardeau financier pour les villes hôtes des Jeux ».

Décryptage avec les Jeux olympiques d’hiver de Milan-Cortina 2026 et des Alpes françaises 2030.

Quatre sites abandonnés entre 2002 et 2018

De 2002 à 2018, seuls quatre sites abandonnés sont recensés : à Turin 2006, le site de saut à ski de Pragelato et la piste de bobsleigh/luge de Cesanatorinese, à Pyeongchang en 2018, le centre de ski alpin de Jeongseon et l’ovale de patinage de vitesse de Gangneung. Sur un total de 67 sites permanents, seul 6 % sont désertés entre 2002 et 2018 contre 11,4 % pour l’ensemble des Jeux d’hiver organisés entre 1924 et 2018.

En d’autres termes, la part des « éléphants blancs » parmi les infrastructures sportives des Jeux d’hiver a diminué d’environ quatre points de pourcentage au cours des Jeux du XXIe siècle. De telles controverses persistent à l’occasion des JO de Milan-Cortina 2026, qui se basent sur 85 % d’infrastructures existantes, soit 11 sites sur 13, et des prochains qui se dérouleront dans les Alpes françaises 2030.

Choix politiques

Un premier débat porte sur la sélection des sites retenus dans le dossier de candidature et proposés par le Comité d’Organisation des Jeux Olympiques (COJO). Ces derniers peuvent faire l’objet d’arbitrage et de modification par rapport au projet initial.

Dans le cas des Jeux olympiques d’hiver de Milan-Cortina 2026, la construction d’une nouvelle piste de bobsleigh à Cortina a suscité des débats. Le coût est estimé à 120 millions d’euros, soit une hausse de 50 % par rapport au budget initial de 61 millions d’euros. L’Italie dispose pourtant d’une piste homologuée à Cesana, certes inutilisée depuis 2011, mais qui peut être rénovée à moindre coût, pour environ 30 millions d’euros minimum.

Le choix de construire une nouvelle piste de bobsleigh est purement politique, au détriment de la contrainte environnementale et budgétaire. Si le Comité international olympique (CIO) envisageait une délocalisation, le comité Milan-Cortina 2026 a refusé ce choix avec l’objectif de garder l’intégralité des sites sportifs sur le sol italien ; une décision soutenue par le gouvernement de Giorgia Meloni.

Cartographie des sites olympiques et paralympiques de Milan-Cortina 2026 (actualité en 2023).
Milan-Cortina 2026

Outre la piste de bobsleigh, le choix du site du patinage de vitesse a fait l’objet de modifications par rapport au site prévu dans le dossier de candidature. Baslega di Pine a été écarté en raison de son coût, mais sera construit pour les Jeux olympiques d’hiver de la Jeunesse 2028 de Dolomiti Valtellina. Le site temporaire au parc des Expositions de la Fiera Milano a été retenu pour les JO de Milan-Cortina, pour un coût de 20 millions d’euros.

Le site de patinage de vitesse de Lingotto fut à un moment évoqué, avant d’être rejeté par le COJO et la ville de Milan, pour des motifs politiques et de rivalité régionale entre les provinces du Piémont et de Lombardie.

Relocalisation et délocalisation

De nombreux équipements sportifs font l’objet de retard, comme le site de Livigno, hôte des épreuves de snowboard, dont le système de neige artificielle n’était pas encore terminé, en raison d’autorisations administratives en retard concernant le remplissage du réservoir.




À lire aussi :
Pourquoi la construction des villages JO de Paris 2024 fut une réussite


Il en est de même pour les JO d’hiver dans les Alpes françaises en 2030, dont la sélection définitive des sites sportifs n’est toujours pas annoncée. Isola 2000, initialement prévu dans le dossier de candidature pour accueillir les épreuves de skicross et de snowboardcross, se voit retirer l’organisation de ces deux épreuves au profit de Montgenèvre. De même, Méribel, qui avait accueilli avec Courchevel l’organisation des championnats du monde de ski alpin 2023, était prévu pour organiser, sur ce même modèle, les épreuves de ski alpin féminin. Val-d’Isère est réintroduite en juillet 2025 dans la carte des sites olympiques des Jeux 2030 pour organiser les épreuves féminines de ski alpin, au détriment de Méribel qui s’est désisté.

Contrairement aux JO de Milan-Cortina 2026 qui aurait pu privilégier pour la piste de bobsleigh les sites à l’étranger d’Innsbruck-Igls, les Jeux des Alpes françaises seront les premiers à délocaliser un site sportif, celui de patinage de vitesse, dans un pays voisin. La sélection finale n’est toujours pas annoncée, mais le choix des organisateurs portera entre le site d’Heerenveen aux Pays-Bas ou celui de Turin, hôte des Jeux d’hiver 2006.

Modifications coûteuses

De telles modifications entre les sites sportifs initialement sélectionnés dans le projet de candidature et ceux finalement retenus ne font que contribuer à une augmentation des coûts des Jeux et à remettre en cause leur sobriété, annoncée par les organisateurs. Par exemple, le comité des Alpes françaises 2030, qui annoncent les Jeux les moins chers de l’histoire et les plus sobres.

De l’autre côté du prisme, la question de l’utilisation des sites après les Jeux olympiques vient d’être analysée. 86 % de tous les sites permanents utilisés pour les Jeux olympiques depuis Athènes en 1896, et 94 % des sites datant du XXIe siècle, seraient encore utilisés aujourd’hui.

The Conversation

Matthieu Llorca est membre du think tank Spirales Institut

ref. JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ? – https://theconversation.com/jo-milan-cortina-2026-et-alpes-2030-qui-sont-les-elephants-blancs-274893

Pourquoi l’expansion pétrolière, au Venezuela et ailleurs, est un non-sens climatique et économique

Source: The Conversation – France (in French) – By Renaud Coulomb, Professor of Economics, Mines Paris – PSL

Relancer l’exploitation pétrolière vénézuélienne, l’une des plus émettrices de gaz à effet de serre au monde, revient à parier sur l’échec de la transition énergétique. À l’heure où la majorité des réserves fossiles devrait rester inexploitée, ces investissements exposeraient l’économie mondiale à un double risque : trajectoire de réchauffement dramatique d’un côté, gaspillage massif de capital de l’autre.


Le 3 janvier 2026, une opération militaire états-unienne a abouti à la capture et à l’enlèvement du président vénézuélien Nicolas Maduro et de son épouse. Donald Trump a aussitôt annoncé que les États-Unis dirigeraient temporairement le pays et affirmé vouloir relancer la production pétrolière du pays, avec plus de 100 milliards de dollars (84,78 milliards d’euros) d’investissements des compagnies pétrolières américaines.

Le Venezuela dispose en effet de réserves pétrolières gigantesques estimées à environ 300 milliards de barils. Le pays n’exploite actuellement que peu ce potentiel, du fait notamment des contraintes de stockage et plus généralement de la faiblesse des investissements.

Or ce pétrole est particulièrement émetteur de gaz à effet de serre (GES). Cela tient à la nature lourde et visqueuse du brut, qui rend l’extraction énergivore, et des émissions de dioxyde de carbone provenant du torchage et des fuites de méthane. Extraire un baril de pétrole au Venezuela émet, en moyenne, environ deux fois plus de GES que l’extraction d’un baril en Arabie saoudite ou en Norvège. Réhabiliter des gisements aussi polluants relève du non-sens écologique.

Ces investissements projetés s’inscrivent toutefois dans une logique mondiale persistante. Alors que le changement climatique s’aggrave et que deux tiers des émissions mondiales de GES proviennent des énergies fossiles, l’industrie pétrolière continue d’élargir son offre mondiale. Chaque année, des dizaines de milliards de dollars sont engloutis pour découvrir de nouveaux gisements et augmenter les réserves d’énergie fossile disponibles.

Cette actualité, au-delà de sa portée géopolitique, illustre clairement le risque climatique que représente la poursuite de l’expansion pétrolière dans le monde. Ce serait non seulement une aberration écologique, mais aussi économique.




À lire aussi :
Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique


Un dilemme pour l’économie mondiale

Miser aujourd’hui sur l’expansion des réserves de pétrole, au Venezuela comme ailleurs, revient à parier financièrement sur l’échec de la transition.

Les investissements dans l’exploration pétrolière créent des incitations financières, pour cete industrie, à entraver les politiques climatiques.
UN Climate Change, CC BY-NC-ND

La rentabilité de ces actifs est en effet structurellement incompatible avec le respect des accords climatiques : pour que ces projets soient rentables, il faut que les politiques de décarbonation échouent. Dès lors, ces investissements renforcent l’intérêt économique de leurs promoteurs à défendre le statu quo, y compris en pesant contre un durcissement des politiques climatiques.

De fait, l’accord a minima de la dernière COP30 sur le climat illustre cette difficulté. Le texte évoquait de vagues « efforts » et « solutions », tout en continuant à éluder l’arithmétique de base : pour rester sous les 2 °C (voire idéalement celle de 1,5 °C) d’augmentation des températures, la production de combustibles fossiles doit chuter rapidement et dès aujourd’hui. Autrement dit, une part importante des réserves prouvées doivent être laissées inexploitées.

La poursuite de ces investissements place l’économie mondiale face à deux risques distincts :

  • Premier scénario : les politiques climatiques actuelles échouent. Chaque nouveau baril découvert alimente alors la surabondance de l’offre, fait baisser les prix et retarde la transition vers une économie bas carbone. Cela verrouille la planète dans une trajectoire de réchauffement bien trop élevé, c’est le pire des scénarios pour le climat et le bien-être mondial.

  • Second scénario : les régulations climatiques se durcissent, mais tardivement. Les nouveaux projets pétroliers deviennent alors majoritairement des « actifs échoués », c’est-à-dire des investissements sans valeur, synonymes d’un gaspillage massif de capital. Le changement climatique est finalement contrôlé, mais du capital a été investi au mauvais endroit, alors qu’il aurait pu être directement orienté vers la transition énergétique.




À lire aussi :
Les États-Unis ont passé des décennies à faire pression pour mettre la main sur le pétrole vénézuélien


Faut-il interdire l’exploration pétrolière ?

Pour éviter de se retrouver devant un tel dilemme, on pourrait envisager d’interdire dès à présent l’exploration pétrolière et les investissements visant à rendre exploitables les gisements récemment découverts. Dans une étude récente, nous avons justement évalué les effets qu’aurait une telle mesure, en nous basant sur un modèle construit à partir des données de plus de 14 000 gisements pétroliers.

L’enjeu de limiter l’exploration pétrolière a suscité, ces dernières années, une attention politique croissante. La France, par exemple, a interdit toute nouvelle exploration de ressources fossiles en 2017. En 2024, le Royaume-Uni a annoncé la fin de l’octroi de nouvelles licences pétrolières et gazières.

Une telle mesure peut-elle être efficace ? Le résultat de notre étude est sans appel. Tant que les autres politiques climatiques – comme une tarification du carbone au niveau mondial – restent limitées ou inexistantes, une interdiction de l’exploration permettrait d’éviter l’émission d’environ 114 milliards de tonnes équivalent CO₂. Et, par la même occasion, d’épargner à l’économie mondiale des milliers de milliards de dollars de dommages climatiques cumulés.

En effet, chaque tonne de CO₂ émise aujourd’hui engendrera des coûts réels demain : multiplication des événements climatiques extrêmes, montée du niveau des mers, impacts sanitaires, pertes de productivité

Poursuivre l’exploration revient donc à rendre exploitables des ressources dont le coût social dépasse largement les bénéfices privés qui en découlent. Ce coût social est actuellement un impensé dans l’argumentaire de l’industrie fossile.

Quand l’argumentation de l’industrie fossile ne tient pas

L’industrie invoque régulièrement la nécessité de remplacer des champs vieillissants, dont la production décline naturellement chaque année. Certains experts estiment aussi que les nouveaux gisements pourraient être moins émetteurs de GES que les champs de pétrole actuellement en production.

Nos résultats montrent pourtant que, dans une trajectoire compatible avec la neutralité carbone, ni le déclin naturel des gisements ni leur hétérogénéité en matière d’empreinte carbone ne suffisent à justifier l’ouverture de nouveaux champs. Ces conclusions restent inchangées même dans l’hypothèse où les nouveaux gisements n’émettraient aucun GES lors de leur exploitation.

L’exploration ne générerait des bénéfices sociaux nets que dans un monde où les producteurs intégreraient dans leurs calculs économiques presque l’intégralité du coût climatique des émissions. Concrètement, cela supposerait une taxe carbone couvrant toutes les émissions liées à un baril – de l’exploration jusqu’à la combustion – afin de refléter le coût social de la production et de l’utilisation de ce baril. Même dans ce scénario très exigeant, les bénéfices resteraient modestes : ils seraient environ 40 fois inférieurs aux coûts environnementaux de l’exploration lorsque ces émissions ne sont pas prises en compte par les producteurs.

Ce résultat s’explique simplement : dans une trajectoire compatible avec le « Net Zero », la demande de pétrole devient relativement faible. Or, cette demande pourrait être couverte par des volumes déjà disponibles de pétrole moins intensif en carbone, dont les coûts d’exploitation restent modérés.

Les efforts d’exploration actuels ne sauraient donc être justifiés sur cette base :

Un moratoire plus acceptable qu’une taxe pour les pays producteurs ?

Notre étude le montre clairement : interdire l’exploration serait un levier puissant pour limiter l’offre de pétrole, pour réduire les émissions futures et pour éviter de créer de nouveaux actifs voués à devenir inutilisables si la transition vers une économie bas carbone se matérialise.

Pour certains pays producteurs, un tel moratoire pourrait même s’avérer politiquement plus acceptable qu’une taxe. En restreignant l’offre, il soutiendrait les cours du baril et, par extension, les revenus des producteurs actuels, tout en servant les ambitions climatiques.

Ce paradoxe – une mesure climatique qui pourrait profiter à certains producteurs, notamment aux États-Unis ou en Arabie saoudite – pourrait faciliter un accord international.




À lire aussi :
Comment échapper à la malédiction de la rente fossile ?


Mais il aurait un coût pour les consommateurs et contreviendrait au principe du pollueur-payeur, en faisant peser l’essentiel du coût de la transition sur les consommateurs finaux.

Reste un écueil de taille : la mise en place de telles politiques serait complexe dans un contexte géopolitique fragmenté, marqué par l’érosion du multilatéralisme et la multiplication des stratégies non coopératives.

À défaut d’un accord mondial immédiat, des interdictions ciblées pourraient avoir un impact majeur. À cet égard, l’élargissement de coalitions existantes, comme l’alliance Beyond Oil and Gas, dont la France est membre, est fondamental. En renforçant ce socle diplomatique d’États pionniers, engagés à ne plus octroyer de licences d’exploration, une initiative volontaire pourrait progressivement se muer en un cadre normatif.

Mais la crédibilité de telles interdictions dépend de leur permanence. Aux États-Unis, le retour de Donald Trump au pouvoir s’est accompagné d’une défense assumée de l’industrie pétrolière et d’un désengagement des institutions internationales clés, telles que la Convention-cadre des Nations unies sur les changements climatiques ou le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), deux piliers de la coopération climatique mondiale.

Londres aussi a récemment revu sa position. Le cas français illustre lui aussi la possibilité de revirements politiques : le Sénat a, le 29 janvier 2026, voté une proposition de loi remettant en cause la loi de 2017 interdisant l’exploration pétrolière et gazière.

The Conversation

Renaud Coulomb déclare ne pas être en situation de conflit d’intérêts. Il ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur du pétrole et du gaz, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune.

Cette recherche a bénéficié du soutien financier de l’Agence nationale de la recherche (ANR), de la Paris School of Economics, de l’Université de Melbourne, de Mines Paris – PSL University et de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

Fanny Henriet a reçu des financements de l’ANR

France d’Agrain a reçu des financements des financements de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

ref. Pourquoi l’expansion pétrolière, au Venezuela et ailleurs, est un non-sens climatique et économique – https://theconversation.com/pourquoi-lexpansion-petroliere-au-venezuela-et-ailleurs-est-un-non-sens-climatique-et-economique-274581

Quand les médicaments du quotidien nous rendent malades : mésusages et effets indésirables

Source: The Conversation – in French – By Clément Delage, Maitre de Conférences en Pharmacologie (Faculté de Pharmacie de Paris) – Unité Inserm UMR-S 1144 "Optimisation Thérapeutique en Neuropsychopharmacologie" – Pharmacien Hospitalier (Hôpital Lariboisière, AP-HP), Université Paris Cité

Entre banalisation de l’automédication et méconnaissance des risques, les médicaments le plus utilisés – comme le paracétamol – peuvent être à l’origine d’effets indésirables parfois sévères. Comprendre pourquoi et comment le remède peut devenir poison, c’est poser les bases d’un bon usage du médicament.


Chaque année, le mésusage de médicaments est responsable d’environ 2 760 décès et de 210 000 hospitalisations en France, selon une étude du Réseau français de centres de pharmacovigilance. Cela représente 8,5 % des hospitalisations et 1,5 fois plus de décès que les accidents de la route.

Si la part exacte de l’automédication dans ces chiffres reste difficile à établir, ces données rappellent une réalité souvent négligée. Les effets indésirables ne concernent pas seulement les traitements rares ou complexes, mais aussi les médicaments de tous les jours : paracétamol, ibuprofène, antihistaminiques (des médicaments qui bloquent la production d’histamine responsable de symptômes comme le gonflement, les rougeurs, les démangeaisons, les éternuements, etc. dans les situations d’allergies, ndlr), somnifères, sirops contre le rhume, etc.

Quand le remède devient poison

« Tout est poison, rien n’est poison : seule la dose fait le poison. »
– Paracelse (1493–1541)

Copie présente au Musée du Louvre du portrait perdu de Paracelse par Quentin Metsys
Portrait de Paracelse, d’après Quentin Metsys (1466-1530).
CC BY-NC

Cet adage fondateur de la pharmacie, enseigné dès la première année aux futurs pharmaciens, garde aujourd’hui toute sa pertinence. Paracelse avait compris dès le XVIᵉ siècle qu’une substance pouvait être bénéfique ou toxique selon la dose, la durée et le contexte d’exposition. D’ailleurs, le mot pharmacie dérive du mot grec phármakon qui signifie à la fois « remède » et « poison ».

Le paracétamol, antalgique et antipyrétique (médicament qui combat la douleur et la fièvre, ndlr) largement consommé, est perçu comme inoffensif. Pourtant, il est responsable d’hépatites médicamenteuses aiguës, notamment lors de surdosages accidentels ou d’associations involontaires entre plusieurs spécialités qui en contiennent. En France, la mauvaise utilisation du paracétamol est la première cause de greffe hépatique (c’est-à-dire de foie, ndlr) d’origine médicamenteuse, alerte l’Agence nationale de sécurité du médicament et des produits de santé (ANSM).

L’ibuprofène, également très utilisé pour soulager douleurs et fièvre, peut quant à lui provoquer des ulcères gastriques, des hémorragies digestives ou une insuffisance rénale, s’il est pris à forte dose et de manière prolongée ou avec d’autres traitements agissant sur le rein. Par exemple, associé aux inhibiteurs de l’enzyme de conversion (les premiers médicaments prescrits dans l’hypertension artérielle), il peut déclencher une insuffisance rénale fonctionnelle.

L’aspirine, médicament que l’on trouve encore dans beaucoup d’armoires à pharmacie, fluidifie le sang et peut favoriser les saignements et hémorragies, notamment digestifs. En cas de surdosage très important, il peut même conduire à des troubles de l’équilibre acide-base dans le sang et mener au coma voire au décès s’il n’y a pas de prise en charge rapide.

Ces exemples illustrent un principe fondamental : il n’existe pas de médicaments sans risque. Tous peuvent, dans certaines conditions, provoquer des effets délétères. Dès lors, la question n’est pas de savoir si un médicament est dangereux, mais dans quelles conditions il le devient.

Pourquoi tous les médicaments présentent-ils des effets indésirables ?

Comprendre l’origine des effets indésirables nécessite un détour par la pharmacologie, la science qui étudie le devenir et l’action du médicament dans l’organisme.

Chaque médicament agit en se liant à une cible moléculaire spécifique – le plus souvent un récepteur, une enzyme ou un canal ionique – afin de modifier une fonction biologique. Mais ces substances actives, exogènes à l’organisme, ne sont jamais parfaitement sélectives : elles peuvent interagir avec d’autres cibles, provoquant ainsi des effets indésirables – autrefois appelés effets secondaires.

De plus, la plupart des effets, qu’ils soient bénéfiques ou nocifs, sont dose-dépendant. La relation entre la concentration d’un médicament dans le corps et l’intensité de son effet s’exprime par une courbe dose-effet de forme sigmoïde.

Chaque effet (thérapeutique ou indésirable) a sa propre courbe, et la zone thérapeutique optimale (l’index thérapeutique) est celle où l’effet bénéfique est maximal et la toxicité minimale. C’est cette recherche d’équilibre entre efficacité et sécurité qui fonde la balance bénéfice/risque, notion centrale de toute décision thérapeutique.

Courbe effet/dose d’un médicament

Ainsi, même pour des molécules familières, un écart de posologie peut faire basculer le traitement du côté de la toxicité.

Contre-indications et interactions : quand d’autres facteurs s’en mêlent

Les effets indésirables ne dépendent pas uniquement de la dose. Les susceptibilités individuelles, les interactions médicamenteuses ainsi que des facteurs physiologiques ou pathologiques peuvent favoriser la survenue des effets indésirables.

Chez les personnes atteintes d’insuffisance hépatique (qui concerne le foie, ndlr), par exemple, la dégradation du paracétamol normalement assurée par le foie est ralentie, ce qui favorise son accumulation et augmente le risque de toxicité de ce médicament pour le foie. On parle d’hépatotoxicité.

L’alcool, en agissant sur les mêmes récepteurs cérébraux que les benzodiazépines (on citera, dans cette famille de médicaments, les anxiolytiques tels que le bromazépam/Lexomil ou l’alprazolam/Xanax), potentialise leurs effets sédatifs et de dépression respiratoire (qui correspond à une diminution de la fréquence respiratoire, qui peut alors devenir trop faible pour assurer l’approvisionnement du corps en oxygène). Les courbes d’effet/dose de chacun des composés vont alors s’additionner et déclencher de manière plus rapide et plus puissante l’apparition des effets indésirables.

De même, certains médicaments interagissent entre eux en modifiant leur métabolisme, leur absorption ou leur élimination. Dans ce cas, la courbe effet/dose du premier composé sera déplacée vers la droite ou la gauche par le second composé.

Ces mécanismes expliquent la nécessité de contre-indications, de précautions d’emploi et de limites posologiques strictes, précisées pour chaque médicament dans son autorisation de mise sur le marché. Avant chaque prise de médicament, l’usager doit consulter sa notice dans laquelle sont résumées ces informations indispensables.

Comment les risques médicamenteux sont-ils encadrés ?

Avant sa commercialisation, tout médicament fait l’objet d’une évaluation rigoureuse du rapport bénéfice/risque. En France, cette mission relève de l’ANSM.

L’autorisation de mise sur le marché (AMM) est délivrée après analyse des données précliniques et cliniques, qui déterminent notamment :

  • les indications thérapeutiques ;

  • les doses et durées recommandées ;

  • les contre-indications et interactions connues.

Mais l’évaluation ne s’arrête pas après l’autorisation de mise sur le marché. Dès qu’un médicament est utilisé en vie réelle, il entre dans une phase de pharmacovigilance : un suivi continu des effets indésirables signalés par les professionnels de santé ou les patients eux-mêmes.

Depuis 2020, le portail de signalement des événements sanitaires indésirables permet à chacun de déclarer facilement un effet suspecté, contribuant à la détection précoce de signaux de risque.

Les médicaments les plus à risque ne sont disponibles que sur prescription médicale, car la balance bénéfice/risque doit être évaluée patient par patient, par le médecin. Les autres, accessibles sans ordonnance, restent délivrés exclusivement en pharmacie, où le pharmacien joue un rôle déterminant d’évaluation et de conseil. Cette médiation humaine constitue un maillon essentiel du système de sécurité médicamenteuse.

Prévenir la toxicité médicamenteuse : un enjeu collectif

La prévention des accidents liés à des médicaments repose sur plusieurs niveaux de vigilance.

Au niveau individuel, une acculturation au bon usage du médicament est nécessaire.

Quelques gestes simples réduisent considérablement les risques de surdosage ou d’interactions médicamenteuses :

  • Bien lire la notice avant de prendre un médicament.
  • Ne pas conserver les médicaments obtenus avec une prescription lorsque le traitement est terminé et ne pas les réutiliser sans avis médical.
  • Ne pas partager ses médicaments avec autrui.
  • Ne pas prendre les informations trouvées sur Internet pour des avis médicaux.
  • Ne pas cumuler plusieurs médicaments contenant la même molécule.

Mais la responsabilité ne peut reposer uniquement sur le patient : les médecins ont évidemment un rôle clé d’éducation et d’orientation, mais les pharmaciens également. Ces derniers, en tant que premiers professionnels de santé de proximité, sont les mieux placés pour déceler et prévenir un mésusage.

La promotion du bon usage des médicaments est également le rôle des instances de santé, par la diffusion de messages de prévention, la simplification des notices et la transparence sur les signaux de sécurité permettent de renforcer la confiance du public sans nier les risques. L’amélioration de la pharmacovigilance constitue également un levier majeur de santé publique. À ce titre, elle s’est considérablement renforcée depuis le scandale du Mediator en 2009.

Enfin, il convient d’intégrer à cette vigilance les produits de phytothérapie – les traitements à base de plantes (sous forme de gélules, d’huiles essentielles ou de tisanes) et compléments alimentaires et même certains aliments, dont les interactions avec les traitements classiques sont souvent sous-estimées.

Comme pour les médicaments, la phytothérapie provoque aussi des effets indésirables à forte dose et pourra interagir avec eux. Par exemple, le millepertuis (Hypericum perforatum), plante qu’on retrouve dans des tisanes réputées anxiolytiques, va augmenter le métabolisme et l’élimination de certains médicaments, pouvant les rendre inefficaces.

Un équilibre à reconstruire entre confiance et prudence

Le médicament n’est ni un produit de consommation comme les autres ni un poison à éviter. C’est une arme thérapeutique puissante, qui exige discernement et respect. Sa sécurité repose sur une relation de confiance éclairée entre patients, soignants et institutions. Face à la montée de l’automédication et à la circulation massive d’informations parfois contradictoires, l’enjeu n’est pas de diaboliser le médicament, mais d’en restaurer la compréhension rationnelle.

Bien utilisé, il soigne ; mal utilisé, il blesse. C’est tout le sens du message de Paracelse, encore cinq siècles plus tard.

The Conversation

Clément Delage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les médicaments du quotidien nous rendent malades : mésusages et effets indésirables – https://theconversation.com/quand-les-medicaments-du-quotidien-nous-rendent-malades-mesusages-et-effets-indesirables-273656

Minéraux critiques d’Afrique : le cadre du G20 définit les moyens d’en profiter

Source: The Conversation – in French – By Glen Nwaila, Director of the Mining Institute and the African Research Centre for Ore Systems Science; Associate Professor of Geometallurgy and Machine Learning, University of the Witwatersrand

Alors que le monde se tourne vers les énergies propres, les minéraux tels que le lithium, le cobalt et le manganèse sont devenus aussi importants que l’était autrefois le pétrole. L’Afrique détient d’importantes réserves de ces minéraux critiques. Pourtant, ils sont principalement exportés sous forme de matières premières, puis reviennent sous forme de technologies vertes coûteuses fabriquées dans des usines à l’étranger. La présidence sud-africaine du G20 a mis en place un nouveau cadre pour les minéraux critiques. Ce cadre vise à aider les pays africains riches en minéraux à tirer davantage profit de la transformation et de la fabrication locales. Les géoscientifiques Glen Nwaila et Grant Bybee expliquent ce qu’il faut faire pour extraire les minéraux en toute sécurité et transformer les richesses souterraines en valeur économique en Afrique.


Que sont les minéraux critiques et quelle place occupent-ils dans les ressources africaines ?

Le cobalt, le manganèse, le graphite naturel, le cuivre, le nickel, le lithium et le minerai de fer sont tous essentiels à la fabrication de panneaux solaires, d’éoliennes, de batteries pour véhicules électriques et d’autres équipements liés aux énergies vertes.

L’Afrique abrite d’importantes réserves de minéraux critiques. Le continent détient 55 % des gisements mondiaux de cobalt. Il abrite 47,65 % de tout le manganèse mondial et 21,6 % du graphite naturel.




Read more:
Les minerais critiques, des ambitions pour l’Afrique


Environ 5,9 % du cuivre, 5,6 % du nickel, 1 % du lithium et 0,6 % du minerai de fer mondial se trouvent en Afrique.

L’Afrique du Sud possède entre 80 % et 90 % des métaux du groupe du platine dans le monde et plus de 70 % des ressources mondiales en chrome et en manganèse. Ces métaux sont essentiels pour fabriquer les composants pour les technologies d’énergie propre et l’électronique.

L’Agence internationale de l’énergie prévoyait en 2025 que la demande en lithium serait multipliée par cinq entre 2025 et 2040. La demande en graphite et en nickel doublera. Entre 50 % et 60 % de cobalt et d’éléments de terres rares supplémentaires seront nécessaires d’ici 2040. La demande en cuivre augmentera de 30 % au cours de la même période.

Quels sont les principaux défis auxquels sont confrontées ces ressources précieuses ?

Dans beaucoup d’économies africaines, les minéraux critiques sont exportés à l’état brut ou semi-transformés, pour être utilisés dans la production de diverses technologies d’énergie verte. Les pays africains importent ensuite ces technologies, passant ainsi à côté des emplois et des industries qui pourraient être créés s’ils fabriquaient eux-mêmes des composants liés aux énergies vertes.

La transformation des minéraux et éléments critiques en Afrique permettrait de créer environ 2,3 millions d’emplois sur le continent. Cela augmenterait le PIB continental d’environ 12 %. Cela contribuerait à résoudre un problème de chômage chronique. Par exemple, l’Afrique du Sud affiche un taux de chômage de 31,9 %. Chez les jeunes âgés de 15 à 34 ans, le taux de chômage atteint 43,7 %.

Quelles solutions sont proposées ?

Le nouveau cadre pour les minéraux critiques du G20 définit des règles et des normes claires afin de garantir une plus grande valeur ajoutée au niveau local (par exemple en transformant les minéraux là où ils sont extraits au lieu de les expédier à l’état brut). C’est ce qu’on appelle la promotion de « la valorisation locale à la source » ou « la création valeur et la rétention de valeur ».

Le cadre soutient la diffusion de l’exploitation minière, du transport, de la transformation et de la vente dans différents pays.

Cela permettra de réduire la dépendance à l’égard d’un seul pays ou d’une seule entreprise. Cela favorisera également la mise en place de chaînes d’approvisionnement plus fiables, moins susceptibles d’être perturbées.




Read more:
Entre la Chine et les Etats-Unis, l’Afrique doit s’imposer comme l’arbitre des minéraux critiques


Le cadre propose également que l’exploitation minière des minéraux critiques soit soumise à des règles strictes et équitables qui protègent les populations, les économies et l’environnement, conformément aux lois et politiques propres aux pays africains.

Il vise également à créer une carte claire (ou un inventaire) de l’emplacement de tous les minéraux critiques sur le continent, afin que l’exploration (en particulier dans les zones sous-explorées) puisse se faire sans nuire aux communautés ou à l’environnement.




Read more:
Ruée vers l’Afrique pour l’extraction des minéraux essentiels comme le lithium : comment le continent devrait répondre à la demande


Il encourage les nouvelles idées, les nouvelles technologies et les formations afin que les gens puissent acquérir les compétences nécessaires pour travailler dans les industries des énergies vertes.

Bien qu’il s’agisse d’un document volontaire et non contraignant, il est essentiel en tant que guide des meilleures pratiques.

En quoi le rôle des géoscientifiques est-il essentiel ?

Les géosciences influencent la vie quotidienne, ce qui n’est pas évidente pour la plupart des gens. Les hydrogéologues contribuent à garantir que les villes, les fermes et les mines disposent d’une eau fiable et propre sans nuire à l’environnement. Les géophysiciens sont capables de « voir » sous terre à l’aide d’outils spécialisés pour trouver des minéraux. Ils déterminent également les endroits où il est sûr de construire des routes, des tunnels et des centrales électriques, et surveillent les risques naturels tels que les tremblements de terre.

Il existe beaucoup de domaines dans les géosciences. Les géométallurgistes cherchent à déterminer comment traiter plus efficacement les roches extraites, en utilisant moins d’énergie et d’eau et en produisant moins de déchets. Les scientifiques spécialisés dans les géodonnées transforment les images satellites et les données terrestres en cartes qui sont utilisées pour planifier les villes et s’adapter au changement climatique. Les géologues spécialisés dans les ressources estiment la quantité de minéraux ou de métaux précieux pouvant être extraits, ainsi que les risques associés.




Read more:
Les minerais africains sont échangés contre la sécurité : pourquoi c’est une mauvaise idée


Les géologues ingénieurs contribuent à la sécurité des bâtiments, des tunnels, des barrages et des installations de traitement des déchets miniers. Les géologues environnementaux surveillent les sols, l’eau et l’air afin de s’assurer que le développement ne nuit pas aux personnes ni à l’environnement.

Les vastes réserves de minéraux critiques de l’Afrique ne peuvent créer des emplois, favoriser la croissance économique et le développement durable que si les pays disposent d’un nombre suffisant de géoscientifiques bien formés pour les trouver, les extraire et les traiter. Leur expertise permet de transformer les ressources souterraines en véritables opportunités économiques.

L’Afrique continue de former beaucoup de géoscientifiques talentueux. Ceux-ci travaillent dans les chaînes de valeur des minéraux critiques et apportent une contribution précieuse. Cependant, des compétences plus avancées en science des géodonnées, en géométallurgie, en modélisation prédictive et en leadership sont nécessaires. À l’heure actuelle, d’importantes lacunes subsistent en Afrique.

Pour combler ces lacunes, les gouvernements africains, les universités, les partenaires industriels et les collaborateurs internationaux doivent investir de toute urgence dans des programmes d’éducation et de formation ciblés. Ceux-ci devraient se concentrer sur la formation en science des géodonnées avancée, en géométallurgie, en modélisation prédictive, en science des systèmes minéraux et en développement du leadership. Des partenariats doivent être mis en place avec des entreprises privées. Les étudiants doivent participer à des échanges de connaissances internationaux.

Les entreprises minières doivent être incitées à partager leurs connaissances afin que les professionnels africains soient formés pour effectuer eux-mêmes des travaux de haute valeur dans le domaine des géosciences et de l’exploitation minière.

Cela permettrait à l’Afrique non seulement d’extraire, mais aussi d’exploiter pleinement ses richesses minérales souterraines. Cette croissance favoriserait une croissance économique inclusive, la création d’emplois et une transition énergétique juste.

The Conversation

Glen Nwaila reçoit un financement de recherche de la part de l’Open Society Foundations, en collaboration avec le Southern Centre for Inequality Studies de l’université de Wits, afin de soutenir ses travaux sur les minéraux critiques en Afrique.

Grant Bybee does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Minéraux critiques d’Afrique : le cadre du G20 définit les moyens d’en profiter – https://theconversation.com/mineraux-critiques-dafrique-le-cadre-du-g20-definit-les-moyens-den-profiter-274747

Ransomware : qu’est-ce que c’est et pourquoi cela vous concerne ?

Source: The Conversation – in French – By Thembekile Olivia Mayayise, Senior Lecturer, University of the Witwatersrand

Le ransomware ou rançongiciel est un type de logiciel malveillant qui rend les données, le système ou l’appareil de la victime inaccessibles. Il les verrouille et les crypte (en les rendant illisibles) jusqu’à ce qu’une rançon soit payée aux pirates.

Il s’agit de l’une des formes de cyberattaques les plus répandues et les plus destructrices qui touchent les organisations à travers le monde. Un rapport d’Interpol a identifié les ransomwares comme l’une des cybermenaces les plus répandues en Afrique en 2024. L’Afrique du Sud a signalé 12 281 détections et l’Égypte 17 849.

Malgré les efforts mondiaux pour le freiner, le ransomware continue de prospérer, alimenté par l’appât du gain rapide des cybercriminels à la recherche de gains financiers rapides. Dans son rapport du premier trimestre 2025, la société mondiale de cybersécurité Sophos a révélé que 71 % des organisations sud-africaines touchées par des ransomwares ont payé une rançon et récupéré leurs données. Mais le coût total d’une attaque par ransomware est difficile à quantifier. Il va au-delà du paiement de la rançon et inclut les pertes de revenus pendant la période d’indisponibilité du système et les dommages potentiels à la réputation.

Les cybercriminels choisissent souvent des organisations où une interruption de service peut avoir des répercussions importantes sur le public ou les opérations, ce qui augmente la pression pour payer la rançon. Les réseaux électriques, les systèmes de santé, les réseaux de transport et les systèmes financiers en sont des exemples. Lorsque les victimes refusent de payer la rançon, les malfaiteurs menacent souvent de divulguer des informations sensibles ou confidentielles.

L’une des raisons pour lesquelles les ransomwares sont devenus si répandus en Afrique est le retard du continent en matière de cybersécurité. De nombreuses organisations ne disposent pas de ressources dédiées à la cybersécurité, ni des compétences. Il leur manque aussi la sensibilisation, les outils et les infrastructures nécessaires pour se défendre contre les cyberattaques.

Dans cet environnement, les pirates informatiques peuvent opérer relativement facilement. Tous les chefs d’entreprise, en particulier ceux qui supervisent les technologies de l’information et de la communication (TIC) ou gèrent des données sensibles, devraient se poser une question cruciale. Notre organisation peut-elle survivre à une attaque par ransomware ?

Il ne s’agit pas seulement d’une question technique, mais aussi d’une question de gouvernance. Les membres des conseils d’administration et les équipes de direction sont de plus en plus responsables de la gestion des risques et de la cyber-résilience.

En tant que chercheur et expert en gouvernance des technologies de l’information et en cybersécurité, je constate que la région africaine est en train de devenir un foyer majeur pour les cyberattaques. Les organisations doivent être conscientes des risques et prendre des mesures pour les atténuer.

Les attaques par ransomware peuvent être extrêmement coûteuses, et une organisation peut avoir des difficultés à se remettre d’un incident, voire y succomber.

Les faiblesses qui augmentent le risque de ransomware

Le rapport 2025 de l’entreprise de télécommunications Verizon sur les violations de données a révélé que le nombre d’organisations touchées par des attaques par ransomware avait augmenté de 37 % par rapport à l’année précédente. Cela montre à quel point de nombreuses organisations sont mal préparées pour prévenir une attaque.

Un plan de continuité des activités détaille la manière dont une entreprise poursuit ses activités en cas de perturbation. Un plan de reprise après sinistre informatique fait partie du plan de continuité. Ces plans sont essentiels pour assurer la continuité des activités après l’attaque, car les entreprises touchées subissent souvent des temps d’arrêt prolongés, une perte d’accès aux systèmes et aux données, ainsi que de graves perturbations opérationnelles.

Les hackers professionnels vendent en fait des outils de ransomware, ce qui permet aux cybercriminels de lancer plus facilement et de manière plus rentable des attaques sans se soucier de leurs conséquences.

Les pirates peuvent infiltrer les systèmes de différentes manières :

  • contrôles de sécurité faibles, tels que des mots de passe ou des mécanismes d’authentification peu sûrs

  • réseaux non surveillés, où il n’existe pas de systèmes de détection d’intrusion capables de signaler toute activité réseau suspecte

  • erreur humaine, lorsque des employés cliquent par erreur sur des liens dans des e-mails qui contiennent des ransomwares.

Une surveillance insuffisante du réseau peut permettre aux pirates informatiques de rester indétectables suffisamment longtemps pour collecter des données sur les vulnérabilités et identifier les systèmes clés à cibler. Dans de nombreux cas, les employés introduisent à leur insu des logiciels malveillants, des liens ou des pièces jointes provenant d’e-mails de phishing. Le phishing est une attaque d’ingénierie sociale qui utilise diverses techniques de manipulation pour inciter un utilisateur à divulguer des informations sensibles, telles que ses coordonnées bancaires ou ses identifiants de connexion, ou pour le piéger en le poussant à cliquer sur des liens malveillants.

Payer la rançon

Les attaquants exigent généralement un paiement en bitcoins ou autres cryptomonnaies, car ces paiements sont très difficiles à tracer. Le paiement de la rançon n’offre aucune garantie de récupération complète des données ni de protection contre de futures attaques. Selon la société mondiale de cybersécurité Check Point, des groupes de ransomware notoires tels que Medusa ont popularisé les tactiques de double extorsion.

Ces groupes exigent un paiement et menacent de publier les données volées en ligne. Ils utilisent souvent les réseaux sociaux et le dark web (une partie d’Internet accessible uniquement à l’aide d’un logiciel spécial), ce qui leur permet de rester anonymes et introuvables. Leur objectif est d’humilier publiquement les victimes ou de divulguer des informations sensibles, afin de faire pression sur les organisations pour qu’elles se plient à leurs exigences.

Ces violations contribuent également aux escroqueries par hameçonnage, car les adresses e-mail et les identifiants exposés circulent sur Internet, ce qui entraîne davantage de violations de données. Des sites web tels que Have I Been Pwned peuvent vous aider à vérifier si votre adresse e-mail a été compromise lors d’une précédente violation de données.

Renforcer la résilience des organisations

Les organisations doivent renforcer leur cybersécurité de plusieurs manières.

  • Mettre en place des mesures techniques et administratives solides pour assurer la sécurité des données. Il s’agit notamment de contrôles d’accès efficaces, d’outils de surveillance du réseau et de sauvegardes régulières des systèmes et des données.

  • Utiliser des outils qui bloquent les attaques de logiciels malveillants à un stade précoce et émettent des alertes en cas d’activités suspectes. Cela inclut l’utilisation d’une protection solide des terminaux, garantissant que tout appareil connecté au réseau dispose de systèmes de détection d’intrusion qui aident à repérer les activités réseau inhabituelles.

  • Doter le personnel des connaissances et de la vigilance nécessaires pour détecter et prévenir les menaces potentielles.

  • Élaborer, documenter et communiquer un plan d’intervention clair en cas d’incident.

  • Faire appel à des experts externes en cybersécurité ou à des services de sécurité gérés lorsque l’organisation ne dispose pas des compétences ou des capacités nécessaires pour gérer seule la sécurité.

  • Élaborez, maintenez et testez régulièrement des plans de continuité des activités et de reprise après sinistre des TIC.

  • Souscrivez une cyberassurance pour couvrir les risques qui ne peuvent être totalement évités.

Les attaques par ransomware constituent une menace grave et croissante pour les particuliers et les organisations. Elles peuvent entraîner des pertes de données, des pertes financières, des perturbations opérationnelles et une atteinte à la réputation. Aucune mesure de sécurité ne peut garantir une protection totale contre de telles attaques. Mais les mesures décrites ici peuvent vous aider.

The Conversation

Thembekile Olivia Mayayise does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Ransomware : qu’est-ce que c’est et pourquoi cela vous concerne ? – https://theconversation.com/ransomware-quest-ce-que-cest-et-pourquoi-cela-vous-concerne-274459

Dans le cerveau des chevaux : comment le lien maternel affecte le cerveau et le comportement des poulains

Source: The Conversation – France in French (2) – By Mathilde Valenchon, Chercheuse en Ethologie, Inrae

Les interactions entre les poulains et leurs mères ont des implications sur leur comportement, sur leur physiologie et sur leur développement cérébral. © UMR PRC INRAE-CNRS-Université de Tours, M. E. Le Bachelier de la Rivière., Fourni par l’auteur

Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.


Chez les mammifères sociaux, les relations sociales jouent un rôle déterminant dans le développement. On sait depuis longtemps que la période autour de la naissance est cruciale, lorsque le nouveau-né dépend entièrement de son ou de ses parent(s) pour se nourrir et se protéger. En revanche, ce qui se joue après, lorsque le jeune n’est plus physiquement dépendant de sa mère mais continue de vivre à ses côtés, reste encore mal compris.

Dans une étude récente publiée dans Nature Communications, nous avons exploré chez le cheval cette période souvent négligée du développement. Nos résultats montrent que la présence prolongée de la mère façonne à la fois le cerveau, le comportement
– social en particulier – et la physiologie des poulains.

Pourquoi s’intéresser à l’« enfance » chez le cheval ?

Le cheval est un modèle particulièrement pertinent pour étudier le rôle du lien parental sur le développement des jeunes. Comme chez l’humain, les mères donnent généralement naissance à un seul petit à la fois, procurent des soins parentaux prolongés et établissent un lien mère-jeune fort sur le plan affectif, individualisé et durable.

Dans des conditions naturelles, les poulains restent avec leur groupe familial, et donc avec leur mère, jusqu’à l’âge de 2 ou 3 ans. En revanche, en élevage ou chez les particuliers, la séparation est le plus souvent décidée par l’humain et intervient bien plus tôt, autour de 6 mois. Ce contraste offre une occasion unique d’étudier l’impact de la présence maternelle sur le développement au-delà de la période néonatale.

Comment étudier de rôle d’une présence maternelle prolongée chez le cheval ?

Pour isoler l’effet de la présence maternelle, nous avons suivi 24 poulains de l’âge de 6 à 13 mois. Cette période peut être assimilée à celle de l’enfance chez l’être humain. En effet, durant cette période, les poulains ressemblent déjà physiquement à de petits adultes, apparaissent autonomes dans leurs déplacements et consomment très majoritairement des aliments solides, tout en étant encore sexuellement immatures. En d’autres termes, leur survie immédiate ne dépend plus directement de la mère.

Dans notre étude, tous les poulains vivaient ensemble dans un contexte social riche, avec d’autres jeunes et des adultes. La seule différence concernait la présence ou non de leurs mères respectives à partir de l’âge de 6 mois : ainsi, 12 poulains sont restés avec leur mère tandis que 12 autres en ont été séparés, comme c’est fréquemment le cas en élevage.

Durant les sept mois qui ont suivi, nous avons étudié le développement de ces poulains. En éthologie, les comportements sont étudiés de façon quantitative. Nous avons suivi le développement comportemental des poulains à l’aide d’observations et de tests comportementaux standardisés, puis analysé statistiquement ces données pour comparer leurs trajectoires développementales. Ces données ont été complétées par des mesures physiologiques régulières (par exemple, la prise de poids, les concentrations hormonales) et par une approche d’imagerie par résonance magnétique (IRM) pour visualiser les différences fonctionnelles et morphologiques entre nos deux groupes de poulains de manière non invasive.




À lire aussi :
Les chevaux nous reconnaissent-ils ?


La présence de la mère favorise l’émergence des compétences sociales

Les résultats issus de nos observations répétées dans le temps montrent que les poulains bénéficiant de la présence de leur mère interagissaient davantage avec leurs congénères, notamment à travers des comportements positifs, comme le jeu ou le toilettage mutuel, que les poulains séparés de leurs mères. Ils se montraient aussi plus explorateurs et plus à l’aise face à des situations sociales nouvelles, suggérant une plus grande sociabilité.

Autre résultat intéressant, les poulains bénéficiant de la présence de leur mère passaient moins de temps à manger mais prenaient plus de poids, suggérant une croissance plus efficace.

Le lien maternel, moteur du développement du cerveau

Pour aller plus loin, nous avons combiné ces observations comportementales avec une approche encore rare chez les animaux d’élevage : l’imagerie médicale. Ici nous avons utilisé des techniques d’IRM, permettant d’observer le fonctionnement et l’organisation du cerveau vivant, sans douleur. Ainsi, nous avons pu caractériser le développement cérébral de nos poulains.

« Comprendre l’IRM en deux minutes ». Source : Institut du cerveau — Paris Brain Institute.

Cette approche nous a permis d’identifier, pour la première fois chez le cheval, un réseau cérébral appelé le réseau du mode par défaut. Bien connu chez l’humain et identifié chez une poignée d’autres espèces animales, ce réseau serait impliqué dans l’intégration des pensées introspectives, la perception de soi et des autres. Chez les poulains ayant bénéficié d’une présence maternelle prolongée, ce réseau était plus développé, faisant écho aux meilleures compétences sociales que nous avons observées.

En outre, nous avons observé des différences morphologiques dans une région fortement impliquée dans la régulation physiologique, l’hypothalamus, en lien avec les différences physiologiques et de comportement alimentaire mises en évidence.

Une phase clé du développement aux effets multidimensionnels

Pris dans leur ensemble, nos résultats soulignent l’importance de cette phase du développement, encore peu étudiée chez l’animal, située entre la petite enfance et l’adolescence.

Ils suggèrent que la présence maternelle prolongée induit un développement comportemental, cérébral et physiologique plus harmonieux, qui pourrait contribuer à équiper les jeunes pour leur vie adulte future, notamment dans le domaine de compétences sociales.

Quelles implications pour l’élevage… et au-delà ?

Notre travail ne permet pas de définir une règle universelle sur l’âge idéal de séparation chez le cheval. Il montre en revanche que la séparation précoce a des conséquences mesurables, bien au-delà de la seule question alimentaire.

Lorsque les conditions le permettent, garder plus longtemps le poulain avec sa mère pourrait donc constituer un levier simple et favorable au développement du jeune. Cependant, d’autres études sont nécessaires pour évaluer l’impact de ces pratiques sur les mères et les capacités de récupération des poulains après la séparation, par exemple.

Avec grande prudence, ces résultats font aussi écho à ce que l’on observe chez d’autres mammifères sociaux, y compris l’humain : le rôle du parent ou de la/du soignant·e (« caregiver ») comme médiateur entre le jeune et son environnement social et physique pourrait être un mécanisme largement partagé. Le cheval offre ainsi un modèle précieux pour mieux comprendre comment les premières relations sociales façonnent durablement le cerveau et le comportement.

The Conversation

Cette étude a été financée grâce à une bourse européenne HORIZON 2020 Marie Skłodowska-Curie Actions (MSCA) (ref: 101033271, MSCA European Individual Fellowship, https://doi.org/10.3030/101033271) et au Conseil Scientifique de l’Institut
Français du Cheval et de l’Equitation (IFCE) (ref: DEVELOPPEMENTPOULAIN).

David Barrière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Dans le cerveau des chevaux : comment le lien maternel affecte le cerveau et le comportement des poulains – https://theconversation.com/dans-le-cerveau-des-chevaux-comment-le-lien-maternel-affecte-le-cerveau-et-le-comportement-des-poulains-274144

« Aime-moi ! » ou comment les entreprises peuvent générer de l’engagement entre elles

Source: The Conversation – in French – By Benoit Bourguignon, Professeur de marketing, Université du Québec à Montréal (UQAM)

Une publication de McDonald’s peut générer 17 000 réactions. Pour une entreprise qui vend à d’autres entreprises, en obtenir une trentaine relève déjà de la performance. Sur les réseaux sociaux, le marketing Business-to-Business (B2B) semble condamné à un faible engagement. Nos recherches montrent pourtant que ce désavantage n’est pas une fatalité.


Tout le monde veut être aimé ; les entreprises aussi. Et ce besoin d’amour se manifeste également sur les réseaux sociaux où chaque publication cherche à attirer un maximum de « J’aime ». Or, les publications B2B suscitent beaucoup moins d’engagements sur les réseaux sociaux que celles des marques destinées aux consommateurs individuels (B2C). Dans notre échantillon, une publication d’entreprise reçoit en moyenne 29 réactions, loin des milliers générées par certaines campagnes B2C.

Depuis deux ans, notre équipe de recherche s’est penchée sur ce qui favorise les réactions positives sur les publications des entreprises qui vendent à d’autres entreprises — par exemple, une société qui fournit de la farine à un boulanger, un logiciel de comptabilité à une PME, ou des composants électroniques à un fabricant.

Nous avons mené plusieurs études, dont deux se dégagent particulièrement : l’une sur le rôle de la narration, l’autre sur l’effet des émotions exprimées dans les publications diffusées sur les réseaux sociaux.




À lire aussi :
Isolés, pressurisés, stressés : voici comment réduire l’anxiété sociale chez les professionnels de la vente


Carburer aux histoires

« Laissez-moi vous raconter ce qui m’est arrivé hier ! »

Avez-vous déjà remarqué que cette simple phrase suscite immédiatement l’attention de vos interlocuteurs ? L’être humain carbure aux histoires, que ce soit dans les livres, les films ou les réseaux sociaux. Les organisations utilisent elles aussi la narration pour capter l’intérêt des consommateurs, mais aussi d’autres entreprises qui sont leurs clientes. Quand on raconte une histoire, on retrouve généralement des personnages, des séquences d’événements et un lieu où se déroulent ces actions.

Dans une étude, nous avons cherché à retrouver ces éléments de la narration dans 85 075 publications de 439 entreprises B2B afin de déterminer s’ils favorisaient l’engagement. Comme mesure de l’engagement, nous avons additionné le nombre de « J’aime », de commentaires et de partages. Nous avons utilisé le traitement automatique des langues pour analyser près de 4,3 millions de mots contenus dans ces publications.

Par exemple, une entreprise a publié ceci en anglais : « Chaque mois de juin, nous tenons le Mois du leadership en matière de sécurité afin de recentrer nos efforts et de nous réengager envers notre objectif de zéro incident de sécurité. Découvrez comment (noms des 4 employés) font de la sécurité une obligation ».

La publication se poursuit avec le témoignage de ces quatre employés. En présentant ces personnes racontant une histoire dans leur entreprise, on retrouvait des éléments de narration qui ont contribué à susciter 52 réactions, 2 commentaires et 3 republications, ce qui représente un niveau d’engagement important pour une entreprise qui ne vend pas aux consommateurs.

On sait depuis longtemps que la narration influence positivement l’image des marques auprès des consommateurs. Nos résultats démontrent que la narration peut aussi avoir une influence positive sur l’engagement envers des publications de compagnies de B2B. Pourtant, elle reste encore peu utilisée en B2B, notamment sur les médias sociaux, alors même qu’elle permet de rendre les communications plus authentiques, de mieux utiliser les ressources et de créer des relations plus fortes.

Générer une réaction

Une autre stratégie utilisée par les marketeurs pour susciter de l’intérêt, que ce soit sur TikTok, Instagram ou Facebook, est de créer du contenu qui génère une réaction émotionnelle. Parmi les 27 émotions que nous avons étudiées, 24 ont une influence significative sur l’engagement, dont la surprise, comme avec l’anecdote relatée par cette publication qui a reçu 33 réactions, soit plus que la moyenne : « Aujourd’hui, c’est la Journée mondiale des sols (#WorldSoilDay). Fait surprenant : une cuillère à soupe de sol contient plus d’organismes qu’il n’y a de personnes sur Terre ».

On connaît, depuis des décennies, l’importance de susciter des émotions chez les consommateurs pour qu’ils s’intéressent à un produit ou à un service, même s’ils refusent parfois de l’admettre. À l’inverse, les décisions d’achat en entreprise sont souvent perçues comme rationnelles et uniquement guidées par des chiffres.

Or, les acheteurs professionnels en B2B, comme les consommateurs, sont tout aussi influencés par leurs émotions lorsqu’ils sont soumis à des propositions commerciales, car derrière chaque organisation il y a des personnes. Et ces personnes, comme tout le monde, éprouvent des émotions vis-à-vis d’une marque ou d’une présentation d’un produit ou d’un service.

Les décisions B2B ne reposent donc pas seulement sur des chiffriers Excel et des critères techniques : elles sont aussi influencées par des émotions, des perceptions et des histoires qui rendent une option plus rassurante, plus crédible ou plus désirable que les autres.

L’impact concret de la narration et des émotions

Il fallait maintenant étudier si cela se traduisait par un plus grand engagement sur les réseaux sociaux. Pour mesurer l’effet des émotions sur l’engagement, nous avons analysé 65 027 publications sur Facebook de 439 entreprises canadiennes de B2B. Afin de classer les publications selon les émotions, nous avons appliqué des méthodes de traitement automatique des langues à l’aide d’un jeu de données public, et mesuré l’engagement de la même façon que dans l’étude précédente.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Il en ressort que des émotions positives, comme la joie, la fierté et l’admiration ont un effet positif sur l’engagement. Une seule émotion négative, le chagrin, génère de l’engagement, probablement par empathie, comme ces nombreuses publications d’entreprise soulignant le décès de la reine Elizabeth, qui ont eu un niveau d’engagement supérieur.

Par exemple, une entreprise d’équipements en cuir pour chevaux a publié : « Aujourd’hui, le monde a perdu une véritable cavalière. Reposez en paix, reine Elizabeth II. » Cette publication a reçu 52 réactions, et 2 commentaires et a été partagée 13 fois. Les publications neutres, c’est-à-dire sans présence manifeste d’émotion, ont plutôt un effet négatif sur l’engagement.

On pense souvent que les algorithmes décident de tout, mais l’engagement naît souvent d’une émotion. Une histoire qui étonne, qui émeut ou qui fait rire peut suffire à susciter le désir de réagir. Et c’est sans doute la seule stratégie qui résiste au temps lorsqu’il s’agit de se faire aimer.

La Conversation Canada

L’étude citée dans l’article s’appuie sur des travaux de recherche financés par le Conseil de recherches en sciences humaines du Canada.

Harold Boeck, Maryam Bahra et Seyed Habib Hosseini Saravani ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. « Aime-moi ! » ou comment les entreprises peuvent générer de l’engagement entre elles – https://theconversation.com/aime-moi-ou-comment-les-entreprises-peuvent-generer-de-lengagement-entre-elles-268473

Un robot, un cerveau, une découverte : démystifier l’équilibre debout

Source: The Conversation – in French – By Jean-Sébastien Blouin, Professor, School of Kinesiology, University of British Columbia

Imaginez-vous au volant d’une voiture dont la direction ne réagit pas instantanément et dont le GPS indique toujours où vous étiez une seconde plus tôt. Pour conduire un tel véhicule, vous devriez constamment déduire comment manœuvrer le volant à partir d’informations qui ne sont pas à jour.

C’est exactement ce que fait le cerveau chaque fois que l’on bouge : les signaux sensoriels atteignent le cerveau quelques dizaines de millisecondes après un événement, et les commandes motrices mettent un temps similaire pour arriver aux muscles, qui ont besoin de temps pour générer de la force. En d’autres termes, le cerveau travaille toujours avec des « informations anciennes » et doit prédire le résultat de chaque action.

Cette capacité prédictive est particulièrement impressionnante lorsque nous nous tenons debout, car elle permet de maintenir l’équilibre d’un corps grand et lourd sur deux petits pieds.

Les défis de l’équilibre

Les scientifiques savent depuis longtemps que le temps de réponse neuronale rend complexe le contrôle de l’équilibre. Même chez les jeunes adultes en bonne santé, il faut environ un sixième de seconde pour que les informations provenant des pieds, des muscles et des oreilles internes atteignent le cerveau, puis pour qu’un signal correctif soit envoyé aux muscles. Les modèles physiques simples considèrent le corps comme une masse qui s’équilibre autour des chevilles et prédisent qu’il devient impossible de rester debout si la transmission des informations neuronales et le temps de réponse sont trop longs.

Les propriétés physiques de notre corps influencent notre façon de bouger. Tout comme un gros camion se conduit plus lourdement qu’une petite voiture, une personne grande ou lourde qui se tient debout a une plus grande résistance au mouvement et ressent moins les poussées externes ou les secousses soudaines.

Pour vérifier si le cerveau traite les signaux décalés temporellement de la même manière qu’il traite les changements dans la mécanique corporelle, une équipe de l’Université de Colombie-Britannique et du Centre médical universitaire Erasmus, aux Pays-Bas, a construit un robot de simulation corporelle grandeur nature.

Un homme se tient debout dans une grande machine
Un participant dans le robot de simulation corporelle à l’Université de Colombie-Britannique.
(Sensorimotor Physiology Lab/UBC), CC BY-NC-SA

Les participants, debout sur deux plateformes de force, sont attachés à un cadre rembourré. Des moteurs déplacent le cadre en fonction des forces qu’ils génèrent, ce qui fait que l’ensemble du système se comporte comme leur vrai corps qui oscille sous l’effet de la gravité.

Le robot peut modifier la mécanique corporelle simulée en temps réel : il peut faire sentir la personne plus légère ou plus lourde, ajouter ou retirer de l’énergie à ses mouvements ou insérer un délai entre son effort et le mouvement ressenti, imitant ainsi le décalage sensorimoteur du cerveau.

Trois expériences

À l’aide de cet outil, les scientifiques ont voulu déterminer si le cerveau traitait le temps (le délai) et l’espace (la dynamique corporelle) de manière indépendante. Pour ce faire, ils ont mené trois expériences :

1. Les changements dans la dynamique corporelle et les délais modifient l’équilibre de manière similaire. Les participants étaient debout, et le robot insérait un décalage de 0,2 seconde entre leurs commandes et le mouvement résultant. Cette micropause provoquait une importante oscillation et a amené de nombreux participants à la limite virtuelle de la chute. De même, l’oscillation augmentait quand le robot changeait le corps pour le rendre plus léger ou ajoutait de l’énergie au mouvement, un peu comme lorsqu’un coup de vent pousse une personne.

2. Les délais temporels sont perçus comme une modification de la mécanique corporelle. Une fois le retard désactivé, les participants ajustaient les propriétés mécaniques de leur corps jusqu’à ce que leur sensation corresponde à la sensation de délai qu’ils venaient de ressentir. Ils optaient alors pour un corps plus léger ou un réglage qui ajoutait de l’énergie. Lorsqu’on leur demandait de rendre la condition d’équilibre en présence d’un délai « naturelle », ils choisissaient un corps plus lourd ou un réglage qui dispersait l’énergie. Ainsi, modifier les propriétés mécaniques du corps permet de recréer ou d’annuler la sensation de signaux différés dans le temps.

3. Améliorer l’équilibre en présence d’un délai. Des personnes qui n’avaient jamais utilisé le robot furent soumises à un retard de 0,2 seconde entre leurs commandes motrices et le mouvement résultant. Lorsque leur corps étaient plus lourd ou dissipait l’énergie du mouvement, leur équilibre s’améliorait instantanément – aucun entraînement ou adaptation requis. Les oscillations étaient réduites de 80 % et la plupart des participants n’atteignaient plus la limite virtuelle de chute.

Le temps et l’espace

Ces trois expériences permettent de tirer une conclusion : le cerveau ne stocke pas de solutions distinctes pour des « informations décalées » et un « corps instable ». Au contraire, il maintient un modèle interne unifié qui fusionne le temps et l’espace en une seule représentation du mouvement.

Lorsque le retour sensoriel a du retard et que le corps est instable, ajouter de la lourdeur ou dissiper l’énergie du mouvement rétablit l’équilibre. À l’inverse, alléger le corps ou ajouter de l’énergie reproduit l’instabilité causée par les retards neuronaux. Dans les deux cas, une représentation unifiée de l’équilibre permet de demeurer en équilibre debout.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Ces découvertes sont plus que de simples curiosités scientifiques. Avec l’âge ou en cas de maladies endommageant les nerfs longs, les signaux voyagent plus lentement et sont davantage perturbés, ce qui provoque des troubles de l’équilibre et augmente le risque de chutes. Selon l’Organisation mondiale de la santé, une personne âgée sur trois fait une chute une fois par an, ce qui en fait la principale cause d’hospitalisation pour blessure et engendre un coût de plusieurs milliards de dollars pour les systèmes de santé.

Le robot de simulation corporelle offre une nouvelle perspective sur ce problème : des appareils fonctionnels et des exosquelettes portables qui fournissent juste assez de résistance au moment où une personne commence à vaciller peuvent contrebalancer les effets déstabilisants des ralentissements neuronaux.

Ils soulèvent également une question plus large : la taille des animaux et les mécanismes compensant les retards neuronaux ont-ils évolué pour améliorer leur survie ?

La prochaine fois que vous vous pencherez au-dessus d’un évier ou que vous aurez une discussion sur le pas de la porte, rappelez-vous que votre cerveau jongle discrètement avec le temps et les représentations corporelles en arrière-plan. Le plus étonnant est peut-être le fait que l’on ne remarque jamais ce travail.

La Conversation Canada

Jean-Sébastien Blouin bénéficie d’un financement du Conseil de recherches en sciences naturelles et en génie du Canada.

Patrick A. Forbes bénéficie d’un financement du Conseil néerlandais de la recherche (NWO).

ref. Un robot, un cerveau, une découverte : démystifier l’équilibre debout – https://theconversation.com/un-robot-un-cerveau-une-decouverte-demystifier-lequilibre-debout-271914

Quand les animaux de compagnie dévorent la biodiversité : un vide juridique dans l’Union européenne

Source: The Conversation – in French – By Miguel Ángel Gómez-Serrano, Assistant lecturer, Universitat de València

Les textes européens qui encadrent le bien-être animal le circonscrivent aux espèces domestiques. digitalienspb/Shutterstock

À travers ses grands textes, l’Union européenne défend la biodiversité d’un côté et le bien-être de nos animaux domestiques de l’autre. Mais que dit-elle quand nos chats et chiens attentent à la faune sauvage ? Pas grand-chose pour l’instant…


Près de 44 % des ménages de l’Union européenne possèdent au moins un animal de compagnie, dont plus de 90 % sont des chiens ou des chats.

La place des animaux de compagnie dans nos vies n’a cessé de croître au cours des dernières décennies, mais elle s’est fortement accélérée à partir de la pandémie de Covid-19. Plus précisément, on estime que la population européenne d’animaux de compagnie a augmenté de 11 % en 2022, pour atteindre 340 millions, principalement des chats (127 millions) et des chiens (104 millions).

À mesure que les foyers adoptent chiens et chats, l’intérêt pour leur bien-être ne cesse de croître. Dans le même temps, le déclin des populations d’animaux sauvages alerte la société sur la nécessité de protéger la biodiversité.

Mais cette convergence ne va pas toujours de soi. S’il existe un certain chevauchement entre les objectifs du bien-être animal et ceux de la conservation de la faune sauvage, un biais apparaît clairement dans la hiérarchisation des priorités entre animaux de compagnie et animaux sauvages, en particulier lorsque ces deux groupes interagissent.

IMG.
Miguel Ángel Gómez-Serrano

Une étude récente identifie les ressorts du conflit entre défenseurs du bien-être des animaux de compagnie et partisans de la conservation de la nature. Ce travail analyse les leviers juridiques, dans le cadre de l’Union européenne, permettant de réduire l’impact des animaux de compagnie sur les animaux sauvages.

Deux cadres juridiques difficilement conciliables

L’Union européenne dispose actuellement d’une législation environnementale solide, dans laquelle les directives « Oiseaux » et « Habitats » ont joué un rôle clé dans la protection de la faune sauvage. En revanche, la législation relative au bien-être animal – en particulier celle concernant les animaux de compagnie – est beaucoup plus récente et reste encore émergente.

En toute logique, le bien-être animal a été associé exclusivement aux espèces domestiques, tandis que les espèces sauvages relèvent du droit de l’environnement.

Mais ce déséquilibre a engendré un important vide juridique : que se passe-t-il lorsque des animaux de compagnie causent des dommages à la faune sauvage ?

Des animaux de compagnie devenus sauvages

Parmi les impacts les plus importants des animaux de compagnie sur la faune sauvage figurent ceux liés aux individus retournés à l’état sauvage. Les animaux abandonnés ou échappés peuvent former des populations autosuffisantes dans la nature, avec de graves conséquences pour les espèces autochtones.

Les perroquets échappés des foyers en sont un bon exemple. Des espèces comme la perruche à collier ou la conure veuve ont établi des colonies dans de nombreuses villes européennes. Au-delà de la question de savoir s’il faut les considérer comme des espèces invasives, leur gestion constitue un conflit socio-environnemental complexe.

Certains travaux scientifiques suggèrent qu’elles entrent en compétition avec les espèces locales pour les sites de nidification et les ressources, mais ce sont des animaux charismatiques et appréciés par le public, si bien que leur régulation suscite de vives controverses sociales.

Cependant, si un animal de compagnie concentre particulièrement les préoccupations lorsqu’il retourne à l’état sauvage, c’est bien le chat domestique. Il est considéré comme l’un des prédateurs invasifs les plus nocifs au monde, responsables d’environ 25 % des extinctions contemporaines de reptiles, d’oiseaux et de mammifères à l’échelle mondiale.

Malgré ces preuves, il existe encore en Europe une forte réticence à reconnaître les chats retournés à l’état sauvage (ou chats harets) comme des espèces invasives, ce qui limite les options juridiques pour gérer leur impact.

Animaux de compagnie qui errent librement hors de leur domicile

De nombreux animaux de compagnie passent une partie de leur temps à l’extérieur sans surveillance. Pour les chiens, les impacts concernent principalement la prédation sur la faune sauvage et la transmission de maladies.

Les chats, qui errent plus librement hors de leur domicile, pratiquent également la prédation, même lorsqu’ils sont bien nourris, affectant particulièrement les oiseaux et les petits vertébrés dans les environnements urbains et périurbains.

Un cas particulier concerne les colonies félines. Le contrôle des populations de chats errants relève généralement des États membres de l’UE, ce qui entraîne des approches très variées, allant de la mise à l’écart des animaux aux programmes de capture, stérilisation et retour (méthode CSR).

Bien qu’il s’agisse d’une méthode socialement acceptée, les preuves scientifiques montrent que, dans la majorité des cas, elle n’est pas efficace pour réduire la population de chats ni pour limiter à court terme leur impact sur la faune sauvage.




À lire aussi :
« Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants


Promener des animaux de compagnie dans la nature

Promener son chien dans la nature est devenu une des activités de loisirs particulièrement courante, en atteste notamment, dans les zones concernées, la popularité croissante des plages pour chiens. Ce type de gestion est probablement bénéfique pour la santé des animaux et de leurs propriétaires, mais pas pour la faune sauvage.

Sur les plages naturelles, par exemple, les chiens peuvent avoir un impact grave sur les oiseaux nichant au sol, comme les gravelots à collier interrompu. Même en l’absence de prédation directe, la simple présence d’un chien peut amener les oiseaux à abandonner leurs nids ou à réduire le temps d’incubation, avec des effets négatifs sur le succès reproducteur.

Réconcilier le bien-être animal et la conservation

À mesure que la biodiversité diminue et que les populations d’animaux de compagnie augmentent dans les foyers européens, le conflit entre la conservation de la faune sauvage et la défense du bien-être animal s’intensifie. Il devient donc urgent de réconcilier ces perspectives divergentes et d’harmoniser leurs cadres juridiques respectifs.

L’Union européenne dispose de marges de manœuvre juridique pour agir. Les directives environnementales obligent déjà les États membres à prévenir les dommages aux espèces protégées, ce qui pourrait se traduire par des restrictions plus claires concernant la liberté de déplacement des animaux de compagnie, en particulier dans les espaces naturels protégés.

Parallèlement, l’élaboration d’une nouvelle législation sur le bien-être animal constitue une occasion de renforcer la responsabilité des propriétaires tout en réduisant l’impact de la liberté de déplacement et en prévenant l’abandon ou le retour à l’état sauvage.

Il est nécessaire que les autorités s’attellent à la régulation de l’impact des animaux de compagnie et que leurs propriétaires s’engagent activement à les limiter. Ce n’est qu’ainsi que nous éviterons d’atteindre le point de non-retour où les seuls animaux que nous observerons lors de nos promenades dans la nature seront nos propres animaux de compagnie.

The Conversation

Miguel Ángel Gómez-Serrano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les animaux de compagnie dévorent la biodiversité : un vide juridique dans l’Union européenne – https://theconversation.com/quand-les-animaux-de-compagnie-devorent-la-biodiversite-un-vide-juridique-dans-lunion-europeenne-274863