Avec les restrictions d’âge sur les réseaux sociaux, Internet entre-t-il dans une nouvelle ère de contrôle moral ?

Source: The Conversation – in French – By Alex Beattie, Lecturer, Media and Communication, Te Herenga Waka — Victoria University of Wellington

L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements. Getty Images

De l’Australie au Danemark, les projets d’interdire TikTok ou Instagram aux adolescents se multiplient. Derrière les arguments de protection des mineurs, ces restrictions d’âge sur les réseaux sociaux traduisent un tournant culturel et moral.


Une vague de projets d’interdictions des réseaux sociaux aux plus jeunes déferle à travers le monde, nourrie par l’inquiétude croissante face aux effets supposés de TikTok, Instagram ou Snapchat sur des esprits jugés vulnérables.

L’Australie a été la première à annoncer des restrictions visant les moins de 16 ans. La Nouvelle-Zélande pourrait bientôt emboîter le pas et au Danemark, la première ministre a déclaré vouloir interdire les réseaux sociaux aux moins de 15 ans, accusant téléphones et plateformes de « voler l’enfance de nos enfants ».

Le Royaume-Uni, la France (le rapport parlementaire, publié en septembre 2025, préconise d’interdire les réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15-18 ans, de 22 heures à 8 heures, ndlt), la Norvège, mais aussi le Pakistan et les États-Unis envisagent ou mettent en place des mesures similaires, souvent conditionnées à un consentement parental ou à une vérification d’identité numérique.

À première vue, ces politiques visent à protéger la jeunesse des risques, pour la santé mentale, d’exposition à des contenus explicites ou de ceux de mécanismes addictifs. Mais derrière le vocabulaire de la sécurité se dessine autre chose : un basculement des valeurs culturelles.

Ces interdictions traduisent une inflexion morale, au risque de ressusciter des conceptions conservatrices qui précèdent Internet. Sommes-nous en train d’entrer dans une nouvelle ère victorienne du numérique, où la vie en ligne des jeunes serait remodelée non seulement par la régulation, mais aussi par un regain de contrôle moral ?

Un discours sur le déclin moral

L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements, l’école jouant un rôle central dans la transmission des hiérarchies sociales et genrées. On en retrouve aujourd’hui des échos dans le discours sur le « bien-être numérique ». Applications de suivi du temps d’écran, cures de « détox digitale » ou téléphones simplifiés sont présentés comme des moyens de cultiver une vie connectée « saine » – souvent sur fond de morale implicite. L’utilisateur idéal est calme, concentré, mesuré ; l’utilisateur impulsif ou expressif est pathologisé.

Cette vision est notamment popularisée par le psychologue Jonathan Haidt, auteur de The Anxious Generation (2024), devenu une référence du mouvement en faveur des restrictions d’âge. Selon lui, les réseaux sociaux accentuent les comportements performatifs et la dysrégulation émotionnelle chez les jeunes. La vie numérique des adolescents est ainsi décrite comme un terrain de fragilisation psychologique, de polarisation accrue et d’effritement des valeurs civiques communes.

Vu sous cet angle, la vie numérique des jeunes se traduit par une résilience psychologique en déclin, par une polarisation croissante et par l’érosion des valeurs civiques communes, plutôt que par un symptôme de mutations complexes. Cela a contribué à populariser l’idée que les réseaux sociaux ne sont pas seulement nocifs mais corrupteurs.

Mais ces thèses font débat. De nombreux chercheurs soulignent qu’elles reposent sur des corrélations fragiles et sur des interprétations sélectives. Certaines études établissent un lien entre usage intensif des réseaux sociaux et troubles anxieux ou dépressifs, mais d’autres montrent des effets modestes, variables selon les contextes, les plateformes et les individus. Surtout, ces analyses négligent la marge de manœuvre des jeunes eux-mêmes, leur capacité à naviguer dans les espaces numériques de façon créative, critique et sociale.

En réalité, la vie numérique des jeunes ne se résume pas à une consommation passive. C’est un espace de littératie, d’expression et de connexion. Des plateformes, comme TikTok et YouTube, ont favorisé une véritable renaissance de la communication orale et visuelle.

Les jeunes assemblent des mèmes, remixent des vidéos et pratiquent un montage effréné pour inventer de nouvelles formes de récit. Il ne s’agit pas de signes de déclin, mais de narrations en évolution. Réglementer leur accès sans reconnaître ces compétences, c’est risquer d’étouffer la nouveauté au profit du déjà-connu.

Réguler les plateformes, pas les jeunes

C’est ici que la comparaison avec l’ère victorienne a toute son utilité. De la même façon que les normes victoriennes visaient à maintenir un ordre social particulier, les restrictions d’âge actuelles risquent d’imposer une vision étroite de ce que devrait être la vie numérique.

En apparence, des termes comme celui de « brain rot » (pourrissement du cerveau) semblent désigner les effets nocifs d’un usage excessif d’Internet. Mais en pratique, les adolescents les emploient souvent pour en rire et pour résister aux pressions de la culture de la performance permanente.

Les inquiétudes autour des habitudes numériques des jeunes semblent surtout enracinées dans la peur d’une différence cognitive – l’idée que certains usagers seraient trop impulsifs, trop irrationnels, trop déviants. Les jeunes sont fréquemment décrits comme incapables de communiquer correctement, se cachant derrière leurs écrans et évitant les appels téléphoniques. Pourtant, ces changements reflètent des mutations plus larges dans notre rapport à la technologie. L’attente d’une disponibilité et d’une réactivité constantes nous attache à nos appareils d’une manière qui rend la déconnexion véritablement difficile.

Les restrictions d’âge peuvent atténuer certains symptômes, mais elles ne s’attaquent pas au problème de fond : la conception même des plateformes, construites pour nous faire défiler, partager et générer toujours plus de données.

Si la société et les gouvernements veulent vraiment protéger les jeunes, la meilleure stratégie serait sans doute de réguler les plateformes numériques elles-mêmes. Le juriste Eric Goldman qualifie l’approche fondée sur les restrictions d’âge de « stratégie de ségrégation et de répression » – une politique qui punit la jeunesse plutôt que de responsabiliser les plateformes.

On n’interdit pas aux enfants d’aller dans les aires de jeux, mais on attend de ces espaces qu’ils soient sûrs. Où sont les barrières de sécurité pour les espaces numériques ? Où est le devoir de vigilance des plateformes ?

La popularité croissante des interdictions de réseaux sociaux traduit un retour en force de valeurs conservatrices dans nos vies numériques. Mais la protection ne doit pas se faire au prix de l’autonomie, de la créativité ou de l’expression.

Pour beaucoup, Internet est devenu un champ de bataille moral, où s’affrontent des conceptions opposées de l’attention, de la communication et de l’identité. Mais c’est aussi une infrastructure sociale que les jeunes façonnent déjà par de nouvelles formes de narration et d’expression. Les en protéger reviendrait à étouffer les compétences et les voix mêmes qui pourraient nous aider à construire un futur numérique plus riche et plus sûr.

The Conversation

Alex Beattie reçoit des financements de la Royal Society Te Apārangi. Il est lauréat d’une bourse Marsden Fast Start.

ref. Avec les restrictions d’âge sur les réseaux sociaux, Internet entre-t-il dans une nouvelle ère de contrôle moral ? – https://theconversation.com/avec-les-restrictions-dage-sur-les-reseaux-sociaux-internet-entre-t-il-dans-une-nouvelle-ere-de-controle-moral-267846

Cameroun : la présidence à vie de Paul Biya entre dans une phase finale critique

Source: The Conversation – in French – By David E Kiwuwa, Associate Professor of International Studies, University of Nottingham

Pour la première fois, les partis d’opposition au Cameroun n’ont jamais été aussi « proches » de renverser Paul Biya, 92 ans, qui dirige le pays depuis 1982.

Le concurrent le plus sérieux de Biya lors des élections de 2025 était Issa Tchiroma Bakary, 76 ans, ancien allié et porte-parole du gouvernement. Il s’est présenté sous la bannière du Front de salut national du Cameroun. Il a obtenu plus de 35 % des voix, soit le deuxième meilleur score jamais obtenu par un candidat de l’opposition depuis que Biya se présente aux élections. Bien qu’il s’agisse de l’un des meilleurs résultats obtenus par les partis d’opposition au Cameroun depuis 1992, l’opposition a souffert de son incapacité à présenter un front uni et un candidat unique.

Biya a une fois de plus triomphé, mais avec une majorité réduite de 53,66 %. Les autres candidats ont obtenu un total combiné de 11 %. En 2018, Paul Biya avait obtenu avec 71,28 % des voix, contre 14,23 % pour Maurice Kamto.

Ce résultat contraste avec la victoire écrasante revendiquée par Bakary aux urnes avec 60 % des voix. Ses affirmations ont été rejetées par la Cour constitutionnelle et la commission électorale.




Read more:
Paul Biya at 92: will defections weaken his grip on absolute power in Cameroon?


La victoire controversée de Biya a donné lieu à des manifestations dans tout le pays et à une répression qui a fait des victimes.

En tant que chercheur et observateur de longue date des politiques africaines, des régimes politiques et de la gouvernance démocratique, je considère que le Cameroun se trouve à un tournant décisif. La victoire de Biya pourrait traduire une forme de résignation silencieuse des Camerounais face à la perspective de voir se poursuivre l’un des règnes présidentiels les plus longs au monde.

Je soutiens que le Cameroun se trouve à un tournant, où le triomphe de Biya pourrait annoncer une résignation « silencieuse » à l’idée de voir se terminer l’un des plus règnes présidentiels au monde. Pour Biya, la liste des défis à relever est longue. Au Cameroun et sur le continent, la démocratie est une fois de plus confrontée à des questions difficiles sans réponses évidentes.

Une opposition divisée

L’élection se jouait à la majorité simple. Biya, souvent qualifié de “propriétaire absent” du Cameroun, en raison de ses longs séjours à l’étranger, n’avait besoin d’un simple soutien pour prolonger son mandat à vie. Son nouveau mandat de sept ans prendra fin en 2032, date à laquelle il aura près de 100 ans.

Malgré une baisse d’environ 20 points de pourcentage de son score, il s’est imposé à nouveau en raison des défis récurrents de l’opposition.

L’incapacité à se rallier autour d’un candidat unique a fait que l’opposition, avec ses 11 candidats, apparaissant divisée.

Avec les institutions de l’État, notamment la Cour constitutionnelle, qui lui sont hostiles, il était évident que l’opposition menait un combat perdu d’avance.

Les défis à relever sont colossaux.




Read more:
Cameroon’s election risks instability, no matter who wins


La voie à suivre

Biya a beaucoup à faire.

Face à un mécontentement croissant, l’une de ses principales priorités est d’assurer la stabilité politique de son régime. Les récents changements de régime forcés en Afrique de l’Ouest, et tout récemment à Madagascar, pourrait le faire réfléchir sur la vulnérabilité de son pouvoir.

Il est possible que des troubles politiques prolongés provoquent un coup d’État, comme ce fut le cas au Gabon. Cela dit, les efforts déployés par Biya pour protéger son régime contre un coup d’État grâce à des militaires loyalistes de la même ethnie, les Betis, semblent lui avoir apporté un certain réconfort. Le sort de nombreux officiers supérieurs serait lié à celui de Biya.

Sa victoire, obtenue avec une majorité affaiblie, oblige Biya à renforcer sa légitimité, aussi bien sur la scène nationale qu’internationale.

Le sud-ouest reste une source de préoccupation. Avec la crise anglophone, causée par la marginalisation perçue du sud-ouest anglophone, toujours en cours, le résultat de l’élection pourrait galvaniser la rébellion dans l’espoir que la reprise des hostilités crée les conditions propices à un règlement du conflit avant le départ de Biya.

Il ne fait aucun doute que Biya est entré dans la dernière ligne droite de sa présidence à vie. Il est inévitable que les rivalités entre les élites politiques pour préparer l’après-Biya vont s’intensifier.

Ces luttes intestines pourraient déstabiliser le régime et entraver sa gouvernance. Des personnalités ambitieuses pourraient abandonner le navire de Biya, comme l’a fait Bakary.




Read more:
Cameroon after Paul Biya: poverty, uncertainty and a precarious succession battle


Pendant la campagne électorale, Biya a promis en particulier aux jeunes Camerounais et aux femmes que « le meilleur reste à venir ». Il était parfaitement conscient du niveau élevé d’insatisfaction et son régime sera contraint de répondre aux attentes.

Selon la Banque mondiale, environ 40 % des Camerounais vivent en dessous du seuil de pauvreté. Le taux de chômage urbain atteint 35 % et de nombreux jeunes diplômés ont des difficultés à trouver un emploi formel.

Une enquête Afrobarometer de 2024 révèle que 51 % des jeunes Camerounais ont déjà envisagé d’émigrer.

Les défis permanents que sont la corruption systémique, la prestation de services, la pauvreté et la lenteur de la croissance persistent. Le niveau de vie du Camerounais moyen n’a pas progressé n’a pas progressé depuis 1986. La manière dont Biya gérera ces défis sera déterminante pour apaiser temporairement la frustration accumulée.

Alors que Biya, âgé de 92 ans, entame un nouveau mandat aux côtés du président de la Cour constitutionnelle, Clément Atangana (84 ans), du chef de cabinet Claude Meka (86 ans), du président du Sénat Marcel Niat (90 ans) et du président de l’Assemblée nationale Cavaye Yegue (85 ans), le Cameroun devrait envisager avec confiance un changement de génération après l’ère Biya.

The Conversation

David E Kiwuwa does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Cameroun : la présidence à vie de Paul Biya entre dans une phase finale critique – https://theconversation.com/cameroun-la-presidence-a-vie-de-paul-biya-entre-dans-une-phase-finale-critique-268587

Redirection du commerce chinois vers l’Europe : petits colis, grand détour

Source: The Conversation – in French – By Charlotte Emlinger, Économiste, CEPII

À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis. Explication en chiffres et en graphiques.


La hausse spectaculaire des droits de douane imposée par les États-Unis aux importations en provenance de Chine (57,6 % fin août, après un pic à 135,3 % en avril d’après les calculs du Peterson Institute for International Economics) ferme largement le marché états-unien aux exportateurs chinois. La chute massive des exportations chinoises vers les États-Unis qui s’en est suivie, en recul de près de 25 % sur la période juin-août 2025 par rapport aux mêmes mois de 2024, témoigne de l’ampleur du choc.

Le risque est que, confrontés à la fermeture de l’un de leurs deux principaux marchés, les exportateurs chinois cherchent à réorienter leurs exportations, laissant planer le doute d’une redirection massive vers l’Union européenne (UE). Dans cette perspective, la Commission européenne a mis en place une surveillance du détournement des flux commerciaux pour identifier les produits faisant l’objet d’une hausse rapide des quantités importées et d’une baisse de prix, toutes origines confondues.

Dynamiques saisonnières

Le premier graphique montre que, depuis février, la baisse des exportations chinoises s’est accompagnée d’une hausse de celles vers l’Union européenne. Une analyse des évolutions passées révèle toutefois que la hausse observée au deuxième trimestre 2025 correspond en partie à un rebond saisonnier observé à la même époque les années précédentes et lié au Nouvel An chinois, que cela soit pour l’Union européenne, les États-Unis, le Vietnam, le Japon ou la Corée du Sud. Il est essentiel d’interpréter les évolutions récentes au regard des dynamiques saisonnières des années antérieures.

Observer une hausse des importations ne suffit pas à conclure à une redirection du commerce chinois des États-Unis vers l’Union européenne (UE).

Pour qu’un tel phénomène soit avéré, il faut que les mêmes produits soient simultanément concernés par une hausse des volumes d’exportations de la Chine vers l’UE et une baisse vers les États-Unis. Par exemple, une hausse des exportations de véhicules électriques chinois vers l’UE ne peut pas être considérée comme une réorientation du commerce puisque ces produits n’étaient pas exportés auparavant vers les États-Unis.

De la même manière, les produits faisant l’objet d’exceptions dans les droits mis en place par Donald Trump, comme certains produits électroniques, certains combustibles minéraux ou certains produits chimiques, ne sont pas susceptibles d’être réorientés. Cela ne signifie pas qu’une augmentation des flux d’importations de ces produits ne soulève pas des enjeux de compétitivité et de concurrence pour les acteurs français ou européens. Mais ces enjeux sont d’une autre nature que ceux liés à une pure redirection du commerce chinois consécutive à la fermeture du marché des États-Unis.

Deux critères complémentaires

Pour identifier les produits pour lesquels la fermeture du marché états-unien a entraîné une redirection du commerce chinois vers l’Union européenne (UE), nous combinons deux critères :

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers l’UE augmente plus vite que celui des trois quarts des autres produits chinois exportés vers l’UE en 2024.

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers les États-Unis diminue plus vite que celui des trois quarts des autres produits chinois exportés vers les États-Unis en 2024.

Seuls les produits pour lesquels les exportations chinoises vers les États-Unis étaient suffisamment importantes avant la fermeture du marché états-unien sont retenus. Soit les 2 499 produits pour lesquels la part des États-Unis dans les exportations chinoises dépassait 5 % en 2024. Pour 402 de ces produits, le volume des exportations chinoises a enregistré une forte baisse entre juin-août 2024 et juin-août 2025.

Près de 176 produits concernés

En combinant les deux critères, 176 produits sont concernés en juin-août 2025 (graphique 2), soit 44 % des produits dont les ventes ont nettement chuté sur le marché états-unien. Parmi eux, 105 concernent des produits pour lesquels l’Union européenne a un avantage comparatif révélé, c’est-à-dire pour lesquels la hausse des importations se fait sur une spécialisation européenne.

Moins de la moitié des 176 produits connaît simultanément une forte baisse de leur prix, suggérant qu’une partie de la redirection du commerce chinois entraîne une concurrence par les prix sur le marché européen.

En valeur, les 176 produits identifiés représentent 7,2 % des exportations chinoises vers l’Union européenne sur la dernière période disponible, et la tendance est clairement à la hausse (graphique 3). Cette progression s’explique pour beaucoup par la hausse des flux de petits colis redirigés vers l’UE depuis qu’en avril 2025, les États-Unis ont supprimé l’exemption de droits de douane sur les colis en provenance de Chine.

Secteurs des machines, chimie et métaux

Les produits sujets à redirection vers le marché européen sont très inégalement répartis entre secteurs (graphique 4). En nombre, on les retrouve concentrés dans les secteurs des machines et appareils (42 produits), de la chimie (31) et des métaux (22). En valeur cependant, les secteurs les plus concernés sont de très loin les petits colis (qui représentent 5,4 % du commerce bilatéral en juin-août 2025) et, dans une moindre mesure, les équipements de transport, les huiles et machines et appareils.

En comparaison, le Japon subit davantage la réorientation du commerce chinois puisque 298 produits sont identifiés en juin-août 2025 (graphique 5). Ces produits représentent une part beaucoup plus importante des exportations chinoises vers le Japon (16,2 % en juin-août 2025). Des dynamiques similaires sont observées en Corée du Sud (196 produits, représentant 2,7 % de son commerce bilatéral avec la Chine) et le Vietnam (230 produits, 6,5 % de son commerce bilatéral avec la Chine).

Fin du régime douanier simplifié

Consciente de la menace qu’ils représentent, la Commission européenne prévoit, dans le cadre de la prochaine réforme du Code des douanes, de mettre fin au régime douanier simplifié dont ces petits colis bénéficient actuellement. Cette réforme ne devrait pas entrer en vigueur avant 2027. D’ici là, certains États membres tentent d’aller plus vite.

En France, le gouvernement a récemment proposé, dans le cadre de son projet de loi de finance, d’instaurer une taxe forfaitaire par colis. Mais, sans coordination européenne, la mesure risque d’être contournée : les colis pourraient simplement transiter par un pays de l’UE à la taxation plus clémente.

Au-delà des petits colis, un certain nombre d’autres produits sont également soumis à des hausses rapides des quantités importées, susceptibles de fragiliser les producteurs européens, mais ils représentent une part limitée des importations européennes en provenance de Chine. Des tendances qui devront être confirmées dans les prochains mois par un suivi régulier.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Redirection du commerce chinois vers l’Europe : petits colis, grand détour – https://theconversation.com/redirection-du-commerce-chinois-vers-leurope-petits-colis-grand-detour-268450

Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique

Source: The Conversation – in French – By Gaël Mariani, Docteur en écologie marine, World Maritime University

Les océans jouent un rôle majeur dans le stockage du carbone, notamment à travers la biomasse qu’ils abritent. Le cycle de vie des poissons contribue ainsi à piéger durablement le CO2 dans les abysses, mais la pêche industrielle a affaibli ce mécanisme essentiel, également menacé par le changement climatique. Restaurer les populations marines en haute mer pourrait renforcer ce puits de carbone naturel tout en limitant les conflits avec la sécurité alimentaire.


Lorsqu’on parle des puits de carbone naturels, ces systèmes naturels qui piègent plus de carbone qu’ils n’en émettent, on pense plus volontiers aux forêts et aux sols qu’aux océans. Pourtant, les océans représentent le second puits de carbone naturel.

L’impact des activités humaines (et en particulier la pêche) sur le stockage de carbone océanique n’avait été jusque-là que peu étudié, et cela alors que la macrofaune marine (notamment les poissons) représente environ un tiers du carbone organique stocké par les océans. Nos recherches, récemment publiées dans les revues Nature Communications et One Earth, ont voulu y remédier.

Nos résultats montrent que la pêche a d’ores et déjà réduit la séquestration de carbone par les poissons de près de moitié depuis 1950. D’ici la fin du siècle, cette baisse devrait atteindre 56 % sous l’effet combiné de la pêche et du changement climatique. De quoi plaider pour une gestion plus durable de l’océan, qui prendrait en compte l’impact de la pêche sur la séquestration de carbone.

Pourquoi s’intéresser à la séquestration de carbone dans les océans ?

Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) le dit explicitement dans ses rapports : pour atteindre les objectifs climatiques, il faut d’abord réduire drastiquement et immédiatement nos émissions de gaz à effet de serre (chaque année, les activités humaines émettent environ 40 milliards de tonnes équivalent CO₂), puis développer les solutions climatiques fondées sur la nature.

Celles-ci intègrent l’ensemble des mesures de restauration, de protection et de meilleure gestion des écosystèmes qui piègent du carbone, comme les forêts. Ces mesures pourraient capturer 10 milliards de tonnes équivalent CO₂ par an, et doivent être mises en œuvre de façon complémentaire à des politiques de réduction des émissions.

Cependant, le carbone stocké par ces écosystèmes est de plus en plus menacé par le changement climatique. Par exemple, les feux de forêt au Canada ont émis 2,5 milliards de tonnes équivalent CO₂ en 2023 : la forêt n’est alors plus un puits de carbone, mais devient une source d’émissions.




À lire aussi :
Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?


Face à ce constat, la communauté scientifique se tourne aujourd’hui vers les océans, à la recherche de nouvelles solutions qui permettraient d’y séquestrer davantage de carbone.

Mais, pour que cela soit possible, il faut d’abord comprendre comment la vie abritée par les océans interagit avec le cycle du carbone ainsi que l’influence du changement climatique, d’une part, et de la pêche, d’autre part.

Quel est le rôle joué par les poissons dans ce processus ?

La vaste majorité des 38 000 milliards de tonne de carbone stocké par l’océan l’est à travers des phénomènes physiques. Mais la biomasse des océans y contribue également, à hauteur d’environ 1 300 milliards de tonnes de carbone organique. Les poissons représentent environ 30 % de ce stock de carbone.

Ceci est rendu possible via leur contribution à ce qu’on appelle la pompe biologique du carbone, c’est-à-dire, la série de processus biologiques qui permettent de transporter le carbone des eaux de surface vers les fonds marins. C’est un élément majeur du cycle du carbone.

Cette pompe biologique commence par le phytoplancton, capable de transformer du CO2 en matière organique carbonée. À sa mort, une partie de ce carbone va couler dans les profondeurs de l’océan où il sera séquestré durablement, tandis que le reste sera ingéré par des prédateurs. À nouveau, c’est lorsque ce carbone va couler dans les profondeurs (pelotes fécales, carcasses des prédateurs morts…) qu’il sera durablement séquestré.

Les poissons jouent un rôle clé dans ce processus : leurs carcasses et pelotes fécales, plus denses, coulent bien plus rapidement que celles du plancton. Or, plus le carbone coule rapidement vers les profondeurs – et s’éloigne de l’atmosphère –, plus le temps qu’il mettra avant de retourner à l’atmosphère sera important : le carbone sera ainsi stocké de façon plus durable.

La pompe biologique du carbone et la contribution des différents organismes sont le fruit d’une combinaison de processus : (1) La conversion du CO₂ en carbone organique par le phytoplancton qui réalise la photosynthèse ; (2) le phytoplancton contribue à la séquestration de carbone via la chute gravitationnelle des cellules phytoplanctoniques mortes ; (3) le phytoplancton et le carbone qu’il contient sont mangés par le zooplancton. Le zooplancton contribue à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré. (6) Le zooplancton et le carbone qu’il contient sont mangés par des poissons. Les poissons contribuent à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré.
Fourni par l’auteur

Notre étude, qui s’est spécifiquement intéressée aux espèces de poissons d’intérêt commercial (c’est-à-dire ciblées par la pêche), estime que ces derniers étaient en mesure de séquestrer 0,23 milliard de tonnes de carbone par an en 1950 (soit 0,85 tonne de CO2 par an).




À lire aussi :
Éliminer le CO₂ grâce au puits de carbone océanique, une bonne idée ?


Un cercle vicieux du fait du changement climatique

Mais depuis 1950, les choses ont changé. D’abord du fait du changement climatique : à cause de la raréfaction des ressources alimentaires (moins de phytoplancton) et des changements de conditions environnementales (température, oxygène…), plus le changement climatique sera fort, plus la biomasse des espèces d’intérêt commercial – et par extension, leur capacité à piéger du carbone – vont diminuer.

  • Dans un scénario où l’augmentation moyenne des températures serait limitée à 1,5 °C (scénario de respect de l’accord de Paris), la biomasse baisserait d’environ 9 % d’ici la fin du siècle, soit une diminution de piégeage de carbone d’environ 4 %.

  • Dans le cas d’un scénario de statu quo où les températures augmenteraient de 4,3 °C, cette baisse atteindrait environ 24 % pour la biomasse, et près de 14 % pour le piégeage de carbone.

Nous avons donc à faire à ce que l’on appelle une boucle de rétroaction positive – autrement dit, un cercle vicieux : plus le changement climatique est important, moins les poissons séquestreront de carbone, ce qui va renforcer le changement climatique lui-même. C’est le serpent qui se mord la queue.

Une séquestration carbone déjà réduite de moitié par la pêche

L’impact du changement climatique dans le scénario d’un réchauffement à 1,5 °C (que nous sommes en passe de dépasser) reste donc faible, mais les effets de la pêche, eux, sont déjà visibles.

Aujourd’hui, les espèces de poissons commerciales ne piègent déjà plus que 0,12 milliard de tonnes de CO2 par an (contre 0,23 milliard de tonnes de carbone par an en 1950), soit une diminution de près de moitié.

D’autant plus que les effets de la pêche ne sont pas les mêmes selon la voie de séquestration considérée. Depuis 1950, la pêche a réduit la séquestration de carbone via les pelotes fécales d’environ 47 %. Pour la voie passant par les carcasses, cette diminution est d’environ 63 %.

Ceci est lié au fait que la pêche cible les plus gros organismes, soit ceux qui ont le moins de prédateurs – et donc ceux le plus susceptibles de mourir de vieillesse et de voir leur carcasse couler dans les abysses.

Cette diminution est aussi synonyme d’une réduction de l’arrivée de nourriture dans les abysses, les carcasses étant une ressource particulièrement nutritive pour les organismes qui y vivent.

Or, nous connaissons très peu de choses sur ces écosystèmes abyssaux, avec des millions d’espèces qui restent à découvrir. Nous n’avons pour l’instant observé que 0,001 % de la surface totale de ces écosystèmes. Nous sommes donc peut-être en train d’affamer une multitude d’organismes abyssaux que nous connaissons à peine.

Pour préserver le climat, restaurer les populations de poissons ?

Notre étude montre que si les populations de poissons étaient restaurées à leur niveau historique de 1950, cela permettrait de séquestrer 0,4 milliard de tonnes de CO2 supplémentaires par an, soit un potentiel comparable à celui des mangroves. Avec un atout : ce carbone serait séquestré pour environ six cents ans, soit plus longtemps que dans les mangroves, où seuls 9 % du carbone piégé l’est encore après cent ans.

Cependant, malgré ce potentiel notable, les solutions climatiques basées sur la restauration de la macrofaune marine, si elles étaient mises en œuvre seules, n’auraient qu’un impact mineur sur le climat, au regard des 40 milliards de tonnes de CO₂ émis chaque année.

D’autant plus que, ce domaine de recherche étant récent, plusieurs incertitudes subsistent. Par exemple, nos études ne tiennent pas compte des relations trophiques (c’est-à-dire, liées à la chaîne alimentaire) entre les prédateurs et leurs proies, lesquelles contribuent aussi à la séquestration de carbone. Or, si on augmente la biomasse des prédateurs, la biomasse des proies va mécaniquement diminuer. Ainsi, si la séquestration de carbone par les prédateurs augmente, celle des proies diminue, ce qui peut neutraliser l’impact des mesures visant à restaurer les populations de poissons pour séquestrer du carbone.

Ainsi, nos résultats ne doivent pas être vus comme une preuve suffisante pour considérer de telles mesures comme une solution viable. Ils illustrent néanmoins l’importance d’étudier l’impact de la pêche sur la séquestration de carbone et la nécessité de protéger l’océan pour limiter les risques d’épuisement de ce puits de carbone, tout en tenant compte des services rendus par l’océan à nos sociétés (sécurité alimentaire, emplois…).

Des conflits entre pêche et séquestration de carbone surtout en haute mer

En effet, les organismes marins participent directement à la séquestration de carbone, tout en bénéficiant aussi au secteur de la pêche. Or, ce secteur est une source d’emplois et de revenus économiques majeurs pour les populations côtières, contribuant directement au maintien et à l’atteinte de la sécurité alimentaire dans certaines régions.

Des conflits entre la séquestration de carbone et les bénéfices socio-économiques de la pêche peuvent donc théoriquement apparaître. Si la pêche augmente, les populations de poissons et leur capacité à séquestrer du carbone vont diminuer, et inversement.

Toutefois, nous avons montré que seulement 11 % de la surface de l’océan est potentiellement exposée à de tels conflits. Il s’agit des zones où l’effort de pêche et la séquestration de carbone sont tous deux élevés.

Les zones potentiellement conflictuelles entre la pêche et la séquestration de carbone par les poissons correspondent aux zones où (1) l’effort de pêche est fort et (2) les poissons contribuent fortement à la séquestration de carbone. La majorité de ces zones (environ 60 %) sont situées en haute mer, c’est-à-dire à plus de 370 kilomètres des côtes, au-delà de toute juridiction nationale.
Fourni par l’auteur

De plus, une majorité (environ 60 %) de ces zones potentiellement conflictuelles sont situées en haute mer, là où les captures contribuent de façon négligeable à la sécurité alimentaire globale. Aussi, la pêche en haute mer est connue pour sa faible rentabilité et son subventionnement massif par les gouvernements (à hauteur de 1,5 milliard de dollars, soit plus de 1,2 milliard d’euros, en 2018).

Ces subventions gouvernementales sont vivement critiquées, car elles menacent la viabilité des pêcheries côtières artisanales, favorisent la consommation de carburant et augmentent les inégalités entre les pays à faibles et hauts revenus.

Ainsi, nos résultats apportent un argument supplémentaire en faveur de la protection de la haute mer. En plus d’éviter de multiples effets socio-économiques négatifs, cela permettrait également de protéger la biodiversité et, par la même occasion, de préserver la capacité des océans à séquestrer du carbone organique.

The Conversation

Le financement a été assuré par la bourse de doctorat de l’Université de Montpellier à G.M. et la bourse de la Fondation de la Mer. de Montpellier à G.M. Le travail de G.M. a été partiellement financé par l’Union européenne dans le cadre de l’accord de subvention n°101083922 (OceanICU). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’Agence exécutive pour la recherche européenne. L’Union européenne et l’autorité qui a octroyé la subvention ne peuvent en être tenues pour responsables.

Anaëlle Durfort a participé à ce travail dans le cadre de son doctorat, financé par une bourse de thèse (publique) à l’université de Montpellier.

David Mouillot et Jérôme Guiet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique – https://theconversation.com/oceans-les-poissons-un-puits-de-carbone-invisible-menace-par-la-peche-et-le-changement-climatique-268408

Cancer du sein : l’allaitement maternel diminue le risque

Source: The Conversation – in French – By Isabelle Romieu, Professeur d’épidémiologie, National Institute of Public Health of Mexico

Le cancer du sein demeure la première cause de mortalité par cancer chez les femmes. Outre le dépistage, la lutte contre la maladie passe également par la prise en compte des facteurs de risque modifiables sur lesquels il est possible d’agir. Si l’alcool, le tabac, le surpoids ou la sédentarité sont fréquemment mentionnés, on sait peut-être moins que le fait de ne pas avoir allaité en constitue aussi un.


En 2025, « Octobre rose » a fêté son 32ᵉ anniversaire. Chaque année, cette campagne mondiale de communication vise un double objectif : sensibiliser au dépistage du cancer du sein et récolter des fonds pour la recherche.

Cet événement, symbolisé par le ruban rose, est plus que jamais d’actualité. En effet, en France, le cancer du sein continue malheureusement à progresser. Il représente aujourd’hui à lui seul le tiers de l’ensemble des nouveaux cas de cancer chez la femme.

Si la survie des patients s’est améliorée, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, chaque année, plusieurs milliers d’entre elles décèdent encore de la maladie. Dans un tel contexte, la connaissance des facteurs de risque et, en particulier, de ceux sur lesquels il est possible d’agir, est extrêmement importante.

On sait aujourd’hui que la consommation d’alcool, le surpoids et l’obésité ou encore la sédentarité accroissent le risque de développer la maladie. Mais un autre facteur de risque est peut-être moins connu du public : le fait de ne pas avoir allaité au cours de sa vie. L’allaitement confère, en effet, un certain niveau de protection contre le cancer du sein.

Les scientifiques ont commencé à élucider les mécanismes qui en sont à l’origine. Voici ce qu’il faut en savoir.

Le cancer du sein, une incidence élevée en France

En France, le nombre de nouveaux cas de cancer du sein diagnostiqués chaque année a progressé de 0,3 % par an entre 2010 et 2023.

En 2023, 61 214 femmes se sont vues annoncer le triste diagnostic, tandis que 12 600 ont été emportées par la maladie. L’incidence de la maladie est particulièrement élevée dans notre pays, où l’on compte 99,2 cas pour 100 000 femmes. Selon les dernières données de Globocan (Global Cancer Observatory/Organisation mondiale de la santé), la France se situe en quatrième position en Europe derrière la Belgique, les Pays-Bas et le Luxembourg, et devant le Royaume-Uni, l’Italie, l’Allemagne et l’Espagne.

Point positif : entre 2011 et 2021, la mortalité due au cancer du sein a reculé de 1,3 % par an. Bien que la survie des patientes ait progressé au fil des ans, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, le cancer du sein reste le cancer féminin le plus fréquent ainsi que la première cause de mortalité par cancer chez la femme.

Le cancer du sein est néanmoins un cancer de bon pronostic. Entre 2005 et 2010, la survie nette à cinq ans était de 88 % (et de 76 % à dix ans). Afin de détecter précocement la maladie et d’en réduire la mortalité, un programme national de dépistage est organisé depuis 2004.

Comment est dépisté le cancer du sein en France ?

  • À partir de l’âge de 50 ans et tous les deux ans (en l’absence de symptômes et de risque élevé), un courrier de l’Assurance maladie est adressé à chaque femme éligible l’invitant à réaliser un dépistage du cancer du sein.
  • Le dépistage consiste en un examen clinique des seins (examen réalisé directement sur la patiente) et d’une mammographie (examen radiologique). Dans certaines situations, une échographie des seins est également nécessaire pour compléter la mammographie.
  • À partir de l’âge de 25 ans, un examen clinique (observation et palpation) des seins est recommandé au moins une fois par an, quel que soit votre niveau de risque. Il peut être réalisé par un médecin généraliste, un gynécologue ou une sage-femme.

Dans ce cadre, toutes les femmes âgées de 50 ans à 74 ans se voient proposer un dépistage pris en charge à 100 %, tous les deux ans. Cependant, en 2023, seuls 48,2 % des femmes éligibles à ce programme avaient été dépistées. Seuls 60 % des cancers du sein étaient détectés à un stade précoce.

En parallèle du dépistage, il est donc également important d’agir sur les facteurs de risque de cancer du sein susceptible d’être modifiés. Selon le Centre international de recherche sur le cancer (CIRC), 37 % de l’ensemble des nouveaux cas de cancers seraient attribuables à des facteurs de risque modifiables, qu’ils soient comportementaux ou environnementaux. Parmi ceux-ci figurent non seulement la consommation d’alcool, le surpoids et l’obésité, la sédentarité ou le fait de fumer, mais aussi, dans le cas du cancer du sein, le fait de ne pas avoir allaité.

Effet protecteur de l’allaitement

L’effet protecteur de l’allaitement augmente avec la durée cumulée de l’allaitement, qui correspond à la durée d’allaitement d’une femme pour tous ses enfants.

Pour chaque douze mois cumulés d’allaitement, la réduction du risque de cancer du sein est estimée à 4,3 %. Cet effet protecteur s’ajoute à la protection associée à la parité (c’est-à-dire la réduction du risque de cancer du sein directement liée au fait d’avoir eu un enfant).

Dans ce contexte, une femme qui a deux enfants et qui nourrit chaque enfant au sein pendant douze mois aura une diminution de risque de cancer du sein de 8,6 %. Une femme qui a eu trois enfants et les a allaités chacun pendant cinq mois, soit un l’allaitement total de quinze mois, verra le risque de développer un cancer du sein diminuer de 6 %.

Recommandations sur l’allaitement

En France, les données de l’Agence nationale de santé publique montre que le taux d’allaitement diminue avec le temps. Si, en 2021, le taux d’initiation à l’allaitement maternel était de 77 %, à l’âge de 2 mois seuls 54,2 % des enfants étaient encore allaités. À 6 mois, cette proportion tombe à 34 % des enfants encore allaités (dont 29 % tout en ayant commencé une diversification alimentaire). À 12 mois, seuls 18 % des enfants étaient encore allaités.

Cette situation contraste avec certains pays d’Europe, où le taux d’allaitement est nettement plus élevé. Ainsi, en Norvège, 98 % des enfants sont allaités à la naissance, 71 % des enfants sont encore allaités à l’âge de 6 mois et 35 % à 12 mois. En Suisse, 95 % des enfants sont allaités à la naissance, 52 % des enfants sont encore allaités à 6 mois et 20 % à 12 mois.

Comment l’allaitement peut-il diminuer le risque de cancer du sein ?

Divers travaux de recherche ont tenté d’éclaircir les mécanismes de protection. En l’état actuel des connaissances, il semblerait que l’allaitement joue un rôle protecteur contre le cancer du sein de plusieurs façons.

Lors de l’allaitement, la structure du sein se modifie, ce qui augmente la différenciation de l’épithélium mammaire et rend les cellules moins sensibles à la transformation maligne. Par ailleurs, l’allaitement retarde la reprise des cycles ovulaires après la grossesse et réduit le taux d’œstrogènes dans le sein, ce qui se traduit par une plus faible exposition du tissu mammaire aux hormones. Or, les hormones jouent un rôle important dans le risque de cancer du sein, car elles modulent la structure et la croissance des cellules épithéliales tumorales.

Enfin, au cours de la lactation, on constate une exfoliation plus importante du tissu mammaire (décrochage de cellules), ce qui pourrait entraîner une élimination de cellules du tissu canalaire mammaire potentiellement porteuses de lésions de l’ADN risquant de dégénérer en cancer.

Soulignons que le fait de tirer son lait confère également un certain niveau de protection, similaire à l’allaitement direct.

De multiples bénéfices pour la mère et l’enfant

Au-delà de la diminution du risque de cancer du sein, l’allaitement maternel présente également d’autres avantages majeurs pour la mère et l’enfant.

Pour la mère, l’allaitement maternel permettra de retrouver le poids d’avant la grossesse et de réduire la prise de poids à long terme. Les femmes d’âge moyen qui ont allaité sont moins susceptibles d’être en surpoids ou obèses.

Pour l’enfant, le lait maternel est le meilleur aliment pendant les six premiers mois de la vie. Il protège contre maladies infectieuses dès le plus jeune âge, principalement la diarrhée et les infections des voies respiratoires inférieures. Cette protection est due à la présence dans le lait maternel de plusieurs composés antimicrobiens, anti-inflammatoires et modulateurs de l’immunité ainsi que de modulateurs de croissance.

Enfin, des effets sur le développement cognitif de l’enfant ainsi que sur la croissance et la protection contre les maladies chroniques telles que l’asthme et l’obésité ont aussi été évoqués par certains travaux de recherche.

En cas de difficulté d’allaitement, que faire ?

De nombreuses mères rencontrent des difficultés d’allaitement, en général temporaires. Il s’agit principalement de crevasses, d’une perception de lait insuffisant, d’engorgements ou de douleurs.

Si ces difficultés persistent, un soutien professionnel adéquat peut être proposé. Il inclut la consultation d’une sage-femme ou d’une consultante en lactation, et peut être fourni par des maternités, des centres de protection maternelle et infantile (PMI), ou par l’intermédiaire d’associations comme l’Association française de consultants en lactation.

Dans certains cas, lorsque les difficultés pour allaiter persistent ou que des causes médicales sont impliquées, il est possible de recourir à des laits infantiles de qualité, sous la supervision d’un professionnel de santé, ou encore à des dons de lait maternel.

La protection conférée par l’allaitement est d’autant plus importante que les mois d’allaitement cumulés sont nombreux, mais soulignons que toute durée d’allaitement aura un effet protecteur.


Pour aller plus loin :

The Conversation

Isabelle Romieu a reçu des subventions de l’Institut national du cancer (INCA) et du « World cancer research fund » (WCRF) pour des travaux de recherche épidémiologique sur les facteurs de risques de cancer du sein.

ref. Cancer du sein : l’allaitement maternel diminue le risque – https://theconversation.com/cancer-du-sein-lallaitement-maternel-diminue-le-risque-246432

Le crime organisé est la première entreprise du Brésil et la menace la plus grave qui pèse sur le pays

Source: The Conversation – in French – By Robert Muggah, Richard von Weizsäcker Fellow na Bosch Academy e Co-fundador, Instituto Igarapé

Le raid policier mené le 28 octobre contre des narcotrafiquants dans les favelas de Rio de Janeiro est le plus meurtrier qu’ait connu la ville. Mais face à l’empire que le crime organisé a constitué au Brésil, les interventions spectaculaires ne suffisent plus : l’État doit inventer une réponse nationale.


Le 28 octobre, à Rio de Janeiro, des véhicules blindés de la police ont pénétré dans les complexes d’Alemão et de Penha pour interpeller des chefs de gangs. Des fusillades ont éclaté, des routes ont été bloquées, des bus ont été détournés, des écoles et des campus ont été fermés, et des drones ont largué des explosifs sur les forces de l’ordre. Le soir venu, l’État confirmait que « l’opération Contenção » s’était soldée par 64 morts, dont quatre policiers. Ce fut la confrontation la plus sanglante jamais enregistrée dans l’histoire de la ville.

L’économie criminelle du Brésil est sortie des ruelles pour investir désormais les salles de réunion, figurer dans les bilans financiers et s’infiltrer dans des chaînes d’approvisionnement essentielles. Au cours de la dernière décennie, le crime organisé brésilien s’est étendu à l’ensemble du pays et même à d’autres continents. Les plus grandes organisations de trafic de drogue, comme le Primeiro Comando da Capital (PCC) et le Comando Vermelho (CV), se trouvent au cœur de véritables réseaux franchisés. Les « milices » de Rio – groupes paramilitaires principalement composés de policiers et de pompiers ayant quitté leurs anciennes fonctions ou, pour certains, les exerçant toujours – monétisent le contrôle qu’elles exercent sur le territoire en se faisant payer pour des « services » de protection, de transport, de construction et autres services essentiels.

À mesure que ces groupes se sont professionnalisés, ils ont diversifié leurs activités, qui vont aujourd’hui du trafic de cocaïne à la contrebande d’or, aux paiements numériques et aux services publics. Lorsque les groupes armés du Brésil se disputent les marchés illicites, la violence peut atteindre des niveaux comparables à ceux de zones de guerre.

Rien n’illustre mieux le nouveau modèle économique que le commerce illégal de carburants. Comme je l’ai écrit dans The Conversation fin août, les autorités ont effectué environ 350 perquisitions dans huit États dans le cadre de l’opération Carbone Caché, qui visait à faire la lumière sur le blanchiment présumé de sommes colossales à travers des importations de dérivés du pétrole et un réseau de plus d’un millier de stations-service. Entre 2020 et 2024, environ 46 milliards de réaux (7,3 milliards d’euros) de flux suspects ont transité par des fintechs, dont l’une fonctionnait en tant que banque parallèle. Des fonds fermés auraient investi dans des usines d’éthanol, des flottes de camions et un terminal portuaire, donnant aux profits illicites un vernis de respectabilité.

Sur les marchés financiers, les investisseurs sont à présent conscients des dangers. Ces derniers mois, les fonds d’investissement ont enfin commencé à considérer l’infiltration criminelle comme un risque matériel, et les analystes cherchent plus qu’auparavant à déterminer quelles chaînes logistiques, quelles institutions de paiement et quels fournisseurs régionaux pourraient être exposés.

Gouvernance criminelle

Les équipes de sécurité des entreprises cartographient l’extorsion et le contrôle des milices avec la même attention que celle qu’elles accordent aux menaces cyber.

La réaction du marché aux opérations menées en août par la police dans le cadre de l’opération « Carbone Caché » a rappelé que le crime organisé ne génère pas seulement de la violence : il fausse la concurrence, pénalise les entreprises respectueuses des règles et impose une taxe cachée aux consommateurs. Il n’est donc pas surprenant qu’en septembre, le ministre des finances Fernando Haddad ait annoncé la création d’une nouvelle unité policière dédiée à la lutte contre les crimes financiers.

La « gouvernance criminelle » s’est propagée des prisons aux centres financiers. Dans leurs fiefs de Rio, les gangs et les milices opèrent comme des bandits traditionnels, contrôlant le territoire et les chaînes d’approvisionnement logistique. Pendant ce temps, des franchises du PCC et du CV sont apparues à l’intérieur des terres et en Amazonie, cherchant à engranger des profits plus élevés grâce à la contrebande d’or et de bois, ainsi qu’au transport fluvial illégal de marchandises.

Ces factions opèrent désormais au-delà des frontières, du pays en lien avec des organisations criminelles de Colombie, du Pérou et du Venezuela.

Les outils de contrôle n’ont pas suivi l’évolution du crime

Le bilan humain reste accablant, même si les chiffres nationaux agrégés se sont améliorés. En 2024, le Brésil a enregistré 44 127 morts violentes intentionnelles, son niveau le plus bas depuis 2012, mais cela représente encore plus de 120 homicides par jour. La géographie de l’intimidation s’est étendue : une enquête commandée par le Forum brésilien de la sécurité publique a révélé que 19 % des Brésiliens – soit environ 28,5 millions de personnes – vivent aujourd’hui dans des quartiers où la présence de gangs ou de milices est manifeste, soit une hausse de cinq points en un an.

Les outils de contrôle de l’État n’ont pas suivi l’évolution du modèle économique du crime organisé. Les incursions spectaculaires et les occupations temporaires font les gros titres et entraînent de nombreuses morts, mais perturbent peu le marché. Les polices des États, depuis longtemps considérées comme les plus létales du monde, démantèlent rarement les groupes criminels.

Les politiques étatiques et municipales sont elles aussi devenues de plus en plus vulnérables : le financement des campagnes, les contrats de travaux publics et les licences sont désormais des canaux investis par le pouvoir criminel. L’opération fédérale d’août a constitué une rare exception et a apporté la preuve de l’efficacité d’une répression visant l’argent du crime, et non seulement les porte-flingues.

Si les législateurs brésiliens sont sérieux, ils doivent traiter le crime organisé comme une défaillance du marché national et réagir à l’échelle nationale. Cela commence par placer le gouvernement fédéral à la tête de forces spéciales interinstitutionnelles permanentes réunissant police fédérale, procureur général, administration fiscale, cellules de renseignement financier, régulateurs du carburant et du marché, ainsi que Banque centrale.

Il faut davantage de condamnations

Ces équipes devront disposer d’un mandat clair pour agir au-delà des frontières des États et accomplir quatre tâches simples : suivre en temps réel les paiements à risque ; publier une liste fiable des propriétaires réels des entreprises qui contrôlent le carburant, les ports et d’autres actifs stratégiques ; connecter les données fiscales, douanières, de concurrence et de marchés afin qu’un signal d’alerte dans un domaine déclenche des vérifications dans les autres ; et se tourner vers des tribunaux au fonctionnement accéléré pour rapidement geler et saisir l’argent sale.

Les incitations doivent être modifiées afin que la police et les procureurs soient récompensés pour les condamnations et les saisies d’actifs, et non pour le nombre de morts. Et là où des groupes criminels ont pris le contrôle de services essentiels, comme les transports ou les services publics, ceux-ci doivent être placés sous contrôle fédéral temporaire et faire l’objet d’appels d’offres transparents et étroitement surveillés afin d’être, au final, remis à des opérateurs légaux.

Le Brésil a déjà prouvé qu’il pouvait mener de grandes opérations aux effets dévastateurs contre le crime. Le véritable défi est désormais de faire en sorte que le travail ordinaire de la loi – enquêtes, constitution de dossiers solides… – soit plus décisif que les interventions spectaculaires. Faute de quoi, il ne faudra pas longtemps pour qu’une grande ville brésilienne ne soit complètement paralysée.

The Conversation

Robert Muggah est affilié à l’Institut Igarapé et à SecDev.

ref. Le crime organisé est la première entreprise du Brésil et la menace la plus grave qui pèse sur le pays – https://theconversation.com/le-crime-organise-est-la-premiere-entreprise-du-bresil-et-la-menace-la-plus-grave-qui-pese-sur-le-pays-268591

De la dépression postnatale à la détresse relationnelle : repenser la santé mentale périnatale

Source: The Conversation – in French – By Thomas Delawarde-SaÏas, Professeur de psychologie, Université du Québec à Montréal (UQAM)

On parle de « dépression postnatale » depuis cinquante ans comme d’un trouble identifiable, mesurable, traitable. Seuils, échelles, prévalences : tout semble clair, rassurant même. Mais ce modèle binaire — déprimée ou pas déprimée — occulte une réalité plus subtile : la parentalité bouleverse, fragilise, et nous place toutes et tous sur un spectre de détresse.

Si la notion de « dépression postnatale » s’est imposée depuis 1968, c’est d’abord parce qu’elle répondait à une double demande académique et médicale : donner une légitimité scientifique à la souffrance des mères, et proposer un cadre diagnostique clair et spécifique à une période de vie. On capitalisait alors sur la forme « atypique » de cette dépression aux allures de trouble anxieux. On considérait que sa spécificité tenait uniquement à ses symptômes, et l’enjeu résidait davantage dans sa détection que dans sa prise en charge.

Par ailleurs, cette caractérisation spécifique permettait de distinguer les « dépressions » post-natales du « baby-blues » (parfois appelé « dépression chimique ») survenant sous la forme de brefs épisodes dépressifs liés à des facteurs biologiques, notamment aux variations hormonales du post-partum. Cependant, le débat est depuis resté cantonné aux classifications psychiatriques et aux outils de dépistage. Ce faisant, on a réduit une expérience vécue à une simple catégorie diagnostique.

Dans un article récent paru dans la revue Neuropsychiatrie de l’enfance et de l’adolescence, nous proposons avec le pédopsychiatre Romain Dugravier de parler de détresse relationnelle périnatale plutôt que de dépression postnatale. Loin de faire l’unanimité au sein de la communauté scientifique, notre approche, qui remet en question les diagnostics ou les étiquettes, tente de voir la parentalité au-delà du seul prisme des troubles individuels.

Une crise maturative, pas un simple trouble individuel

Devenir parent, c’est répondre aux besoins d’un enfant totalement dépendant tout en réorganisant sa vie affective, conjugale et sociale. Pour beaucoup, cette expérience se révèle profondément structurante. Pour d’autres, elle ravive d’anciennes blessures : carences affectives, solitude, expériences de rejet. L’arrivée d’un bébé peut alors faire effraction, réveillant des vulnérabilités enfouies.

Prenons le cas d’une femme qui accueille son premier enfant. Plus que la fatigue, c’est le sentiment d’être piégée qui la submerge : elle qui s’est toujours définie comme indépendante, n’ayant « besoin de personne », se retrouve confrontée à la dépendance totale de son nourrisson.

Cette confrontation réactive le pattern d’une enfance marquée par la nécessité de se débrouiller seule. Ainsi, le diagnostic de « dépression postnatale » qu’on lui propose ne dit rien de cette histoire ni de cette tension entre dépendance et indépendance. Le traitement antidépresseur, qui est dans notre expérience parfois prescrit suite à ce diagnostic, ne permettra pas de toucher la cause de cette détresse. Au contraire d’un espace où la vulnérabilité est reconnue et où la relation avec l’enfant peut être soutenue.




À lire aussi :
Voici à quoi ressemble la dépression post-partum


On perd ainsi leur sens : on diagnostique une « dépression » là où il faudrait surtout comprendre les interactions et les bouleversements induits par la nouvelle relation parent-enfant. Les échelles utilisées — comme la très répandue échelle d’Edimbourg (EPDS), un questionnaire de dix items conçu pour dépister les symptômes dépressifs après la naissance — se centrent sur l’humeur de la mère, négligeant la qualité du lien parent-enfant, le soutien social ou les remaniements identitaires.

Résultat : on évalue des symptômes, mais on passe à côté de la solitude, des conflits de loyauté familiaux, ou des difficultés à investir la relation avec le bébé. Ayant « psychiatrisé » la relation, on a aussi du mal à la prendre en charge, au-delà des traitements médicamenteux.

Dépendance, indépendance : le cœur de la détresse

Notre article propose une autre lecture, inspirée de la théorie de l’attachement : la tension entre la dépendance du bébé et l’indépendance du parent.

L’indépendance des parents n’est pas toujours synonyme d’autonomie. Elle peut être une stratégie de survie apprise dans l’enfance, quand compter sur autrui s’avérait trop risqué. Or, devenir parent confronte brutalement à la dépendance absolue d’un nouveau-né : il faut être là, tout le temps, sans condition. Pour celles et ceux qui ont appris à ne jamais rien devoir à personne, cette expérience peut être vertigineuse.

Cette lecture relationnelle permet de comprendre pourquoi la détresse périnatale ne se laisse pas découper en deux groupes — déprimés ou pas — mais forme un gradient : de la fatigue normale aux épisodes anxio-dépressifs sévères, en passant par la solitude, la perte de confiance ou le sentiment d’incompétence parentale.

Contenance et continuité : deux principes pour agir

Contrairement à une approche catégorielle, qui peut enfermer, la théorie de l’attachement ouvre des perspectives. Elle s’appuie sur deux principes essentiels : la contenance et la continuité.

  • La contenance, d’abord : offrir aux parents un espace où leurs émotions sont accueillies, sans jugement, pour les aider à donner sens à ce qu’ils vivent. Des interventions comme la thérapie d’interaction parent-enfant ou l’intervention relationnelle avec vidéo-feedback montrent qu’en valorisant les compétences parentales existantes — plutôt qu’en corrigeant des « déficits » — on restaure confiance et sécurité.

  • La continuité, ensuite : dans le temps (de la grossesse aux premières années de l’enfant), dans les lieux (maternité, domicile, services de santé), et dans le langage (entre disciplines médicales, sociales, psychologiques). Trop souvent, les parents passent d’une professionnelle à l’autre, répètent leur histoire, subissent des ruptures de suivi. Assurer une chaîne de sécurité relationnelle, c’est éviter que l’aide ne se résume à des interventions ponctuelles, isolées, sans fil conducteur.

Repenser l’organisation des soins

Notre critique ne vise pas seulement les concepts, mais aussi la cohérence des différentes interventions auprès des familles. Les soins périnataux restent fragmentés : entre la santé mentale adulte, la pédopsychiatrie et les services sociaux, chacun parle son langage, suit ses priorités, laissant parfois les parents seuls à assembler les morceaux.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Nous plaidons pour une organisation des soins centrée sur la relation : formation des équipes à la théorie de l’attachement, création d’espaces postnataux accessibles, figures pivots pour accompagner les familles à travers les transitions. Car si « un bébé tout seul n’existe pas », des parents isolés ne devraient pas exister non plus.

Pour une santé mentale périnatale centrée sur l’humain

Remplacer la dépression postnatale par la détresse relationnelle périnatale, ce n’est pas jouer sur les mots. C’est refuser de se limiter à une approche qui classe les troubles dans des cases diagnostiques, selon des critères figés, au détriment d’une considération psychopathologique pour penser la parentalité comme une expérience humaine universelle, relationnelle et évolutive.

Il ne s’agit pas de nier la souffrance ni d’écarter les traitements quand ils sont nécessaires. Mais de rappeler que la santé mentale périnatale ne peut se limiter à dépister, prescrire, orienter. Elle doit contenir, relier, accompagner.

En somme, il est temps de passer d’une logique centrée sur le trouble individuel à une approche qui soigne le lien parent-enfant, pas seulement les symptômes. La prévention et le soin doivent s’organiser autour des familles, et non autour des catégories diagnostiques.

La Conversation Canada

Thomas Delawarde-Saïas est co-gérant de l’Agence Kalía (France).

ref. De la dépression postnatale à la détresse relationnelle : repenser la santé mentale périnatale – https://theconversation.com/de-la-depression-postnatale-a-la-detresse-relationnelle-repenser-la-sante-mentale-perinatale-266193

Combien de temps un moustique peut-il survivre sans piquer un humain ?

Source: The Conversation – in French – By Claudio Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours

La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.


À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.

Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.

Moustiques mâles vs moustiques femelles

Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.

Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.

Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.

La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.

Combien de temps une femelle peut survivre sans piquer ?

Une femelle moustique peut survivre plusieurs jours, voire quelques semaines sans piquer, pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.

La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies telles que la fièvre du Nil occidental ou l’encéphalite japonaise.

Influence de l’environnement

La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.

Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette sorte de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.

The Conversation

Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP “REPEL”.

ref. Combien de temps un moustique peut-il survivre sans piquer un humain ? – https://theconversation.com/combien-de-temps-un-moustique-peut-il-survivre-sans-piquer-un-humain-267882

Neurotechnologies : vivrons-nous tous dans la matrice ? Conversation avec Hervé Chneiweiss

Source: The Conversation – in French – By Hervé Chneiweiss, Président du Comité d’éthique de l’Inserm, Inserm; Centre national de la recherche scientifique (CNRS); Sorbonne Université

Hervé Chneiweiss Inserm, Fourni par l’auteur

Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.

Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.


The Conversation : Jouer à un jeu vidéo sans manette, voilà qui va séduire plein de monde ! Mais on pourrait y voir des risques aussi, j’imagine ?

Hervé Chneiweiss : Oui, on peut envisager des risques en termes d’addiction ou d’utilisation de vos pensées les plus intimes, par exemple.

Pour comprendre les discussions autour de l’addiction et des neurotechnologies, je vous propose de remonter un peu dans le temps. Il y a trente ans déjà, alors que je travaillais en tant que neurologue sur la maladie de Parkinson, on a posé des implants cérébraux chez certains malades parkinsoniens jeunes et très rigides pour faire de la stimulation cérébrale profonde à haute fréquence, qui permet de débloquer leurs mouvements. C’est à ce moment que la communauté scientifique a constaté certains cas d’effets secondaires de cette stimulation sous forme de troubles compulsifs de comportement soit dans le domaine de la sexualité (hypersexualité) soit dans celui des compulsions d’achat.

En effet, en stimulant le cerveau de ces patients, on libérait manifestement trop de dopamine. Or, la dopamine est le principal neurotransmetteur d’un circuit qu’on appelle le « circuit de la récompense », ou reward en anglais – ce dernier est plus approprié que le terme français, car il traduit l’idée d’« obtenir ce que j’avais prévu d’obtenir ». Ainsi, avec nos électrodes, nous provoquions une libération de la dopamine en excès à un certain endroit du cerveau, ce qui perturbait les processus de décision et orientait les patients vers des comportements compulsifs.

Ces effets secondaires sont assez fréquents – environ un malade sur cinq les expérimente au début de la pose de l’implant, puis ils régressent et disparaissent en général au bout d’un mois ou deux. Il a été jugé que la potentielle survenue de ces effets indésirables était acceptable compte tenu du bénéfice attendu de la thérapeutique.

Depuis, les technologies ont beaucoup progressé : il existe tout un panel de techniques qui permettent de détecter les signaux du cerveau, ou bien de stimuler son activité. Ces techniques utilisent des dispositifs invasifs – comme les électrodes implantées dans le cerveau de patients parkinsoniens, dans les années 1990 – ou bien non invasifs – par exemple, des casques munis de petites électrodes que l’on pose sur la tête.

Le neurogaming utilise pour l’instant des casques posés sur le crâne, et non des électrodes implantées profondément dans le cerveau, comme pour le traitement de la maladie de Parkinson il y a quelques années. Y a-t-il, là aussi, un risque de surstimulation du circuit de la dopamine, et donc de compulsion ?

H. C. : Effectivement, il faut bien faire la différence entre deux types de dispositifs : d’un côté, ceux qui permettent la collecte d’informations sur l’activité cérébrale ; de l’autre, des systèmes qui vont moduler ou stimuler l’activité cérébrale – l’influencer, en somme.

En 2018 déjà, Rodrigo Hübner Mendes a réussi à conduire une Formule 1 simplement avec un casque posé sur la tête. Le signal d’électro-encéphalogramme était suffisamment bien décodé pour lui permettre de piloter cette voiture alors qu’il était tétraplégique et ne pouvait pas toucher le volant. Il l’a conduite simplement avec un casque qui détectait son activité cérébrale et donc, selon sa volonté, son intention d’accélérer ou de tourner à droite ou à gauche que l’interface cerveau-machine transmettait au système de pilotage de la Formule 1. C’est de la pure détection.

Et c’est exactement la même chose avec les systèmes « brain to speech », c’est-à-dire la capacité de décoder l’activité cérébrale responsable du langage avec une interface cerveau-machine, qui traduit cette activité en paroles en un dixième de seconde. Il s’agit de dispositifs qui pourraient venir en aide à des gens qui ont fait un accident vasculaire cérébral, qui ont des troubles du langage, ou par exemple dans la maladie de Charcot. C’est un des domaines des neurotechnologies qui avance le plus vite aujourd’hui. On sait désormais le faire avec des électrodes à la surface du cerveau, et non plus avec des électrodes profondes. D’ici cinq ans, on arrivera probablement à faire la même chose avec des électrodes à la surface du scalp, sur l’extérieur du crâne. Il s’agit là encore de détection.

C’est complètement différent des systèmes de stimulation ou de modulation, dans lesquels la machine envoie un signal au cerveau pour modifier l’activité cérébrale. Dans le premier cas, on ne modifie pas l’activité cérébrale, on se contente de la détecter. Dans le deuxième cas, on modifie l’activité cérébrale.

Est-ce que l’on sait aujourd’hui faire de la stimulation avec des implants non invasifs ?

H. C. : Oui, c’est ce qui se passe aujourd’hui dans le domaine médical avec la stimulation magnétique transcrânienne, qui est très utilisée pour la rééducation des accidents vasculaires cérébraux. On va inhiber l’activité d’une région du cerveau pour permettre la récupération d’une autre région du cerveau. Des résultats prometteurs ont été rapportés pour soigner certaines formes de dépression nerveuse grâce à des petits boîtiers de stimulation électrique, que l’on appelle DCS, qui sont des systèmes de stimulation continue.

Ces dispositifs sont aussi vendus en prétendant que ça peut permettre la relaxation, mais là, il n’y a aucune preuve scientifique que ça fonctionne.

D’autres types de stimulation non invasive peuvent être envisagés, par exemple avec des ultrasons pour essayer de lutter contre des tumeurs et contre des plaques amyloïdes dans la maladie d’Alzheimer.

Il va de soi que ces dispositifs capables de stimuler l’activité cérébrale intéressent beaucoup les gens qui aimeraient bien manipuler d’autres gens. Ces possibilités sont ouvertes par les grands progrès faits en neuroscience depuis trente ans, notamment en découvrant que d’autres régions du cerveau, moins profondes que celles impliquées dans la maladie de Parkinson, sont impliquées dans ces processus de décision : dans le cortex préfrontal, qui est au-dessus du nez, ou dans le cortex temporal. Ces zones sont en surface, relativement accessibles aujourd’hui.

L’objectif des gens qui développent ces technologies à des fins récréatives est d’essayer d’optimiser l’addiction, en stimulant directement les centres de la récompense ou de l’appétit, en corrélation évidemment avec un acte d’achat – ou avec ce qu’on cherche à faire aux gens pour tenter d’orienter les choses dans les jeux vidéo.

Ce qui est fait actuellement, c’est d’essayer de détecter (et non de stimuler – du moins, pas encore) avec ces casques l’état émotionnel de la personne et de modifier le degré de difficulté ou les épreuves du jeu vidéo en fonction de cet état émotionnel.

Est-il facile de détecter les émotions et les pensées aujourd’hui ?

H. C. : La réponse est différente pour les émotions – pour lesquelles oui, c’est facile – et pour les pensées – pour lesquelles, c’est plus difficile, mais on y vient.

Les émotions et la fatigue mentale sont des choses qu’on décrypte d’une façon macroscopique. Par exemple, quand vous êtes fatiguée, votre « saccade oculaire » ralentit, c’est-à-dire que vos yeux balayent moins rapidement la scène devant vous – ce qu’ils font en permanence. Le rythme des saccades est très facile à détecter.

De plus, selon notre degré émotionnel, différentes régions de notre cerveau sont plus ou moins actives. Comme ces régions sont assez grosses, en volume, il est possible de détecter leur niveau d’activité avec différents dispositifs : un casque posé à la surface du crâne ; une imagerie par résonance magnétique (IRM) fonctionnelle – un appareil qui est gros, certes, mais non invasif : nous n’avons pas besoin d’électrodes implantées dans le cerveau pour détecter ces signaux ; des plugs (bouchons) qu’on met dans les oreilles ainsi que de petits systèmes qui fonctionnent dans le proche infrarouge et qui mesurent des changements de vascularisation à la surface du cerveau. Ces dispositifs permettent de mesurer un certain nombre de changements d’activité de certaines régions du cerveau.

Par exemple, avec un casque posé sur la tête, donc non invasif, on peut réaliser des électro-encéphalogrammes (EEG). Quand vous commencez à être fatiguée, on voit des ondes de plus grande amplitude apparaître, puis des pointes d’une forme bien particulière si vous êtes vraiment en train de vous endormir. Ces signaux sont faciles à détecter avec un casque EEG.

Par contre, si vous pensez « J’ai faim » ou que vous vous préparez à prononcer un mot, là c’est plus dur. Des groupes de recherche académique californiens
– l’Université de Californie à San Diego et celle de Berkeley, mais aussi Caltech – ont fait des avancées récentes sur le sujet, avec les électrodes placées à la surface du cerveau et des systèmes d’intelligence artificielle entraînés à reconnaître certains motifs d’activité du cerveau du patient – c’est ce que l’on appelle le brain to speech, dont je parlais tout à l’heure. Ils ont découvert que les mêmes régions soutenaient le langage parlé intentionnel et le langage intérieur. Nous nous approchons donc là de la possibilité de détecter la base de la pensée. L’objectif est ici de venir en aide et de restaurer l’autonomie de personnes gravement cérébrolésées. Malheureusement, nous ne connaissons pas les intentions réelles de sociétés commerciales qui développent aussi ce type d’électrodes de surface.

En termes d’encadrement, est-ce que ces dispositifs, que ce soient des casques, des plugs dans les oreilles ou des implants, sont encadrés aujourd’hui, par exemple avec des autorisations de mise sur le marché comme pour les médicaments ?

H. C. : Si c’est un dispositif médical, il y a tout l’encadrement habituel. Si c’est un dispositif non médical, il n’y a rien : aucune garantie.

Dans la déclaration de l’Unesco, vous recommandez de classer « sensibles » certaines données biométriques, qui ne semblent pas susceptibles de donner accès aux émotions ou aux pensées au premier abord. Pourquoi ?

H. C. : On peut utiliser des données qui ne sont pas directement des données cérébrales ou neurales pour faire des déductions sur l’état émotionnel ou de santé : on a parlé des mouvements des yeux, mais il y a aussi le rythme cardiaque combiné à des données comportementales ou à la voix.

Par exemple, si vous enregistrez la voix d’une personne atteinte de la maladie de Parkinson, même débutante, vous allez voir qu’il y a des anomalies de fréquence qui sont caractéristiques de cette maladie. Il n’y a pas forcément besoin d’être capable d’enregistrer l’activité cérébrale pour déduire des choses très privées.

Donc, on a regroupé cet ensemble sous le terme de « données neurales indirectes et données non neurales » : ces données qui, combinées et interprétées par l’intelligence artificielle, permettent de faire des inférences sur nos états mentaux.

Vous recommandez donc de protéger toutes les données neurales – qu’elles soient directes ou indirectes –, car elles permettent d’en déduire des états mentaux, et ce, afin de protéger nos « vies privées mentales ». Pouvez-vous nous expliquer ce que vous entendez par là ?

H. C. : Parmi les droits fondamentaux, il y a le droit à la vie privée. C’est le droit d’empêcher qui que ce soit de connaître les éléments de votre vie privée que vous ne souhaitez pas qu’il ou elle connaisse.

Nos pensées, nos idées, nos désirs, tout ce qui se passe dans notre tête, sont ce que nous avons de plus intime et, donc, de plus privé. La vie mentale est au cœur même de la vie privée.

Souvent, quand on parle d’atteinte à la vie privée, on pense à la diffusion d’une photo qui serait prise à un endroit ou avec une personne, alors qu’on n’avait pas forcément envie que cela se sache. Mais vous imaginez si demain on pouvait avoir accès à vos pensées ? Ça serait absolument dramatique : la fin totale de toute forme de vie privée.

En pratique, imaginons que notre conversation en visioconférence soit enregistrée par un fournisseur de services Internet. Nos saccades oculaires, qui sont donc des données neurales indirectes, sont bien visibles. Est-il possible, aujourd’hui, d’en déduire quelque chose ?

H. C. : En principe, il pourrait y avoir un petit message qui s’affiche sur mon écran en disant : « Attention, la personne en face de vous est en train de s’endormir, il faudrait veiller à raconter quelque chose de plus intéressant. » (rires) Sauf que nous sommes en Europe, et que dans le règlement européen sur l’IA, l’AI act, l’utilisation de logiciels ayant pour objectif de détecter ou d’analyser le comportement des personnes, en dehors de la médecine ou de la recherche, est interdite.

Avec le règlement général sur la protection des données (RGPD) pour protéger nos données personnelles, puis avec l’AI Act, l’Union européenne a déjà pris des mesures de protection de la vie privée et de l’autonomie des individus… Parce qu’une fois que vous avez ces différentes données, vous pouvez essayer de manipuler les personnes, en biaisant leur jugement, ou en essayant de leur faire prendre des décisions qui ne sont plus prises en autonomie. Notre vie privée mentale est aussi la base de notre liberté d’expression et de notre liberté de penser.

Aujourd’hui, dans le cadre d’autres nouvelles technologies, on en vient à chercher à protéger les mineurs, notamment en leur interdisant l’accès à certains dispositifs. C’est le cas sur certains réseaux sociaux et c’est en discussion pour certaines IA génératives, comme ChatGPT. Est-ce une direction que vous recommandez pour les neurotechnologies ?

H. C. : Tout à fait ! Il ne faut jamais oublier que le cerveau d’un enfant n’est pas un petit cerveau adulte, mais un cerveau en développement. De la même façon, le cerveau d’un adolescent n’est pas un petit cerveau adulte, mais un cerveau en révolution – qui se reconfigure.

Aujourd’hui, l’impact de l’utilisation de ces procédés de neurotechnologies sur ces cerveaux en développement est totalement inconnu et, en particulier, la réversibilité de tels impacts potentiels.

Même pour des applications médicales, pourtant mieux encadrées, les choses ne sont pas si simples. Il y a, par exemple, des cas de patients ayant reçu des implants cérébraux pour soigner des pathologies, notamment des céphalées de Horton, avant que l’entreprise responsable de l’implant fasse faillite et ferme, laissant les patients avec des implants sans maintenance. À l’heure où les développements technologiques sont menés en grande partie par des entreprises privées, quels sont les espoirs et les mécanismes qui permettent de croire qu’on peut cadrer le développement des neurotechnologies pour protéger les citoyens du monde entier de potentiels abus ?

H. C. : On parle là de « développement responsable » des technologies. Ce sont des problématiques que nous avons abordées dans le cadre de l’Organisation de coopération et de développement économiques (OCDE), avec une recommandation (no 457), publiée en décembre 2019, qui énonçait neuf principes pour un développement responsable des neurotechnologies. C’est ensuite aux États membres de l’OCDE de la mettre en pratique. Dans ce cas, il n’y en a que 38, bien moins qu’à l’Unesco, avec 195 pays membres.

La nouvelle déclaration qui doit être signée à l’Unesco reflète une vision qui part des droits humains et qui protège les droits humains fondamentaux ; à l’OCDE, il s’agit d’une vision qui cherche le développement économique. Nous cherchions donc dans quelles conditions les entreprises pourront le mieux développer leurs produits : parmi ces conditions, la confiance que le consommateur peut avoir dans le produit et dans l’entreprise.

Malheureusement, dans ce contexte-là, pour l’instant, on n’a pas encore de réponse claire à votre question, sur ce que l’on appelle en anglais « abandonment », que l’on appellerait en français l’« abandon neural ». Des propositions sont en cours d’élaboration, par exemple au niveau du comité Science & société du programme européen EBRAINS.

Néanmoins, au niveau français, avec différents ministères, en collaboration avec les entreprises, avec le secteur associatif et aussi avec le secteur académique, on a élaboré une charte française de développement responsable des neurotechnologies, qui a l’intérêt de vraiment avoir été une coconstruction entre les différents partenaires, une codécision qui porte sur la protection du consommateur, sur son information et sur la prévention des mésusages des neurotechnologies. Elle a été publiée en novembre 2022. La signer est une démarche volontaire, mais qui marche aujourd’hui plutôt bien puisqu’on en est, à ce jour, à une cinquantaine de partenaires : beaucoup d’entreprises, d’associations, d’académies et des agences de régulation.

Ce qui est intéressant aussi, c’est que nous avons ensuite porté cette proposition au niveau européen. La charte européenne des neurotechnologies est très inspirée de la charte française. Elle a été publiée en mai 2025 et a déjà recueilli près de 200 signataires. Le but est d’apporter aux différentes sociétés qui y adhèrent une sorte de « label » pour dire aux consommateurs, « On a fait le choix de respecter mieux vos droits et donc de s’engager dans cette charte des neurotechnologies ».

Cette démarche est plus que nécessaire. Une étude américaine, réalisée en 2024 par la Neurorights Foundation sur 30 entreprises, majoritairement américaines, qui commercialisent des casques EEG et d’autres produits de neurotechnologie, montre que 29 de ces 30 entreprises ne respectaient absolument pas les recommandations de l’OCDE. Par exemple, certaines collectaient et/ou revendaient les données sans l’accord des personnes.

La philosophie, en portant cette discussion auprès de la Conférence générale de l’Unesco, c’est d’avoir une plateforme mondiale, d’ouvrir la discussion dans des pays où elle n’a pas déjà lieu ?

H. C. : Oui, les recommandations de l’Unesco servent en général de base aux différentes juridictions des États membres pour mettre en place des lois afin de protéger les citoyens de l’État.

Avec les neurotechnologies, on est vraiment à un niveau constitutionnel parce qu’il s’agit de droits fondamentaux : le droit à la vie privée, le droit à l’autonomie, le droit à la liberté de pensée, le droit à la liberté d’agir, mais aussi le droit à l’accès aux technologies si elles sont utiles – que les gens qui en ont besoin puissent y avoir accès.

Le Chili est le premier pays à avoir explicité ces droits dans sa Constitution. Le Colorado et la Californie aux États-Unis ont déjà légiféré pour encadrer les neurotechnologies. En France, c’est dans la loi bioéthique, telle qu’elle a été révisée en 2021, que l’on trouve des éléments pour essayer de protéger contre des abus. Au niveau européen, c’est la déclaration de Léon (2023).

Ainsi, même si les déclarations de l’Unesco ne sont pas contraignantes, elles inspirent en général les juristes des pays correspondants.

Y a-t-il des risques que la déclaration de l’Unesco ne soit pas signée en novembre lors de la Conférence générale ?

H. C. : Maintenant que les États-Unis se sont retirés, je ne crois pas… La conférence intergouvernementale que j’ai présidée au mois de mai a adopté la recommandation, il y avait 120 États. Les choses ne sont pas faites, bien sûr, mais on espère que le passage à l’Assemblée générale, avec les 195 pays présents, sera plutôt une formalité.

Les instances internationales sont très formelles. Elles fonctionnent comme ça ; et c’est peut-être une limite du fonctionnement onusien, qui s’appuie sur l’idée un peu irénique de René Cassin et d’Éléonore Roosevelt, après ce qui s’était passé d’effroyable pendant la Deuxième Guerre mondiale, que les États sont de bonne volonté.

On n’est plus tout à fait dans ce cadre-là.

H. C. : Oui, vous avez remarqué, vous aussi ? Mais, si ça marche, on sera surtout heureux d’y avoir contribué en temps et heure. Parce que là, et c’est une chose qui est assez remarquable, c’est qu’on prend les mesures au bon moment. Pour une fois, les réflexions éthiques et de gouvernance ne sont pas en retard sur la technique.

On espère donc que ce sera vraiment utile, et que les neurotechnologies continueront à se développer à bon escient, parce qu’on en a absolument besoin, mais que, grâce à cette prise de conscience précoce, on évitera les abus, les utilisations détournées ou malveillantes de ces technologies.

Et donc : vivrons-nous tous dans la matrice (je fais référence au film Matrix) ?

H. C. : Peut-être qu’il peut y avoir de bons côtés à la matrice et de mauvais côtés. Si ces différents procédés pouvaient rendre leur autonomie, par exemple, à des personnes âgées qui souffrent d’une perte d’autonomie, à des malades qui sont en perte d’autonomie, ou aider des enfants qui ont des difficultés à apprendre à mieux apprendre, là on aura vraiment gagné. Par contre, si c’est pour soumettre les individus à des volontés d’entreprises monopolistiques, là on aura tout perdu. Mais l’avenir n’est pas écrit. C’est à nous de l’écrire.

The Conversation

Toutes les fonctions listées ci-après l’ont été à titre bénévole:
Expert pour les neurotechnologies auprès de l’OCDE de 2015 à ce jour.
Ancien président du Comité international de bioéthique de l’UNESCO (2019-2021) et co-auteur du rapport sur les enjeux éthiques des neruotechnologies (2021).
Co-président du groupe d’experts ad hoc sur la recommandation UNESCO sur les neurotechnologies (2024-2025).
Président du Comité intergouvernemental sur la recommandation sur les neurotechnologie (12-16 mai 2025).
Membre du Comité de la Charte française des neurotechnologies
Co-auteur de la charte européenne des neurotechnologies

ref. Neurotechnologies : vivrons-nous tous dans la matrice ? Conversation avec Hervé Chneiweiss – https://theconversation.com/neurotechnologies-vivrons-nous-tous-dans-la-matrice-conversation-avec-herve-chneiweiss-268421

Maths au quotidien : Full HD, 4K, 8K… ou pourquoi il n’est pas toujours utile d’augmenter la résolution de sa télévision

Source: The Conversation – in French – By Saad Benjelloun, Responsable du département de mathématiques, Pôle Léonard de Vinci

Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.


Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.

Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.

Les limites de notre perception visuelle

Il existe des méthodes qui permettent de décomposer un signal (par exemple une image ou un son) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de peau).




À lire aussi :
Des caméras 3D dans nos smartphones : comment numériser notre environnement ?


Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire. Cette acuité correspond à pouvoir distinguer un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !




À lire aussi :
Aveugles, malvoyants : que voient-ils ?


Sur une image, cette limite s’appelle la fréquence de coupure : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.

Si l’on applique cette logique, la 8K ne devient vraiment utile que si :

  • l’écran est très grand,

  • ou que l’on s’assoit très près,

  • ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).

Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.

Un outil mathématique puissant, la « transformée de Fourier », inventée par Joseph Fourier en 1817, permet de quantifier cet effet.

Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal — autrement dit sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »

Ce que dit la transformée de Fourier

Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier et lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.

comparaison de résolution
Une image affichée avec deux résolutions différentes, et les transformées de Fourier correspondantes.
USC-SIPI Image Database pour la photo ; Saad Benjelloun pour les modifications, Fourni par l’auteur

Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences (autour de la valeur (0,0)).

Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.

Utiliser des filtres pour couper les hautes et basses fréquences

Regardons de plus près ce qui se passe en manipulant ce spectre — on parle alors de filtres.

On filtre l’image original en supprimant les hautes fréquences et en ne laissant passer que les basses fréquences (on parle de filtre passe-bas).
Saad Benjelloun, Fourni par l’auteur

Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.

C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling en anglais) et d’amélioration d’image pour tenter de reconstituer et renforcer ces hautes fréquences manquantes et offrir une meilleure qualité visuelle.

On filtre l’image originale en supprimant les basses fréquences et en ne laissant passer que les hautes fréquences (on parle de filtre passe-haut).
Saad Ben Jelloun, Fourni par l’auteur

Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.

Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !

The Conversation

Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Maths au quotidien : Full HD, 4K, 8K… ou pourquoi il n’est pas toujours utile d’augmenter la résolution de sa télévision – https://theconversation.com/maths-au-quotidien-full-hd-4k-8k-ou-pourquoi-il-nest-pas-toujours-utile-daugmenter-la-resolution-de-sa-television-266414