Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ?

Source: – By Fanny Parise, Chercheur associé, anthropologie, Institut lémanique de théologie pratique, Université de Lausanne

Paris, théâtre d’un jeu social méconnu. Wikimedia, CC BY

Paris, capitale française et sixième ville d’Europe où les loyers sont les plus chers, vient de battre un nouveau record : le prix moyen du mètre carré dépasse désormais les 9 000 euros !

Mais Paris est également le théâtre d’un jeu social méconnu qui permet d’objectiver l’incidence du lieu de vie sur la sociabilité et le style de vie d’individus sous contrainte de budget. D’un point de vue socio-anthropologique, ces individus déploient des stratégies sociales afin de rendre plus acceptable leur quotidien : ils mettent en place des pratiques visant non pas à sortir de la précarité, mais à ne pas tomber dans la misère, à rendre acceptables les frustrations qu’engendre la situation socio-économique vis-à-vis de la société de consommation. Ils montrent aussi une volonté de monétariser tout ou partie de l’activité, ou des projets déployés au quotidien.

Assurer sa solvabilité

La solvabilité d’un locataire se traduit par sa sa capacité à honorer le loyer de son logement. Elle se calcule par l’intermédiaire d’un indice : le ratio de solvabilité, correspondant au taux d’effort des locataires. Ce chiffre indique le reste à vivre (RAV) mensuel après paiement du loyer. Il ne doit pas excéder 33,3 % du total des ressources de l’individu. Le RAV varie logiquement en fonction du salaire, du montant du loyer, des dépenses contraintes et secondaires d’un individu. Il est également corrélé à un ensemble de variables socioculturelles où le style de vie et les modes de consommation impactent directement sa gestion. Si un individu estime que son RAV est insuffisant pour le niveau de vie auquel il aspire, opter pour un loyer moins élevé, sur un territoire où l’immobilier est plus abordable, peut sembler être une solution pertinente.

Or, l’« adresse postale » d’un logement représente l’épicentre de stratégies de distinctions sociales, qui confère une dimension symbolique au ratio de solvabilité. D’autres notions conduisent les individus à repenser leur budget afin de s’assurer leur solvabilité face à des « adresses postales » où le prix moyen des loyers est supérieur à leur ratio de solvabilité. Il s’agit notamment des politiques liées aux logements sociaux ou du « capital d’autochtonie », c’est-à-dire l’ensemble des ressources (réelles et symboliques) engendrées par l’appartenance à des réseaux et à des relations de proximité. On attribue un caractère réversible à ce capital : alors que l’entre-soi constitue une force à l’échelle individuelle comme à celle d’un groupe social, il peut se retourner en handicap à l’extérieur de ce réseau. D’un point de vue anthropologique, les individus usent de stratégies afin de conserver ces réseaux de proximité.

Classiquement, la sociologie et la géographie objectivent les disparités de revenus des ménages en fonction des différents quartiers de la ville, mettant en tension l’Est et l’Ouest de la capitale. Or, il semble exister une réalité plus complexe du quotidien, notamment pour une partie de ses habitants qui a, malgré de faibles ressources, décidé de vivre dans les quartiers ou les villes de l’Ouest parisien.

Entre « classe ambitieuse » et « classe aspirante »

La sociologue américaine Elizabeth Currid a publié en 2017 The Sum of Small Things à propos de la « classe ambitieuse », où ces créatifs culturels décident non pas de s’émanciper de la société de consommation, mais de se positionner en transition consumériste. Ils aspirent ainsi à changer le monde tout en participant, souvent malgré eux, à une reproduction des distinctions sociales.

Très visibles dans les grandes villes, ces individus investissent Paris et participent au processus de gentrification amorcé dans les quartiers de l’Est parisien. Cependant, il existerait une autre facette de cette « classe ambitieuse » : la « classe aspirante », qui serait sa part d’ombre. Elle investirait les quartiers historiquement les plus huppés de Paris (Triangle d’Or, par exemple) et déploierait un certain nombre de stratégies faisant office d’amortisseurs de la pauvreté, comme la sociologue Martine Abrous l’a étudié au sujet des professions artistiques.

Ces stratégies renvoient vers une pluralité de desseins : conserver une position sociale, acquérir un logement selon ses ressources (stratégies de gentrification), capitaliser sur les aménités de quartier afin de mieux vivre, ou encore, choisir par défaut (attribution de logements sociaux, hébergement chez des proches).

Stratégies pour choisir son lieu de vie

A priori, il existerait une corrélation entre prix du bâti et ressources des ménages. Or, le croisement de certains indicateurs statistiques montre une autre réalité : on observe un lien entre prix du bâti et nombre de chambres de bonnes ou de « service » à la location (le XVIe arrondissement de Paris concentre près d’un tiers du parc de chambres de bonnes de la capitale), ou encore, entre prix du bâti et diversité des types de logements sociaux, comme en atteste la répartition des logements sociaux par arrondissement :

Cette « classe aspirante » a recours à un certain nombre de stratégies afin de préserver son « ratio de solvabilité » : travail au noir, économie informelle, cumul d’emplois, mobilisation de réseaux d’entraide et de solidarité… Elle invoque différentes justifications à ce choix de vie parfois difficile : vivre dans un quartier privilégié, continuer de résider dans le quartier ou la ville dans laquelle on a grandi, assurer une bonne scolarité à ses enfants, s’intégrer dans des réseaux de sociabilité des classes supérieures, etc.

La mixité sociale peut desservir

Cette forme de mixité sociale peut également engendrer de la non-mixité due aux « effets de quartier » et provoquer des tensions à l’échelle des territoires. Le couple de sociologues Pinçon l’avait évoqué, relatant le cas d’une résidence HLM en bas des Champs-Élysées : la volonté initiale de « mixer » différentes populations s’est retrouvée être contre-intuitive pour les habitants. Il s’agit du phénomène de la « double peine ».

Les habitants ont perdu les bénéfices de leur « capital d’autochtonie » et ne sont pas parvenus à s’intégrer sur ce nouveau territoire, provoquant de l’exclusion et une diminution de la qualité de vie. Cet exemple s’intègre dans un jeu social de différenciation entre les habitants de ces quartiers, provoquant des confusions et des sentiments d’injustice, notamment liés aux liens entre ressources et types de logements sociaux.

En définitive, c’est précisément le poids symbolique et culturel qui va conditionner les stratégies individuelles et collectives des individus dans les pratiques de gestion du « ratio de solvabilité », donnant à voir une réalité plus contrastée de la pauvreté par rapport au lieu de vie.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Fanny Parise a reçu des financements de différentes structures, qui ont participé au financement de son travail de thèse.

ref. Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ? – https://theconversation.com/pourquoi-vouloir-vivre-dans-les-quartiers-riches-quand-on-est-pauvre-94355

Enseignement supérieur : quel est le coût de la réussite en premier cycle ?

Source: – By Aurélien Lamy, Maître de conférences en Sciences de gestion, Université de Caen Normandie

Au-delà des chiffres : quelle efficacité budgétaire ? Egmo2017/VisualHunt, CC BY-NC

Les moyens consacrés à l’enseignement supérieur sont souvent résumés en un chiffre, celui de la dépense moyenne d’éducation par étudiant. Pour 2014 par exemple, elle s’élève à 11 834 euros. Ce chiffre ne dit rien, cependant, des différences de dépense selon les filières de formation. Loin d’être uniforme, la dépense par étudiant varie ainsi de 10 576 euros pour un étudiant à l’université à 15 052 euros pour un étudiant de classes préparatoires aux grandes écoles (CPGE) :

Si cette dépense différenciée entre les formations pose la question des inégalités de traitement entre les étudiants, elle soulève également celle de son efficacité.

La réussite, mesure de la performance des formations

Une formation de premier cycle contribue à la réalisation de plusieurs objectifs simultanément (acquisition de connaissances, certification de compétences, formation du citoyen, etc.). Néanmoins, son objectif premier est bien la réussite des étudiants, qui doit garantir l’atteinte des autres objectifs de la formation.

Dans le cas des diplômes (licence, DUT et BTS), la réussite peut facilement être mesurée par le taux d’obtention du diplôme. Le nombre d’inscriptions étant normalement limité à 3 années en DUT et en BTS, et à 5 années en licence, nous avons pris en compte le taux d’obtention du diplôme en 2 ou 3 ans pour le DUT et le BTS, et en 3, 4 ou 5 ans pour la licence.

La réussite en CPGE, en revanche, ne peut être mesurée par le taux de réussite au diplôme : d’abord parce qu’aucun diplôme n’est délivré à la fin de la formation, ensuite parce que, comme leur nom l’indique, elles ont pour objectif de préparer les étudiants à intégrer les grandes écoles et les écoles d’ingénieurs. Dès lors, la réussite peut être mesurée par le taux d’intégration dans les écoles de niveau bac+5 après 2 ou 3 ans, puisque comme pour le DUT ou le BTS, le nombre d’inscriptions est normalement limité à 3 années. Les données étant communiquées par filière (scientifique, économique, littéraire), nous avons réalisé une moyenne pondérée en fonction de la proportion d’étudiants inscrits dans chacune des filières.

Quelle que soit la formation de premier cycle, les taux de réussite retenus n’intègrent pas les réorientations, bien que, dans de nombreux cas, elles débouchent pourtant sur une réussite de l’étudiant. En effet, pour les formations quittées, il s’agit bien d’un échec, puisque leur objectif premier n’est pas atteint, et que rien n’indique qu’une intégration directe dans la nouvelle formation n’aurait pas permis à l’étudiant d’atteindre le même résultat.

Sur la base du suivi de cohorte des nouveaux inscrits en 2008 (dernier disponible), nous avons obtenu les taux de réussite suivants :

Le coût de la réussite

L’évolution de la dépense moyenne par étudiant confirme l’existence, depuis de nombreuses années, d’une différence notable de coût entre les différentes formations. Si la dépense par étudiant en BTS ou en CPGE est directement exploitable, la dépense par étudiant à l’université est en revanche plus problématique, car elle agrège des étudiants inscrits dans différentes formations. En particulier, depuis l’entrée en vigueur de la LOLF en 2006, il n’est plus possible de repérer les dépenses des IUT, désormais intégrées à celles des universités.

Puisque la dépense par étudiant en IUT est supérieure d’environ 20 % à la dépense par étudiant à l’université, nous avons pu, en prenant en compte la part des effectifs inscrits en DUT, distinguer la dépense par étudiant en DUT de la dépense par étudiant dans les autres formations universitaires. En revanche, faute d’information sur la répartition de la dépense entre les différentes formations universitaires (notamment entre licence et master), nous avons conservé ce dernier chiffre comme estimation de la dépense par étudiant en licence.

Par ailleurs, nous avons retenu dans nos calculs la dépense moyenne par étudiant en 2014. En effet, cette année est à la fois la dernière pour laquelle les informations sont disponibles et celle de la mise en œuvre d’un changement dans le mode de calcul réalisé pour permettre une meilleure évaluation de la dépense à l’université.

Afin d’évaluer le coût de la réussite, nous avons calculé la dépense moyenne par année réussie, c’est-à-dire le rapport de la dépense totale réalisée pour l’ensemble des étudiants ayant intégré en même temps la première année de la formation, sur le nombre total d’années réussies dans la formation (nombre d’années validées ayant conduit à l’obtention du diplôme ou à l’intégration d’une école de niveau bac+5).

Calculer la dépense totale réalisée pour l’ensemble d’une cohorte nécessiterait de pouvoir retracer précisément année après année le parcours réalisé dans la formation. Le détail du parcours des nouveaux entrants n’étant pas disponible pour une même cohorte et pour chacune des formations de premier cycle, nous avons utilisé les taux de réussite en faisant l’hypothèse que les étudiants n’ayant pas réussi ont quitté la formation au bout d’une année. Cette méthode conduit à minorer légèrement la dépense totale (en particulier pour la licence où certains étudiants sont inscrits de nombreuses années sans jamais parvenir à valider leur diplôme), mais elle donne néanmoins une approximation satisfaisante de la dépense totale.

En reprenant l’ensemble des résultats précédents, nous avons obtenu les niveaux de dépense par diplôme suivants :

L’efficacité de la dépense d’éducation

La principale évolution entre la dépense par étudiant et la dépense par année réussie concerne la licence. En effet, si elle présente une dépense plus faible que les autres formations de premier cycle, la licence affiche aussi un taux de réussite bien plus faible avec 47 % au bout de 5 ans. La dépense par année réussie s’élève ainsi à 16 332 euros, un montant 57 % plus élevé que celui de la dépense par étudiant. Le modèle de la licence, qui conjugue un accès de droit pour tous les bacheliers (non remis en cause par la loi ORE) et une faible dépense par étudiant, présente ainsi une efficacité globale plutôt moyenne.

Les trois autres formations de 1er cycle (DUT, BTS et CPGE) fonctionnent sur un modèle différent de celui de la licence, puisque les étudiants sont sélectionnés à l’entrée et bénéficient d’une dépense par étudiant plus importante. Ce modèle conduit à une réussite nettement plus importante avec des taux compris entre 69 % et 81 % au bout de 3 ans. La dépense par année réussie est ainsi seulement 19 % à 33 % plus élevée que la dépense par étudiant correspondante.

Si elle ne bouleverse pas le classement de ces trois formations, la prise en compte de la réussite tend cependant à augmenter les écarts :

  • Avec une dépense par étudiant relativement limitée et le taux de réussite le plus élevé, le DUT affiche une dépense par année réussie de 14 893 euros, plus faible que dans les autres formations de premier cycle, et donc signe d’une efficacité plus forte.

  • Le BTS affiche une dépense par année réussie de 17 583 euros, légèrement supérieure à celle de la licence, signe d’une efficacité plutôt moyenne.

  • Finalement, avec une dépense par étudiant plus élevée et un taux de réussite compris entre celui du BTS et celui du DUT, les CPGE affichent une dépense par année réussie de 20 016 euros, nettement supérieure à celle des autres formations de premier cycle, signe d’une plus faible efficacité.

Cette évaluation de l’efficacité des formations doit néanmoins être étudiée au regard de la population étudiante accueillie et de sa capacité à réussir des études supérieures. Les taux de réussite en licence illustrent les différences de réussite selon le type de baccalauréat et la mention obtenue :

Ainsi, les bacheliers généraux réussissent mieux que les bacheliers technologiques, qui réussissent eux-mêmes mieux que les bacheliers professionnels. De même, les étudiants ayant obtenu les meilleures mentions au baccalauréat réussissent mieux dans les études supérieures. Ce constat peut être étendu aux autres formations de premier cycle.

La population étudiante accueillie diffère significativement d’une formation de premier cycle à l’autre :

La prise en compte de la population étudiante accueillie au sein des différentes formations sélectives de premier cycle (DUT, BTS et CPGE) permet alors d’améliorer la compréhension de leur efficacité :

  • Le DUT accueille près d’un quart de bacheliers technologiques, qui réussissent dans 64,6 % des cas. L’efficacité du DUT, déjà supérieure à celle des autres diplômes de premier cycle, apparaît ainsi d’autant plus forte.

  • Le BTS accueille une proportion importante de bacheliers technologiques et de bacheliers professionnels. Si la dépense par année réussie est plus importante, elle contribue à faire réussir ces étudiants (77,4 % et 60,7 % respectivement). L’efficacité des BTS apparaît ainsi finalement plutôt correcte.

  • Les CPGE accueillent une population étudiante très majoritairement composée de bacheliers généraux ayant reçu de meilleures mentions au baccalauréat. L’efficacité des CPGE, déjà inférieure à celle des autres formations de premier cycle, apparaît ainsi particulièrement faible.

Dans une perspective plus globale, il ressort que la dépense par année réussie est plus élevée pour les formations en lycée (BTS et CPGE) que pour les formations de premier cycle à l’université (licence et DUT). Sachant que la dépense par étudiant à l’université intègre l’ensemble des coûts de la recherche, l’intégration des seuls moyens consacrés à la formation montrerait une efficacité encore plus marquée en faveur des formations universitaires que sont le DUT et la licence.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Aurélien Lamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseignement supérieur : quel est le coût de la réussite en premier cycle ? – https://theconversation.com/enseignement-superieur-quel-est-le-cout-de-la-reussite-en-premier-cycle-93990

L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud !

Source: – By Éric Collet, Professeur de Physique, expert en sciences des matériaux, Université de Rennes

Une nouvelle étude montre qu’il est possible de geler les positions des atomes qui constituent un matériau…, en le chauffant.

Ce concept ouvre la voie au développement de dispositifs innovants, tels que des capteurs piézoélectriques capables de fonctionner à température ambiante, sans avoir besoin de recourir à de très basses températures.


Lorsque l’eau liquide passe en dessous de 0 °C, les molécules d’eau gèlent leurs positions les unes par rapport aux autres, pour former de la glace. Dans l’immense majorité des matériaux, les atomes et les molécules gèlent quand la température baisse.

Mais, contrairement à l’intuition, nous avons découvert un matériau présentant un changement d’état magnétique, pour lequel des mesures de cristallographie par rayons X ont démontré que les positions des atomes gèlent… en chauffant !

Ceci nous a d’abord surpris, mais nous avons trouvé une explication, que nous détaillons dans notre récente publication.

Certains dispositifs électroniques ne fonctionnent qu’à basse température

Les positions des atomes se gèlent habituellement quand on abaisse sa température – c’est le cas, par exemple, quand l’eau gèle au congélateur ou encore quand du sucre fondu cristallise en refroidissant.

Ce phénomène existe aussi à l’état solide dans de nombreux matériaux. Même dans un solide, les atomes vibrent entre des positions équivalentes par symétrie (par exemple entre gauche et droite) – ils ne se figent dans une de ces positions que quand la température diminue.

Pour certains matériaux, comme le sucre ou les piézoélectriques utilisés sur les sonars ou capteurs pour l’échographie, les atomes sont gelés à température ambiante. Mais pour de nombreux matériaux moléculaires, ceci ne se produit qu’à -20 °C, -100 °C ou -200 °C, par exemple.

schéma
À haute température, les atomes en bleu et en rouge sont désordonnés entre des positions droite/gauche équivalentes par symétrie. Quand ils se gèlent sur une position à basse température, la symétrie droite/gauche est perdue. Ainsi, des charges peuvent apparaître en surface.
Éric Collet, Fourni par l’auteur

Le changement de symétrie associé à la mise en ordre des atomes qui se gèlent suivant certaines positions est illustré sur la figure ci-dessus.

À droite, les atomes sont désordonnés et vibrent à haute température. Il y a ici une symétrie miroir et les positions des atomes d’un côté du miroir sont équivalentes à celles de l’autre côté.

À basse température, les positions des atomes se gèlent. Par exemple, les atomes rouges s’approchent d’atomes bleus à droite et s’éloignent des atomes bleus à gauche. Ceci modifie certaines propriétés physiques de matériaux et, par exemple, des charges (+ et -) apparaissent en surface.

Si on appuie sur un tel matériau, les charges changent, et c’est ce qui est à la base des capteurs piézoélectriques, par exemple. Une simple pression, comme un son, peut moduler ces charges et être alors détectée. C’est ainsi que fonctionnent les dispositifs pour l’échographie ou les sonars dans les sous-marins, par exemple : l’onde sonore qui est réfléchie sur un objet est détectée par le capteur piézoélectrique au travers d’un signal électrique.




À lire aussi :
Des aimants légers et performants grâce à la chimie moléculaire



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


D’autres matériaux sont aussi ferroélectriques. Il est alors possible de retourner les positions atomiques avec un champ électrique et donc d’inverser les charges. C’est ce dispositif qui est à la base des mémoires RAM ferroélectriques.

Malheureusement, pour de nombreux matériaux moléculaires, ce type de propriétés liées au changement de symétrie n’apparaissent qu’à basse température. Il faut alors refroidir les matériaux pour obtenir la propriété, parfois à -200 °C. Cette contrainte limite donc l’application de ces matériaux, car de nombreuses applications nécessitent des dispositifs fonctionnant à température ambiante, parce qu’il est trop complexe et coûteux d’intégrer des dispositifs de refroidissement.

Une découverte surprenante : un matériau qui gèle à haute température

Dans la majorité des matériaux, les atomes qui les constituent se mettent en mouvement avec l’élévation de température. Cette agitation thermique crée un désordre, qui se mesure par une grandeur thermodynamique appelée « entropie ».

« L’Entropie », Passe-science #17. Source : Passe-science.

Les lois de la physique stipulent que plus la température augmente, plus le désordre et donc l’entropie augmentent. Ainsi, le désordre est plus grand à haute température, avec les atomes agités, qu’à basse température où les atomes sont figés. À l’inverse, à basse température, le désordre et, donc, l’entropie diminuent, ainsi que la symétrie.

Dans notre étude, nous observons pourtant le phénomène inverse : le matériau que nous étudions est plus symétrique en dessous de -40 °C qu’au-dessus. En d’autres termes, les molécules sont sur des positions désordonnées droite/gauche à basse température et ordonnées à haute température et donc, ici, à température ambiante.

Plusieurs types de désordre en compétition

Ce phénomène est rendu possible grâce au « désordre électronique ».

En effet, dans le matériau étudié, les états à haute et basse température correspondent aussi à deux états magnétiques.

À basse température, le matériau est dans l’état appelé « diamagnétique », c’est-à-dire que les électrons vivent en couple et que leurs spins (leurs moments magnétiques) sont opposés – c’est une contrainte imposée par la mécanique quantique. Ceci correspond à un état électronique ordonné, car il n’y a qu’une configuration possible : un spin vers le haut, l’autre vers le bas.

schéma
Dans le matériau étudié, les molécules sont désordonnées entre positions droite/gauche à basse température et gèlent suivant une des positions à haute température. Ceci est permis par la réorganisation concomitante des électrons. À basse température, les électrons dans ce matériau sont ordonnés : ils s’apparient avec des spins opposés (représenté par des flèches) et il n’existe qu’une configuration électronique. À haute température, les électrons célibataires peuvent prendre l’un des deux spins, sans contrainte, et il existe cinq configurations possibles.
Éric Collet, Fourni par l’auteur

À haute température, au contraire, le matériau est dans l’état « paramagnétique », c’est-à-dire que les électrons sont célibataires et leurs spins peuvent s’orienter librement, ce qui donne lieu à plusieurs configurations (quelques-uns vers le haut, les autres vers le bas, comme illustré par les flèches rouges sur la figure ci-dessus).

En chauffant, nous favorisons le désordre « électronique » (le grand nombre de configurations des spins). Ce désordre entre en compétition avec la mise en ordre des positions des atomes.

Le gain en entropie lié au désordre électronique (qui passe d’une seule configuration à cinq) est alors plus grand que le coût en entropie lié à la mise en ordre des atomes (de deux configurations à une seule). D’autres phénomènes viennent aussi contribuer à cette augmentation d’entropie.

Au final, l’entropie globale, incluant désordre atomique et électronique, augmente donc bien avec la température comme l’imposent les lois de la physique. C’est donc le désordre des électrons qui autorise de geler les positions des molécules.

Par conséquent, ce nouveau concept, combinant désordre électronique et ordre atomique, ouvre la voie au développement de nouveaux matériaux pour des dispositifs tels que des capteurs, des mémoires, des transducteurs ou des actionneurs fonctionnant à température ambiante, sans recours aux basses températures.

The Conversation

Eric Collet est membre de l’Institut Universitaire de France et de l’Academia Europaea

ref. L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud ! – https://theconversation.com/leau-gele-quand-il-fait-froid-ce-nouveau-materiau-gele-quand-il-fait-chaud-258851

Comment ce virus du riz a conquis toute l’Afrique

Source: – By Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)

Repiquage du riz dans le district de Rwamagana à l’Est du Rwanda. Dr I. Ndikumana/Rwanda Agricultural Board, Fourni par l’auteur

Une nouvelle étude retrace l’évolution du virus de la panachure jaune du riz et explique comment le commerce, les échanges de semences et même la Première Guerre mondiale lui ont permis de se répandre à travers tout le continent africain. Ce virus peut causer entre 20 % et 80 % de pertes de rendement.


Le virus de la panachure jaune du riz est une menace majeure pour la production rizicole en Afrique. Cette maladie, présente dans plus de 25 pays, peut causer entre 20 % et 80 % de pertes de rendement selon les épidémies. Retracer l’histoire de la dispersion du virus en Afrique permet de comprendre les causes et les modalités de l’émergence de la maladie, aide à mettre en place des stratégies de contrôle et contribue à évaluer les risques de propagation vers d’autres régions du monde. Par une approche multidisciplinaire intégrant données épidémiologiques, virologiques, agronomiques et historiques, nous avons exploré les liens entre l’histoire de la culture du riz en Afrique de l’Est et la propagation de ce virus à large échelle depuis la seconde moitié du XIXe siècle. Ces travaux sur le RYMV (l’acronyme de son nom anglais : Rice yellow mottle virus) viennent d’être publiés dans la revue scientifique PLoS Pathogens.

Il s’agit de l’aboutissement d’un travail de longue haleine basé sur des collectes de feuilles symptomatiques sur le terrain, parfois difficile d’accès, menées par plusieurs équipes de virologues, co-auteurs de cet article. La détection du virus par diagnostic immunologique en laboratoire puis sa caractérisation par séquençage ont abouti à une collection représentative de 50 génomes entiers et de 335 séquences du gène de la capside virale (la coque protéique qui protège le génome) prélevés entre 1966 et 2020 sur deux millions de kilomètres carrés (Burundi, Éthiopie, Kenya, Malawi, Ouganda, République du Congo, Rwanda, Tanzanie). Une partie de ces échantillons avaient été caractérisée préalablement et conservée dans des herbiers et des congélateurs. C’est une collaboration multilatérale internationale basée sur la mise en commun de tous les résultats qui a abouti à cette étude globale de la phylodynamique du RYMV, c’est-à-dire de la dispersion et de l’évolution des différentes lignées génétiques virales. Les approches bio-informatiques utilisées pour analyser et visualiser les résultats ont nécessité des développements méthodologiques mis au point par plusieurs co-auteurs spécialistes de ces disciplines, et qui sont transposables à tous types de virus. Les résultats obtenus avec les séquences virales partielles ou entières convergent vers un même scénario. C’est en intégrant les connaissances des agronomes et des historiens, également co-auteurs de cet article que nous avons pu interpréter cette « remontée dans le temps ».

Une transmission bien particulière

Beaucoup de virus de plantes sont transmis exclusivement par des insectes vecteurs dit piqueurs-suceurs comme les pucerons, qui en se nourrissant sur une plante malade, acquièrent le virus puis les réinjectent dans des plantes saines. Le RYMV, lui, est transmis par de multiples moyens, notamment :

  • grâce à l’intervention de coléoptères, insectes broyeurs qui n’ont pas de système d’injection de salive mais qui peuvent tout de même se contaminer mécaniquement en s’alimentant et qui se déplacent à courte distance ;

  • par des vaches ou d’autres animaux qui en broutant dans les champs de riz produisent des déjections dans lesquelles le virus reste infectieux ;

  • de manière passive par contact des feuilles ou des racines de plantes infectées où il se multiplie fortement.

Ces différents modes de transmission et de propagation du RYMV ne sont pas efficaces pour la transmission à longue distance. Or, le virus est présent sur tout le continent africain. C’est ce paradoxe que nous avons cherché à résoudre.

Une histoire complexe

Le RYMV est apparu au milieu du XIXe siècle dans l’Eastern Arc Montains en Tanzanie, où la riziculture sur brûlis était pratiquée. Plusieurs contaminations du riz cultivé à partir de graminées sauvages infectées ont eu lieu, aboutissant à l’émergence des trois lignées S4, S5 et S6 du virus. Le RYMV a ensuite été rapidement introduit dans la grande vallée rizicole voisine de Kilombero et dans la région de Morogoro. Les graines récoltées, bien qu’indemnes de virus, sont contaminées par des débris de plantes, elles-mêmes infectées, qui subsistent dans les sacs de riz après le battage et le vannage du riz. Le RYMV, très stable, est en mesure de subsister ainsi pendant plusieurs années. La dispersion à longue distance du RYMV en Afrique de l’Est a été marquée par trois évènements majeurs, cohérents avec : l’introduction du riz le long des routes de commerce caravanier des côtes de l’Océan Indien en direction du lac Victoria dans la seconde moitié du XIXe siècle (I), avec les échanges de semences du lac Victoria vers le nord de l’Éthiopie dans la seconde moitié du XXe siècle (II) et, de manière inattendue, avec le transport du riz à la fin de la Première Guerre mondiale comme aliment de base des troupes, de la vallée du Kilombero vers le sud du lac Malawi (III). Les échanges de semences expliquent également la dispersion du virus de l’Afrique de l’Est vers l’Afrique de l’Ouest à la fin du XIXe siècle, et vers Madagascar à la fin du XXe siècle. En somme, la dispersion du RYMV est associée à un large spectre d’activités humaines, certaines insoupçonnées. Par conséquent, le RYMV, bien que non transmis directement par la semence ou par des insectes vecteurs très mobiles comme beaucoup de virus de plantes, a une grande capacité de dissémination. Ses paramètres de dispersion, estimés à partir de nos reconstructions dites phylogéographiques, sont similaires à ceux des virus zoonotiques très mobiles, des virus infectant les animaux qui peuvent créer des épidémies chez l’homme comme la rage.

Reconstitution de la dispersion du RYMV en Afrique de l’Est de 1850 à 2020, basées sur les séquences génomiques non recombinantes de 50 isolats représentatifs de la diversité génétique et géographique du virus. Les trois évènements de dispersion à longue distance sont indiqués (I, II, III, voir texte).
Fourni par l’auteur

En comparant la dispersion des trois lignées majeures présentes en Afrique de l’Est grâce aux nouveaux outils bio-informatiques développés dans cette étude, nous avons observé des dynamiques virales très contrastées. La lignée S4 a connu le plus grand succès épidémique avec une propagation précoce, rapide et généralisée. Elle a été découverte au sud du lac Victoria dans la seconde moitié du XIXe siècle puis a circulé autour du lac Victoria avant de se disperser vers le nord en Éthiopie, puis vers le sud au Malawi et enfin vers l’ouest en République du Congo, au Rwanda et au Burundi. La lignée S6, au contraire, est restée confinée à la vallée du Kilombero et dans la région de Morogoro pendant plusieurs décennies. Au cours des dernières décennies seulement, elle s’est propagée vers l’est de la Tanzanie, le sud-ouest du Kenya et les îles de Zanzibar et de Pemba. De façon inexpliquée, la lignée S5 est restée confinée dans la vallée du Kilombero et dans la région de Morogoro. Au cours des dernières décennies, on note un ralentissement des taux de dispersion de la plupart des souches virales issues des lignées S4 et S6 que nous n’expliquons pas encore.

En conclusion, notre étude multi-partenariale et multidisciplinaire met en évidence l’importance de la transmission humaine d’agents pathogènes de plantes et souligne le risque de transmission du RYMV, ainsi que celle d’autres phytovirus d’Afrique, vers d’autres continents. Nous étudions maintenant la dispersion et l’évolution du RYMV en Afrique de l’Ouest, en particulier de celle de lignées virales particulièrement préoccupantes car capables de se multiplier sur les variétés de riz, considérées résistantes au virus, compromettant ainsi les stratégies de contrôle.

The Conversation

Eugénie Hebrard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment ce virus du riz a conquis toute l’Afrique – https://theconversation.com/comment-ce-virus-du-riz-a-conquis-toute-lafrique-259329

Votre chat peut-il vous reconnaître à l’odeur ?

Source: – By Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide

Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?


Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.

Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.

L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.

Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.

Quand les chats nous acceptent dans leur groupe social

Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.

Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.

Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.

Deux chats dans des boîtes en carton, un chat noir reniflant un chat roux
Les chats utilisent leur odorat pour distinguer les chats familiers des chats inconnus.
Chris Boyer/Unsplash

L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.

Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.

Gros plan sur le nez ambré d’un chat silver tabby
Les chats reniflent les objets avec des narines différentes selon que l’information leur est familière ou non.
Kevin Knezic/Unsplash

L’odorat est d’importance pour les chats

Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.

L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.

Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.

Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.

N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.

The Conversation

Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre chat peut-il vous reconnaître à l’odeur ? – https://theconversation.com/votre-chat-peut-il-vous-reconnaitre-a-lodeur-258322

Camille Flammarion, l’astronome qui imaginait Mars grâce à la science-fiction

Source: – By Matthew Shindell, Curator, Planetary Science and Exploration, Smithsonian Institution

À travers son œuvre, Camille Flammarion imaginait ce qui pouvait exister au-delà de la Terre dans l’Univers. Three Lions/Hulton Archive/Getty Images

Au croisement de la science et de l’imagination, l’astronome Camille Flammarion a utilisé cartes, romans et rêveries pour faire de Mars un miroir des aspirations humaines et un horizon possible pour l’avenir.


À l’heure de l’exploration robotique ambitieuse de Mars, et alors qu’une mission habitée vers la planète rouge semble de plus en plus probable, il est difficile d’imaginer qu’elle ait autrefois été un monde mystérieux, et inaccessible. Avant l’invention de la fusée, les astronomes qui souhaitaient explorer Mars au-delà de ce que leur permettait le télescope devaient recourir à leur imagination.

En tant qu’historien de l’espace et auteur du livre For the Love of Mars : A Human History of the Red Planet, je m’efforce de comprendre comment, à différentes époques et en divers endroits, les humains ont imaginé Mars.

Les premières cartes de Mars

La seconde moitié du XIXe siècle est une période particulièrement fascinante pour cela. À ce moment-là, Mars semblait prêt à livrer une partie de ses mystères. Les astronomes en apprenaient davantage sur la planète rouge, mais ils n’avaient toujours pas suffisamment d’informations pour savoir si elle abritait la vie – et si oui, de quel type.

Grâce à des télescopes plus puissants et à de nouvelles techniques d’impression, les astronomes commencèrent à appliquer les outils de la cartographie géographique pour créer les premières cartes détaillées de la surface de Mars, y inscrivant continents et mers, et parfois des formes que l’on pensait dues à une activité biologique. Mais comme il était encore difficile d’observer réellement ces reliefs martiens, ces cartes variaient beaucoup selon les auteurs.

C’est dans ce contexte qu’un scientifique de renom, aussi vulgarisateur passionné, a mêlé science et imagination pour explorer les possibilités de la vie sur un autre monde.

Camille Flammarion

Un portrait en noir et blanc d’un homme aux cheveux touffus et à la barbe fournie
L’astronome et écrivain du XIXᵉ siècle Camille Flammarion.
Av Ukjent/The New York Public Library Digital Collections

Parmi ces penseurs imaginatifs, on trouve Camille Flammarion, astronome parisien. En 1892, il publia la Planète Mars, une œuvre de référence qui demeure à ce jour un bilan complet de l’observation martienne jusqu’à la fin du XIXe siècle. Il y résuma toute la littérature publiée sur Mars depuis Galilée et affirma avoir examiné 572 dessins de la planète pour y parvenir.

Comme beaucoup de ses contemporains, Flammarion pensait que Mars, un monde plus ancien que la Terre ayant traversé les mêmes étapes évolutives, devait être un monde vivant. Mais il affirmait aussi, contrairement à beaucoup, que Mars, bien qu’ayant des similitudes avec la Terre, était un monde radicalement différent.

Ce sont précisément ces différences qui le fascinaient. Toute forme de vie martienne, pensait-il, serait adaptée à des conditions propres à Mars – une idée qui inspira H. G. Wells dans la Guerre des mondes (1898).

Une carte ancienne montrant des continents et des océans sur Mars
Une planche illustrée extraite de l’Astronomie populaire. Description générale du ciel (1884), de Camille Flammarion. Cette carte de Mars montre des continents et des océans. Dans cette œuvre majeure à succès, Flammarion imaginait que Mars était « une Terre presque semblable à la nôtre [avec] de l’eau, de l’air, des averses, des ruisseaux et des fontaines. C’est assurément un lieu peu différent de celui que nous habitons. »
SSPL/Getty Images

Mais Flammarion reconnaissait aussi combien il était difficile de cerner ces différences : « La distance est trop grande, notre atmosphère trop dense, nos instruments trop imparfaits », écrivait-il. Aucune carte, selon lui, ne pouvait être prise à la lettre, car chacun voyait et dessinait Mars à sa manière.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Face à cette incertitude, Flammarion adoptait une position agnostique dans la Planète Mars quant à la nature exacte de la vie martienne. Il envisageait toutefois que si une vie intelligente existait sur Mars, elle devait être plus ancienne que l’humanité, et donc plus avancée : une civilisation unifiée, pacifique, technologiquement développée – un avenir qu’il souhaitait aussi pour la Terre.

« On peut espérer, écrivait-il, que puisque le monde martien est plus ancien que le nôtre, ses habitants soient plus sages et plus évolués que nous. Sans doute l’esprit de paix anime-t-il ce monde voisin. »

Une photo ancienne montrant un terrain rocheux traversé par des canaux
Une planche extraite des Terres du ciel. Voyage astronomique sur les autres mondes (1884), de Camille Flammarion. Il s’agit d’une représentation artistique de ce à quoi les canaux de Mars auraient pu ressembler.
Science & Society Picture Library via Getty Images

Mais comme il le soulignait souvent : « Le Connu est une minuscule île au milieu de l’océan de l’Inconnu » – une idée qu’il défendait dans la soixantaine de livres qu’il a publiés au cours de sa vie. C’est justement cet inconnu qui le fascinait.

Certains historiens voient surtout en Flammarion un vulgarisateur plus qu’un scientifique rigoureux. Cela ne doit cependant pas diminuer ses mérites. Pour lui, la science n’était pas une méthode ou un corpus figé : elle était le cœur naissant d’une nouvelle philosophie. Il prenait très au sérieux son travail de vulgarisation, qu’il voyait comme un moyen de tourner les esprits vers les étoiles.

Des romans imaginatifs

En l’absence d’observations fiables ou de communication avec d’hypothétiques Martiens, il était prématuré de spéculer sur leur apparence. Et pourtant, Flammarion le fit – non pas dans ses travaux scientifiques, mais à travers plusieurs romans publiés tout au long de sa carrière.

Dans ces œuvres, il se rendait sur Mars en imagination, et observait sa surface. Contrairement à Jules Verne, qui imaginait des voyages facilités par la technologie, Flammarion préférait des voyages de l’âme.

Convaincu que l’âme humaine pouvait, après la mort, voyager dans l’espace contrairement au corps physique, il mit en scène des récits de rêves ou de visites d’esprits défunts. Dans Uranie (1889), l’âme de Flammarion se rend sur Mars en songe. Là, il retrouve son ami défunt Georges Spero, réincarné en un être lumineux, ailé et doté de six membres.

« Les organismes ne sauraient être terrestres sur Mars, pas plus qu’ils ne peuvent être aériens au fond des mers », écrit-il.

Plus tard dans le roman, l’âme de Spero vient visiter Flammarion sur Terre. Il lui révèle que la civilisation martienne, aidée par une atmosphère plus fine favorable à l’astronomie, a fait d’immenses progrès scientifiques. Pour Flammarion, la pratique de l’astronomie avait permis à la société martienne de progresser, et il rêvait d’un destin similaire pour la Terre.

Dans l’univers qu’il imagine, les Martiens vivent dans un monde intellectuel, débarrassé de la guerre, de la faim et des malheurs terrestres. Un idéal inspiré par l’histoire douloureuse de la France, marquée par la guerre franco-prussienne et le siège de Paris.

Aujourd’hui, le Mars de Flammarion nous rappelle que rêver d’un avenir sur la planète rouge, c’est autant chercher à mieux nous comprendre nous-mêmes et à interroger nos aspirations collectives qu’à développer les technologies nécessaires pour y parvenir.

La vulgarisation scientifique était pour Flammarion un moyen d’aider ses semblables, les pieds sur Terre, à comprendre leur place dans l’univers. Ils pourraient un jour rejoindre les Martiens qu’il avait imaginés – des figures symboliques qui, pas plus que les cartes de Mars qu’il avait étudiées dans la Planète Mars, ne devaient être prises au pied de la lettre. Son univers représentait ce que la vie pourrait devenir, dans des conditions idéales.

The Conversation

Matthew Shindell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Camille Flammarion, l’astronome qui imaginait Mars grâce à la science-fiction – https://theconversation.com/camille-flammarion-lastronome-qui-imaginait-mars-grace-a-la-science-fiction-259080

Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants ?

Source: – By Michael A. Little, Distinguished Professor Emeritus of Anthropology, Binghamton University, State University of New York

Pas d’inquiétude à ce stade : la population continue de croître.
Sean Gallup/Getty Images

Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.


Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.

Un effondrement des sociétés

Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.

En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.

L’élément déclencheur : une catastrophe mondiale

Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.

Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.

Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.

Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.

Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.

The Last Man on Earth est une série télévisée américaine, à la fois postapocalyptique et comique, qui imagine ce qui pourrait se passer après qu’un virus mortel ait anéanti la majorité de la population mondiale.

En route vers les 10 milliards d’habitants

La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.

La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.

En 2024, environ 3,6 millions de bébés sont nés aux États-Unis, contre 4,1 millions en 2004. Dans le même temps, environ 3,3 millions de personnes sont décédées en 2022, contre 2,4 millions vingt ans plus tôt.

À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.

Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).

Taux de natalité en baisse

Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.

Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.

Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.

La disparition des Néandertaliens

Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.

Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.

Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.

Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.

À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.

The Conversation

Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants ? – https://theconversation.com/combien-de-temps-lhumanite-survivrait-elle-si-lon-arretait-de-faire-des-enfants-258709

Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ?

Source: – By Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University

Quand on extrait de l’uranium du sol, il est composé à 99,27 % d’uranium-238. RHJPhtotos/Shutterstock

L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.


En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.

Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?

Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.

Qu’est-ce qu’un isotope ?

Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.

Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.

Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.

La différence entre l’uranium-238 et l’uranium-235

Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le

0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).

Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.

Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.

Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.

Qu’est-ce que l’enrichissement de l’uranium ?

« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.

Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.

Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.

La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.

Quel niveau d’enrichissement est nécessaire pour une arme nucléaire ?

Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».

Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.

C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.

Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.

The Conversation

Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).

ref. Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ? – https://theconversation.com/quest-ce-que-lenrichissement-de-luranium-et-comment-sert-il-a-fabriquer-des-bombes-nucleaires-259173

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf

Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule.

Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler.
Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite.
Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.

ref. Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ? – https://theconversation.com/existe-t-il-une-methode-scientifique-pour-eplucher-parfaitement-un-oeuf-dur-255520

Schizophrénie : Quelle place pour des thérapies cognitives et comportementales spécialisées ?

Source: – By Catherine Bortolon, Psychologie Clinique ; Schizophrénie ; Thérapies cognitives et comportementales ; régulation émotionnelle ; hallucinations ; délires , Université Grenoble Alpes (UGA)

À l’image des thérapies cognitives et comportementales (TCC) appliquées à la psychose, des psychothérapies spécialisées et validées scientifiquement ont un rôle à jouer pour accompagner les personnes qui souffrent de schizophrénie, en complément d’autres formes de prise en charge. Les TCC mettent l’accent sur la qualité de vie, l’autonomie et les projets personnels, au-delà de la seule stabilisation clinique.


Lorsque Frank Bellivier, délégué ministériel à la santé mentale et à la psychiatrie, alerte, le 26 mars 2025, sur les insuffisances de la prise en charge des troubles psychiatriques sévères en France, ses propos doivent être replacés dans le contexte des connaissances actuelles.

Revenir sur les données scientifiques disponibles concernant l’efficacité des psychothérapies permet de mieux comprendre les enjeux cliniques et les recommandations fondées sur les preuves, notamment pour les troubles du spectre de la schizophrénie.

Que sait-on aujourd’hui de la schizophrénie ?

La schizophrénie figure parmi les dix principales causes de handicap dans le monde. Elle touche environ 1 % de la population mondiale, soit près de 600 000 personnes en France, et débute généralement à l’adolescence ou au début de l’âge adulte.

Les symptômes incluent des délires et des hallucinations (symptômes dits « psychotiques »), une réduction de l’expression émotionnelle, une pauvreté du langage et un manque d’initiatives (appelés « symptômes négatifs »), ainsi qu’un discours incohérent et des comportements désorganisés (symptômes dits « désorganisés »).

Les causes de la schizophrénie restent mal comprises, mais les chercheurs s’accordent sur le fait que ce trouble survient sous l’influence conjointe de facteurs génétiques et environnementaux. Sa manifestation est très variable, d’où l’importance d’une approche personnalisée, fondée sur une compréhension de ses mécanismes biologiques, psychologiques et sociaux.

Des psychothérapies spécialisées, mais pas que…

En tant que psychologue clinicienne et chercheuse, je consacre une partie de ma carrière à élucider les mécanismes psychologiques de la schizophrénie et à améliorer la vie des personnes concernées. Dans ce contexte, je me réjouis de la reconnaissance croissante du rôle des psychothérapies.

Encore faut-il que celles-ci soient empiriquement fondées, c’est-à-dire validées par la recherche, et qu’elles s’appuient sur une compréhension fine des processus psychologiques en jeu, comme la confiance en soi, la rumination (pensées récurrentes et répétitives, que l’on a du mal à contrôler, centrées sur l’évaluation des raisons, causes, conséquences et implications de la situation, sur le « pourquoi ? »), etc.

Bien évidemment, ces psychothérapies doivent être envisagées en complémentarité avec d’autres modalités de prise en charge, qu’il s’agisse du traitement médicamenteux, de la remédiation cognitive (une forme de thérapie qui consiste à s’entraîner pour améliorer certaines fonctions, ndlr), de la pair-aidance (le fait d’être soutenu par des pairs ayant une expérience similaire, ndlr) ou d’autres interventions visant la réhabilitation psychosociale, lorsque cela s’avère nécessaire.

Des programmes efficaces… mais peu accessibles

Pendant longtemps, l’accompagnement de la schizophrénie a été centré sur la réduction des symptômes, le plus souvent au travers d’un traitement exclusivement médicamenteux.

Aujourd’hui, une approche plus globale, tournée vers la réhabilitation psychosociale, émerge. Celle-ci met l’accent sur la qualité de vie, l’autonomie et les projets personnels, au-delà de la seule stabilisation clinique.

Parmi les outils disponibles, les thérapies cognitives et comportementales (TCC) occupent une place importante. Elles reposent sur l’idée que nos interprétations des événements, façonnées au fil de la vie, peuvent engendrer ou entretenir de la souffrance psychique.

Les TCC s’inscrivent dans une démarche collaborative qui vise à aider les personnes à développer une manière plus souple de comprendre leur environnement et leurs émotions, à ajuster leurs comportements et, ainsi, à les accompagner dans la réalisation de leurs projets de vie.

Dans le cadre de la psychose, contrairement à une idée reçue, elles ne cherchent pas à nier les expériences psychotiques, mais à aider la personne à en faire sens, à y répondre autrement, et à reprendre du pouvoir sur sa vie. Cependant, l’accès à ces thérapies reste très limité, y compris en France.

Les données manquent, mais, dans des pays mieux dotés (comme les États-Unis, le Canada ou le Royaume-Uni), les résultats concernant l’accessibilité à la TCC pour la psychose – qu’il s’agisse de la formation des professionnels, de l’implémentation des dispositifs ou de l’accès effectif aux soins – demeurent peu encourageants.

Les thérapies cognitives et comportementales sont-elles adaptées à la schizophrénie ?

La TCC a été appliquée à la psychose (TCCp) pour la première fois en 1952 par Aaron Beck. Cependant, ce n’est que dans les années 1990 que des approches plus systématiques et théorisées pour la psychose ont émergé. Longtemps, les symptômes psychotiques étaient considérés comme inchangeables.

Or, la recherche a montré qu’ils s’inscrivent sur un continuum avec les expériences humaines ordinaires, et qu’ils peuvent être modifiés. Aujourd’hui, les modèles issus des TCC appliquées à la psychose postulent, par exemple, que des événements de vie précoces négatifs peuvent contribuer à la formation de croyances rigides sur soi et le monde, qui, sous stress, peuvent s’exprimer par des symptômes psychotiques.

Des recherches solides montrent que les TCCp sont efficaces, notamment pour réduire les symptômes psychotiques et négatifs. Ces effets sont plus marqués avec des suivis prolongés, mais certaines interventions brèves peuvent aussi être bénéfiques.

Surtout, l’intensité des symptômes ne semble pas diminuer l’efficacité de la thérapie, ce qui suggère que même les personnes les plus touchées peuvent en bénéficier. Certaines approches ont même montré leur utilité chez des patients avec de lourds troubles cognitifs.

Au-delà des symptômes, les TCCp améliorent aussi la qualité de vie et le fonctionnement social. Des interventions destinées aux familles ont également montré des effets positifs. Toutefois, ces effets sont souvent limités dans le temps, d’où le développement de nouvelles approches intégrant la régulation émotionnelle, les troubles du sommeil, ou encore les traumatismes.

Certaines recommandations internationales, comme celles du National Institute for Clinical Excellence (NICE) au Royaume-Uni, considèrent aujourd’hui les TCC comme traitement de première intention pour la schizophrénie.

À noter qu’à ce jour, la France ne dispose pas de lignes directrices équivalentes à celles publiées au Royaume-Uni en ce qui concerne les psychothérapies et les autres modalités de prise en charge non médicamenteuse de la schizophrénie.

À l’étranger, quelques programmes ont fait leurs preuves

Sans prétendre à l’exhaustivité, voici quelques programmes récents ayant démontré leur efficacité et susceptibles d’être intégrés dans le système de soins.

En 2021, Daniel Freeman et ses collègues de l’Université d’Oxford ont démontré que le programme « Feeling Safe » (en français, « Se sentir en sécurité ») est efficace pour traiter les idées délirantes de persécution (qui concernent environ 80 % des personnes atteintes de schizophrénie).

Ce programme agit sur les ruminations, les difficultés de sommeil, l’estime de soi, la relation avec les hallucinations, et favorise des apprentissages nouveaux. Il a permis un taux de rétablissement d’environ 50 %.

Mark Hayward et ses collègues de l’Université de Sussex ont proposé un programme spécifique pour l’accompagnement des personnes qui ont des hallucinations auditives verbales (les voix), utilisé dans les « Voices Clinics » (en français, « cliniques des voix »). Ce programme vise à développer des stratégies d’adaptation, remettre en question certaines croyances (« les voix sont méchantes »), favoriser la flexibilité cognitive, et renforcer les compétences d’affirmation de soi. Il est à noter que deux cliniques des voix existent en France.

Enfin, le programme de TCC centré sur le rétablissement, d’Aaron Beck, d’une durée de dix-huit mois, a montré une amélioration du fonctionnement et de la symptomatologie chez des personnes atteintes de schizophrénie avec déficits cognitifs. Il vise l’accompagnement vers la réalisation de projets personnels à l’aide des outils TCC.

Où en est-on en France ?

Nous manquons de données précises sur l’accès aux thérapies cognitives et comportementales appliquées à la psychose (TCCp) en France, mais les signaux disponibles suggèrent un accès très limité.

Plusieurs freins sont identifiables : la formation aux TCC reste inégalement répartie entre universités ; les psychologues formés à ces approches sont trop peu nombreux dans les structures publiques ; et l’accès au secteur libéral est souvent freiné par des contraintes financières, notamment pour les personnes en situation de handicap psychique.

Pour des approches spécialisées et validées scientifiquement

La prise en charge de la schizophrénie est complexe et multifactorielle. La volonté politique d’investir dans les psychothérapies est une avancée bienvenue.

Mais pour qu’elle ait un réel impact, il est essentiel que les approches proposées soient spécialisées, validées scientifiquement et ancrées dans une perspective de réhabilitation psychosociale.

The Conversation

Je suis membre de l’Association PPSY PROMOUVOIR LES PSYCHOTHERAPIES qui organise des formations en France portant sur le programme “Feeling Safe” décrit dans l’article.

ref. Schizophrénie : Quelle place pour des thérapies cognitives et comportementales spécialisées ? – https://theconversation.com/schizophrenie-quelle-place-pour-des-therapies-cognitives-et-comportementales-specialisees-259067