Smartphone photos may be misleading doctors and putting patients at risk – new research

Source: The Conversation – UK – By Rebecca Payne, Clinical Senior Lecturer, Bangor University

shutterstock fizkes/Shutterstock

It’s an increasingly common scenario. You fill in an online form to request an appointment with a doctor, and back comes a link asking you to upload a photo of your ailment. You pick up your phone, a couple of clicks and it’s sent. While you wait for a call back, your GP is studying your image.

But do you look pixelated? Have the colours been adjusted? Has the phone erased a rash or smoothed your skin? Does the doctor see you as you really are, or as your phone camera thinks you should be?

New research from our team suggests the answer is often the latter. Smartphone cameras and software routinely alter images in ways that can mislead doctors, and in some cases, put patients at risk of misdiagnosis.

Remote consultations are now routine in many health systems. No longer an emergency pandemic stopgap, general practice is increasingly offered in a “hybrid” way, with patients receiving care in different ways, some in person, many remotely.

Across Australia, North America and parts of Scandinavia, video appointments are commonplace. In the UK, patients are often asked to upload photos through online platforms. Photos are used to diagnose conditions such as eczema or warts, assess responses to treatment and assess how unwell someone appears, informing decisions about if, and how urgently, they need to be seen in person.

For many people it’s a quick and convenient way to receive care, reducing travel times and avoiding time spent waiting for a call to be answered or hanging around in a germ-packed doctor’s waiting room.

Doctor working with laptop computer in medical setting.
Smartphones were not designed for the purposes of medical accuracy.
everything possible/Shutterstock

Safety incidents in remote consultations remain relatively rare. But previous research by members of our team showed doctors sometimes miss important clinical signs, leading to misdiagnosis or delayed care. Examples include mistaking a malignant skin lesion for something benign, or failing to recognise colour changes, like jaundice or the blue tinge of low oxygen levels (cyanosis).

Doctors often blame themselves when this happens. Our latest research suggests something else is at play. We found that automatic image processing and compression on smartphones can distort clinically important visual information. Colour signals shift. Fine detail disappears. Subtle changes in the skin become harder to detect.

In other words, it isn’t just human error. It’s the technology.

Smartphones are designed to make photos look good, not to preserve medical accuracy. They automatically adjust exposure, balance colours, sharpen edges and compress files. These features are perfect for social media, but problematic for healthcare.

Lighting conditions in people’s homes add another layer of uncertainty. So does the quality of the screen at the doctor’s end. Night-mode settings, poor quality displays and poor calibration can all change how an image appears. Together, these factors can make people look healthier than they really are, flatten rashes, soften swelling or alter the colour of lesions.

Some patients are particularly vulnerable. We already know that some medical devices, such as pulse oximeters, perform less accurately in people with darker skin. Image distortion risks compounding those inequities as those with darker skin are more likely to have clinical findings missed.

Other cases where findings may be missed are where clinical findings are subtle, or when AI-based filters are used. People with lower digital literacy, or those who struggle to communicate their symptoms clearly, are also at greater risk when something is overlooked.

So, what can be done?

As patients, there are simple steps that help. Turn off filters. Use good lighting, daylight if possible. Check that the photo resembles what you actually see before sending it. Include a written description alongside the image. And if it seems your doctor is seeing something different from you, say so.

Medical teams also need to be aware of the limits of patient-generated images. That means checking back: “I can’t see any changes here. Are you noticing something different?” And when there’s doubt, arranging an in-person review.

Screens should be large enough and of sufficient quality. Night-mode settings should be switched off. Image uncertainty should be treated like any other clinical uncertainty.

But is it fair to leave all this to patients and already stretched medical teams? There’s a strong case for wider change. Smartphones could include a dedicated healthcare mode that disables filters and warns users when image quality is too poor for clinical decisions. Video platforms and upload systems could flag inadequate lighting, low resolution or excessive compression before images are sent.

As digital consultations become embedded in everyday care, image quality needs to be treated as part of patient safety infrastructure, not just a technical detail. Smartphones were built to make us look good. Medicine requires something different: accuracy.

If the health service is going to rely on smartphone cameras for clinical decisions, how those cameras are designed, regulated and used may need a rethink. Because convenience should never come at the cost of care.

The Conversation

Rebecca Payne receives funding from a University of Oxford Clarendon-Reuben Scholarship and works on a project funded by Health and Care Research Wales

Zengbo Wang does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Smartphone photos may be misleading doctors and putting patients at risk – new research – https://theconversation.com/smartphone-photos-may-be-misleading-doctors-and-putting-patients-at-risk-new-research-276119

Elite gymnasts are no longer retiring after pregnancy – sport science needs to catch up

Source: The Conversation – UK – By Gabriella Penitente, Senior Lecturer in Sport and Exercise Science, Sheffield Hallam University

When Olympian Alice Kinsella talks about returning to elite competition after giving birth, she isn’t simply planning a comeback; she’s pushing into territory that gymnastics has rarely explored.

Increasingly, athletes are returning to training and competition after childbirth, often sooner, stronger and with greater public visibility. This challenges the long-held expectation that women must retire to have a family. Although this shift is now becoming well established in several sports, such as long-distance running and team sports, others remain constrained by narrow ideas about when peak performance should occur.

Women’s artistic gymnastics sits at the sharp end of this debate. For much of the modern Olympic era, the sport became synonymous with “little pixies”:
exceptionally young champions, lightweight bodies and careers that peaked
early then ended quickly.

Over the past 20 years, the age at which gymnasts reach peak performance has slowly risen from teenage years to early 20s, bringing elite success into overlap with the years many women plan to have children. When these timelines overlap, athletes may feel pressured to choose between motherhood and peak performance. This is because research in gymnastics has not yet properly studied what happens to the body during and after pregnancy. That imbalance highlights a wider gender gap that has shaped sports science.

As gymnasts themselves begin to stay in the sport longer, return after maternity leave and challenge these assumptions, science has a responsibility to respond.

We still don’t know what it takes to return to elite performance in sports like gymnastics, where power, precision and impact tolerance are non-negotiable.

Unlike endurance sports, where training load can often be increased gradually, gymnastics requires athletes to perform highly technical skills under significant mechanical stress and to face substantial psychological demands related to fear regulation and confidence.

In elite gymnastics, the margin for error is tiny. Performance depends on strength, fine coordination and the ability to control the body under extreme physical and psychological demands. Even small changes in how a gymnast moves or lands can dramatically affect performance and increase the risk of injury.

Gymnasts generate a spring-like push in a fraction of a second through their feet and hands, striking the vault with forces of up to three times their body weight. Then, they land with 15-20 times body weight through their legs and spine, all while balancing on a beam no wider than a smartphone.

They make danger look graceful. In fact, even though gymnastics has no physical contact, almost all elite gymnasts (90%) are injured each season, putting gymnastics in the same risk range as football.

When mothers fly

Pregnancy-related changes in body mass distribution, joint loading and neuromuscular control influence how gymnasts land, generate force and regulate movement. For example, changes in core and pelvic stability can alter how forces are absorbed during landing, while small shifts in balance or timing can affect take-off accuracy and rotation in flight. These changes can affect injury risk, confidence and technical consistency.

In 2018, the International Olympic Committee published for the first time guidance on returning to exercise after pregnancy, but it offers little insight into how performance-critical capacities are rebuilt.

In artistic gymnastics, examples of return post-pregnancy have historically been rare and often overlooked. One of the earliest and most striking cases is Uzbekistani artistic gymnast Oksana Chusovitina. She gave birth to her son in 1999 at age 24 and returned less than a year later to compete at the Sydney 2000 Olympic Games. In the years following childbirth, she won World Championship gold on vault in 2003 and went on to compete internationally for more than two decades. Chusovitina showed how narrow gymnastics’ ideas about age were, but for years she was treated as a one-off.

Real change began in the mid-to-late 2010s. Gymnasts stayed in competitive career longer and average ages rose. Changes to the International Gymnastics Federation, which governs competitions in all disciplines of gymnastics, code of points rewarded experience. Between 2003 and 2016, elite female gymnasts became an average 3.3 years older, shifting from about 17 years old to 20–21. Gymnasts like Simone Biles (US, 28), Rebeca Andrade (Brazil, 26), Becky Downie (UK, 34) and Ellie Black (Canada, 30), to name a few, were winning medals in their late 20s and early 30s.

British Olympian Alice Kinsella represents something new. Her planned return after childbirth isn’t just about coming back. It’s about how she’s doing it, with structured scientific support, tracked as part of an academic case study. Kinsella’s approach turns a risky return into something that can be understood, supported and repeated by other gymnasts.

Not all attempts have been successful. Aliya Mustafina, a Russian double Olympic champion, gave birth to her daughter in 2017 at the age of 24 and returned to competition within 16 months, aiming to re-establish herself at the highest level during the next Olympic cycle. Despite her experience and determination, persistent injuries limited her ability to compete, and she ultimately retired in 2021. There is no evidence these injuries were caused by pregnancy, but her experience shows how fragile post-pregnancy pathways in gymnastics still are.

More recently, gymnast Jade Barbosa provides further evidence of this shift. A three-time Olympian and a member of Brazil’s historic bronze-medal winning team at the Paris 2024 Olympic Games, Barbosa welcomed her first child in late 2025. During pregnancy, she publicly shared aspects of her training and has stated her intention to return to competition.

These stories show that attitudes are changing. More gymnasts are pushing back against the idea that they have to choose between performing at their best and becoming a mother.

Why this matters

For years, performance research has focused mostly on men, partly because women’s bodies change more over time due to hormonal fluctuations, making results harder to compare. Pregnancy and recovery after birth add further challenges, alongside ethical concerns and limited funding. That is why case studies like the one planned around Kinsella are vital.

Elite sport influences how people think about women’s bodies. If returning to sport after having a baby is always described as exceptional, it can make staying active after childbirth seem unrealistic for most women.

If post-pregnancy return becomes normal rather than exceptional, the timeline of female performance changes permanently, and so do the expectations placed on women in sport.

The Conversation

Gabriella Penitente does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Elite gymnasts are no longer retiring after pregnancy – sport science needs to catch up – https://theconversation.com/elite-gymnasts-are-no-longer-retiring-after-pregnancy-sport-science-needs-to-catch-up-275167

Comment les excréments d’oiseaux ont alimenté l’essor du puissant royaume chincha au Pérou

Source: The Conversation – in French – By Jo Osborn, Assistant Professor of Anthropology, Texas A&M University

Le guano est un engrais naturel très riche en azote, phosphore et potassium, constitué principalement d’excréments d’oiseaux marins ou de chauves-souris. Jo Osborn

Bien plus qu’un simple engrais, le guano a façonné l’économie, la culture et les alliances politiques du royaume chincha. Une nouvelle étude montre comment cette ressource naturelle a soutenu l’émergence d’une puissance majeure du Pérou préhispanique.


En 1532, dans la ville de Cajamarca, au Pérou, le conquistador espagnol Francisco Pizarro et un groupe d’Européens prirent en otage le souverain inca Atahualpa, préparant ainsi la chute de l’Empire inca.

Avant cette attaque fatale, le frère de Pizarro, Pedro Pizarro, fit une observation curieuse : en dehors de l’Inca lui-même, le seigneur de Chincha était la seule personne à Cajamarca transportée sur une litière, une plateforme de transport portée à bras d’homme.

Pourquoi le seigneur de Chincha occupait-il une position aussi élevée dans la société inca ? Dans notre nouvelle étude, publiée dans PLOS One, nous mettons en évidence une source potentielle de pouvoir et d’influence aussi surprenante qu’inattendue : les excréments d’oiseaux.

Une ressource puissante et précieuse

Chincha, dans le sud du Pérou, est l’une des nombreuses vallées fluviales situées le long de la côte désertique et alimentées par les eaux des hautes terres andines, essentielles depuis longtemps à l’agriculture irriguée. À environ 25 kilomètres au large se trouvent les îles Chincha, qui abritent les plus grands dépôts de guano du Pacifique.

Le guano d’oiseaux marins, c’est-à-dire leurs déjections, est un engrais organique extrêmement puissant. Comparé aux fertilisants terrestres comme le fumier de vache, le guano contient des quantités bien plus élevées d’azote et de phosphore, essentiels à la croissance des plantes.

Au large de la côte péruvienne, le courant océanique de Humboldt (ou courant du Pérou) crée des zones de pêche extrêmement riches. Ces ressources halieutiques soutiennent d’immenses colonies d’oiseaux marins qui nichent sur les îles rocheuses au large.

Des rochers couverts de déjections
Les oiseaux marins utilisent les îles côtières pour construire leurs nids et trouvent leur nourriture à proximité, dans les zones de pêche riches alimentées par le courant du Pérou.
Jo Osborn

Grâce au climat sec, presque dépourvu de pluie, le guano des oiseaux marins n’est pas emporté, mais continue de s’accumuler jusqu’à atteindre plusieurs mètres de hauteur. Cette combinaison environnementale unique rend le guano péruvien particulièrement précieux.

Notre recherche combine l’iconographie, des sources écrites historiques et l’analyse des isotopes stables de maïs (Zea mays) retrouvé sur des sites archéologiques pour montrer que les communautés autochtones de la vallée de Chincha utilisaient le guano d’oiseaux marins il y a au moins 800 ans pour fertiliser leurs cultures et accroître la production agricole.

Nous suggérons que le guano a probablement contribué à l’essor du royaume de Chincha et à la relation qu’il a ensuite entretenue avec l’Empire inca.

Les seigneurs de la côte désertique

Le royaume de Chincha (1000–1400 de notre ère) était une société majeure qui comptait environ 100 000 habitants. Elle reposait sur une organisation structurée en communautés spécialisées, notamment des pêcheurs, des agriculteurs et des marchands. Le royaume domina la vallée de Chincha jusqu’à son intégration dans l’Empire inca au XVe siècle.

En raison de la proximité des importants gisements de guano des îles Chincha, l’historien péruvien Marco Curatola a avancé dès 1997 que le guano d’oiseaux marins constituait une source essentielle de la richesse du royaume. Notre étude confirme fortement cette hypothèse.

Un test biochimique

L’analyse biochimique constitue une méthode fiable pour identifier l’usage d’engrais dans le passé. Une étude expérimentale menée en 2012 a montré que les plantes fertilisées avec du fumier de camélidés (alpagas et lamas) et du guano d’oiseaux marins présentent des valeurs isotopiques de l’azote plus élevées que les cultures non fertilisées.

Des épis de maïs
Des épis de maïs issus de sites archéologiques de la vallée de Chincha ont été prélevés pour une analyse isotopique.
C. O’Shea

Nous avons analysé 35 échantillons de maïs retrouvés dans des tombes de la vallée de Chincha, documentés dans le cadre d’une étude antérieure sur les pratiques funéraires.

La plupart des échantillons présentent des valeurs isotopiques de l’azote plus élevées que celles attendues pour du maïs non fertilisé, ce qui indique qu’une forme de fertilisation a été utilisée. Environ la moitié affichent des valeurs extrêmement élevées. À ce jour, ces résultats ne sont compatibles qu’avec l’utilisation de guano d’oiseaux marins.

Cette analyse chimique confirme l’usage du guano pour fertiliser les cultures à l’époque préhispanique.

Images et sources écrites

Le guano – et les oiseaux qui le produisent – occupait également une place plus large dans la culture des Chincha.

Notre analyse des artefacts archéologiques montre que les Chincha avaient une compréhension profonde des liens entre la terre, la mer et le ciel. L’utilisation du guano et leur relation avec les îles ne relevaient pas seulement d’un choix pratique ; elles étaient profondément ancrées dans leur vision du monde.

Pagaie en bois sculpté, décorée de peinture rouge, verte et jaune, présentant une rangée de petites figures en partie supérieure et des motifs d’animaux sculptés le long de la partie centrale
Cet objet en bois décoré provenant de Chincha, interprété soit comme une pagaie cérémonielle, soit comme un bâton à fouir, représente des oiseaux marins et des poissons aux côtés de figures humaines et de motifs géométriques.
The Met Museum, 1979.206.1025

Cette vénération se reflète dans la culture matérielle des Chincha. Sur leurs textiles, leurs céramiques, leurs frises architecturales et leurs objets en métal, apparaissent de manière récurrente des représentations d’oiseaux marins, de poissons, de vagues et de maïs en germination.

Ces images montrent que les Chincha comprenaient l’ensemble du cycle écologique : les oiseaux marins se nourrissaient de poissons, produisaient du guano, le guano fertilisait le maïs, et le maïs nourrissait les populations.

Cette relation se retrouve peut-être encore aujourd’hui dans certains toponymes péruviens. Pisco dérive d’un mot quechua signifiant « oiseau », et Lunahuaná pourrait se traduire par « peuple du guano ».

Le pouvoir du guano

En tant qu’engrais à la fois efficace et extrêmement précieux, le guano a permis aux communautés chincha d’augmenter leurs rendements agricoles et d’étendre leurs réseaux commerciaux, contribuant ainsi à l’expansion économique du royaume.

Nous suggérons que des pêcheurs se rendaient en mer jusqu’aux îles Chincha pour collecter le guano, qu’ils fournissaient ensuite aux agriculteurs ainsi qu’aux marchands maritimes, qui l’échangeaient le long de la côte et jusque dans les hautes terres andines.

La productivité agricole de Chincha et l’essor de sa puissance commerciale ont renforcé son importance stratégique aux yeux de l’Empire inca. Vers 1400 de notre ère, les Incas intégrèrent le royaume chincha à la suite d’une capitulation « pacifique », donnant naissance à l’une des rares alliances de ce type.

Bien que les termes de cet « accord » entre Chincha et l’Empire inca restent débattus, nous suggérons que le guano d’oiseaux marins a joué un rôle dans ces négociations, l’État inca s’intéressant particulièrement au maïs tout en ne disposant pas d’un accès direct aux engrais marins. Cela pourrait expliquer pourquoi le seigneur de Chincha jouissait d’un statut si élevé qu’il était transporté sur une litière, comme l’avait observé Pedro Pizarro.

Les Incas accordaient une telle valeur à cet engrais qu’ils en réglementèrent strictement l’accès sur les îles à guano pendant la saison de reproduction et interdirent de tuer les oiseaux producteurs de guano, sur les îles comme en dehors, sous peine de mort.

Notre étude élargit l’étendue géographique connue de la fertilisation au guano dans le monde préinca et apporte un soutien solide aux travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois beaucoup à découvrir sur l’ampleur réelle de cette pratique et sur le moment où elle a commencé.

Notre étude élargit l’aire géographique connue de la fertilisation au guano dans le monde préinca et confirme avec force les travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois à déterminer dans quelle mesure cette pratique était répandue et à partir de quand elle a été mise en œuvre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment les excréments d’oiseaux ont alimenté l’essor du puissant royaume chincha au Pérou – https://theconversation.com/comment-les-excrements-doiseaux-ont-alimente-lessor-du-puissant-royaume-chincha-au-perou-276208

La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ?

Source: The Conversation – France (in French) – By Sébastien-Akira Alix, Professeur des universités en sciences de l’éducation et de la formation, Université Paris-Est Créteil Val de Marne (UPEC)

Les difficultés à recruter des enseignants reviennent régulièrement dans l’actualité. Mais sont-elles si récentes ? Autour de quels enjeux s’articulent-elles ? Publié en février 2026 aux Presses du Septentrion, sous la coordination de Sébastien-Akira Alix, l’ouvrage Crises dans et hors l’école en France. Éclairages socio-historiques (des années 1960 à nos jours) nous aide à replacer dans une perspective historique le sujet, ainsi que d’autres questions comme la « baisse du niveau » des élèves, la dilution de l’autorité, les violences scolaires. Les analyses qui suivent sont extraites de l’introduction de l’ouvrage.


D’une manière générale, les recherches sur l’histoire de l’enseignement en France interdisent de penser que ce qu’on appelle communément dans le débat public « la crise des vocations enseignantes », « la crise d’attractivité des métiers de l’enseignement » ou « la crise du recrutement des enseignants » serait un phénomène d’origine récente et le signe d’un malaise propre au XXIe siècle. À cet égard, dans son ouvrage la Formation des maîtres en France, 1792-1914, l’historien Marcel Grandière a bien mis en lumière les importantes difficultés de recrutement que rencontrent les écoles normales primaires en France à partir de 1887, période pourtant souvent présentée dans le débat public comme un « âge d’or » de l’École sous la IIIe République.

À l’époque, ces écoles normales primaires, en charge de la formation des instituteurs et des institutrices du primaire, connaissent une baisse notable d’admissions alors que de nombreuses places sont disponibles et que les besoins de recrutement demeurent importants. Pour pallier ce manque, « les inspecteurs d’académie puisent largement dans le vivier des brevetés, sans formation ». Cette situation s’inscrit, à l’époque, dans la durée puisqu’en 1911, « une moyenne de 2 500 instituteurs et 3 200 institutrices sont recrutés chaque année, sur lesquels les normaliens ne comptent que pour 1 500, et les normaliennes 1 800. Les moyens manquent pour faire mieux ». Dans ce contexte spécifique, la crise devient, d’après Marcel Grandière, un problème public :

« Car, pour ajouter à la difficulté, les écoles normales souffrent, à partir de 1888, d’une sensible et durable crise des vocations. À partir de 1890 surtout, les revues spécialisées, puis la presse, s’en émeuvent : la crise du recrutement devient un problème public. À la chambre des députés, on parle de “péril primaire” en évoquant la difficulté du recrutement : “Le nombre de candidats à ces écoles normales, qui était inférieur de beaucoup à ce qu’il était antérieurement, s’est à peine relevé, si bien que la sélection n’a pu opérer comme on était en droit de le penser, et qu’on peut craindre que l’avenir ne révèle entre ces dernières promotions et celles qui les ont précédées une différence marquée. […] Il y a là pour l’avenir de nos écoles publiques un danger qui constitue ce qu’on a appelé le péril primaire.” »

À l’époque, cette baisse sensible du nombre de candidats – il y en avait 6 000 en 1882 contre 2 848 en 1888 – s’explique, en partie, par des raisons économiques, la loi du 19 juillet 1889 n’ayant « pas donné aux instituteurs les améliorations de revenus qu’ils attendaient depuis longtemps ».




À lire aussi :
Le boom des profs non titulaires, un tournant pour l’Éducation nationale ?


D’autres travaux, comme ceux de Frédéric Charles sur les instituteurs entre 1955 et 1984, ont cherché à expliquer, à partir de « l’étude de l’évolution et des transformations du recrutement des normaliens et normaliennes des deux Écoles normales de Paris », la crise de recrutement que connaît l’enseignement primaire français au début des années 1980, en particulier en 1986, année où « l’Éducation nationale n’a pas réussi à recruter tous les instituteurs dont elle avait besoin : sur 5 000 postes, seulement 4 700 furent pourvus ». D’après Frédéric Charles, cette crise est alors liée à la dévalorisation du statut social des enseignants du primaire – ressentie fortement par les jeunes instituteurs – dans le contexte de la démocratisation quantitative du système éducatif, qui fait perdre à l’école primaire sa place centrale. Au cours de ces années, le métier d’instituteur fait, en effet, l’objet d’un processus de dévaluation lié « aux effets des réformes de 1959 qui […] situent désormais l’enseignement primaire comme une simple étape du cursus scolaire » ainsi qu’à la transformation corrélative des « dispositions des candidats, [et de] leurs rapports à l’institution ».

Sous l’effet de l’allongement de la scolarité obligatoire, la valeur distinctive du niveau de diplôme des enseignants est fortement relativisée, contribuant à une perte de prestige du métier : l’instituteur voit désormais « sa fonction se banaliser et sa reconnaissance sociale décroître ». Le métier cesse ainsi progressivement d’être une voie de promotion sociale pour les candidats, en particulier à partir de 1973, date à laquelle le recrutement en école normale ne se fait plus qu’après le baccalauréat. La composition sociale des écoles normales et le rapport que les élèves entretiennent à son égard s’en trouvent modifiés : « Faute d’avoir réussi dans l’entreprise de leurs études supérieures à l’Université, mais surtout d’avoir pu accéder à une grande école ou à l’École normale supérieure », une partie des normaliens « ont été amenés alors, pour éviter un déclassement social, à se rabattre sur la petite École normale d’instituteurs ». L’École normale n’apparaît ainsi pratiquement plus génératrice de mobilité sociale et l’intégration en son sein correspond, pour beaucoup de candidats, à « des stratégies de reclassement ou de lutte contre un déclassement social », sauf pour des jeunes femmes qui ont pu valoriser ces diplômes.

À côté de cette problématique propre aux normaliens, qui constituent 50 % du personnel enseignant primaire de la région parisienne, l’enseignement primaire fait face, dès les années 1950, à une « très grave crise » du recrutement. Pour y pallier, on recrute des « bacheliers sans aucune formation professionnelle » comme auxiliaires.

Selon une enquête d’Ida Berger, menée auprès des personnels enseignants du premier degré en 1957 pour le Centre d’études sociologiques de Paris, cette crise est, pour partie, liée au « malaise socio-professionnel », dont les causes sont liées à des salaires trop faibles ; au « manque de perspectives d’avenir dans la profession » ; à « la perte du prestige social de leur profession » ; ainsi qu’à la vétusté des bâtiments et au trop grand nombre d’élèves par classe. À cet égard, Ida Berger note :

« En face de 45-50 enfants, habitant souvent des taudis, mal nourris et hypernerveux, combien d’instituteurs sont à contrecœur obligés d’abdiquer en tant que pédagogues et de se transformer en “gendarmes” pour maintenir un semblant de discipline dans leur classe ? »

Dans l’enseignement secondaire, l’explosion scolaire, engagée dès les années 1960, conduit également à l’émergence d’une crise aiguë du recrutement entre 1955 et 1965. Avec l’arrivée de nouveaux publics, « la distance subjectivement vécue entre la carrière ambitionnée et la réalité actuellement perçue du professorat » est, pour un certain nombre d’enseignants, symptomatique d’une crise révélatrice d’« une baisse du statut du professorat de l’enseignement secondaire ». Le malaise enseignant devient, d’ailleurs, à cette époque une « catégorie médiatique ».




À lire aussi :
Pourquoi tant de difficultés à recruter des enseignants ?


Si on peut être tenté de considérer que la création du statut de professeur des écoles en 1989 – qui rapproche le statut des instituteurs d’une partie des enseignants du secondaire, avec lesquels ils sont d’ailleurs formés, dès 1991, dans les Instituts universitaires de formation des maîtres (IUFM) –, aurait pu contribuer à clore cet épisode de « crise » pour les enseignants du primaire, il n’en est rien. L’historien Jean-François Condette a, de ce point de vue, bien souligné que « le contexte de création des IUFM est inséparable d’une crise aiguë de recrutement ». En effet, les besoins en recrutement d’enseignants, dans le primaire comme dans le secondaire, demeurent très importants pour affronter la seconde vague de la massification liée à l’objectif de 80 % d’une classe d’âge au niveau du baccalauréat. Le ministère peine, pendant cette période, à recruter : en 1988, 27 % des postes de certificat d’aptitude au professorat de l’enseignement du second degré (capes) et 15 % des postes d’agrégés ne sont pas pourvus, en dépit de la création des concours internes du capes et de l’agrégation. Les besoins en recrutement sont ainsi « estimés à 360 000 entre 1988 et 2000 ».

Dans le contexte des années 1990 et 2000, la question de la « crise du recrutement » et « des vocations » prend, en France, une tournure nouvelle, notamment liée aux transformations de la morphologie enseignante, avec une remise en question de l’accès au métier selon « un modèle d’accomplissement de vocation », dont la période présente est l’héritière. De ce point de vue, les importants travaux du sociologue Pierre Périer ont montré le caractère sectoriel de la « crise du recrutement » et de la « crise d’attractivité du métier d’enseignant » fortement mises en avant dans le débat public au cours des deux dernières décennies.

À partir d’une enquête réalisée en 2015 auprès de 1 103 étudiants de différentes filières de troisième année de licence, Pierre Périer montre que « la problématique d’attractivité des métiers de l’enseignement apparaît à la fois inégale et paradoxale » et que l’affectivité spécifique et le sentiment d’urgence ou de catastrophe véhiculés par les discours sur la crise du recrutement dans le débat public doivent être relativisés :

« Aussi préoccupants soient-ils, ces constats [sur les difficultés de recrutement d’enseignants] confirment le caractère sectoriel et paradoxal de difficultés qui, en réalité, ne sont pas nouvelles. On peut rappeler, en effet, que le nombre de candidats présents pour un poste en 1993 était de 2,6, identique à celui observé en 2015 ou 2016 mais deux fois inférieur à celui du début des années 2000. La comparaison vaut également pour le secondaire avec 2,7 candidats pour un poste en 1993 ou encore 3,7 en 1994 et 3,4 en 2015. Ajoutons que la part des enseignants non titulaires dans le second degré public a déjà été à plusieurs reprises supérieure à ce qu’elle représente aujourd’hui (près de 8 % en 1993 contre moins de 6 % en 2015). »

Et Pierre Périer de souligner que « le manque de candidats aux concours a un caractère académique dans le premier degré et disciplinaire dans le secondaire ». Le sociologue montre également que la « crise de recrutement » masque, en réalité, « une tension en forme de dilemme d’orientation » pour les étudiants qui « met en rapport, d’un côté, un intérêt personnel manifeste pour les fondements et contenus du métier et, de l’autre, des appréhensions et, plus encore, une incertitude sur ce que recouvre le “devenir enseignant”, que ce soit en termes d’accès, de conditions d’exercice ou de carrière ».

The Conversation

Sébastien-Akira Alix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ? – https://theconversation.com/la-crise-des-vocations-enseignantes-un-defi-recurrent-dans-lhistoire-de-lecole-276320

Autrefois dissimulés, les « assassinats ciblés » sont devenus des instruments assumés du pouvoir d’État

Source: The Conversation – France in French (3) – By Kevin Foster, Associate Professor, School of Languages, Literatures, Cultures and Linguistics, Monash University

Frappes de drones, annonces sur les réseaux sociaux, revendications publiques : l’assassinat n’est plus une opération clandestine honteuse mais un message politique. Dans son nouveau livre, l’historien Simon Ball enquête sur la normalisation d’une violence d’État.


En novembre 2012, les Forces de défense israéliennes (FDI) ont utilisé Twitter – comme on l’appelait alors – pour annoncer qu’elles avaient tué Ahmed al-Jabari, chef des Brigades al-Qassam, la branche militaire du Hamas, à Gaza.

Cette annonce, accompagnée d’un lien vers une vidéo pixellisée de la frappe aérienne visant la voiture d’al-Jabari, marquait le début d’une nouvelle incursion des FDI à Gaza. Comme l’ont noté les historiennes Adi Kuntsman et Rebecca L. Stein dans leur livre Digital Militarism, elle a fait de l’opération « Pilier de défense » d’Israël « la première campagne militaire à avoir été déclarée via Twitter ».

Ce qui frappait également dans cette annonce, c’était la fierté et l’audace avec lesquelles les FDI célébraient ce qu’elles avaient fait. À peine une décennie plus tôt, Israël, comme les États-Unis, le Royaume-Uni et les puissances européennes, aurait éludé les questions sur sa responsabilité dans l’attaque ou nié avec ténacité. Les gouvernements n’assassinaient pas des personnes – c’était le fait de fanatiques politiques et d’extrémistes religieux.

Les choses avaient changé. Et profondément. La même année, le président Barack Obama demanda à John Brennan, son conseiller adjoint à la sécurité intérieure et à la lutte contre le terrorisme, de faire une déclaration publique sans ambiguïté sur la politique des États-Unis concernant l’usage de frappes de drones pour cibler des ennemis nommément désignés des États-Unis. Dans un discours au Wilson Center, Brennan déclara :

en totale conformité avec la loi, et afin de prévenir des attaques terroristes contre les États-Unis et de sauver des vies américaines, le gouvernement des États-Unis mène des frappes ciblées contre des terroristes spécifiques d’al-Qaida.

Le fait que les Américains, ainsi qu’un certain nombre de leurs alliés, tuaient – ou tentaient de tuer – leurs ennemis était, observa Brennan, « le secret le moins bien gardé du monde ». Il était temps que la « mascarade » prenne fin, d’appeler les choses par leur nom – ou, plus précisément, d’appeler une mise à mort ciblée un assassinat.

La nouvelle, cette semaine, selon laquelle le dissident russe Alexeï Navalny est mort après avoir prétendument ingéré du poison provenant d’une grenouille sud-américaine alors qu’il était emprisonné dans l’Arctique, rappelle que la Russie possède elle aussi une longue histoire d’assassinats de critiques du régime.

Dans Death to Order : A Modern History of Assassination (non traduit en français), Simon Ball propose une histoire de l’assassinat au cours du dernier siècle environ, fondée sur des recherches minutieuses et d’une lecture particulièrement captivante. Ball est professeur d’histoire et de politique internationales, et ces spécialités structurent l’approche du livre.

En conséquence, son livre s’intéresse moins à l’évolution des armes ou aux changements tactiques nécessaires aux mises à mort ciblées – jusqu’au développement du drone, ceux-ci sont restés en grande partie inchangés pendant plus d’un siècle – qu’à l’assassinat en tant qu’instrument de la politique d’État.

Dans une comparaison particulièrement imagée, Ball affirme que l’étude de l’assassinat « revient à faire glisser une lame de rasoir le long de l’histoire de la politique internationale ». La coupure qui en résulte peut être étroite, mais elle est longue et profonde. Elle révèle « l’exercice réel du pouvoir dans la politique internationale ».

Assauts déterminés

Si nombre des assassinats les plus marquants du siècle dernier – Mahatma Gandhi, John F. Kennedy, Martin Luther King Jr., Robert Kennedy, le Premier ministre suédois Olof Palme – sont évoqués, ils ne constituent pas le cœur de l’ouvrage.

Chacun de ces assassinats a donné lieu à des enquêtes approfondies et souvent prolongées, visant à établir un mobile politique et à identifier la main cachée d’une puissance hostile. Ainsi, l’enquête officielle sur le meurtre de Palme, en février 1986, n’a été close qu’en 2020.

Dans une affaire plus célèbre encore, l’assassinat du président Kennedy à Dallas en novembre 1963, les enquêteurs américains se sont employés avec ténacité à établir une éventuelle implication soviétique, d’abord au sein de la Commission Warren, puis de la Commission spéciale de la Chambre des représentants sur les assassinats, convoquée treize ans après les faits.

Le président John F. Kennedy à Dallas, au Texas, quelques minutes avant son assassinat, le 22 novembre 1963.
Walt Cisco, Dallas Morning News, Public domain, via Wikimedia

Malgré la soif du public et du monde politique pour des révélations de complots dignes de romans d’espionnage, Ball rappelle avec constance qu’aucune preuve n’est venue étayer une telle thèse. Ces assassinats furent le fait d’individus isolés, animés par des vendettas personnelles, des haines intimes ou des troubles psychiques.

Ils ne sont donc pas au cœur de son propos. Les victimes qu’il étudie sont moins des chefs d’État que leurs serviteurs loyaux. Son enquête révèle à quel point proconsuls, diplomates et responsables de la sécurité des grandes puissances étaient exposés aux attaques résolues de leurs adversaires.

Ne pas paraître faible

Pendant près d’un siècle, les partisans de l’émancipation face à la domination étrangère et à l’oppression économique ont fait exploser des bombes, parfois poignardé, mais le plus souvent abattu à bout portant, à l’arme légère, des représentants des puissances occupantes. Des assassinats ciblés ont eu lieu en Inde, en Irlande, en Algérie, en Malaisie, au Vietnam, en Palestine, en Égypte – bref, dans presque toutes les régions du monde passées sous la coupe d’un empire. La violence a même gagné les capitales des puissances coloniales.

L’une des révélations les plus frappantes du livre tient au temps qu’il fallut aux Britanniques surtout – mais aussi aux Français et aux Américains – pour admettre que la menace pesant sur leurs agents en poste à l’étranger, dans des environnements instables, était démesurément élevée. Pendant des décennies, le prestige impérial interdisait à ses représentants toute manifestation visible d’inquiétude pour leur sécurité personnelle. À Londres, bien après la Seconde Guerre mondiale, on estimait encore qu’une attention excessive portée à la sécurité risquait d’entamer la mystique d’autorité de la puissance dominante et de donner le sentiment d’un aveu de faiblesse.

Sur le terrain, les agents ne partageaient pas cet état d’esprit. Des dizaines d’entre eux furent poignardés ou abattus avant de convaincre leurs ministres de revoir leur position et de mettre en place des dispositifs de protection adéquats.

Si ce tournant se fit tant attendre, c’est que, tout en reconnaissant en privé la menace que des oppositions bien organisées faisaient peser sur leur domination, les gouvernements s’astreignaient publiquement à minimiser la portée d’actes de violence politique présentés comme isolés – ainsi que l’ampleur du soutien dont ces mouvements bénéficiaient parmi les populations occupées ou opprimées.

Le règlement de ces questions, plus larges, de légitimité et d’autorité reposait sur un dialogue prolongé entre les administrations coloniales et les élites politiques émergentes dans les territoires occupés. Il exigeait des négociations minutieuses et des compromis douloureux, impossibles à arracher dans la fournaise d’un soulèvement populaire. D’où la nécessité d’entretenir l’illusion du calme.

Le « script libéral » qui a façonné, pendant une grande partie du XXe siècle, la réponse du gouvernement britannique aux assassinats de ses représentants a pris forme sous le gouvernement de H.H. Asquith (1908-1916). Il s’articulait autour de trois principes essentiels :

1) Il existait des preuves d’un complot organisé visant à commettre des assassinats.

2) Très peu de personnes étaient impliquées dans ce complot.

3) Ce complot était dangereux en raison de la violence de ses méthodes, et non parce qu’il constituait la partie émergée d’un mouvement plus large.

En soutenant que ces meurtres étaient le fait d’un petit nombre de fanatiques – et non l’expression d’une opposition vaste et structurée –, les autorités pouvaient circonscrire, voire étouffer, l’agitation politique. Dans le même temps, les négociations se poursuivaient lentement, à huis clos.

« Assassins d’honneur » et activités clandestines

L’assassinat n’a eu aucune influence significative sur le cours, la conduite ou l’issue de la Seconde Guerre mondiale. En revanche, la guerre a profondément transformé l’assassinat en tant qu’outil d’État.

L’action des deux Tchèques qui tuèrent le général nazi Reinhard Heydrich, les multiples tentatives avortées d’assassinat contre Hitler, ou encore le geste de l’aristocrate irlandaise, troublée ou animée de principes inébranlables, Violet Gibson, qui, en avril 1926, tira sur Mussolini au « museau » (« In the snout », selon la formule inimitable de la chanteuse folk Lisa O’Neill) sans parvenir à le tuer, ont offert de nombreux exemples – plus souvent morts que vivants – de ce que l’on a appelé « l’assassin d’honneur ».

Benito Mussolini en 1926, peu après la tentative d’assassinat de Violet Gibson.
Public domain, via Wikimedia

Pour ceux attachés à la démocratie libérale, il n’y avait qu’un pas entre la figure du tueur agissant par principe et l’idée que des puissances démocratiques fortes devaient elles aussi se doter de la capacité de procéder à des éliminations ciblées. Il s’agissait de prévenir la montée de l’intolérance en supprimant ses porte-voix, de combattre le feu par le feu.

Dans les années 1950 et 1960, certains gouvernements démocratiques, au premier rang desquels la France et les États-Unis, ont supervisé – ou laissé faire – des assassinats politiques de représailles contre leurs ennemis. Cette pratique a fini par être admise au point que les conflits militaires de grande ampleur en Algérie et au Vietnam ont été menés, pour une part non négligeable, à travers des programmes d’assassinats conduits à l’échelle industrielle.

Les questions d’autorité et de protocole devinrent centrales. Au début des années 1960, la branche spécialisée de la CIA chargée des « opérations exécutives » s’employait à déstabiliser des régimes en Amérique centrale, en organisant et en armant des insurrections, et en appuyant des opérations d’assassinat. D’autres services de l’agence rédigeaient les textes nécessaires – un véritable manuel d’assassinat à l’usage de l’homme de terrain – et définissaient la doctrine encadrant ces activités clandestines. En somme, il s’agissait de décider qui était habilité à autoriser un assassinat.

À mesure que cette responsabilité remontait progressivement jusqu’au bureau du président, l’assassinat s’imposa comme un instrument explosif de l’art de gouverner – un outil susceptible de faire voler en éclats la façade du gouvernement en place et de mettre en cause son discours sur la défense des principes démocratiques.

Assassinats ciblés

Au fil des années 1970 et jusque dans les années 1980, les troubles en Irlande du Nord se sont progressivement étendus au territoire britannique. À mesure que le conflit gagnait le continent, les efforts du gouvernement pour maintenir le scénario « asquithien » se sont effondrés. L’idée implicite selon laquelle un certain niveau d’assassinats constituait le prix à payer pour exercer le pouvoir dans une société libérale, ouverte et démocratique n’était plus tenable.

À mesure que les attaques de l’IRA contre l’élite politique britannique devenaient plus sophistiquées, plus ciblées et plus meurtrières, un tournant décisif s’est opéré dans les cercles dirigeants en matière de sécurité. En 1982, la « Protection » est devenue un commandement permanent au sein de la Metropolitan Police, la police de Londres.

Alors que des débouchés lucratifs s’ouvraient pour d’anciens membres des forces spéciales dans les nouvelles industries de la sécurité, les chercheurs américains en matière de défense continuaient d’affiner les capacités permettant de frapper des ennemis avec une précision accrue, à des distances toujours plus grandes.

Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.

Alors que d’anciens membres des forces spéciales trouvaient des débouchés très rémunérateurs dans les nouvelles entreprises privées de sécurité, les chercheurs américains travaillant pour la défense perfectionnaient, eux, des technologies permettant de viser leurs ennemis avec une précision croissante, à des distances toujours plus grandes.

Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.

En 2007, l’armée américaine disposait de 24 drones dédiés aux opérations d’élimination ciblée. Deux ans plus tard, ce chiffre atteignait 180 appareils, dotés d’une capacité d’emport quinze fois supérieure à celle des modèles précédents. En 2025, le département américain de la Défense – récemment rebaptisé « département de la Guerre » – comptait plus de 11 000 aéronefs sans pilote dans son arsenal. Tous ne sont pas destinés à des missions d’élimination, certes. Mais les ordres de grandeur parlent d’eux-mêmes.

Autrefois arme privilégiée des combattants de la liberté, des mouvements d’indépendance et de leurs branches insurrectionnelles, l’assassinat est devenu aujourd’hui un instrument assumé de l’État et une composante à part entière de l’arsenal de ses forces armées.

Death to Order regorge d’épisodes saisissants et d’anecdotes frappantes – notamment celle d’une jeune Elizabeth II s’étonnant que personne n’ait glissé quelque chose dans le café du turbulent dirigeant nationaliste égyptien, le général Gamal Abdel Nasser.

Mais l’apport le plus marquant de l’ouvrage de Ball tient sans doute à la manière dont il retrace avec précision la sortie progressive de l’assassinat des coulisses du secret gouvernemental et militaire pour son exposition en pleine lumière, au cœur de la communication et de la propagande.

Depuis les attentats du 11 septembre 2001 – et plus encore au cours de la dernière décennie – la mise en scène de l’assassinat comme symbole concentré de la puissance étatique et de sa volonté implacable est devenue un puissant instrument de dissuasion contre toute opposition active, ainsi qu’un levier majeur de guerre informationnelle.

Doté d’un pouvoir de surveillance quasi divin, de son œil omniscient dans le ciel, le drone sait ce que vous avez fait et où vous vous trouvez. Nul n’échappe à sa vengeance. Les ides de mars sont là.

The Conversation

Kevin Foster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Autrefois dissimulés, les « assassinats ciblés » sont devenus des instruments assumés du pouvoir d’État – https://theconversation.com/autrefois-dissimules-les-assassinats-cibles-sont-devenus-des-instruments-assumes-du-pouvoir-detat-276207

Comment les Caisses de dépôt peuvent transformer l’épargne africaine en moteur du développement

Source: The Conversation – in French – By Florian Léon, Chargé de recherche, Fondation pour les Etudes et Recherches sur le Développement International (FERDI); Chercheur associé au CERDI (UMR UCA-CNRS-IRD), Université Clermont Auvergne (UCA)

Alors que l’Afrique dispose d’une épargne privée abondante mais largement informelle, son rôle dans le financement du développement reste limité. Dans cet entretien avec The Conversation Africa, le chercheur Florian Léon, auteur d’un récent rapport sur le sujet, explique comment les Caisses de dépôt peuvent capter et orienter ces ressources vers l’investissement productif, en complément des banques de développement. Il détaille les obstacles institutionnels, les réformes nécessaires et les pistes pour mobiliser l’épargne locale et celle de la diaspora.


Quel est le principal obstacle à la mobilisation de l’épargne privée pour financer le développement en Afrique ?

Il convient en premier lieu de distinguer, d’un côté, la question de la mobilisation de l’épargne privée et, de l’autre, son allocation vers le financement du développement. Les économies africaines ont un potentiel exploitable sur ces deux aspects.

D’une part, l’Afrique ne manque pas d’épargne. Les données de la Banque mondiale soulignent que la propension à épargner des ménages est plus ou moins la même en Afrique qu’ailleurs. En revanche, une part réduite de cette épargne est formalisée en Afrique. Les ménages ont tendance sur le continent à privilégier des supports d’épargne plus informels comme la thésaurisation.

Les raisons profondes de cette situation sont multiples, allant du coût pour épargner dans le systèmes bancaires (ouverture de compte) à un manque de confiance dans les banques. La conséquence est que cette épargne échappe au système financier et ne peut donc pas être utilisée pour financer les économies africaines.

D’autre part, l’épargne privée qui circule dans le système bancaire est peu utilisée pour le financement en Afrique. Les banques commerciales africaines sont souvent réticentes à accorder des prêts à de nouveaux clients. Cette situation peut s’expliquer par des facteurs multiples qui font que les intermédiaires financiers africains considèrent que prêter n’est pas rentable et/ou trop risqué.

Le défi est donc double pour l’Afrique : mobiliser davantage l’épargne et faire que le système financier utilise au mieux les ressources dont il dispose. Notre rapport met en évidence que si l’Afrique rattrapait son retard sur ces deux dimensions par rapport à la moyenne des pays en développement, il serait possible d’accroître les financements de 10 % du PIB par an.

En quoi les Caisses de dépôt se distinguent-elles des banques de développement dans l’investissement de long terme ?

Les banques (nationales) de développement et les Caisses de dépôt partagent une mission commune : financer le développement en acceptant de soutenir des projets de long terme structurants pour le pays.

Leurs différences tiennent à leur mode de fonctionnement. Les banques de développement empruntent à des taux réduits, sur les marchés ou à travers des emprunts auprès d’autres banques de développement (Banque mondiale, Banque africaine de développement), pour prêter à des conditions plus favorables que celles offertes par le marché (en termes de taux, durée ou montant).

Les Caisses de dépôt collectent des ressources privées de tiers (consignations, dépôts dont elles ont le monopole de la collecte voire centralisation d’une partie de l’épargne réglementée) et vont utiliser une partie de ces fonds pour investir dans des entreprises nationales à travers des prises de participation. Quelques Caisses de dépôt, notamment les plus importantes (France, Italie, Maroc), font également des prêts.

Autrement dit, les Caisses de dépôt permettent de capter une partie de l’épargne privée intérieure pour l’orienter vers des projets de développement, alors que les banques de développement ont surtout recours à des fonds empruntés, souvent extérieurs. Ces deux institutions en mobilisant des ressources et des outils de financement différents sont complémentaires. Il convient de noter que dans certains pays, les Caisses de dépôt font aussi office de banque nationale comme en France, en Italie, mais aussi en Mauritanie.

Quelles réformes prioritaires pourraient renforcer leur impact sur les économies nationales africaines ?

Les Caisses de dépôt africaines font face à une difficulté pour mobiliser les ressources qui leur sont dévolues comme les dépôts des professions juridiques ou les liquidités des systèmes de retraite. Ce manque de ressources pénalise leur capacité à devenir des acteurs du financement de l’économie. Pour remédier à ce problème, nous avons recommandé des actions à trois niveaux dans notre rapport.

Premièrement, il est primordial que les Caisses de dépôt puisse construire une relation de confiance avec les parties prenantes (État, dépositaires, institutions financières).

Cela implique d’avoir des bases légales solides et une gouvernance irréprochable. Il est aussi central que les Caisses soient plus transparentes afin de prouver que les fonds à leur disposition sont sécurisés et bien utilisés.

Deuxièmement, les Caisses doivent élargir la gamme de leurs ressources. L’action prioritaire consiste à s’assurer qu’elles disposent de manière effective des fonds dont l’État leur a légalement confiés la charge (ce qui n’est pas toujours le cas). Cette étape implique d’avoir une discussion franche avec les déposants et dépositaires de ces ressources et de bénéficier du soutien de l’État. Ensuite, les Caisses peuvent diversifier leurs ressources, notamment en développant des outils d’épargne réglementée.

Enfin, une fois que les Caisses de dépôt auront suffisamment de ressources, elles pourront agir comme un acteur du financement du développement. Néanmoins, il est important que les Caisses de dépôt comblent les lacunes actuelles plutôt qu’elles n’interviennent sur des créneaux déjà financés par les autres intermédiaires financiers. De plus, elles peuvent être un soutien au développement des systèmes financiers locaux en aidant au déploiement de certains segments (comme le « private equity » ou capital-investissement).

Comment mieux capter l’épargne informelle et celle de la diaspora pour financer le développement ?

Il n’y a pas de solution miracle pour mieux capter l’épargne informelle mais quelques enseignements peuvent être tirés des expériences passées. Les pays européens au XIXème siècle ont créé des solutions innovantes pour offrir des produits d’épargne aux « populations laborieuses ». A travers la possibilité d’avoir des supports d’épargne liquide, sûrs (garantis par l’Etat) et rémunérateurs, l’inclusion financière s’est fortement accrue.

Ces caractéristiques expliquent encore le succès de produits comme les livrets A en France ou les bonds postaux en Italie.

Les pays africains peuvent s’inspirer de ces expériences. Les modalités pratiques de mise en œuvre doivent être adaptées au contexte local, notamment pour cibler les personnes éloignées des centres urbains (par exemple, avec des solutions digitales ou des réseaux de monnaie mobile). Néanmoins, si de tels produits existaient et étaient accessibles, il est probable qu’ils seraient une marche importante pour formaliser davantage l’épargne.

La question de la mobilisation des fonds de la diaspora est un peu différente. Même si les sommes en jeu ne sont pas négligeables (l’épargne de la diaspora africaine représenterait près de 35 milliards de dollars selon une estimation récente) et qu’une partie de la diaspora est prête à investir dans son pays d’origine, mobiliser cette épargne est plus complexe pour diverses raisons. La diaspora peut être éclatée dans de nombreux pays et il faudra offrir une solution pour chacune en lien avec les exigences et l’offre existante dans le pays d’accueil.

Ensuite, il se pose des questions additionnelles comme la variation des taux de change dans la mesure où la diaspora utilise la devise de son pays d’accueil (par exemple, en dollars) mais son épargne se fera dans la devise du pays d’origine. Les sommes épargnées peuvent donc fondre en raison d’une dévalorisation de la devise du pays dans lequel les fonds sont épargnés.

Enfin, tous les membres de la diaspora n’attendent pas nécessairement le même type de produits, ce qui oblige à bien calibrer l’offre en fonction des besoins. Des projets existent pour mobiliser cette épargne, à l’image de DiasDev d’Expertise France pour accompagner plusieurs Caisses de dépôt africaines dans cet objectif. Néanmoins, le chemin est sans doute encore long pour en faire un des leviers du financement du développement.

The Conversation

Florian Léon works for the FERDI that receives funding from the Caisse des dépôts et consignations (France) to publish a report dedicated on the Caisse de dépôt model.

ref. Comment les Caisses de dépôt peuvent transformer l’épargne africaine en moteur du développement – https://theconversation.com/comment-les-caisses-de-depot-peuvent-transformer-lepargne-africaine-en-moteur-du-developpement-275863

Taboo tics like shouting curses and slurs are uncommon in Tourette syndrome − but people who have them suffer harsh social stigma

Source: The Conversation – USA (3) – By Rena Zito, Associate Professor of Sociology, Elon University

Tourette’s tics can include obscenities and slurs. These taboo words are emotionally charged and socially significant, so they tend to be more strongly encoded in the brain’s wiring. Dominic Lipinski/Stringer via Getty Images

John Davidson, whose life inspired the award-winning biopic “I Swear,” involuntarily shouted a racial slur during Michael B. Jordan and Delroy Lindo’s speech at the BAFTA film awards in London on Feb. 22, 2026. The moment went viral, and the ensuing backlash ignited public debate about Tourette syndrome and its most shocking symptom.

Davidson has been a familiar figure to British audiences since his teenage years, when he first appeared in a BBC documentary about Tourette syndrome. He has since devoted decades to public education about the condition, earning him a distinguished honor from Queen Elizabeth II in 2019.

The reactions to Davidson’s tics at the BAFTA awards make clear that Tourette syndrome remains a deeply misunderstood condition, especially when it comes to obscene language tics, called coprolalia.

I am a sociologist who studies the social dimensions of Tourette syndrome, including the stigma of coprolalia. I also live with Tourette syndrome. Most people with Tourette’s will never experience these taboo tics, but those who do bear the weight of society’s judgment.

What is Tourette syndrome?

Tourette syndrome is a neurodevelopmental condition that affects about 0.5% to 0.7% of the population. It is characterized by involuntary movements and sounds called tics that usually begin in childhood and, for some people, continue into adulthood.

Tics consist of movements, such as eye blinking or shoulder shrugging, or vocalizations, such as throat clearing or brief sounds. Some involve a single movement or sound, while others combine several movements or involve longer verbalizations – for example, finger snapping followed by a head jerk, or repeated words or phrases.

Coprolalia, or involuntary obscene or offensive speech, is one of the most widely misunderstood features of Tourette’s. About 10% to 20% of people with Tourette syndrome experience this type of tic.

Fewer than 1 in 5 people with Tourette’s experience taboo tics, such as coprolalia, but they can have an outsized effect on people’s lives.

Tics often change over time in intensity, frequency and form, with relatively quiet periods followed by phases when symptoms are more severe. Many people feel an unpleasant building sensation before a tic, called a premonitory urge, describing it like an itch that needs to be scratched. Others experience tics more suddenly, like an unexpected sneeze. Some can temporarily suppress their tics, often at the cost of greater discomfort later, while others are unable to suppress them.

Tics can be physically taxing, leading to acute and chronic pain and injury. People with Tourette syndrome also frequently face stigma, discrimination and the pressure to monitor or hide their tics, which can take a serious psychological toll. People with Tourette syndrome are at increased risk of self-harm and suicide.

The causes of Tourette syndrome aren’t fully understood, but it has a strong genetic component. Although it often runs in families, it can also be caused by birth complications or infections.

Understanding taboo tics like coprolalia

Even though a minority of people with Tourette syndrome experience coprolalia, media portrayals of Tourette’s disproportionately focus on outbursts of profanity. This “swearing disease” stereotype misrepresents how most people with the condition experience it. But because taboo tics are shocking and unexpected, they loom larger in the public imagination than more common, less dramatic tics.

Coprolalia is only one form of taboo tic. Others include copropraxia, or obscene gestures, and non-obscene but socially inappropriate tics, such as making kissing sounds, spitting or touching others.

Baylen Dupree, star of TLC show Baylen Out Loud
Baylen Dupree, star of the TLC show ‘Baylen Out Loud,’ has severe Tourette’s and experiences coprolalia.
Slaven Vlasic/Stringer via Getty Images

One of the most confusing aspects of taboo tics is that they can be contextually relevant while also being involuntary. Consider, for example, the person who tics “I have a gun!” when stopped by law enforcement. Cues in the social environment can trigger tics, especially in moments of heightened stress.

Why profanity in particular? Tics arise from dysfunction in neural circuits involved in movement and impulse control. Taboo words are emotionally charged and socially significant, so they tend to be more strongly encoded in the brain’s language and emotional networks than neutral words. This helps explain why coprolalia can also occur, albeit rarely, in people with brain lesions, neurodegenerative conditions and seizure disorders.

The challenges of living with coprolalia

The social world can be precarious for people with Tourette syndrome who experience taboo tics like coprolalia. These tics are often associated with more severe symptoms overall, more co-occurring conditions and greater social difficulty.

My research on coprolalia stigma reveals the depths of distress public misconceptions can cause.

A common misconception is that tics reveal what people “really” think and feel. In reality, tics often compel people to say or do precisely what they most wish to avoid. The stakes are especially high when tics involve slurs or insults. As one interview participant told me, “It’s like my brain weaponizes my most polite intentions and turns them into the cruelest things. And it’s scary to go outside … to have this sudden confrontation mechanism inside of me that I absolutely do not want.”

These socially inappropriate tics can draw unwanted attention and lead to exclusion, bullying, hostile encounters and barriers to employment. As another participant put it, “There’s no jobs I can work where I can get the accommodation that it’s okay for me to cuss at my boss.”

Anticipating these reactions, many people with prominent coprolalia withdraw from public life or carry the burden of constant disclosure and education.

A second misconception is that coprolalia always looks like someone shouting obscenities in public. While that does happen for some people, like Davidson at the BAFTA awards, others can suppress, mask or carefully manage their tics in social settings. Both experiences of coprolalia are stressful. Like other tics, coprolalia can come and go over time.

The stress of taboo tics extends beyond the individual. Families frequently describe feeling helpless in the face of their child’s distress, unsupported by schools and judged by others when these tics occur.

People with Tourette syndrome, and especially those with taboo tics, need understanding and support to participate fully and safely in public life.

The Conversation

Rena Zito does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Taboo tics like shouting curses and slurs are uncommon in Tourette syndrome − but people who have them suffer harsh social stigma – https://theconversation.com/taboo-tics-like-shouting-curses-and-slurs-are-uncommon-in-tourette-syndrome-but-people-who-have-them-suffer-harsh-social-stigma-276721

Danger was flagged, but not reported: What the Tumbler Ridge tragedy reveals about Canada’s AI governance vacuum

Source: The Conversation – Canada – By Jean-Christophe Bélisle-Pipon, Assistant Professor in Health Ethics, Simon Fraser University

Eight months before the Tumbler Ridge mass shooting, OpenAI knew something was wrong. The company’s automated review system had flagged Jesse Van Rootselaar’s ChatGPT account for interactions involving scenarios of gun violence. Roughly a dozen employees were aware. Some advocated contacting police. Instead, OpenAI banned the account, but didn’t refer it to law enforcement because it didn’t meet the “threshold required” at the time.

On Feb. 10, Van Rootselaar killed eight people (her mother, her 11-year-old half-brother and six others at Tumbler Ridge Secondary School) before dying of a self-inflicted wound.

This case is not simply about one company’s misjudgment. It exposes the absence of any Canadian legal framework for assigning responsibility when an AI company possesses information that could prevent violence.

As a researcher in health ethics and AI governance at Simon Fraser University, I study how algorithmic systems reshape decision-making in high-stakes settings. The Tumbler Ridge tragedy sits squarely at this intersection: a private corporation made a clinical-style risk assessment it was never equipped to make, in a legal environment that gave it no guidance.

The digital confessional problem

Generative AI chatbots are not social media. Social media functions as a public square where posts can be monitored and flagged by other users. Chatbot interactions are private, intimate and designed to be accommodating. Users routinely disclose fears, fantasies and violent ideations to systems engineered to respond with conversational warmth.

In clinical practice, this kind of disclosure triggers a well-established duty. The Tarasoff principle, adopted across Canadian provinces through mental health legislation, imposes upon therapists a duty to warn if they determine that a patient poses a credible threat to an identifiable person, even if it means breaching confidentiality. But that duty rests on the clinical judgment of trained professionals who understand the difference between ideation and intent.

Arguably, OpenAI tried to mirror this clinical standard. But the people making these assessments are software engineers and content moderators, not forensic psychologists. The company itself acknowledged the tension, citing the risks of “over-enforcement” and the distress of unannounced police visits for young people.

The real question is not whether OpenAI’s reasoning was defensible in isolation. It’s whether a private corporation should be making this determination at all.

A vacuum where legislation should be

Federal AI Minister Evan Solomon, who intends to meet with OpenAI representatives today on Feb. 24 about this issue, said on Feb. 21 that he was “deeply disturbed” by the revelations, adding the federal government is reviewing “a suite of measures” and that “all options are on the table.” But those options remain undefined because the legislative tools that would have enabled them no longer exist.

The Artificial Intelligence and Data Act, embedded in Bill C-27, was supposed to be Canada’s answer to AI regulation. The Online Harms Act (Bill C-63) would have addressed harmful digital content. Both died on the order paper when Parliament was prorogued in January 2025.

What remains is a voluntary code of conduct with no legal force and no consequences for non-compliance. When OpenAI flagged Van Rootselaar’s account, its only obligation was to its own internal policy. Banning the account resolved the company’s liability while leaving a person expressing violent ideations disconnected from any intervention pathway.

Canada’s privacy law compounds the problem. The Personal Information Protection and Electronic Documents Act does contain an emergency exception: section 7(3)(e) permits disclosure without consent “to a person who needs the information because of an emergency that threatens the life, health or security of an individual.” But this provision was drafted for clear-cut crises, not for the probabilistic threat indicators that AI chatbot interactions generate. For a foreign corporation navigating this ambiguity, uncertainty favours inaction.

What Canada needs now

Canada’s next attempt at digital governance must recognize that human-to-AI interactions are fundamentally different from social media posts. Three elements are essential:

  1. Binding legislation with clear legal thresholds for when AI companies must refer flagged interactions to authorities. These thresholds must be developed with mental health professionals, law enforcement and privacy experts, not left to individual corporations.

  2. An independent digital safety commission as a third-party triage body. When an AI company identifies severely concerning interactions, it should refer the case to trained threat-assessment professionals rather than making the call internally or triggering an immediate armed police response.

  3. Modernized privacy legislation that provides explicit legal clarity for AI-specific disclosure, resolving the ambiguity that currently rewards doing nothing.

At the AI summit that took place in New Delhi from Feb. 16 to 20, 86 countries, including Canada, pledged to promote “safe, trustworthy and robust” AI. No concrete commitments followed. OpenAI’s Sam Altman stressed the urgency of international AI regulation and proposed an international body for AI safety norms modelled on the International Atomic Energy Agency, an irony not lost on anyone following the Tumbler Ridge revelations.

Minister Solomon says all options are on the table. Families of shooting victims, survivors and a devastated community in Tumbler Ridge are living with the cost of leaving regulation options open for too long.

The Conversation

Jean-Christophe Bélisle-Pipon receives funding from Michael Smith Health Research BC Scholar Award and the US National Institutes of Health.

ref. Danger was flagged, but not reported: What the Tumbler Ridge tragedy reveals about Canada’s AI governance vacuum – https://theconversation.com/danger-was-flagged-but-not-reported-what-the-tumbler-ridge-tragedy-reveals-about-canadas-ai-governance-vacuum-276718

Why people are turning to AI first for relationship advice — and why they shouldn’t

Source: The Conversation – Canada – By Maha Khawaja, PhD Student, Health and Society, McMaster University

It’s 1 a.m. The argument is over, but you keep running it back in your head anyway. You replay the tone, timing and that one sentence that landed wrong. So you open an artificial intelligence (AI) chatbot and type, “Am I right or am I overreacting? What do I say to what they said? What did they mean by XYZ?”

Research on attachment, emotion regulation and online discourse helps explain why turning to AI is becoming increasingly popular . The reassurance that it provides, however, can consolidate a one-sided interpretation far too quickly and, ultimately, train expectations that real relationships struggle to meet.

But for many, that’s where relationship support begins nowadays. The privacy of AI chatbots has become the space people go to first, especially given that the alternative — professional help or family and friends — often either involves paying, explaining yourself at length or risking judgment at exactly the moment you feel least steady.

However, while it’s a private moment and a keyboard click away, should we be looking for neutral relationship advice from AI chatbots?

Why does AI feel like support?

At a time when therapy is expensive or out of reach, and most relationship learning comes from media rather than practical skill-building, immediacy can be deeply appealing for some.

The appeal intensifies when relationship talk implicates identity. Questions like “Am I needy? Am I unlovable? Am I the problem?” carry shame, which makes disclosure feel risky. A chatbot offers a low-stakes space to narrate events and voice what might feel too exposed with friends or family.

Notably, chat-based relationship coaching can feel immediately satisfying, and research on reward-based engagement in online platforms suggests that quick, reinforcing feedback can encourage people to come back again and again, forming an addictive effect that chatbot interfaces may amplify.

Related work on chatbots also finds that when users feel a sense of closeness with AI, they report higher satisfaction and stronger intentions to reuse it, which helps explain why the use of these tools can become a habit instead of a one-time check-in. Interestingly, recent research also notes that people with anxious attachment styles are more likely to become emotionally dependent on AI.

From anonymous forums to algorithmic advice

Before chatbots, people often did this work through anonymous crowds in forums like Reddit, and research on online disclosure and support communities shows that anonymity and low social cost can increase willingness to share, especially around stigmatized or emotionally charged experiences.

In those spaces, you can disclose without being fully known, gather language from strangers and feel less alone with your own thoughts. AI distills that and suggests next steps, which can make disclosure easier while also nudging one reading of the situation into something that feels settled.

A quick, overly simplified fix.

However, over time, instant affirmation can train expectations for constant reassurance and rapid closure that intimate relationships rarely sustain, since intimacy develops through slower, reciprocal work under strain.

AI as a relationship rehearsal room

In practice, people use AI for far more than crisis.

Many use it as a communication coach, such as for drafting messages after conflict, softening tone and practising repair language before they speak.

Others use it as a rehearsal room for difficult conversations or as a planning tool for reconnecting, whether through date ideas, routines or small rituals that rebuild intimacy after distance.

It also shows up readily in the less visible work of relationships.

That could look like asking AI about the benefits of planning sex, how to navigate menopause and vaginal dryness or what lubricant to use with a dilator after cancer treatment. Here, AI helps make sense of situations that may be difficult to discuss with others and helps bring clarity to an unfamiliar field.

Where this becomes complicated is not simply that people use AI, but how its structure changes what counts as a good explanation. Because the system only has access to one narrated perspective, it can produce a coherent interpretation with high confidence while keeping out perhaps major details like context, history, power dynamics or what the other person has said.

Assisting, but not replacing, relational work

Though it may seem coherent, AI readily compresses nuance into a single storyline and can only focus on a singular conclusion. A chatbot can only respond to what it is given; trained professionals probe, clarify and notice gaps.

This isn’t only informal use of general chatbots either. Some tools are explicitly designed to mimic relationship coaching and therapeutic support, like Mojo or Amanda.ai, and some are even designed to function as an “AI companion” and romantic partner.

AI’s appeal also comes with real costs and risks, including energy-intensive infrastructure, corporate and political interests that shape what these systems learn and reproduce, the possibility of misinformation when nuance is missing and privacy concerns when an individual’s intensely personal disclosures are routed through data systems they do not control.

AI can support reflection and communication, but the substance of a relationship is still built and repaired in real time through choices partners make with each other. So, if you want a nuanced human answer, then just ask the humans in your life what they meant when they said “XYZ.”

The Conversation

Maha Khawaja does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why people are turning to AI first for relationship advice — and why they shouldn’t – https://theconversation.com/why-people-are-turning-to-ai-first-for-relationship-advice-and-why-they-shouldnt-272797

Can the placenta predict schizophrenia risk? Lessons from prenatal cannabis exposure

Source: The Conversation – Canada – By Daniel Hardy, Professor, Department of Ob/Gyn and Physiology and Pharmacology, Western University

Schizophrenia is a serious mental health disorder that is characterized by psychosis, making it difficult for a person to tell what is real. It impacts about one per cent of the Canadian population and is linked to major health challenges, including a shorter life span.

Many factors can increase the risk of developing schizophrenia, such as prenatal environmental conditions (for example, malnutrition or drug exposure), family history, childhood trauma and growing up in an urban environment.

However, there are still no reliable biomarkers that can predict early risk. This is important because early diagnosis leads to better treatment and outcomes for patients. Researchers are now looking at the placenta as a possible source of early indicators of schizophrenia risk.

The placenta-brain axis

The placenta can “record” what happens during pregnancy and can reflect both healthy and unhealthy conditions for the baby. This idea is known as the placenta-brain axis, which suggests that when the placenta is negatively affected, brain development may also be harmed in both the short and long term.

Large clinical studies have shown that in pregnancies resulting in low birth weight babies, certain genetic markers in the placenta are changed. These markers are strongly linked to a higher risk of schizophrenia and other negative behavioural outcomes (for example, autism, impaired cognition) in children.

There is also strong evidence connecting cannabis use during pregnancy to harmful effects on a child’s brain development, including a higher risk of schizophrenia. This is especially concerning in Canada, where cannabis was legalized in 2018. Since then, cannabis use during pregnancy has increased, with the highest reported rate of 24 per cent among pregnant teens (ages 13 to 19 years).

Although prenatal cannabis use is known to be associated with low birth weight, it is not well understood whether cannabis exposure affects the same placental biomarkers linked to schizophrenia. My laboratory, which has experience studying the effects of drug exposure during pregnancy, explored this question in a study published in Biology of Reproduction in January.

THC exposure

As a professor in the Department of Obstetrics and Gynaecology at the Schulich School of Medicine and Dentistry at Western University, I worked with my research team and collaborators, including master of science student Andrea Kocsis, Enzo Perez Valenzuela, Ph.D., David Natale, Ph.D., and Steven Laviolette, Ph.D. to investigate whether THC (the main psychoactive component of cannabis) changes these known placental schizophrenia markers.

First, we used a preclinical rodent model in which pregnant animals were given edible THC mixed with Nutella. We found that both male and female offspring exposed to THC showed reduced prepulse inhibition early in life. Prepulse inhibition is a psychological test commonly used when diagnosing schizophrenia in humans. Specifically, the prepulse inhibition test measures sensorimotor gating — the brain’s ability to filter out irrelevant stimuli — by observing how a weak, preceding stimulus (prepulse) reduces the startle response to a subsequent loud noise (pulse).

More importantly, we discovered that the placentae of these THC-exposed offspring showed increases in several human placental markers linked to schizophrenia risk.

We then tested whether this also occurs in a human cell culture model. We found that isolated human placental cells treated short-term (24 hours) with THC showed similar increases in these schizophrenia-related genes in these cells.

Identifying risks

This study has important clinical implications. Although stopping cannabis use during pregnancy is always recommended, it can be difficult for many people due to social or habitual dependence. As a result, some children are exposed to cannabis before birth without having any choice.

By identifying cannabis-specific placental markers linked to schizophrenia, there is potential to reduce negative behavioural outcomes early in life through psychological or dietary interventions. Since schizophrenia is usually diagnosed between ages 16 and 30, being able to identify risk at birth would be extremely valuable. Moreover, testing the placenta after delivery could become a practical way to assess schizophrenia risk.

Further research is needed to understand whether other components of cannabis, such as cannabidiol (CBD), also affect neurodevelopment or alter these placental markers. It is also imperative to explore whether these markers can help predict other outcomes, including adverse psychological conditions, autism or cognitive impairments.

Additionally, because the pre-conception health and lifestyle of fathers as well as mothers can affect the placenta, it is also possible that consumption of cannabinoids by either parent before pregnancy could affect placental health and increase schizophrenia risk, but this requires further study.

In the meantime, our findings provide important functional evidence for clinicians and regulatory agencies, such as Health Canada, as they continue to make decisions and policies regarding the safety of cannabis use during pregnancy.

The Conversation

Daniel Hardy receives funding from the Canadian Institutes for Health Research (CIHR).

ref. Can the placenta predict schizophrenia risk? Lessons from prenatal cannabis exposure – https://theconversation.com/can-the-placenta-predict-schizophrenia-risk-lessons-from-prenatal-cannabis-exposure-274381