Pesticides : mieux les évaluer pour mieux protéger notre santé et limiter la contamination de l’air, des eaux et des sols

Source: The Conversation – France in French (3) – By Cécile Chevrier, Epidemiologie, Inserm

Dans le cadre du paquet législatif « Omnibus X – Sécurité alimentaire et alimentation animale », la Commission européenne propose de simplifier les procédures d’autorisation de mise sur le marché des pesticides, alors que les données scientifiques montrent une contamination généralisée de la population mais aussi de l’air, des eaux et des sols. La décision de la Commission européenne irait à rebours du nécessaire renforcement de l’évaluation des pesticides afin de protéger la santé humaine et limiter la pollution de l’environnement.


Comment un pesticide est-il évalué et mis sur le marché ? Pourquoi les pesticides peuvent-ils présenter des risques pour la santé et l’environnement alors que leurs usages sont autorisés ? On fait le point.

Qu’est-ce qu’un pesticide ?

Un pesticide (pest- : nuisible ; -cide : tuer) est utilisé pour contrôler et/ou tuer les organismes vivants que nous considérons nuisibles pour nos activités, telles que l’agriculture, mais aussi la protection du bois, les transports, ou la lutte contre les moustiques.

Cependant, un pesticide peut présenter un risque pour des organismes a priori non ciblés s’il entre en contact avec eux. Par exemple, certains insecticides agissent sur l’insecte ciblé par des mécanismes de neurotoxicité communs à d’autres organismes, comme les abeilles ou l’espèce humaine. Être en contact avec un pesticide présente donc un risque potentiel qu’il faut pouvoir identifier et maîtriser.

Comment un pesticide est-il actuellement autorisé ?

Dans le langage réglementaire, les pesticides utilisés notamment sur les cultures pour notre agriculture sont appelés plus positivement : produits phytopharmaceutiques (pharmaco- pour médicaments ; phyto- pour plantes), c’est-à-dire produits de protection des plantes.

Un peu d’histoire… Nous utilisons des pesticides depuis des siècles. C’est en 1978 que l’Europe démarre un processus d’harmonisation avec une liste commune de produits interdits, prenant conscience du danger qu’ils peuvent représenter pour la santé humaine.

En 1991, s’opère un changement de paradigme important avec l’établissement d’une « liste positive » (en d’autres termes, tout produit-pesticide doit être autorisé avant d’être mis sur le marché), l’implication des industriels dans la preuve de l’innocuité des produits qu’ils commercialisent, et la considération de la protection de l’environnement (Directive 91/414/CEE du Conseil du 15 juillet 1991 concernant la mise sur le marché des produits phytopharmaceutiques)

Aujourd’hui, c’est le Règlement européen (CE) No 1107/2009 qui régit la mise sur le marché des produits phytopharmaceutiques. Cette évaluation des risques a priori impose une série de tests que l’industriel doit conduire pour évaluer les propriétés toxicologiques, environnementales et écotoxicologiques de la substance-pesticide qu’il souhaite introduire ou réintroduire sur le marché européen.

L’EFSA (Autorité européenne de sécurité sanitaire des aliments) évalue la conformité des tests réalisés par les industriels et de leurs résultats, et réalise l’évaluation des risques en vue de l’approbation (ou non) de la substance par la Commission européenne. Puis, pour le cas de la France, c’est l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) qui autorise (ou non) les produits commerciaux contenant cette substance et ses coformulants et qui définit des conditions d’usage possibles pour une bonne protection des utilisateurs et de l’environnement.

Finalement, selon les termes du règlement, l’autorisation est obtenue s’il n’y a « aucun effet nocif sur la santé humaine ou animale » (c’est-à-dire si les risques sont considérés comme « maîtrisés » avec notamment l’identification d’une dose sans effet), « ni aucun effet inacceptable sur l’environnement » (ce qui ne signifie pas qu’il n’y a pas d’effet).

En outre, « pour des raisons de sécurité » dixit le règlement, l’autorisation d’une substance ne peut qu’être limitée dans le temps (jusqu’à 15 ans maximum). La substance doit faire l’objet de réévaluations afin de prendre en compte l’évolution des lignes directrices des tests réglementaires ainsi que des connaissances scientifiques. Pour résumer, les substances doivent être réévaluées périodiquement et de façon de plus en plus complète.

Une évaluation réglementaire nécessaire mais incomplète

L’évaluation a priori est nécessaire car elle permet dans un cadre commun européen d’éviter la mise sur le marché de pesticides fortement nocifs pour la santé humaine et animale et/ou dangereux pour l’environnement. Toutefois, elle est insuffisante par construction, car elle ne teste pas les conditions réelles d’usage et d’exposition.

Prenons un exemple : de récents travaux montrent que la moitié des enfants français de 3,5 ans ont été en contact avec plus de 68 pesticides différents en seulement quelques mois (les résultats ont été obtenus par des mesures dans les cheveux). Or il n’existe pas de « tests réglementaires » ni de conditions de laboratoire qui permettent de reproduire cette exposition multiple et répétée et d’étudier les risques associés, à plus ou moins long terme, dans la vie de l’enfant.

Un autre exemple décrit la présence de pesticides en cours d’utilisation dans des zones très éloignées des traitements (au niveau du pôle Nord, en montagne, etc.), qui est révélatrice d’une persistance atmosphérique non anticipée par l’évaluation a priori actuelle, et potentiellement à risque pour ces écosystèmes lointains.

Le mode d’évaluation actuel des pesticides se révèle peu réactif face aux nouvelles connaissances scientifiques. Plus de dix années ont en effet été nécessaires pour que l’EFSA (Autorité européenne de sécurité sanitaire des aliments) publie, en 2023, la version finalisée du document-guide dédié à l’évaluation des risques pour les abeilles. Et celui-ci n’est toujours pas mis en application… alors que la science continue à avancer en parallèle.

Enfin, dans les faits, il est plus simple pour les autorités en charge de l’évaluation de la conformité des tests d’invalider des données scientifiques non conformes au cadre réglementaire que de remettre en question l’ensemble du processus d’évaluation des risques.

Des observations de contamination environnementale et risques associés aux pesticides qui s’accumulent

Une fois un pesticide mis sur le marché, il est essentiel de mettre en place des études pour surveiller a posteriori, en conditions réelles, à court, moyen et si possible long termes, les potentiels effets indésirables non identifiés a priori.

En France, les études de surveillance environnementale mettent en évidence depuis plusieurs décennies une contamination quasi généralisée de l’environnement, « en ville » comme « à la campagne » au niveau des eaux, des sols et de l’air. Cette surveillance est majoritairement issue d’initiatives d’acteurs associatifs et académiques et largement dépendante de financements publics. Un grand nombre de ces données est accessible en ligne.

Un large corpus d’autres études observationnelles issues de la recherche académique, conduites dans la population humaine ou animale, a permis de conclure à l’existence d’un risque pour la santé humaine, en particulier pour les utilisateurs des produits-pesticides et les enfants, et de risques pour la biodiversité et ses fonctions écosystémiques, pourtant elles-mêmes essentielles aux activités agricoles.




À lire aussi :
Pesticides et santé : les agriculteurs ont été, sont et seront les principales victimes de ces substances


On ne peut plus nier aujourd’hui que le système tel qu’il a été construit implique la présence de risques non maîtrisés pour la santé et pour les écosystèmes. Certains sont reconnus en France puisque ces connaissances scientifiques consolidées ont aidé aux systèmes de réparation des victimes professionnelles, à la sensibilisation des utilisateurs, des préventeurs (c’est-à-dire les professionnels de la prévention, ndlr).

Un système de vigilance vis-à-vis des risques des pesticides à consolider

Comme pour les médicaments, il existe en France un système de vigilance vis-à-vis des « effets indésirables » des pesticides observés a posteriori (c.-à-d., après leur mise sur le marché). Ce dispositif de phytopharmacovigilance (ou PPV), piloté par l’Anses, est unique en Europe, mais reste peu connu et insuffisamment encouragé. Sa mission initiale est d’identifier les effets indésirables pour faire évoluer les dossiers réglementaires à l’échelle nationale, en proposant des modifications aux autorisations des produits-pesticides.

Les données de surveillance environnementale et la littérature scientifique constituent des sources d’informations importantes. Un bilan des 10 ans d’activités de phytopharmacovigilance démontre l’utilité et le succès de ce système.

Par exemple :

  • une contamination inattendue de cultures non traitées par le prosulfocarbe, une substance active très employée en France en tant qu’herbicide, a conduit à durcir les conditions d’emploi (en l’occurrence, les traitements ont été interdits dans un rayon de 1 km de productions agricoles sensibles prêtes à être récoltées) ;

  • les situations de non-conformité des eaux (caractérisées par des taux supérieurs à un seuil de référence) ont conduit à des réductions de doses d’emploi autorisées du S-métolachlore, une autre substance herbicide ;

  • des situations nouvelles peuvent aussi constituer un signal à gérer, par exemple la mesure dans les eaux de l’acide trifluoroacétique, un composé appartenant à la famille des PFAS.

Cependant, ces signaux préoccupants pris en charge ne sont que l’« arbre qui cache la forêt ». De fait, ce dispositif de vigilance n’identifie pas comme signal la contamination des milieux ou l’exposition de la population générale, pourtant régulièrement observées, banalisant ainsi cette connaissance. L’absence de seuil de référence sanitaire, souvent difficile et long à déterminer, écarte aussi la possibilité d’un signal de vigilance. C’est notamment le cas de l’observation ubiquitaire de traces d’insecticides pyréthrinoïdes dans les urines de la population française depuis plus de 10 ans.

De plus, comme l’évaluation a priori, le système de vigilance actuel n’est pas conçu pour considérer la problématique d’une exposition à des mélanges. Ainsi, si l’on reprend l’exemple cité plus haut, la moitié des enfants français seront encore longtemps exposés à plus de 68 pesticides.

Enfin, une fois identifié, le signal est transmis aux acteurs décisionnaires. Mais sa gestion dépend de la compréhension et de la sensibilité de ces acteurs face à ces connaissances.

Une banalisation des contaminations environnementales et des expositions humaines préoccupante

Les connaissances montrent une complexité croissante des contaminations environnementales ainsi que des risques directs et indirects pour la santé humaine, animale et des écosystèmes. La banalisation de cette connaissance est préoccupante. Elle est devenue pour certains acteurs une normalité et engendre un risque croissant de régression des politiques publiques.

Une simplification des procédures d’évaluation a priori des risques des pesticides est ainsi à contresens du besoin. Il est illusoire de penser que les coûts économisés par cette simplification seraient supérieurs aux coûts des conséquences multiples et complexes sur la santé et l’environnement.

Au contraire, l’évolution continue à la lumière des nouvelles connaissances scientifiques et des nouvelles pratiques agricoles, de ces systèmes d’évaluation a priori et a posteriori des risques, ainsi que leur rapprochement, sont nécessaires pour préserver la santé de tous.


Ont contribué à la rédaction de cet article : Brice Appenzeller (Luxembourg Institute of Health, Luxembourg), Carole Bedos (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Rémi Béranger (UMR1085 Inserm, Université Rennes, Irset, Rennes, France), Aurélie Berthet (Centre universitaire de médecine générale et santé publique, Unisanté, Lausanne, Suisse), Cécile Chevrier (UMR1085 Inserm, Université Rennes, Irset, Rennes, France), Fleur Delva (U1219 Inserm, Université de Bordeaux, Bordeaux Population Health Center, ISPED, Bordeaux, France), Marc Gallien (ULR 4477, Université Littoral Côte d’Opale, Université Lille), Emmanuelle Kesse-Guyot (U1153 Inserm, U1125 INRAE, CNAM, Université Sorbonne Paris Nord, CRESS, Bobigny, France), Laure Mamy (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Christian Mougin (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Maryline Pioz (INRAE, UR406 Abeilles et Environnement, Avignon, France).

The Conversation

Activité d’expertise à l’Anses

Activité d’expertise à l’Anses

Christian Mougin est membre de l’Académie d’Agriculture de France. Il a une activité d’expertise à l’Anses.

Laure Mamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pesticides : mieux les évaluer pour mieux protéger notre santé et limiter la contamination de l’air, des eaux et des sols – https://theconversation.com/pesticides-mieux-les-evaluer-pour-mieux-proteger-notre-sante-et-limiter-la-contamination-de-lair-des-eaux-et-des-sols-282323

Le cyborg, ce corps-machine qui nous invite à explorer l’histoire et le futur des hybridations

Source: The Conversation – in French – By Jessica Ragazzini, Chercheuse associée, Université de Strasbourg; Université du Québec en Outaouais (UQO)

Illustration de couverture de l’ouvrage _Arts et Cyborgs. Pensées et imaginaires des corps-machines_.

En proposant une archéologie des imaginaires du corps-machine – des mythes antiques aux pratiques féministes, queer, afrofuturistes et crip – l’ouvrage Arts et Cyborgs. Pensées et imaginaires des corps-machines retrace les usages esthétiques et politiques de l’hybridation, tout en situant les controverses contemporaines liées à l’intelligence artificielle dans une longue histoire des artefacts anthropomorphes.


Depuis plusieurs années, l’intelligence artificielle (IA) suscite une attention croissante, tant dans les pratiques artistiques que dans les travaux universitaires. Deux postures tendent à structurer, parfois de manière caricaturale, les débats qui l’entourent : d’une part, elle suscite l’enthousiasme pour les formes inédites d’interaction et de co-production entre humain et machine ; d’autre part, elle provoque une grande inquiétude face aux risques d’appauvrissement des interprétations du monde, de standardisation des formes et de réification du vivant.

Dans l’un comme dans l’autre cas, la proximité supposée d’une machine dont « l’intelligence » qui serait comparable à celle de l’être humain, voire susceptible de la dépasser, est au cœur de la polarisation. Or, cette fascination et les peurs qu’elle charrie ne surgissent pas ex nihilo. En effet, depuis l’Antiquité, les créations artificielles, les figures anthropomorphes et les récits de création constituent des réflexions privilégiées qui éprouvent les limites du vivant et permettent de repenser la définition de l’être humain.

Dans ce contexte, l’ouvrage Arts et Cyborgs. Pensées et imaginaires des corps-machines propose une synthèse de l’histoire longue de la fascination pour les objets et corps anthropomorphes. Ce projet retrace une généalogie à la fois artistique, philosophique et curatoriale de l’hybridation entre chair et technique, représentation centrale de la culture contemporaine et passée. Rejetant l’idée d’un inventaire exhaustif, cette publication présente les continuités et ruptures afin d’offrir des outils conceptuels permettant de situer les formes actuelles dans un réseau de références plus ancien et complexe.

Une figure-limite

Forgé en 1960 par les scientifiques Nathan S. Kline et Manfred E. Clynes, le terme « cyborg » désigne un organisme cybernétique susceptible d’adapter le corps humain aux conditions d’une vie extraterrestre. Au-delà de cette origine technoscientifique, l’imaginaire cyborg s’est rapidement constitué comme une construction du rapport à soi et aux mondes à titre de figure-limite, au sein de laquelle se rejouent les partages entre organisme et artefact, autonomie et contrôle, vulnérabilité et puissance.

Réinvestie par les luttes et mouvements sociaux à partir des années 1970, la figure du cyborg contribue à déstabiliser les catégories binaires, en particulier celles du genre, et à interroger les régimes de normalisation qui organisent les rapports sociaux et sociétaux.

Cette fécondité critique est théorisée de manière décisive par la philosophe et biologiste Donna Haraway dans son Manifeste Cyborg dans lequel le cyborg apparaît comme un paradigme politique qui remet en question les logiques de pouvoir fondées sur des oppositions naturalisées (corps/objet, vivant/machine, nature/culture). En ce sens, il ouvre un horizon spéculatif et prospectif qui mène à envisager des futurs possibles où les catégories mêmes par lesquelles nous décrivons l’humanité et la non-humanité se trouvent reconfigurées, dans un entre-deux instable entre biologie et technologie.

Échapper aux normes sociales et symboliques

Si la culture contemporaine attribue au cyborg une myriade de définitions parfois concurrentes ou même contradictoires, celles-ci s’inscrivent dans une histoire plus vaste des représentations de la figure humaine. Dès l’Antiquité, des récits tels que l’histoire de Pygmalion ou celle d’Hermaphrodite déplacent des frontières réputées stables entre être et matière (la pierre animée), entre masculin et féminin, entre fabrication et engendrement montrant la complexité des modes d’existence qui échappent finalement aux nomenclatures fixes et stéréotypées. Au fil des siècles, de tels mythes se sont multipliés devenant des matrices narratives par lesquelles les artistes ont pu imaginer des formes abolissant ou contestant les normes sociales et symboliques de leur époque.

Parallèlement, la philosophie a élaboré des cadres conceptuels visant à préciser ce qui distingue l’être humain du non-humain, mais aussi ce qui les relie tels que l’agentivité, la sensibilité, le langage, la technique, etc. Les controverses actuelles relatives à l’IA – notamment lorsque des systèmes génératifs produisent images ou sons à partir de corpus préexistants – réactivent ainsi des questions anciennes : ces productions relèvent-elles d’une forme de création analogue à celle d’un artiste mobilisant un bagage culturel ? Les deux types de productions sont-elles radicalement opposées du fait de l’impossible subjectivité humaine du programme génératif ? Ces débats ne sont pas sans rappeler ceux prononcés lors de l’apparition de la photographie qui révélaient déjà les craintes d’usage des dérives d’une image réaliste indirectement produite par l’être humain.

Envisager des transformations sociétales

Ainsi, si la photographie est aujourd’hui largement reconnue comme un médium artistique à part entière, son histoire rappelle que les technologies visuelles ne sont jamais neutres. Au début du XXe siècle, l’usage volontiers patriarcal de la photographie de la part de certains artistes futuristes et surréalistes contraste avec les expérimentations de Hannah Höch ou de Claude Cahun, qui en font un outil de déstabilisation des identités, des normes de genre et des régimes de représentation.

De manière comparable, l’hybridation technologique contemporaine par laquelle la figure cyborg prend forme dans les œuvres féministes et queer constitue un contrepoint critique face à la circulation massive sur les réseaux sociaux, d’images d’IA reconduisant des stéréotypes sexistes et anti-LGBTQI2A+.

Dans ces pratiques, la figure cyborg ne se réduit pas à une iconographie de science-fiction, elle devient un dispositif de pensée pour envisager des transformations sociétales, renverser des hiérarchies corporelles et imaginer d’autres normes possibles. C’est aussi ce que montrent les artistes a frofuturistes qui articulent la spéculation politiquement engagée ou encore les artistes crip dont le corps perçu aujourd’hui en situation de handicap, pourrait se voir demain doté d’une mécanique surpuissante qui le transformerait en un nouvel idéal corporel à atteindre.

Faire place à l’erreur

Le corps cyborg ouvre un horizon de capacités « surhumaines » ou « surbiologiques ». Toutefois, il demeure simultanément exposé aux failles, aux incompatibilités et aux dysfonctionnements propres aux dispositifs techniques et aux vulnérabilités de la chair. Dans les pratiques artistiques, ces incidents constituent des matériaux heuristiques qui mettent en évidence les infrastructures, les normes et les idéologies inscrites dans notre monde contemporain. Le glitch, le bug ou la panne peuvent alors être revendiqués comme motifs esthétiques, en rupture avec les impératifs d’optimisation, de fluidité et d’hyperproductivité qui accompagnent souvent l’imaginaire technocapitaliste du progrès technoscientifique.

Faire place à l’erreur revient à ouvrir un champ de futurs possibles où l’altération devient souhaitable, précisément parce qu’elle introduit de l’indéterminisme qui échappe à toute tentative de contrôle humain ou technologique. Ce geste reconfigure les narratives historiques de réussites de l’inventivité et du génie de l’humanité, il ouvre des brèches dans les récits linéaires du progrès en perturbant sa frise chronologique. Les dysfonctionnements apparaissent ainsi comme étant des leviers critiques pour penser l’histoire autrement à travers ses trous, ses silences, ses répétitions, ou ses accélérations angoissantes.

Ouvrir le champ des possibles

L’intérêt des imageries cyborg réside dans leur polysémie et dans l’antagonisme possible de leurs usages, ces figures peuvent aussi bien perpétuer des fantasmes de maîtrise que soutenir des politiques de l’émancipation. C’est pourquoi elles requièrent une lecture contextualisée, attentive à la fois aux symboliques mobilisées, aux enjeux contemporains et aux dimensions spéculatives qui ouvrent la porte à des futurs pessimistes autant qu’optimistes. En ce sens, l’ouvrage Arts et Cyborgs. Pensées et imaginaires des corps-machines vise à proposer une histoire des imaginaires non hégémonique. En articulant archéologie des formes, analyse des discours et attention aux pratiques curatoriales, il ouvre la voie à de nouvelles recherches sur les manières dont les corps – réels, représentés ou fictionnés – deviennent des lieux d’une reconfiguration des sensibilités, des nomenclatures, des pouvoirs et des possibles.


Arts et Cyborgs. Pensées et imaginaires des corps-machines a été publié par les éditions Double Ponctuation.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Le cyborg, ce corps-machine qui nous invite à explorer l’histoire et le futur des hybridations – https://theconversation.com/le-cyborg-ce-corps-machine-qui-nous-invite-a-explorer-lhistoire-et-le-futur-des-hybridations-281085

L’école face à la pauvreté : comment les inégalités sociales se transforment en inégalités scolaires

Source: The Conversation – in French – By Yves Reuter, Professeur émérite en didactique, Université de Lille

En France, plus que dans d’autres pays, l’échec scolaire est socialement marqué. Les élèves touchés par la pauvreté en classe de sixième ont des conditions d’entrée dans la vie adulte plus défavorables que les autres élèves. Comment transformer l’école pour qu’elle soit réellement un espace d’égalité des chances ?


Comment expliquer le sort réservé aux plus démunis dans l’école française et, notamment, les orientations précoces hors des parcours « ordinaires » qui les concernent plus souvent ? Serait-ce, à suivre un certain nombre de représentations sociales, une sorte de fatalité ?

Nos recherches interrogent certains des fonctionnements pédagogiques les plus classiques de l’école. Nous montrons en quoi les explications, extrascolaires et scolaires, les plus souvent avancées ne suffisent pas à comprendre cette situation si on ne prend pas en compte des dimensions telles l’opacité des pratiques scolaires, les injustices, la mise à l’écart de certains élèves ou encore l’enchainement des micro-décisions qui conduisent aux orientations subies.

Cependant, les démarches de certaines équipes pédagogiques, et notamment le changement de posture des enseignants, témoignent qu’il est possible de lutter contre ces mécanismes délétères.

Quelles situations de pauvreté en France ?

Selon la note de l’Insee du 7 juillet 2025, L’essentiel sur… la pauvreté, la pauvreté ne cesse d’augmenter en France depuis le milieu des années 2000 et touchait, en 2023, près de dix millions de personnes.

Cette pauvreté touche massivement les enfants et les jeunes. Selon les données de l’Insee de 2024, 2 759 000 des moins de 18 ans (soit plus de 20 % d’entre eux) étaient en situation de pauvreté monétaire ou de privation matérielle. Par ailleurs, selon le baromètre de l’Unicef, le nombre d’enfants SDF augmente.

Cette situation est d’autant plus préoccupante en France que, plus que dans d’autres pays, l’échec scolaire est socialement marqué. Il frappe les élèves les plus pauvres : faibles résultats, décrochage, orientation subie, de surcroit dans les filières les moins légitimes. Ainsi, selon l’édition 2023 du Rapport sur les inégalités en France : « Dès le plus jeune âge, les résultats des élèves sont liés en partie au milieu social de leurs parents. Les écarts se creusent au fil de la scolarité ».

Une note d’analyse du Haut-commissariat à la Stratégie et au Plan publiée en 2026 a synthétisé les résultats du suivi d’une cohorte d’élèves pendant 16 ans, depuis leur entrée au collège jusqu’à 26-27 ans. Il s’avère que, plus l’exposition à la pauvreté en sixième est intense, plus les conditions de vie à l’entrée dans l’âge adulte sont défavorables : sortie précoce du système scolaire, probabilité accrue de n’être ni en emploi, ni en études, ni en formation, et lorsqu’ils sont en emploi de percevoir un bas salaire (parmi les 20 % les plus faibles de la cohorte).

Peut-on encore parler d’école inclusive en s’aveuglant sur le sort réservé aux plus pauvres ?

Comment comprendre cet échec qui touche les plus pauvres ?

Quels sont les mécanismes susceptibles d’expliquer cette situation ? Il existe des facteurs extrascolaires bien connus telles les conditions de vie, la ghettoïsation de l’habitat ou encore la dégradation des services publics. Il existe aussi des facteurs qui touchent l’institution scolaire dans sa globalité : les moyens insuffisants consacrés à l’éducation, le peu de reconnaissance accordée aux enseignants, l’inadaptation de leur formation initiale et continue, les classes surchargées en comparaison d’autres pays, les réformes et les injonctions incessantes.

Au-delà de ces facteurs généraux, nos recherches nous ont permis de préciser trois grands mécanismes qui génèrent l’échec des plus pauvres, à savoir l’opacité de l’univers et des pratiques scolaires (par exemple, la multiplicité des sigles, les organisations disciplinaires, les annotations…), certaines règles d’imposition (imposition du silence, de la concurrence entre élèves, des modalités évaluatives…) et, enfin, les injustices et stigmatisations (quant à la langue parlée, quant à la soi-disant « absence de culture », auxquels il faut ajouter les prophéties défaitistes – « Ce n’est pas pour toi », « Tu n’y arriveras pas »).

Les enfants de France de plus en plus pauvres (FranceInfo INA, 2019).

La philosophe britannique Miranda Fricker parle d’injustice épistémique envers les dominés. Ce concept renvoie aux mécanismes qui disqualifient certaines personnes sur le plan des savoirs, par exemple la décrédibilisation des témoignages (ne pas être cru parce qu’on est pauvre), la négation des contributions (ne pas être considéré comme de véritables producteurs de connaissances) ou encore l’impossibilité de la transmission (ne pas avoir la possibilité de transmettre aux plus jeunes de sa famille ses savoirs, car on est empêché de le faire).

À cela, il convient encore d’ajouter la manière dont l’école tend à abandonner certains élèves et, plus particulièrement, les plus défavorisés : refus de donner la parole, manque de stimulations, baisse des exigences, stigmatisation d’absences alors qu’elles sont dues à l’accompagnement administratif des parents ou à la nécessité de prendre soin des plus jeunes de la fratrie. Par exemple, le dernier jour de maternelle, J. se tourne vers sa maîtresse et lui dit « au revoir Madame », et celle-ci de s’étonner « c’est la première fois que j’entends sa voix ! »

Nous nous sommes aussi de plus en plus attachés à étudier l’amont des orientations imposées, notamment dans le cadre de la recherche Cipes (Choisir l’Inclusion Pour Eviter la Ségrégation), menée au sein d’ATD Quart-Monde. Il s’agit de voir comment les décisions d’orientation qui déterminent en grande partie de l’avenir scolaire et social des élèves ne surviennent pas d’un coup mais sont le résultat de micro-décisions qui se produisent dès le début de la scolarité : exclusions temporaires sans rattrapage du travail prévu, placement systématique au fond de la classe.

Quelques pistes possibles

Dans le cadre des recherches que nous évoquons, le fatalisme pas plus que le déterminisme ne sont de mise puisque l’échec ou la réussite se construisent dans les interactions pédagogiques et que des résultats intéressants sont obtenus par des équipes d’enseignants mettant en œuvre des pratiques pédagogiques dites différentes.

Ces pratiques ont en commun d’articuler la sécurisation et l’exigence ainsi que la bienveillance et la stimulation et d’être constamment en quête de ce qui peut faire sens pour les élèves.

Des démarches telles que la coopération ou les projets qui allègent le stress lié à la compétition et qui favorisent la mobilisation des élèves constituent des leviers éprouvés. Il en est de même pour les dispositifs d’évaluation formative qui ne portent pas atteinte à l’estime de soi et peuvent conduire à l’auto-évaluation.

Nous insisterons ici sur le changement de posture des enseignants. Cela consiste, entre autres, à fonder son action sur le principe d’éducabilité (tous les élèves peuvent apprendre et progresser), à abandonner les seules positions de transmetteur des contenus et de gardien de l’ordre scolaire pour se constituer en facilitateur, en accompagnateur et en garant des apprentissages.

Cela consiste aussi, et c’est essentiel, à se mettre en position d’écouter et d’apprendre aussi bien des élèves que de leur famille. Par exemple, cela peut permettre de mieux comprendre certains comportements d’élèves : la fatigue qui s’inscrit dans une vie de manques, d’inquiétudes et d’épreuves, l’effacement de soi pour éviter d’attirer l’attention, la tension permanente pour résister aux différentes formes de domination, la méfiance des institutions, la peur de dire ses problèmes car les confidences peuvent se retourner contre soi, les stratégies de contournement afin d’éviter des rapports de pouvoir défavorables, la révolte et les affrontements car la colère sociale est là en permanence.

Il convient aussi d’insister sur une conception des apprentissages comme acculturation dans la mesure où les cultures scolaires sont spécifiques et souvent en rupture avec les cultures des apprenants, notamment les plus pauvres.

Au travers de ces leviers, il s’agit donc de faire fond sur des démarches qui prennent en compte positivement ce que font et savent les élèves et leur famille et qui ne transforment pas les différences extrascolaires en inégalités scolaires.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’école face à la pauvreté : comment les inégalités sociales se transforment en inégalités scolaires – https://theconversation.com/lecole-face-a-la-pauvrete-comment-les-inegalites-sociales-se-transforment-en-inegalites-scolaires-279474

Attaques armées au Mali : les revendications des Touaregs sont la clé de la paix

Source: The Conversation – in French – By Olayinka Ajala, Associate professor in Politics and International Relations, Leeds Beckett University

La situation sécuritaire déjà précaire au Mali s’est encore détériorée fin avril 2026. Des attaques bien coordonnées ont visé plusieurs villes et coûté la vie au ministre de la Défense, Sadio Camara, ainsi qu’à plusieurs soldats maliens.

Ces événements sont l’aboutissement d’une recrudescence des attaques contre l’armée et les institutions de l’État au Mali au cours des dernières années.

Nous menons des recherches sur l’insécurité et la politique en Afrique de l’Ouest et au Sahel depuis plus d’une décennie. Nous pensons que les récentes attaques trouvent leur origine dans les griefs exprimés par les Touaregs, auxquels le régime militaire actuel n’a pas donné suite. Les Touaregs sont des communautés berbères nomades du nord du Mali.

Premier facteur : l’incapacité ou le refus de répondre au mécontentement des Touaregs. Leurs griefs portent principalement sur l’autonomie politique, la marginalisation, la reconnaissance culturelle, le contrôle des ressources, la sécurité et ce qu’ils perçoivent comme une négligence de l’État.

Deuxième facteur : le recours continu à la force par l’armée contre les rebelles dans les régions du nord, sans égard pour les dommages collatéraux. Les Touaregs contestent depuis longtemps les politiques de militarisation des gouvernements maliens successifs.

Troisième facteur : la répartition inégale des ressources, qui maintient la région nord dans une marginalisation. Il s’agit notamment des ressources du nord du Mali telles que les gisements d’or, les mines de sel, les pâturages et les couloirs commerciaux stratégiques. Les revenus tirés de ces sources restent contrôlés par le centre de l’État, basé dans le sud.

S’attaquer à la marginalisation économique pourrait présenter plusieurs avantages. Cela pourrait apaiser les griefs des Touaregs, restaurer la confiance dans l’État malien et faire évoluer les motivations du conflit, en le détournant de la rébellion pour l’orienter vers l’inclusion politique, la stabilité et une paix durable dans le nord du Mali.

La situation

En avril 2026, le Groupe de soutien à l’islam et aux musulmans (JNIM) s’est allié aux rebelles touaregs du Front de libération de l’Azawad (FLA) pour attaquer plusieurs villes du pays.

Cela fait écho à une attaque similaire survenue en 2012, lorsque les Touaregs et des militants affiliés à Al-Qaïda avaient lancé une offensive contre l’État. Le Mouvement national pour la libération de l’Azawad (MNLA), dominé par les Touaregs, a tenté de faire sécession et a déclenché une rébellion.

Le MNLA est un mouvement séparatiste dominé par les Touaregs. Fondé en 2011, il est principalement composé d’anciens combattants de retour de Libye et de Touaregs du nord du Mali. L’organisation comptait environ 10 000 combattants à son apogée en 2012.

Malgré leur nombre, ils ne disposaient pas de la puissance militaire nécessaire pour conserver le contrôle du territoire. Ils se sont donc alliés aux islamistes d’Ansar Dine, d’Al-Qaïda au Maghreb islamique (AQMI) et du Mouvement pour l’unicité et le jihad en Afrique de l’Ouest (MUJAO). Peu après avoir repoussé les forces maliennes fin 2012, l’alliance s’est désintégrée.

Les groupes islamistes étaient mieux armés et financés. Ils ont chassé les séparatistes laïques des grandes villes comme Gao, Tombouctou et Kidal. L’intervention des forces françaises en 2013 a aidé le gouvernement malien à regagner la plupart des territoires perdus.

AQMI et ses alliés se sont alors repliés dans les montagnes et les zones désertiques environnantes. Ils ont adopté des tactiques de guérilla, notamment des attentats-suicides et l’utilisation de mines terrestres.

Le retrait des forces françaises en 2022 semble avoir renforcé l’audace des militants islamistes. Il a levé la pression antiterroriste, perturbé les services de renseignement et la logistique, et créé un vide sécuritaire dans un contexte de faiblesse des capacités de l’État malien. Cela a permis aux groupes islamistes d’étendre leurs opérations, de recruter localement et de regagner de l’influence territoriale.

Leçons non tirées

Le régime militaire d’Assimi Goïta n’a pas su répondre aux revendications des séparatistes touaregs. Les Touaregs se plaignent depuis longtemps d’être exclus du pouvoir par l’État malien dominé par le sud. Depuis l’indépendance du pays en 1960, les dirigeants touaregs ont fait valoir que la structure de l’État malien ne reflète pas leur identité politique, leurs intérêts économiques et leurs traditions de gouvernance. La revendication d’une autonomie ou d’un statut d’autonomie a été réprimée, souvent par la force.

Plus récemment, l’aggravation de la sécheresse, de la désertification et de la variabilité climatique a dévasté les moyens de subsistance des pasteurs touaregs. Ces griefs sont antérieurs à l’insurrection islamiste et sont essentiels pour comprendre l’approche du groupe.

La deuxième question non abordée est que les opérations antiterroristes recourent à la force, ce qui entraîne des dommages collatéraux. Une analyse récente montre que les opérations antiterroristes menées dans le nord et le centre du Mali ont infligé aux civils des dégâts considérables, des déplacements de population et des punitions collectives. Celles-ci ont notamment pris la forme d’arrestations arbitraires et de massacres.

Ces facteurs ont créé des conditions que les groupes islamistes ont exploitées à des fins de recrutement, de contrôle territorial et de légitimation.

La responsabilité de cette situation a été imputée aux régimes maliens successifs et aux opérations françaises précédentes. C’est l’une des principales raisons pour lesquelles les interventions françaises ont été considérées comme des échecs.

Le troisième facteur majeur de violence au Mali est lié à la répartition inégale des ressources. Depuis l’indépendance, les investissements publics, les infrastructures, les services sociaux et l’attention politique se sont fortement concentrés dans le sud du pays.

Les accords de paix précédents ont promis la décentralisation, le financement et l’intégration des élites du nord et des ex-combattants. Mais leur mise en œuvre a été lente, voire inexistante.

Y a-t-il une issue ?

Il faut trouver une réponse à la question touareg pour réduire les tensions entre les régions du pays. On peut affirmer que les acteurs touaregs se sont trompés à deux reprises en concluant des accords avec des groupes djihadistes. Mais cela ne diminue en rien la nécessité de s’attaquer aux inégalités structurelles et aux griefs de longue date qui sous-tendent les revendications des Touaregs.

Pour y parvenir, le régime malien peut s’inspirer du modèle de l’ancien président Mahamadou Issoufou du Niger. Avant son accession à la présidence, les Touaregs nigériens étaient eux aussi lésés. Lorsqu’il est devenu président en 2011, il a :

  • intégré les élites touaregs et les anciens rebelles dans les institutions de l’État

  • décentralisé l’autorité de l’État en accordant un contrôle administratif et budgétaire au niveau régional

  • mis en place des programmes de désarmement, démobilisation et réintégration.




Read more:
Niger : comment les Touaregs ont trouvé le chemin du dialogue avec l’État


Issoufou a également investi dans le développement des infrastructures, ciblant directement les besoins des Touaregs : pastoralisme, éducation, soutien aux moyens de subsistance. Cela comprenait le pastoralisme, l’éducation et le soutien aux moyens de subsistance. L’accès à l’eau dans les zones pastorales arides a été amélioré. De plus, la connectivité et la sécurité routière ont été renforcées.

Répondre aux revendications des Touaregs permettrait ainsi de réduire les tensions au Mali.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Attaques armées au Mali : les revendications des Touaregs sont la clé de la paix – https://theconversation.com/attaques-armees-au-mali-les-revendications-des-touaregs-sont-la-cle-de-la-paix-282329

Rendre l’écologie désirable : comment changer la manière d’en parler ?

Source: The Conversation – in French – By Adeline Ochs, Professeure, départment marketing, Audencia

Souvent présentée pour parler du réchauffement climatique, l’image culpabilisante et larmoyante des ours polaires sur la banquise s’avère contre-productive. Imagebroker.Com/Shutterstock

L’écologie peine à attirer les foules. Et si susciter des émotions positives au lieu d’émettre des injonctions culpabilisantes, incarner les récits par un autre personnage que l’ours polaire ou se sentir concerné avec des exemples à proximité de nous pouvait nous faire changer d’avis ? Car tout le monde part d’abord de sa réalité avant d’envisager celle du monde.


« Un yaourt dans un pot de poils, too much » ? La campagne de communication de Polyvia, syndicat national des industries de la plasturgie, renforce auprès des consommateurs certaines représentations dominantes d’une écologie « intégriste » et « jusqu’au-boutiste » et participe à son discrédit.

Grâce à leur communication, les entreprises – ces « imaginacteurs » – participent à construire des imaginaires collectifs plus ou moins favorables à la transition écologique et sociale. À l’heure actuelle, leurs récits valorisent majoritairement des imaginaires peu compatibles avec les limites planétaires : association du bonheur à la (sur) consommation matérielle, domination de la nature par l’Homme, etc. Or, ces représentations collectives dominantes façonnent nos comportements.

En face, certaines entreprises cherchent à modifier ces imaginaires collectifs dans le sens de la transition écologique et sociale, mais peinent à séduire. Leur faible part de voix par rapport aux acteurs traditionnels peut l’expliquer, tout comme des discours perçus comme moralisateurs, éloignés de la réalité, voire même manipulateurs.

Et si les récits de la transition écologique ne souffraient pas d’un manque de solutions, mais d’un déficit d’envie ? Quelles sont les épices qui pourraient transformer des modèles plus vertueux en récits désirables, capables de nous donner l’appétit du changement ?

C’est ce que nous cherchons à analyser dans le chapitre « Quels ingrédients pour construire de nouveaux récits désirables ? » du livre Consommer sans détruire.

Favoriser les émotions positives

Un trajet de dix kilomètres en voiture thermique émet 2,18 kg de CO2 alors qu’il en émet zéro en phase d’usage avec un vélo mécanique et 0,04 en métro. Ces données éclairent notre raison, mais ne nous font pas pour autant enfourcher une bicyclette. Les preuves chiffrées ne suffisent pas. Susciter des émotions favorise la mise en action.

Alors quels types d’émotions ?

Nous aurions tendance à acheter plus lorsque la peur de la mort est activée collectivement. Les communications qui génèrent de la fierté ou de la joie suscitent, quant à elles, davantage d’adhésion. Le succès du « Dry January » participe à un défi collectif qui génère un sentiment de fierté, plus efficace que la simple mise en avant des méfaits de l’alcool. Trop de complaisance risque toutefois de conduire à sous-évaluer l’importance des changements à mettre en œuvre.

Les individus peuvent estimer que le problème peut être résolu sans eux, et ne voient plus l’intérêt d’agir à titre personnel. Pour contourner ces comportements, les chercheurs recommandent des messages optimistes qui mettent l’accent sur la faisabilité et l’importance du comportement. Par exemple, la campagne les « nouveaux riches », portée par des entreprises comme Getaournd, Blablacar, Lokki ou Homeexchange, mobilise l’humour et des émotions positives pour valoriser des gestes individuels simples – louer, partager, échanger.

Biais de proximité

Le discours écologique s’est appuyé sur la figure de l’ours polaire prisonnier sur la banquise. Bien que cette image demeure un symbole puissant, elle a pu contribuer à ancrer l’idée que la crise environnementale relevait d’une réalité lointaine, déconnectée de nos expériences quotidiennes. Au contraire, les récits ancrés dans des cadres familiers facilitent la capacité des citoyens à s’y projeter.

Plus un individu perçoit une proximité – tant géographique que temporelle – avec les situations décrites, plus le récit lui semble accessible et est susceptible d’influencer concrètement ses comportements. Dans l’une de ses campagnes publicitaires, Renault invitait les individus à renoncer à utiliser leur voiture sur certains trajets. Pour ce faire, elle montrait le quotidien de plusieurs foyers qui, tout en activant des émotions positives, privilégiaient la marche ou le vélo sur des trajets journaliers.

Personnifier son récit

Les histoires sans personnages marquent peu. Évoquer les effets du réchauffement climatique sur la biodiversité marine reste abstrait, mais donner la parole à un pêcheur dont l’activité décline frappe davantage. La personnification réduit la distance psychologique et active l’empathie. Les histoires ont besoin d’être incarnées.

Plusieurs questions se posent. Qui sont les personnages principaux du récit à incarner ? Quelles valeurs et symboliques véhiculent-ils ? Sont-ils désirables pour l’audience ?

Alors que les consommateurs responsables sont associés à différents stéréotypes – rabat-joie, ermites, bobos, etc. – cette dernière question est clé. Cette logique vaut aussi pour les figures publiques.

Peur d’être exclus du groupe

Près de 19 % des Français déclarent avoir peur d’être exclus d’un groupe s’ils changent leur façon de consommer ; ce chiffre passe même à 34 % chez les 18-34 ans. Les normes sociales sont clés et peuvent être exprimées dans les récits via ce que les protagonistes font et valorisent : partager un moment heureux en famille dans un environnement non marchand ou offrir un unique cadeau immatériel à Noël.

Les récits dominants accompagnant la consommation de masse sont perçus comme désirables par une large part des consommateurs. Malgré les scandales, les marques d’ultrafast-fashion, comme Temu et Shein, continuent à prospérer, notamment auprès des jeunes. Dans les sociétés occidentales, les récits sont fondés sur des valeurs individualistes, qui privilégient les intérêts personnels (financiers, statutaires, santé) à l’intérêt collectif.

Comment faire alors la bascule entre ces imaginaires collectifs « égocentrés » et les récits de la transition écologique et sociale ?

Conjuguer intérêts individuels et collectifs

Une approche graduelle, faisant cohabiter les intérêts individuels et collectifs dans les récits, peut constituer un moyen de connecter les imaginaires de la « consommation de masse » à ceux de la transition. Par exemple, dans les sociétés occidentales, marquées par des valeurs individualistes, le renforcement d’émotions comme la fierté, orientées vers soi, pourrait avoir un effet plus fort que l’émerveillement, orienté vers les autres.

Dans une forme de « bataille des imaginaires », les récits de la transition vont se confronter à d’autres. La fréquence de diffusion constitue un paramètre important au regard des biais d’exposition (plus l’individu est exposé à une information, plus la probabilité qu’il ait un sentiment positif à son égard augmente).

Il n’existe pas un récit type, mais plusieurs récits possibles, chacun offrant des espaces de liberté favorisant leur appropriation. Il apparaît essentiel de prévenir le risque d’un nouvel imaginaire dogmatique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Rendre l’écologie désirable : comment changer la manière d’en parler ? – https://theconversation.com/rendre-lecologie-desirable-comment-changer-la-maniere-den-parler-277758

La révolution silencieuse du travail en mode projet

Source: The Conversation – in French – By Christophe Midler, Directeur de recherche CNRS émérite, École polytechnique

Les diagrammes de Gantt incarnent le mode projet pour suivre l’achèvement des tâches dans une chronologie préétablie. AndreyPopov/Shutterstock

En quelques décennies, le travail en projet s’est déployé dans tous les domaines de l’action collective, des entreprises aux administrations. Cette « projectification » de la société, puissant levier d’innovation et d’adaptabilité, a redéfini les formes du travail, les structures organisationnelles et les modes de décision publique. Mais cette « révolution silencieuse » révèle aussi des fragilités nouvelles, où la quête d’agilité se paie d’instabilité et de nouvelles tensions.


Le mode projet comme forme de coordination du travail n’a jamais été aussi présent. Il est en effet très fréquent de nos jours d’entendre parler de projets agiles d’implémentation de l’intelligence artificielle générative. Ces derniers concrétisent les promesses ou les projets en écosystème pour mobiliser des coalitions d’acteurs publics et privés. Ils mettent ainsi en œuvre les grandes transitions contemporaines appelées par le changement climatique, comme la réindustrialisation verte.

Le projet est un pilier du modèle de croissance par l’innovation récompensé cette année par le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel ; Philippe Aghion en est le lauréat. Cependant, la montée en puissance du projet comme forme majeure de coordination dans les entreprises, comme dans les administrations, date d’un demi-siècle maintenant.

Sans fracas ni slogans, une transformation profonde a redessiné l’organisation du travail et la conduite de l’action collective : le projet s’est imposé comme le moteur de l’innovation et du changement. Ce mouvement, qualifié dès 1995 par Christophe Midler par le terme de « projectification », s’est déployé depuis de manière discrète, mais irréversible.

C’est que nous analysons dans un article pour les 50 ans de la Revue française de gestion.

Management de projet

Né des grands programmes militaires de la guerre froide, le management de projet reposait à l’origine sur la planification et le contrôle : définir un objectif, le découper en tâches, suivre les délais et les coûts. Ce modèle, issu du management scientifique à l’américaine, entre en crise dans les années 1980, incapable de gérer la complexité et l’incertitude croissantes des environnements.

Or, à la même époque, l’industrie automobile japonaise renouvelle les méthodes de management de projet en montrant qu’efficacité et créativité peuvent se conjuguer par le renforcement des équipes projet, la coopération entre métiers et la résolution collective de problèmes.




À lire aussi :
Quand le management a fait des États-Unis une superpuissance


Sous l’impulsion de chercheurs français et scandinaves, le projet cesse alors d’être un simple outil d’exécution pour devenir un mode d’organisation à part entière, centré sur l’apprentissage, l’expérimentation et l’engagement collectif.

De l’industrie à l’État

Dans l’industrie, il s’incarne dans les « plateaux projets », où ingénieurs, designers et fournisseurs travaillent ensemble pour raccourcir les cycles de développement. Il va bientôt être à l’épicentre d’une transformation plus profonde et plus vaste des ingénieries des entreprises : le développement de l’ingénierie concourante, qui bouleverse l’engagement des différents métiers impliqués dans les processus de développement produits. Il va même contribuer à transformer le rapport entre entreprises, avec le déploiement du co-développement et la co-innovation.

Peu à peu, cette logique se diffuse à d’autres domaines : recherche, culture, urbanisme, santé, éducation, numérique. L’État lui-même adopte des dispositifs expérimentaux, temporaires et collaboratifs pour piloter ses politiques publiques.

Ce basculement a bouleversé la hiérarchie classique entre les métiers (structures permanentes de l’entreprise) et les projets (actions temporaires). Ces derniers deviennent le lieu où se construisent les compétences, les carrières et parfois les stratégies des entreprises. Dans un monde d’innovation intensive, il ne se contente plus d’exécuter la stratégie : il contribue à la fabriquer.

Les projets d’exploration, par exemple dans l’industrie spatiale ou automobile avec les véhicules autonomes, par exemple, permettent d’apprendre en marchant, de tester des usages, d’associer partenaires industriels et clients autour d’objectifs mouvants.

Instabilité, surcharge et incertitude

Cette organisation du travail en mode projet n’est pas sans revers. Vanté pour sa flexibilité, il engendre aussi instabilité, surcharge et incertitude professionnelle. Les collectifs se font et se défont au rythme des échéances ; la performance se mesure au livrable plus qu’à la durée. Cette intensification invisible du travail touche particulièrement les ingénieurs, chercheurs et managers, souvent contraints d’enchaîner les projets comme des « missions », sans que cela ne soit valorisé à sa juste en valeur dans leur carrière.

Le projet apparaît désormais comme le nouvel instrument de gouvernement du changement. Il incarne la capacité à articuler flexibilité et vision, initiative locale et cadre collectif. À titre d’exemple, l’expérience chinoise du véhicule électrique illustre comment une puissance publique peut orchestrer ces dynamiques : en fixant une vision de long terme, en soutenant l’expérimentation et en sélectionnant les initiatives les plus efficaces – un « darwinisme administré » au service de la transition industrielle.

Au-delà du trio coût-délai-qualité, il est devenu nécessaire d’intégrer les dimensions environnementales, sociales et d’apprentissage collectif. Et cela n’est pas sans susciter des débats quant à son articulation avec nos modèles d’action collective démocratique occidentaux.

Cinquante ans après l’émergence du concept, la projectification a profondément transformé nos entreprises, nos administrations et nos manières de travailler. Ce n’est plus seulement une technique de gestion : c’est une grammaire du changement, à la fois promesse d’agilité et source de nouvelles tensions. Une révolution décisive, qui façonne l’économie de demain.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La révolution silencieuse du travail en mode projet – https://theconversation.com/la-revolution-silencieuse-du-travail-en-mode-projet-281449

Si vous participez à des ateliers collaboratifs, ne vous emballez pas, les décisions peuvent être déjà prises

Source: The Conversation – in French – By Nathalie Tessier, Enseignante-chercheuse, ESDES – UCLy (Lyon Catholic University)

Donner de faux espoirs de changements aux collaborateurs pourrait coûter cher aux managers. PeopleImages/Shutterstock

Les méthodes participatives de management ne seraient-elles pas qu’un leurre ? Elles faciliteraient l’adhésion des collaborateurs aux décisions de l’entreprise déjà prises en amont. Gare à ne pas vous laisser happer par ces moments collaboratifs, on vous demandera certainement de rattraper la charge de travail restante.


« Ces entreprises qui ont adopté le management participatif et qui cartonnent », titre le média Guide Entreprise. « Management participatif : comment libérer le potentiel de vos équipes ? », demande la Voix du Nord … La presse se fait l’écho des méthodes participatives et collaboratives de management dans les entreprises françaises qui semblent rencontrer un succès.

Le principe ? Faire participer activement tous les salariés. Les formats vont de simples réunions consacrées à la créativité à des séminaires pour générer de nouvelles idées avec des outils favorisant l’interactivité et l’intelligence collective.

Derrière une apparente démocratie participative à la prise de décisions de tout le monde, ces dispositifs ne serviraient-ils pas à s’assurer de l’adhésion des collaborateurs aux projets de l’entreprise, souvent décidés en amont ? Quid des collaborateurs qui n’y prennent pas part ? Le management participatif ne deviendrait-il pas un dispositif de « soumission librement consentie », notion introduite par Jonathan Freedman et Scott Fraser ? En 1966, ils soulignent que les individus peuvent avoir le sentiment d’agir librement, alors qu’ils ont été placés sous une contrainte ou une influence implicite.

Le risque : un « désenchantement managérial ».

La France, mauvaise élève en management

La France serait une « mauvaise élève » dans les pratiques managériales parmi ses voisins européens, c’est ce que semble révéler un rapport de l’Inspection générale des affaires sociales (Igas) publié en 2024. Il en ressort les points suivants :

  • un style jugé trop hiérarchique et vertical ;

  • un niveau assez faible d’autonomie des collaborateurs ;

  • un sentiment de reconnaissance insuffisant et une formation managériale très (voire trop) académique et largement insuffisante ;

  • l’absence d’une culture fondée sur le dialogue social et sur un principe contradictoire.

Pourtant, 78 % des professionnels pensent que leur entreprise favorise le travail collaboratif. Dans une autre étude plus récente, 70 % des salariés et 83 % des managers se déclarent engagés dans les projets de leurs entreprises.

Un modèle loin d’être nouveau

Ce modèle participatif est loin d’être nouveau. On le retrouve décrit dès les années 1950 sous la plume du chercheur en sciences sociales Chris Argyris. La participation des salariés était vue comme étant un moyen de motiver les collaborateurs.

Les formats de la participation des salariés ont été multiples dans les années 1970 et 1980 :

  • les cercles de qualité représentés par des groupes de salariés se réunissant pour améliorer la qualité, les coûts, etc. ;

  • les groupes semi-autonomes qui vont réfléchir de façon plus profonde et en continu sur le processus de production ;

  • les réunions de concertation pour favoriser l’expression des points de vue et prévenir ou gérer des conflits ;

  • les groupes d’expression où des salariés s’expriment sur les conditions de travail, les risques pour la santé ;

  • le management par les valeurs représenté par l’élaboration de chartes ou les projets d’entreprises.




À lire aussi :
Pour sortir de la kakistocratie – le management par les nuls – il suffit d’affronter l’incompétence !


Au cours des années 1980, une littérature critique émerge. Ce modèle ne constitue pas réellement un modèle d’organisation du travail ; il s’agit davantage de bricoler autour de pratiques participatives, sans que son efficacité ne soit véritablement testée.

Effets pervers des pratiques participatives

Il semblerait qu’aujourd’hui il y ait une croissance de ces rituels collectifs institutionnalisés. Ces ateliers ou séminaires peuvent être encadrés par des consultants et durer une demi-journée voire une journée entière. Si elles sont mal encadrées et trop fréquentes, ce genre de pratiques managériales peuvent avoir des effets pervers.

Évaluation morale de loyauté à l’entreprise

Le premier risque est de juger les collaborateurs sur leur participation à ces rituels, plutôt que sur des réalisations objectives rédigées sur leur fiche de poste. L’engagement dans ces réunions devient un indicateur implicite de l’adhésion du collaborateur aux valeurs de l’entreprise. Pour ceux qui n’y participent pas : stigmatisation, puisque le collaborateur ne serait « pas motivé » ou « pas corporate ».

Surcharge de travail et perte de temps

La participation à ces réunions collectives peut constituer un coût invisible et caché. Le collaborateur, pouvant difficilement se défausser sous peine de ne pas être « corporate », finit par devoir rattraper leur charge, autrement dit travailler plus. Plus il y a de réunions, moins il y a de concentration et de qualité de travail. Cela augmente la fatigue, la vulnérabilité et peut être sur le long terme une source de risques psychosociaux (RPS).

Légitimer le travail des managers

Un troisième risque est d’utiliser la participation comme un outil pour justifier le rôle, voire le statut de manager. Ce dernier ne produirait-il pas du management visible dans la mesure où il anime les équipes de collaborateurs, il coordonne les actions et il contribue, grâce à ces réunions, à mobiliser les équipes ? Ces pratiques, loin de développer la performance, semblent les infantiliser, c’est la kakistocratie ou le règne des incompétents.

Consensus librement consenti

Déjà mis en évidence dans les théories de l’engagement et illustré dans l’ouvrage des psychologues Joule et Beauvois Petit Traité de manipulation à l’usage des honnêtes gens, un dernier effet pervers pourrait être de faire croire aux collaborateurs qu’ils deviendraient co-responsables des décisions prises. Or, la vision des managers sous-jacente n’est plus de la participation, mais une procédure de validation sociale de choix prédéfinis.

Trop de participation tue la participation

Les entreprises doivent-elles pour autant abandonner leurs pratiques « collectives » ? La non-participation à ces pratiques collaboratives pourrait-elle servir à argumenter des décisions prises pour justifier une insuffisance professionnelle ?

La participation pour être efficace doit être véritable, utile, volontaire et créatrice de valeur. Elle requiert certaines règles du jeu : créer un collectif, mettre en place des espaces de négociation, poser des intentions claires ou proposer un cadre transparent pour le processus de prise de décision. En parallèle, il est essentiel de former les collaborateurs sur des compétences relationnelles et émotionnelles adéquates afin d’animer ou coordonner l’action collective.

La participation ne devrait pas devenir ni systématique ni obligatoire, respecter le temps et l’intelligence des collaborateurs. Au contraire, elle pourrait être accompagnée d’actions concrètes :

  • suivre les propositions des collaborateurs ;

  • dégager du temps de travail pour ces temps collectifs ;

  • prévoir un budget dédié, mettre en place des équipes pilotes ;

  • lancer un projet expérimental.

Le cas échéant, le risque est de donner de faux espoirs de changements aux collaborateurs. Il existe de nombreuses pratiques et des outils de gestion efficaces des réunions participatives, mais c’est avant tout un état d’esprit. Trop de participation tue la participation.

The Conversation

Nathalie Tessier est membre de IP&M (Institut Psychanalyse & Management)

ref. Si vous participez à des ateliers collaboratifs, ne vous emballez pas, les décisions peuvent être déjà prises – https://theconversation.com/si-vous-participez-a-des-ateliers-collaboratifs-ne-vous-emballez-pas-les-decisions-peuvent-etre-deja-prises-278701

Du DIF au CPF : le salarié, acteur de son parcours professionnel, entre promesse d’autonomie et opacité

Source: The Conversation – in French – By Caroline Diard, Professeur associé – Département Droit des Affaires et Ressources Humaines, TBS Education

Depuis dix ans, la formation des salariés est de plus en plus individualisée. L’idée est de rendre ces derniers responsables et maîtres de leurs parcours. La multiplication non maîtrisée des offres de formation et la création d’un reste à charge pour le salarié modifient les conditions d’exercice de ces nouvelles possibilités. Au point de les vider de toute substance ?


Avec un budget individuel spécifique et un accès simplifié aux formations, le compte professionnel de formation (CPF) était présenté comme une promesse d’autonomie et d’adaptabilité depuis sa création en 2014.

Douze ans plus tard, le bilan est mitigé. En 2026, la participation forfaitaire obligatoire augmente, rendant le dispositif moins attractif. Tremplin vers de nouvelles compétences ou reconversions, il peut en effet devenir un casse-tête face à une offre pléthorique et opaque !

Individualisation progressive de la formation

Depuis la loi 16 juillet 1971, la formation professionnelle permanente constitue une obligation nationale. Depuis, de nombreux dispositifs permettant de se former tout au long d’une carrière ont été développés. Le bilan de compétences, la validation des acquis de l’expérience (VAE), le congé individuel de formation (CIF), le droit individuel à la formation (DIF), puis plus récemment le compte personnel de formation (CPF) ont été créés dans une logique d’individualisation des parcours tout au long de la vie. Ceci afin de tenter de réduire les inégalités d’accès à la formation. Le salarié a été rendu au fil du temps, légalement plus autonome dans ses démarches de formation, il est ainsi devenu acteur de son évolution professionnelle.




À lire aussi :
La formation continue, garantie d’une reconversion professionnelle réussie ?


Le droit individuel à la formation (DIF), créé en 2004, marque une première étape vers l’autonomie des salariés. Réservé aux CDI ayant un an d’ancienneté ou aux CDD de plus de 4 mois, il offrait vingt heures de formation par an, cumulables sur six ans. Mais son utilisation était très encadrée, nécessitant l’accord préalable de l’employeur, sauf pour les formations hors temps de travail (avec versement d’une allocation de 50 % de la rémunération nette). L’originalité du dispositif reposait dans la possibilité de transfert des droits en cas de licenciement (hors faute grave). Le DIF pouvait financer un bilan de compétences ou une VAE, mais il était perdu en cas de retraite et actionnable sous conditions en cas de démission.

La loi du 5 mars 2014 relative à la formation professionnelle, à l’emploi et à la démocratie sociale a remplacé le DIF par le compte personnel de formation (CPF). Les heures cumulées au titre du DIF ont été transférées sur le CPF. Contrairement au DIF qui était lié au contrat de travail, le CPF est lié à la personne et il est géré à l’extérieur de l’entreprise par la Caisse des dépôts et consignation.

Les salariés disposent désormais d’un compte qui les suit tout au long de leur carrière indépendamment de leur employeur.

Le CPF, vers une individualisation radicale

Par la suite, la loi du 5 septembre 2018 a consolidé les droits individuels des salariés en renforçant le rôle du Compte personnel de formation (CPF). Cette loi « pour la liberté de choisir son avenir professionnel » transforme alors le paysage de la formation professionnelle continue.

Depuis 2019, les heures du CPF ont été monétisées, c’est-à-dire converties en euros.

Le CPF incarne la promesse d’une révolution. Dès 16 ans, chaque actif dispose d’un budget individuel pour se former, se reconvertir ou acquérir de nouvelles compétences, sans dépendre de son employeur. Avec 500 euros par année pleine travaillée (800 euros pour les moins qualifiés) et un accès simplifié grâce à une plate-forme en ligne et une plate-forme accessible sur smartphone à l’aide d’une application téléchargeable. La limite totale cumulée est de 5 000 euros (soit dix années pleines d’activité).

Le financement est assuré par les entreprises au moyen de prélèvements sur la masse salariale, notamment par l’Union de recouvrement des cotisations de sécurité sociale et d’allocations familiales (Urssaf) ou la Mutuelle sociale agricole (MSA) depuis 2022. Les opérateurs de compétences (Opco) peuvent aussi contribuer, notamment pour les petites entreprises.

Préparer la révolution numérique

L’objectif affiché est de réduire les inégalités d’accès à la formation et adapter les compétences aux mutations du marché du travail, notamment face à la révolution numérique et à l’essor des intelligences artificielles.

Le CPF développe l’adaptabilité et l’employabilité (et particulièrement pour les moins qualifiés) dans un environnement en mutation permanente. Pourtant, derrière les atouts du dispositif se cache une offre de formation pléthorique, parfois opaque, et un parcours semé d’embûches pour les bénéficiaires.

Casse-tête administratif

Le CPF s’est largement démocratisé Avec 1,4 million de personnes formées en 2024. Les motivations pour recourir au CPF sont diverses : reconversions professionnelles, montées en compétences, validations d’acquis… Le CPF permet des trajectoires personnalisées. Près de 72 % des salariés attendent du CPF d’être plus efficaces dans leur travail et 40 % visent l’obtention d’une certification pour faire reconnaître leur savoir-faire.

Des écueils

Les formations éligibles au CPF sont énumérées à l’article L.6323-6 du Code du travail

Il s’agit des actions de formations préparant à une certification ou un bloc de compétences enregistrées au Répertoire national des certifications professionnelles (RNCP) ou au Répertoire spécifique (RS).

Les actions de formation dites « de droit », comprenant les bilans de compétences, les actions permettant de valider les acquis de l’expérience (VAE) et la préparation aux épreuves théoriques et pratiques du permis de conduire.

Malheureusement, le choix est parfois difficile à effectuer dans une jungle de formations et des arnaques et dérives ont été recensées : certains organismes profitent du système pour proposer des formations peu utiles ou surévaluées et surtout non éligibles au CPF.

Pour contrer ses dérives, le périmètre du CPF a été réduit. Après avoir créé une participation forfaitaire obligatoire, l’État a fait évoluer le montant restant à charge : l’actif doit désormais financer une partie de sa formation, même s’il dispose des crédits nécessaires sur son CPF pour la payer intégralement. Le décret n°2026-234 du 30 mars 2026 fixe cette participation à 150 euros à compter du 2 avril 2026). Depuis le 20 février 2026, la loi de finances pour 2026 a fait évoluer les conditions d’éligibilité de certaines formations. Les montants mobilisables pour certains dispositifs sont désormais plafonnés (1 600 euros pour un bilan de compétences, par exemple).

Le paradoxe de l’autonomie

Le CPF place l’individu au cœur du dispositif d’employabilité mais suppose qu’il sache naviguer dans un système complexe. Pourtant, l’employeur devrait s’attacher à rester un acteur clé de l’accompagnement en matière de formation professionnelle continue en informant les salariés notamment.

France Travail, 2025.

Il est également nécessaire de poursuivre la clarification et la régulation de l’offre, de prévoir un référencement plus strict et d’exclure les formations sans débouchés avérés ou dont le coût est manifestement excessif en mettant en avant les organismes certifiés et les parcours validés par les branches professionnelles.

Il est important d’inciter les employeurs à cofinancer des formations alignées sur leurs besoins, tout en garantissant la portabilité des droits.

Sauver le CPF ?

Le CPF a indéniablement marqué une avancée majeure, en rendant la formation accessible à tous, mais pour qu’il devienne un réel levier d’émancipation et d’adaptabilité, il faut passer de la quantité à la qualité. Cela suppose de simplifier le choix pour éviter l’effet « supermarché de la formation » et accompagner les publics les plus fragiles, pour ne pas laisser les inégalités se creuser. Si le CPF est un outil encore perfectible, il demeure en l’état trop souvent détourné ou sous-exploité.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Du DIF au CPF : le salarié, acteur de son parcours professionnel, entre promesse d’autonomie et opacité – https://theconversation.com/du-dif-au-cpf-le-salarie-acteur-de-son-parcours-professionnel-entre-promesse-dautonomie-et-opacite-280321

Comment une découverte enrichit notre compréhension des origines du fer au Sénégal et en Afrique de l’Ouest

Source: The Conversation – in French – By Anne Mayor, Maître d’enseignement et de recherche en archéologie et anthropologie, Université de Genève

Comment fabriquait-on du fer il y a 2000 ans au Sénégal ? Une étude sur le site archéologique de Didé West 1, dans la vallée de la Falémé, à l’est du pays, permet de reconstituer une technique ancienne de production de fer. Celle-ci a été transmise de génération en génération pendant huit siècles pour répondre à des besoins locaux. Les auteurs de l’étude, Anne Mayor, Mélissa Morel et Ladji Dianifaba, spécialistes de l’archéologie africaine, expliquent, dans cet entretien avec The Conversation Africa, les enjeux de cette découverte et comment ce savoir-faire a traversé des siècles.


Qu’avez-vous découvert au Sénégal et en quoi cette découverte est-elle importante ?

Depuis plus de 2000 ans, des métallurgistes ont produit du fer sur le territoire actuel du Sénégal. L’étude des vestiges qu’ils ont laissés nous permet de reconstituer leurs choix techniques, les ressources naturelles utilisées et, en partie, leur mode de vie. Au-delà de leur valeur scientifique, ces travaux valorisent les savoir-faire anciens des forgerons, car le fer constitue une véritable révolution technique et sociale, notamment pour l’agriculture.

Au Sénégal oriental, dans la vallée de la Falémé, au sein de la réserve naturelle communautaire du Boundou, de nombreux sites anciens de production du fer ont été identifiés ces dernières années. Les prospections et fouilles archéologiques menées par une équipe internationale intégrant des chercheurs des universités de Genève et de Fribourg en Suisse, et de l’Institut fondamental d’Afrique noire (IFAN) de l’université Cheikh Anta Diop à Dakar, ont mis en évidence au moins cinq traditions techniques distinctes.

Les recherches se sont concentrées sur l’une d’entre elles, appelée FAL02, le nom donné par les archéologues à l’une des techniques de production du fer identifiées dans la région, particulièrement bien représentée sur une centaine de sites. Le site de Didé West 1 (DDW1), le plus grand et le mieux préservé, présente deux caractéristiques majeures : d’une part, l’une des plus anciennes dates connues pour des fourneaux de réduction du fer au Sénégal, et d’autre part une occupation longue, couvrant près de 800 ans d’activité métallurgique (de 400 avant notre ère à 400 de notre ère). Ces datations au radiocarbone ont été obtenues sur des charbons de bois directement associés aux fourneaux.

La conservation exceptionnelle de ce site nous a permis de documenter finement cette technique, d’en suivre les transformations au fil des siècles et de mieux comprendre les choix opérés par les métallurgistes.

Comment avez-vous pu déterminer cette ancienne production métallurgique avec précision ?

Les principaux témoins de la métallurgie ancienne du fer sont les scories, c’est-à-dire les déchets issus de la transformation du minerai en métal. Lors du processus, ces scories s’écoulent comme une lave en fusion dans le fourneau avant de se solidifier en masses rocheuses. À la fin, elles sont rejetées et s’accumulent progressivement en vastes amas.

L’étude de l’amas de scories de Didé West 1 a révélé 35 bases de fourneaux, témoignant d’une activité répétée sur plusieurs dizaines de générations. Certains éléments techniques caractérisent cette tradition, comme des tuyères à perforations multiples (des conduits en argile percés de trous permettant de diffuser l’air dans le four), ainsi que l’utilisation de noix de palmier rônier comme matériau de bourrage au fond du fourneau. Ce dispositif semble avoir facilité la séparation entre le métal et les scories.

En croisant ces observations, il a été possible de reconstituer le fonctionnement de cette technique : les métallurgistes utilisaient de petits fourneaux de plan circulaire, dotés d’une cheminée amovible plutôt que permanente. Le minerai de fer était probablement constitué de latérites collectées dans l’environnement immédiat. L’ensemble de ces éléments traduit des savoirs techniques bien maîtrisés.

Scories en forme de graines de noix du palmier rônier, disposées au fond du fourneau lors de l’opération de réduction du fer, reflétant un choix culturel unique à cette tradition métallurgique.
© David Glauser, Fourni par l’auteur

Qui étaient les habitants à l’origine de cette technologie et que nous apprend celle-ci sur leur mode de vie ?

L’étude des sociétés africaines aux premiers millénaires avant et après notre ère se heurte à un manque de sources écrites et à la mauvaise conservation des matériaux organiques, qui pourraient nous renseigner sur l’habitat ou l’alimentation. Même les objets en fer sont souvent trop dégradés pour être conservés.

Il ne reste bien souvent que des tessons de céramique sur les sites. Il est donc encore difficile d’identifier précisément les populations à l’origine de la technique FAL02, c’est-à-dire de cette tradition technique particulière reconnue grâce aux formes des fourneaux, des tuyères et des scories retrouvées sur les sites. Dans ce contexte, les vestiges sidérurgiques deviennent une source d’information essentielle. Les techniques de production du fer ne sont en effet pas seulement des procédés techniques, elles reflètent des traditions, des choix et des savoir-faire propres à chaque groupe culturel.

L’analyse des volumes de scories permet également d’estimer les quantités de fer produites. À Didé West 1, les données indiquent une production modeste et irrégulière, probablement saisonnière. Ces éléments suggèrent une activité destinée à répondre aux besoins locaux, plutôt qu’une production à grande échelle pour l’exportation.

Que change cette découverte dans notre compréhension des débuts de la métallurgie en Afrique de l’Ouest ?

Les origines de la métallurgie du fer en Afrique de l’Ouest restent débattues. Deux grandes hypothèses s’opposent : celle d’une diffusion depuis le monde hittite en Anatolie (en Turquie actuelle) via le Maghreb ou la vallée du Nil, et celle d’une invention indépendante en Afrique au sud du Sahara. À ce jour, les données disponibles ne permettent pas de trancher définitivement.

Cependant, plusieurs foyers anciens de production du fer datés du premier millénaire avant notre ère ont été identifiés en Afrique subsaharienne, comme au Nigeria, au Niger, au Togo ou au Burkina Faso, et maintenant au Sénégal. Ces découvertes tendent à renforcer l’hypothèse d’un développement local.

Dans ce cadre, les datations obtenues à Didé West 1, remontant au moins au IVe siècle avant notre ère, en font l’une des plus anciennes techniques sidérurgiques connues au Sénégal. Ce site vient ainsi enrichir un corpus de données encore limité. Il contribue à mieux documenter les débuts de la métallurgie dans la région.

Quels nouveaux axes de recherche cette découverte ouvre-t-elle ?

Cette étude marque une étape importante, mais plusieurs questions restent ouvertes. Le prochain défi consiste à mieux comprendre les autres techniques de production du fer identifiées dans la vallée de la Falémé, où au moins quatre autres traditions ont déjà été reconnues.

Certaines de ces techniques sont contemporaines, révélant un paysage métallurgique complexe, où coexistaient des traditions très différentes. Cette diversité soulève plusieurs questions : quels groupes de métallurgistes en étaient à l’origine ? Comment expliquer leurs transformations ? Pourquoi certaines techniques disparaissent-elles ? Certaines techniques étaient-elles plus efficaces que d’autres ?

L’étude de la technique FAL02 sur près de 800 ans montre que ces pratiques évoluent dans le temps, avec des phases de continuité et de transformation. En croisant ces données avec celles issues de l’étude des céramiques et des habitats, il devient possible de mieux comprendre les sociétés qui produisaient ce fer et la manière dont elles ont évolué.

Ces vestiges permettent ainsi de dépasser la seule question technique : ils offrent un aperçu des dynamiques de peuplement, des circulations de savoir-faire et des transformations des sociétés sur le temps long, avant même l’émergence des royaumes médiévaux et l’essor du commerce transsaharien.

Nous espérons que les recherches à venir pourront répondre à quelques-unes de ces questions.

The Conversation

Anne Mayor receives funding from the SNF (Swiss National Fund for Scientific research). She works for University of Geneva.

Mélissa Morel receives funding from the SNF (Swiss National Fund for Scientific Research).

Ladji Dianifaba does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Comment une découverte enrichit notre compréhension des origines du fer au Sénégal et en Afrique de l’Ouest – https://theconversation.com/comment-une-decouverte-enrichit-notre-comprehension-des-origines-du-fer-au-senegal-et-en-afrique-de-louest-281118

Lycéens professionnels, les grands oubliés de Parcoursup ?

Source: The Conversation – France (in French) – By Alban Mizzi, Chercheur post-doctorant, Université de Bordeaux

Comment appréhende-t-on Parcoursup et l’inscription dans l’enseignement supérieur lorsqu’on a déjà vécu une expérience d’orientation scolaire subie ? Une enquête auprès de lycéens accompagnés par un programme de la Région Nouvelle-Aquitaine offre quelques éclairages. Premiers éléments d’analyse.


Le compte à rebours a commencé. À partir du 20 mai, les élèves de terminale professionnelle passeront les épreuves écrites du baccalauréat. Mais en parallèle du marathon des révisions, ils sont en attente d’un autre verdict, celui des résultats de Parcoursup, et donc du résultat de leurs candidatures dans l’enseignement supérieur.

Comment ces lycéens vivent-ils le processus d’orientation post-bac ? Comment appréhendent-ils la plateforme Parcoursup ?

Le programme ACCES – Accompagner vers l’enseignement supérieur – qui suit des élèves de terminale professionnelle en Nouvelle-Aquitaine pendant la procédure nous apporte quelques éclairages. Il montre que l’épreuve d’orientation commence pour ces élèves bien avant avec l’ouverture de la plateforme, là où se fabrique le rapport de ces élèves à l’institution scolaire.

Avant Parcoursup : des orientations souvent subies

Presque tous les élèves rencontrés partagent un point commun : leur arrivée en filière professionnelle n’a pas relevé d’un choix pleinement assumé. Un niveau scolaire jugé insuffisant pour la seconde générale, une offre locale réduite, un conseil d’orientation expéditif peuvent avoir conduit à cette orientation. La

Si le sujet a été abondamment documenté, cette orientation par l’échec vers la voie professionnelle prend un relief particulier rapporté à ce qui attend ces élèves sur Parcoursup. C’est avec ce passif qu’ils abordent la plateforme : un sentiment diffus d’avoir été triés avant même que la compétition ne commence.

Seuls face à la machine

Parcoursup demande des compétences qui ne sont pas systématiquement enseignées aux élèves : naviguer dans une interface dense, distinguer vœux et sous-vœux, rédiger des lettres de motivation pour des formations qu’ils ne connaissent pas, interpréter des taux d’accès dont la signification reste opaque.

L’hétérogénéité de l’accompagnement entre établissements est frappante. Dans certains lycées, les enseignants d’atelier montrent comment remplir un vœu, conseillent d’ajouter un BUT en complément des BTS, vérifient le lendemain que l’élève n’a pas validé le mauvais choix. D’autres font appel à des interventions extérieures. Enfin, d’autres comptent sur la capacité de résilience des élèves aux agendas déjà saturés.




À lire aussi :
Parcoursup, le mirage d’une égalité face à l’orientation ?


Mohamed, en terminale mécanique, raconte l’inscription elle-même comme un parcours technique. « Au début, c’était compliqué. On avait beaucoup d’infos pour se connecter. On ne comprenait pas les codes. »

Face à ces difficultés, les élèves mobilisent effectivement ce qu’ils ont, mais la frontière entre autonomie et solitude est fine.

Un stress continu

C’est Mohamed qui trouve la formule la plus juste pour décrire le stress généré par Parcoursup. « À chaque fois que j’ai envie de m’amuser ou de faire un truc, que ce ne soit pas scolaire, ce stress revient. Même s’il n’est pas très grand, des fois, il est toujours présent. Quoi que je fasse, il y sera là. Il est en tâche de fond, tout le temps. » La métaphore informatique est parlante : un processus qui tourne en arrière-plan et consomme de l’énergie cognitive sans jamais se fermer.

Ce qui alimente cette anxiété dépasse largement la question de l’affectation dans une formation. Parcoursup demeure un moment où se joue, dans un calendrier compressé, quelque chose qui touche à la valeur de soi. La charge émotionnelle est entièrement privatisée, portée seule.

Mennel parle à plusieurs reprises d’une « boule au ventre ». Chez la plupart de nos enquêtés en terminale professionnelle, le stress reste confiné dans un espace intime invisible aux yeux de leurs proches. Les parents ne comprennent pas le dispositif. Les enseignants sont parfois eux-mêmes « dépassés ». Reste le groupe des pairs, qui traverse la même grande épreuve.

Une solitude structurelle

Les PsyEN sont absents de leurs récits. Les CPE aussi. Le « moment Parcoursup » tel qu’ils le vivent est un moment de solitude structurelle. Structurelle parce qu’elle ne tient pas aux qualités personnelles des individus, mais à l’architecture d’un dispositif qui produit de l’angoisse sans produire les conditions de sa prise en charge.

Et cette solitude s’ajoute à tout le reste : l’orientation subie, le déficit d’information, le sentiment d’illégitimité, et, pour certains, des conditions de vie difficiles qui rendent l’épreuve d’autant plus lourde. Adrienne en tire une formule qui condense tout avec une précision presque sociologique : « On n’a pas trop, trop, trop de chance… on pourrait dire qu’on n’est pas très aimés. »

Tant que le dispositif ne prendra pas au sérieux cette expérience, il restera un impensé pour un quart des bacheliers français.

The Conversation

Alban Mizzi a reçu des financements de la part du PIA3 ACCES – Accompagner vers l’enseignement supérieur.

ref. Lycéens professionnels, les grands oubliés de Parcoursup ? – https://theconversation.com/lyceens-professionnels-les-grands-oublies-de-parcoursup-281072