Tony Blair est-il l’homme de la situation pour Gaza ?

Source: The Conversation – France in French (3) – By Dana El Kurd, Assistant Professor of Political Science, University of Richmond

Au vu de ce qui transparaît du plan élaboré pour Gaza par l’administration Trump, qui lui confère un rôle éminent, il semble que l’action de l’ancien premier ministre britannique Tony Blair sera comparable à son travail en tant qu’envoyé spécial du Quartet en Palestine (2007-2015), qui s’était soldé par un échec, plus qu’à son implication dans l’accord du Vendredi saint qui, en 1998, avait mis fin à trente ans de conflit armé en Irlande du Nord…


Tony Blair, l’homme choisi par Donald Trump pour jouer un rôle clé dans la supervision de la gouvernance de Gaza après la guerre, n’en est pas à sa première négociation d’un plan de paix.

Premier ministre du Royaume-Uni de 1997 à 2007, Blair a contribué en 1998 à la conclusion de l’accord du Vendredi saint, qui a permis de mettre un terme aux violences sectaires en Irlande du Nord. Après son départ du 10, Downing Street, Blair est immédiatement devenu envoyé spécial du Quartet – un groupe diplomatique regroupant l’Organisation des Nations unies (ONU), l’Union européenne (UE), les États-Unis et la Russie pour élaborer une solution durable au conflit israélo-palestinien. Il est demeuré à ce poste jusqu’en 2015.

Comme l’ont tragiquement montré le carnage commis le 7 octobre 2023 par le Hamas et les ravages qui ont été ensuite infligés à Gaza par Tsahal, récemment qualifiés de génocide par un organe des Nations unies, le Quartet a échoué dans sa mission.

Le plan de paix en 20 points actuellement en discussion par les parties prenantes en Égypte est succinct : il insiste sur le retour des otages israéliens encore détenus par le Hamas, la démilitarisation de la bande de Gaza et la création d’une force de sécurité internationale pour opérer sur place.

Par ailleurs, ce plan ne soutient pas l’expulsion des Palestiniens de Gaza – contrairement à certaines propositions précédentes formulées par l’administration Trump et qualifiées par des associations de défense des droits humains de plans de « nettoyage ethnique ».

Le 8 octobre 2025, Trump a annoncé le lancement d’une phase initiale du plan de paix. Un accord a été trouvé sur l’échange des otages contre des prisonniers ainsi qu’une trêve des combats. Mais les négociations sont toujours en cours sur divers points d’achoppement, notamment le désarmement des groupes combattants gazaouis.

L’accord prévoit également qu’après la guerre, Gaza soit gouvernée par un comité palestinien provisoire « technocratique » et « apolitique ». Cet organe temporaire sera supervisé par un « Conseil de paix » dirigé par Trump lui-même. D’autres membres dont les noms n’ont pas été communiqués y siégeront également, mais le seul nom qui a été annoncé à ce stade est celui de Tony Blair, qui, selon certaines informations, était en pourparlers avec l’administration Trump depuis un certain temps pour élaborer le plan de paix actuel.

En tant que spécialiste des relations internationales et de la politique palestinienne, je crains que cette proposition ne comporte les mêmes limites et les mêmes défauts que les précédents plans de paix imposés aux Palestiniens par des organismes extérieurs, notamment les efforts du Quartet de Blair et les précédents accords d’Oslo, et qu’elle soit très éloignée des mécanismes qui ont permis de consolider la paix en Irlande du Nord.

Un plan qui prend racine dans une « paix illibérale »

La faille principale que les critiques voient dans le plan actuel est qu’il ne mentionne pas le droit des Palestiniens à l’autodétermination et à la souveraineté, un droit pourtant inscrit dans le droit international.

Le plan ne prévoit pas non plus de participation significative des Palestiniens, que ce soit par l’intermédiaire de leurs représentants légitimes ou par le biais de mécanismes visant à garantir l’adhésion de la population.

Au contraire, le nouveau cadre est asymétrique, puisqu’il permet au gouvernement israélien d’atteindre bon nombre de ses objectifs politiques tout en imposant plusieurs niveaux de contrôle international et en n’évoquant que des garanties vagues pour le peuple palestinien, et ce, uniquement si celui-ci se conforme aux exigences des auteurs du texte.

En l’état, ce plan s’inscrit dans la continuité de ce que les politologues qualifient de « paix illibérale » en matière de résolution des conflits.

Dans un article publié en 2018, des chercheurs ont défini la « paix illibérale » comme une paix dans laquelle « la cessation du conflit armé est obtenue par des moyens […] ouvertement autoritaires ».

Une telle paix est obtenue grâce à « des méthodes qui évitent les véritables négociations entre les parties au conflit, rejettent la médiation internationale et les contraintes à l’usage de la force, ignorent les appels à s’attaquer aux causes structurelles sous-jacentes du conflit et s’appuient plutôt sur des instruments de coercition étatique et des structures hiérarchiques de pouvoir ».

Parmi les exemples passés, on peut citer la gestion des conflits au Kurdistan turc, en Tchétchénie ou encore, tout récemment, au Haut-Karabakh.

Le cas de l’Irlande du Nord

Cela contraste avec d’autres accords de paix conclus ailleurs, dans des cadres diplomatiques plus inclusifs, comme en Irlande du Nord.

Pendant plus de trente ans, le territoire avait été embourbé dans des violences sectaires entre les « loyalistes », majoritairement protestants et désireux de rester rattachés au Royaume-Uni, et la minorité catholique, qui entendait faire partie d’une république irlandaise unifiée et indépendante.

Pour mettre fin à ce conflit armé, le processus de paix a inclus toutes les parties concernées, y compris les différents groupes combattants.

De plus, le processus de paix en Irlande du Nord a explicitement impliqué la population irlandaise et lui a permis de s’exprimer à travers deux référendums distincts. Les habitants d’Irlande du Nord ont voté pour ou contre le plan, tandis que ceux de la République d’Irlande ont voté pour ou contre l’autorisation donnée à l’État irlandais de signer l’accord.

Grâce à ce processus inclusif et démocratique, le conflit n’a toujours pas repris depuis vingt-sept ans.

Si Tony Blair n’a pas lancé le processus de paix en Irlande du Nord, son gouvernement a joué un rôle central, et c’est lui qui a déclaré que « la main de l’histoire » reposait sur l’épaule de ceux qui ont participé aux derniers jours des négociations.

Échec à Oslo

Le processus nord-irlandais, couronné de succès, contraste fortement avec les nombreux processus de paix qui ont échoué au Moyen-Orient, lesquels s’inscrivent davantage dans le concept de « paix illibérale ».

La tentative la plus sérieuse en faveur d’une paix durable a été celle des accords d’Oslo de 1993, par lesquels l’Organisation de libération de la Palestine (OLP) a accepté le droit d’Israël à exister, renonçant à ses revendications sur une grande partie de la Palestine historique, en échange de la reconnaissance par Israël de l’OLP comme représentant légitime du peuple palestinien.

Ce processus a conduit à la création de l’Autorité palestinienne, qui était censée exercer une gouvernance limitée à titre provisoire, et à la tenue d’élections présidentielles et parlementaires afin d’impliquer la population palestinienne. Mais comme l’ont depuis admis de nombreux anciens responsables américains, les accords étaient asymétriques : ils offraient aux Palestiniens une reconnaissance sous l’égide de l’OLP, mais peu de perspectives pour parvenir à une solution négociée dans un contexte d’occupation par un pays souverain bien plus puissant.

Le processus de paix s’est effondré lorsque cette asymétrie est apparue clairement. Les deux parties entendaient des choses très différentes par le mot « État ». Le gouvernement israélien envisageait une forme d’autonomie limitée pour les Palestiniens et poursuivait l’expansion des colonies et l’occupation militaire. Les Palestiniens, quant à eux, envisageaient un État légitime exerçant sa souveraineté.

Pour aggraver les problèmes, les Palestiniens n’ont jamais eu un pouvoir de négociation égal, et les accords manquaient d’un arbitre neutre, les États-Unis, le principal médiateur, penchant clairement en faveur de la partie israélienne.

Oslo était censé être un processus limité dans le temps afin de donner aux négociateurs le temps de résoudre les questions en suspens. Dans la pratique, il a servi à couvrir diplomatiquement, des années durant, un statu quo dans lequel les gouvernements israéliens se sont éloignés d’une solution à deux États tandis que les Palestiniens sont devenus de plus en plus fragmentés politiquement et géographiquement dans un contexte de difficultés et de violences croissantes.

Le processus de paix d’Oslo s’est effondré au début du mandat du gouvernement Blair, alors même que celui-ci contribuait à mettre la touche finale à l’accord du Vendredi saint.

Répéter les erreurs à Gaza ?

Dans le contexte israélo-palestinien actuel, Blair risque de répéter les erreurs d’Oslo. Il s’apprête à siéger au sein d’un organisme international non démocratique chargé de superviser un peuple soumis à une occupation militaire de facto.

De plus, bien que le plan Trump dépende de l’approbation du Hamas, ce mouvement n’aura aucun rôle à jouer après la phase initiale. En effet, le cadre stipule explicitement que le Hamas doit être exclu de toute discussion future sur l’après-guerre à Gaza. De plus, aucun autre groupe palestinien n’est directement impliqué ; le principal rival du Hamas, le Fatah, qui contrôle l’Autorité palestinienne en Cisjordanie occupée, n’est mentionné que brièvement. Quant à l’Autorité palestinienne, il n’y a qu’une vague allusion à la réforme de cet organisme.

De même, il n’a été fait aucune mention de ce que le peuple palestinien pourrait réellement souhaiter. À cet égard, l’organe proposé rappelle la création de l’Autorité provisoire de la coalition dirigée par les États-Unis lors de l’invasion de l’Irak (2003-2004). Cet organisme, qui a gouverné l’Irak immédiatement après l’invasion, a été sévèrement critiqué pour sa corruption et son manque de transparence.

L’échec de la guerre en Irak et l’implication du Royaume-Uni dans ce conflit ont contribué à la démission de Tony Blair de son poste de premier ministre en 2007, après quoi il a occupé la fonction d’envoyé spécial du Quartet. Formé par l’ONU, les États-Unis, l’UE et la Russie, le Quartet était chargé de préserver une forme de solution à deux États et de mettre en œuvre des plans de développement économique dans les villes palestiniennes.

Mais lui aussi a échoué à répondre aux réalités politiques changeantes sur le terrain, alors que les colonies israéliennes s’étendaient et que l’occupation militaire s’intensifiait.

Selon ses détracteurs, le Quartet aurait largement ignoré le droit des Palestiniens à l’autodétermination et à la souveraineté, se concentrant plutôt sur une amélioration marginale des conditions économiques et sur des initiatives superficielles.

La dernière proposition soutenue par les États-Unis s’inspire largement de cette approche. Même si elle apporte à court terme un répit bienvenu aux souffrances des Gazaouis, une résolution durable et mutuellement acceptée du conflit israélo-palestinien qui dure depuis plusieurs décennies nécessite ce que le plan de Trump met de côté : l’autodétermination palestinienne.

En Irlande du Nord, Blair avait compris l’importance d’une médiation neutre et de l’adhésion de toutes les parties au conflit et de la population elle-même. Le plan auquel il participe aujourd’hui semble fonctionner selon un calcul très différent.

The Conversation

Dana El Kurd est membre de l’Arab Center de Washington.

ref. Tony Blair est-il l’homme de la situation pour Gaza ? – https://theconversation.com/tony-blair-est-il-lhomme-de-la-situation-pour-gaza-267156

Pop culture sud-coréenne : les raisons d’un succès mondial

Source: The Conversation – France (in French) – By Sylvie Octobre, Chercheuse, Ministère de la Culture

Les héroïnes de _KPop Demon Hunters_ (2025), pop stars et chasseuses de démons. Netflix

La « hallyu » (ou, vague coréenne) désigne la diffusion mondiale de la culture sud-coréenne depuis la fin des années 1990. Elle englobe la popularité croissante de la musique K-pop, des dramas coréens, du cinéma, de la mode, de la cuisine et même des jeux vidéo et des cosmétiques provenant du sud de la péninsule. Ce phénomène, soutenu par Internet et les réseaux sociaux, a permis à Séoul de renforcer son influence culturelle et économique internationale. Mais comment expliquer un succès aussi durable et aussi général ?


En 2021, la série Squid Game, distribuée par Netflix dans 190 pays, bat des records d’audience avec 266 millions de vues et remporte 52 prix de la critique pour la saison 1. En 2025, le film d’animation musicale K-pop Demon Hunters explose les compteurs de la plate-forme (avec 236 millions de vues depuis sa sortie en août, ce qui en fait le film le plus regardé de tous les temps sur Netflix), tandis que le single principal du film Golden occupe les premières des charts partout dans le monde et atteint 503 millions de streams sur Spotify.

Ces deux succès d’audience et de critique ne sont pas des phénomènes isolés : ils font partie de la Hallyu (ou K-Wave), vague de produits culturels sud-coréens qui déferlent depuis plus de deux décennies sur le monde et modifient les équilibres en matière de production et consommation culturelle, en défiant la domination d’anciens centres dans les domaines aussi bien esthétique qu’économique. L’une des caractéristiques les plus remarquables de cette vague est sa diversité : Squid game fait de la critique du capitalisme débridé et des inégalités qui en découlent son message principal, tandis que K-pop Demon Hunters raconte l’histoire fantastique d’un groupe de trois jeunes filles, membres d’un groupe de K-pop féminin le jour et chasseuses de démons la nuit

La consommation de la différence

Comment comprendre cet attrait international pour les produits culturels d’un « petit » pays ? Les explications culturalistes qui renvoient alternativement au registre de la proximité ou de la distance préexistante entre les contenus des produits et la culture audiences sont inopérantes pour l’expliquer.

L’argument de la proximité ne peut rendre compte d’un succès mondial, car celle-ci est par nature variable d’une aire géographique à une autre, et les produits sud-coréens peuvent bien paraître « familiers » ou « proches » aux pays voisins – Japon et Chine (exception faite des conflits de mémoire qui continuent de les opposer) – et « lointains » de la France, qui n’a pas de lien historique avec la Corée du Sud, accueille une diaspora sud-coréenne très minoritaire (quelques dizaines de milliers de personnes seulement) et est dotée d’un terreau culturel assez étranger au néoconfucianisme de la Corée du Sud.

L’explication par la distance « exotique » ne rend pas non plus compte de l’attrait international envers les produits sud-coréens, tant la Corée du Sud projette l’image d’un pays moderne, que l’on considère ses indicateurs économiques, ses performances dans le domaine éducatif ou ses avancées technologiques.

Il importe par conséquent de chercher d’autres explications à cette appétence qui relève plutôt d’un penchant pour la consommation de la différence, ce goût des autres étant devenu le moteur du consumérisme moderne, notamment dans les jeunes générations. Se manifestant dans les paysages, la langue et les traits anthropologiques, cette différence réside également dans le cas des produits sud-coréens dans la présentation d’une modernité critique mais non désenchantée (car la résolution des tensions entre l’individu et le collectif est possible), qui semble savoir concilier les legs du passé et les enjeux du présent (comme en témoigne le genre sagueuk, qui, tout en traitant des contenus historiques, aborde souvent des sujets modernes, comme la place des femmes, l’inclusion des classes laborieuses, etc.). Cette modernité est présentée comme une alternative à ses concurrentes occidentales (notamment états-uniennes) et orientales (notamment chinoises et japonaises) qui, chacune à leur manière, cherchent à faire prévaloir un récit hégémonique.

Du soft au « sweet power »

La hallyu a souvent été prise en exemple du déploiement de ce qu’il est convenu d’appeler le soft power. En effet, les produits audiovisuels sud-coréens, le plus souvent assortis d’une image fun, cool et innovante, ont permis de faire connaître un pays, jusqu’alors resté marginal dans la globalisation de la culture et des imaginaires.

Néanmoins, à la différence des vagues culturelles dominantes, et notamment de la vague états-unienne, la hallyu n’ambitionne pas de coréaniser le monde ni de diffuser une « Korean way of life ». Au contraire, les standards des productions audiovisuelles sud-coréennes sont de plus en plus réappropriés par les industries internationales. Alors que Squid Game a été écrit, réalisé (par Hwang Dong-Hyuk) et produit en Corée du Sud (par Siren Pictures Inc, basée à Séoul), K-pop Demon Hunters est écrit, réalisé (par Maggie Kang et Chris Appelhans, basés à Hollywood et Los Angeles) et produit aux États-Unis (par Sony Pictures Animation). Le « K » n’est donc plus seulement l’indicateur d’une nation mais d’une esthétique qui lui échappe à mesure que son succès s’accroît.

Le soft power culturel de la Corée du Sud prend donc un visage particulier. D’abord, il ne s’accompagne pas du déploiement d’un hard power de type militaire (comme cela a été le cas pour les États-Unis, dont les marques globales ont fait irruption sur le marché européen et japonais après la Seconde Guerre mondiale, parallèlement à une forte présence militaire), alors même que la Corée du Sud est, dans les faits, une puissance militaire.

Il ne réactive pas non plus des souvenirs douloureux d’un passé impérialiste ou colonial (comme cela a pu être le cas des produits culturels japonais en Asie de l’Est), puisque la Corée a plutôt été une terre de conquête et qu’elle subit encore les attaques régulières de la Corée du Nord, pays avec lequel la paix n’a jamais été signée.

Ensuite, le succès de la hallyu n’est pas instrumentalisé par le gouvernement sud-coréen dans des rapports de forces géopolitiques et géoéconomiques, comme pouvait l’être l’arrivée massive de produits états-uniens en France après la Seconde Guerre mondiale, dans le cadre du règlement de la dette de guerre française (accords Blum-Byrnes de 1946). C’est pourquoi nous avons proposé de désigner cette forme originale de soft power par le terme de sweet power. Bien entendu, le sweet power reste inscrit dans un rapport de force, comme les réactions de rejet qu’il suscite, notamment chez les anciens dominants, l’indiquent : la Chine bloque régulièrement l’importation des produits sud-coréens pour défendre son nationalisme culturel, de même que des mouvements anti-coréens ont vu le jour au Japon et aux États-Unis depuis le succès de la hallyu.

Un exemple de globalisation alternative

Ce sweet power naît dans le cadre d’une transformation de la globalisation de la culture, devenue une mosaïque culturelle. La domination des acteurs historiques de la globalisation de la culture est en effet battue en brèche par l’émergence de nouveaux centres de production, qui ont connu une forte élévation des niveaux de vie et de consommation de leurs populations désormais démographiquement dominantes dans les équilibres mondiaux.

Elle l’est aussi via la prolifération des plates-formes numériques (YouTube, Netflix, Naver, Viki, iQIYI, Disney +, Prime Vidéo, Rakuten, etc.) et par l’essor concomitant des réseaux sociaux (Tik Tok, We Chat, KakaoTalk, LINE, etc.) qui permettent à des productions locales de toucher rapidement une audience globale.

La globalisation culturelle ne correspond donc plus à la diffusion unidirectionnelle des modèles occidentaux vers le reste du monde et la hallyu s’inscrit dans une histoire qui a vu se succéder la vague des films de Hongkong, de Bollywood et de Nollywood, mais également les anime japonais, les télénovelas brésiliennes, les diziler turcs, etc. La globalisation de la culture devient donc multipolaire, même si tous les pays producteurs ne disposent pas des mêmes ressources pour promouvoir leurs contenus culturels, leurs styles, leurs imaginaires et leurs récits.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pop culture sud-coréenne : les raisons d’un succès mondial – https://theconversation.com/pop-culture-sud-coreenne-les-raisons-dun-succes-mondial-265774

Catastrophes industrielles, ferroviaires, maritimes… L’erreur individuelle existe-t-elle vraiment ?

Source: The Conversation – France in French (2) – By Chauvin Christine, Professeur en ergonomie cognitive, facteurs humains, Université Bretagne Sud (UBS)

L’erreur humaine est considérée comme un facteur déterminant dans la survenue d’accidents majeurs. Elle a été ainsi désignée comme une cause principale dans le naufrage du « Titanic », l’explosion de l’usine de pesticide de Bhopal, l’explosion du réacteur de Tchernobyl ou encore la collision aérienne de Tenerife. Lorsque de tels accidents surviennent, les médias mettent souvent en exergue l’erreur commise par l’équipe ou l’opérateur qui pilotait le système et l’associent parfois à la responsabilité individuelle d’une personne. Est-ce vraiment pertinent ?


Prenons l’exemple de la collision frontale entre un train de voyageurs et un convoi de marchandises survenue en Grèce, dans la nuit du 28 février au mercredi 1er mars 2023. Faisant 57 morts et 81 blessés graves, c’est l’accident ferroviaire le plus meurtrier qu’a connu la Grèce. Dans un article paru le 1er mars, le lendemain de la catastrophe, le journal le Monde titrait Accident de train en Grèce : le premier ministre pointe « une tragique erreur humaine », puis précisait plus loin que le chef de la gare de Larissa avait été arrêté et était poursuivi pour « homicides par négligence ».

Deux trains avaient circulé pendant plus de dix minutes sur la même voie, en sens opposé, sans qu’aucun système d’alarme ne soit déclenché avant la collision. Le rapport d’enquête rédigé par la HARSIA (Hellenic Air & Rail Safety Investigation Authority, l’équivalent du Bureau d’enquêtes sur les accidents de transport terrestre en France ou BEA-TT), publié le 27 février 2025, montre que la cause immédiate de l’accident est une erreur d’aiguillage. Le train de passagers IC 62 en provenance d’Athènes aurait dû rester sur la voie principale (ascendante), mais le chef de gare orienta l’aiguillage vers la voie descendante qui était occupée par un train de fret venant en sens inverse.

Malheureusement, le chef de gare ne détecta pas cette erreur et il n’y eut pas de communication claire avec le conducteur du train qui aurait permis de l’identifier. En effet, le chef de gare donna un ordre ambigu qui ne mentionnait pas la voie qu’allait emprunter le train. Le conducteur aurait dû répéter l’ordre en demandant au chef de gare de préciser la voie (ascendante ou descendante). Il s’agit de la procédure dite de « readback/hearback » qui consiste à répéter et à confirmer chaque instruction critique pour éviter tout malentendu. De plus, le conducteur aurait dû contacter le chef de gare lorsqu’il a constaté qu’il ne se trouvait pas sur la voie montante.

Le rapport met en évidence les circonstances dans lesquelles cette erreur a été commise (notamment la charge de travail élevée du chef de gare, un pupitre de contrôle comportant de nombreuses commandes et informations). De plus, il fait ressortir les défaillances du système ferroviaire grec comme constituant des facteurs sous-jacents (infrastructure dégradée et insuffisamment entretenue, sous-effectif chronique, absence de maintenance préventive des dispositifs de contrôle-commande et de la signalisation, problème de formation et de gestion des compétences des personnels, défaillance du système de communication, absence de retour d’expériences qui aurait permis d’apprendre des incidents et accidents passés).

Les auteurs de ce rapport n’examinent donc pas seulement les activités du chef de gare et du conducteur de train ; ils s’intéressent aussi aux décisions d’acteurs institutionnels : la compagnie ferroviaire chargée de l’exploitation des trains, l’entreprise publique gestionnaire du réseau ferré et, donc, l’État.

Cet accident a entraîné de nombreuses manifestations en Grèce ; les manifestants pointant les dysfonctionnements du réseau ferroviaire. Le chef de gare de Larissa a été le premier à être placé en détention provisoire, puis trois autres employés des chemins de fer ont été poursuivis pour « homicide involontaire par négligence ». Le 15 septembre 2025, le procureur d’appel de Larissa a demandé, à l’issue d’un rapport de 996 pages, que 33 autres personnes soient renvoyées devant la cour d’assises. Il s’agit d’acteurs opérationnels ou administratifs responsables de la sécurité ferroviaire.

Cet exemple montre qu’il est important, lors d’un accident majeur, d’opérer un déplacement de point de vue :

  • ne plus se focaliser sur l’opérateur, mais examiner l’ensemble des éléments qui compose le système au sein duquel il opère ;

  • ne plus se focaliser sur l’action ou sur la décision d’un opérateur « de première ligne », mais considérer l’impact des décisions prises à tous les niveaux d’une organisation.

Erreur humaine ou défaillances systémiques ?

Nombre de travaux menés depuis la Seconde Guerre mondiale invitent à considérer une action erronée non pas comme une action fautive, mais comme le symptôme d’une mauvaise adéquation entre les capacités de l’opérateur et les caractéristiques de sa situation de travail.

En 1990, le psychologue anglais James Reason publie un ouvrage de référence intitulé Human Error dans lequel il distingue les « erreurs actives » et les « erreurs latentes » ou « conditions latentes ». Les premières ont un effet immédiat. Il s’agit d’actions « erronées » commises par les opérateurs « de première ligne ». Les secondes sont présentes au sein du système depuis parfois de nombreuses années, mais sont « dormantes ». Elles se développent à partir d’activités humaines éloignées de l’activité qui déclenche le dommage (activités de conception, de maintenance, management). C’est en se combinant à d’autres facteurs qu’elles se révèlent et contribuent à l’accident.

Nous avons utilisé ce cadre pour analyser des collisions entre navires. L’analyse menée fait apparaître trois grandes classes d’accidents.

La première classe est typique d’accidents qui surviennent dans des eaux dites « resserrées » (des chenaux principalement) alors qu’un pilote se trouve à bord du navire. Les principaux facteurs d’accidents sont des problèmes de communication (entre navires et au sein de l’équipage). Ce résultat met en exergue l’importance des formations au travail d’équipe, tout particulièrement pour les situations dans lesquelles un pilote doit interagir avec le commandant et l’équipage du navire. Ce facteur fait écho à l’ambiguïté de la communication entre le chef de gare et le conducteur de train qui participa à la collision ferroviaire de Larissa.

La deuxième classe d’accidents résulte de l’interaction de facteurs appartenant à différents niveaux du système : mauvaise visibilité et non-utilisation ou mauvaise utilisation des instruments, planification d’opérations inappropriées à la situation – comme une vitesse excessive au regard des conditions extérieures ou un nombre insuffisant de personnes affectées à la tâche (facteurs relevant du leadership), système de management de la sécurité incomplet (facteur organisationnel).

La troisième classe d’accidents se caractérise, quant à elle, par le non-respect du système de management de la sécurité ; il s’agit, dans ce cas, de violations (erreurs intentionnelles) relevant du leadership.

De l’analyse des erreurs à l’analyse des décisions

Jens Rasmussen, qui fut l’un des chercheurs les plus influents dans le domaine de la sécurité et de l’étude de l’erreur humaine, explique que la notion d’erreur (supposant un écart à une performance définie) n’est pas vraiment pertinente, parce qu’elle entre en contradiction avec la capacité d’adaptation humaine, avec le fait que les acteurs – au sein d’un système – ont une certaine liberté dans la façon de réaliser leur activité et peuvent ainsi opter pour différentes stratégies.

Adaptation et variabilité sont même nécessaires pour garantir la performance des systèmes. S’intéressant aux interactions « verticales » au sein d’une organisation, Rasmussen propose d’identifier tous les acteurs (acteurs étatiques, législateurs, syndicats, concepteurs de système, dirigeants d’entreprises, managers, opérateurs) dont les décisions ont contribué à l’accident ; il souligne que les contraintes et possibilités qui s’imposent à un acteur donné et à un niveau donné dépendent de décisions prises par d’autres acteurs.

Dans le secteur de la pêche maritime, il est intéressant d’analyser l’impact des décisions prises par les législateurs (au niveau national et international) sur les choix réalisés par les concepteurs des navires et des équipements et, finalement, sur les pêcheurs eux-mêmes. Ainsi plusieurs études ont examiné l’impact, sur la sécurité des marins-pêcheurs, du type de quotas de pêche (quotas individuels qui donnent à un opérateur le droit de prélever une quantité déterminée de poissons sur un stock ou quotas collectifs). D’une façon générale, l’allocation individuelle de quotas réduit la « course au poisson » et diminue les prises de risque.

Dans la lignée de ces travaux, nous avons montré que la législation impose aux marins-pêcheurs des contraintes qui ont une forte incidence sur leurs décisions, sur les arbitrages qu’ils font au quotidien et sur la prise de risque.

Il est nécessaire d’adopter une perspective systémique pour comprendre la survenue des accidents. Dans ce cadre, il apparaît plus pertinent de s’intéresser aux décisions des différents acteurs d’un système, et aux interactions entre ces décisions, qu’aux erreurs qu’ils peuvent commettre.

The Conversation

Chauvin Christine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Catastrophes industrielles, ferroviaires, maritimes… L’erreur individuelle existe-t-elle vraiment ? – https://theconversation.com/catastrophes-industrielles-ferroviaires-maritimes-lerreur-individuelle-existe-t-elle-vraiment-264169

Le projet africain de Grande muraille verte peine à verdir au Sénégal

Source: The Conversation – in French – By Annah Lake Zhu, Assistant Professor, Wageningen University

L’une des zones de la Grande muraille verte au Sénégal où les arbres peinent à pousser. Annah Zhu, Fourni par l’auteur

Le projet africain de la Grande muraille verte a débuté comme un plan ambitieux visant à créer une bande d’arbres de 15 kilomètres de large à travers le nord de l’Afrique. L’Union africaine a lancé ce projet en 2007 avec pour objectif de planter des arbres sur 6 000 kilomètres à travers 11 pays du Sahel. Ce projet devait restaurer 100 millions d’hectares de terres du Sénégal à Djibouti et en Éthiopie, avec pour objectif principal d’empêcher l’avancée du désert du Sahara. La Grande muraille verte a également été présentée comme une solution au changement climatique, à la pauvreté et même à l’extrémisme.

Bien qu’il soit l’un des plus petits participants, le Sénégal est l’un des pays les plus actifs dans la mise en œuvre de l’initiative de la Grande Muraille Verte. Il s’est fixé comme objectif de restaurer 817 500 hectares de terre. Les chercheurs en environnement Annah Lake Zhu et Amadou Ndiaye ont fait partie d’une équipe qui a examiné des images satellites d’une partie de la Grande muraille verte dans ce pays. Leur étude a révélé que seul un site sur 36 présentait une végétation plus dense que ce qu’elle aurait été naturellement. Le projet ne consiste pas à planter une véritable muraille d’arbres, mais plutôt en une mosaïque de terres réhabilitées, qui devrait être visible depuis l’espace. Les chercheurs ont également constaté que de nombreux engagements financiers n’avaient pas été tenus, que l’argent n’arrivait pas jusqu’au terrain et que le taux de survie des arbres plantés restait faible.


Peut-on retracer les fonds alloués à ce projet ?

À ce jour, plus de 20 milliards de dollars ont été promis. On peut citer, par exemple les 4 milliards annoncés lors de la conférence de Paris sur le climat en 2015, et les 14,3 milliards lors du One Planet Summit en 2021.

Les promesses faites lors des sommets mondiaux font certes la une des médias, mais ne se concrétisent pas toujours. Souvent, seule une petite partie des fonds promis parvient aux pays cibles, et une partie encore plus infime est effectivement utilisée sur le terrain.

Par exemple, selon une évaluation du financement de la Grande muraille verte réalisée en 2020, les pays de la Grande Muraille Verte ont déclaré n’avoir reçu qu’un total de 149 millions de dollars américains entre 2011 et 2019.

Sur les 14,3 milliards de dollars américains promis en 2021, seuls 2,5 milliards de dollars américains avaient été effectivement versés en mars 2023.

Cet écart s’explique par plusieurs raisons. La plus importante est sans doute la bureaucratie. Chaque projet de la Grande muraille verte qui reçoit un financement de bailleurs de fonds internationaux tels que la Banque mondiale, le Fonds pour l’environnement mondial ou la Banque africaine de développement doit passer par des phases rigoureuses de préparation et d’approbation. Les fonds ne sont pas transférés instantanément : certains pays disposent d’une agence désignée pour recevoir les fonds, d’autres non. Une grande partie du financement est affectée à des projets de développement qui s’alignent sur les objectifs de la Grande Muraille Verte, mais qui ne sont pas nécessairement utilisés directement pour planter des arbres.

Même si l’argent arrivait instantanément, les gouvernements locaux n’auraient pas la capacité de gérer et de distribuer de telles grosses sommes. Les contraintes budgétaires internes peuvent également conduire à la réaffectation des fonds à d’autres secteurs, tels que les infrastructures, l’éducation et la santé.

En outre, de nombreux pays de la Grande muraille verte (Burkina Faso, Mali, Niger) sont désormais gouvernés par des régimes autoritaires qui ne sont plus favorables à l’Occident. La plupart des aides à long terme en matière d’environnement et de développement ont été suspendues. Et les zones où se déroulent les projets sont désormais instables en raison de l’insécurité, liée à l’avancée des groupes djihadistes.

Quels devraient être les résultats visibles sur le terrain à l’heure actuelle ?

Après près de deux décennies, même en tenant compte du fait que tous les fonds promis n’ont pas été versés, les résultats devraient être visibles.

Cependant, les progrès dans la mise en oeuvre du projet de la Grande muraille verte ne se mesure pas avec des images satellites. Ses promoteurs communiquent plutôt sur le nombre d’arbres plantés ou sur la superficie de terres réservées à la régénération naturelle. Des terres qui sont généralement comptabilisées dans l’objectif des 100 millions d’hectares restaurés, même si les arbres ne poussent jamais.

L’Observatoire de la Grande muraille verte, dirigé par l’Europe et l’Afrique, et le Facilitateur Big Data de la Grande muraille verte(une plateforme qui permet aux acteurs de faire le suivi), géré par l’Académie chinoise des sciences en partenariat avec les pays africains participants, s’orientent vers une surveillance par satellite de la croissance des plantes dans l’ensemble de la région. Mais il faudra encore un certain temps avant que ces plateformes soient réellement en mesure de mesurer systématiquement l’impact de la plantation au niveau des sites.

À quoi ressemble aujourd’hui la Grande muraille verte au Sénégal ?

Nous avons visité les sites de la Grande muraille verte au Sénégal et interrogé le personnel du projet et les membres de la communauté où des activités de reboisement ont eu lieu. Notre équipe a également examiné des photos satellites de 36 parcelles couvrant 18 090 hectares de la zone cible de la Grande muraille verte au Sénégal, qui s’étend sur environ 817 500 hectares.

Nos recherches ont montré que la Grande muraille verte génère des emplois dans les nouvelles pépinières, dans la plantation et dans la surveillance des sites de reboisement. La récolte de produits forestiers non ligneux (gomme arabique et dattes du désert) est un autre avantage de la Grande muraille verte, qui fournit également des services sociaux tels que des soins de santé et la construction de pare-feux.

Ces avantages sont tangibles : des emplois dans des régions reculées où il y a très peu de travail. Mais ces emplois sont souvent de courte durée, se limitant principalement à la saison des plantations ou à la création d’une nouvelle parcelle de reboisement.




Read more:
Grâce à la Grande muraille verte, une meilleure qualité de vie dans le Sahel ?


Sur le plan écologique, l’impact est beaucoup moins clair. Notre analyse d’images satellites de 36 parcelles de reboisement au Sénégal a montré que seules deux d’entre elles étaient beaucoup plus vertes depuis la création de la muraille. Et une seule d’entre elles était plus verte qu’elle ne l’aurait été naturellement.

Cela s’explique peut-être par le fait que les nouveaux arbres ne sont pas irrigués. Même si des espèces résistantes à la sécheresse sont plantées, de nombreux arbres meurent si la saison des pluies est modérée. Les arbres sont également piétinés ou mangés par le bétail lorsque les clôtures ne sont pas correctement entretenues.

En examinant les zones spécifiques où des travaux de restauration ont été effectués et en tenant compte du verdissement attendu grâce aux précipitations, notre étude a révélé que, dans l’ensemble, la Grande muraille verte n’a eu pratiquement aucun impact écologique au Sénégal.

Que faut-il faire maintenant ?

On parle le plus souvent de l’argent nécessaire pour un projet. Par exemple, l’ONU estime qu’il faudrait 33 milliards de dollars américains pour la Grande muraille verte. C’est une fiction. Les projets de grande envergure comme celui-ci ont besoin de plus que de l’argent. Ils ont besoin de moyens fiables pour acheminer les fonds jusqu’à la destination. Cette question doit être abordée.

Les évaluations de projets doivent également cesser d’utiliser uniquement les activités (comme le nombre d’arbres plantés) comme critères de réussite. Ce sont plutôt les résultats de ces activités, à savoir l’augmentation de la végétation et la réduction de la dégradation des sols, qui témoignent de la réussite.

Il existe aujourd’hui de puissants outils numériques et de surveillance à distance pour suivre la Grande muraille verte. Ceux-ci n’existaient pas lorsque le projet a démarré. Nous recommandons de les utiliser : fixer des objectifs d’augmentation de la végétation le long du tracé de la muraille, surveiller à distance l’impact du projet et récompenser généreusement les succès. C’est le modèle à suivre pour l’avenir. Il va au-delà des promesses symboliques et met l’accent sur les changements réels sur le terrain.

The Conversation

Annah Lake Zhu reçoit un financement du Conseil néerlandais de la recherche (NWO)

Amadou Ndiaye est enseignant chercheur à l’université Amadou Mahtar Mbow de Dakar.

ref. Le projet africain de Grande muraille verte peine à verdir au Sénégal – https://theconversation.com/le-projet-africain-de-grande-muraille-verte-peine-a-verdir-au-senegal-267237

Un mauvais collègue peut-il devenir un bon manager ? Non, mais oui !

Source: The Conversation – in French – By Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Le monde n’est pas toujours juste, et ce ne sont pas toujours les plus compétents qui sont récompensés. Comment faire quand un mauvais collègue est promu ? Est-ce forcément synonyme de catastrophe ? ou bien arrive-t-il que le boulet d’hier se réalise en devenant encadrant ? C’est à toutes ces questions qu’on n’ose pas toujours poser que s’attelle notre experte du management.


Existe-t-il une justice immanente dans le monde du travail qui ferait qu’un collègue qui se comporte mal ne pourra jamais devenir manager ? On aimerait bien… mais il n’en est rien. Et parfois (souvent ?) même, au contraire, ce mauvais comportement peut l’aider à obtenir ce qui est considéré comme une promotion.

Quant à savoir s’il (ou elle) sera un bon manager, la réponse est plus nuancée, mais cela reste du domaine du possible ! C’est parce que cette perspective est dérangeante qu’elle nous fait perdre beaucoup de nos repères. Mais il faut savoir la regarder en face pour affronter, voire déjouer, ces situations qui peuvent être très difficiles.

Le « mauvais collègue » : incompétent et/ou toxique

Un mauvais collègue est quelqu’un qui n’est pas apprécié par l’équipe, et donc pas intégré. Il peut, en revanche, être bien vu par le manager. Les motifs de cette mauvaise appréciation, voire de ce rejet par l’équipe, sont, dans la très grande majorité des cas, liés à deux formes d’incompétences :

  • l’incompétence métier quand le « mauvais collègue » ne fait pas son travail et nuit à la performance du collectif parce qu’il est incompétent (mal recruté, pas formé). Ce collègue peut en revanche être charmant et considéré comme sympathique. Mais, factuellement, c’est un « boulet » qui grève la performance du collectif.

  • l’incompétence relationnelle, quand le collègue possède les compétences du métier mais a un comportement désagréable, voire toxique.

Les deux cas de figure sont bien évidemment cumulables : certains mauvais collègues réussissent à la fois à être incompétent dans leur métier et posséder un relationnel détestable !




À lire aussi :
Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Le premier réflexe serait de recommander de remédier à la situation. Dans un monde parfait, le manager soutenu par les RRH cherche les causes d’une telle situation, trouve des solutions et il devient possible d’imaginer une réintégration dans l’équipe du « mauvais collègue ». Mais si rien n’y fait ? Ou si, on n’a ni le temps ni l’envie de faire évoluer la situation ?

On va alors chercher à se débarrasser du « mauvais collègue ». Il y a bien sûr le licenciement, la rétrogradation, ou bien le changement de poste ou d’équipes. Mais il existe un scénario fréquemment observé de l’évolution vers le management.

Et le « mauvais collègue » devint manager

C’est étonnant, mais finalement assez courant, sans qu’il existe des statistiques sur le sujet. On peut alors identifier au moins trois cas de figure :

  1. Le syndrome de Dilbert a été imaginé par le dessinateur et humoriste Scott Adams qui dit qu’une personne incompétente a toutes les chances d’être promue manager, car c’est là où son incompétence aura le moins d’impact.

C’est mal connaître les dégâts d’un mauvais management, mais c’est un réflexe qu’on observe malheureusement très souvent. Le profil du « mauvais collègue » est alors surévalué par son manager pour se donner toutes les chances que son départ soit rapide !

  1. Le collègue désagréable ou incompétent passe des concours pour devenir manager… et les réussit ! Or, les connaissances ne garantissent en rien la compétence de manager.

  2. Tout le monde le déteste, sauf… le grand patron ! Ils ont fait la même grande école, ils sont cousins, ils jouent au tennis ensemble… Et il est hors de question de le laisser tomber à cause de collègues grincheux.

Le poste de manager : une révélation ?

Une fois qu’il devient manager, le « mauvais collègue » peut-il devenir un bon encadrant ? Mais Qu’entend-on par un « bon manager » ? C’est un professionnel qui possède du leadership et sait motiver ses équipes. Il donne du sens au travail de chacun de ses collaborateurs, il écoute, fait preuve de bienveillance au sens où il ne cherche pas des coupables en cas de problème. Il sait aussi prendre des décisions, être équitable. L’ensemble de ces compétences managériales ne sont pas les mêmes que celles attendues d’un opérationnel.

Il peut arriver qu’évoluant vers un poste de management le « mauvais collègue » révèle des talents cachés ! Après tout, les meilleurs coachs sportifs ne sont pas tous de grands champions (c’est même souvent le contraire !).

Même si c’est loin d’être une règle absolue, on constate deux phénomènes en entreprise qui contribuent à rendre cela possible :

  • « la fonction crée la compétence », et c’est vrai que souvent, on voit des personnes évoluer très positivement à la prise de nouvelles fonctions.

  • l’adéquation entre la personne et le contexte étant incontournable, un changement d’entreprise, de service, de management (N+1 du nouveau manager) peuvent être à l’origine de revirements étonnants.

Pour toutes ces raisons, et sans en faire une généralité ni une règle absolue : un mauvais collègue peut devenir un bon, et, pourquoi pas, un très bon manager ! Pourtant, quelle que soit l’évolution, la « promotion » provoque malaise et perte de repères !

Anticiper les dégâts collatéraux

L’évolution d’un collègue considéré comme « mauvais » vers un poste de manager, sans préjuger de la suite, est profondément perturbante. Elle donne un sentiment d’injustice : « il était mauvais, et il est récompensé ! »

Cela va à rebours de toutes les injonctions entendes depuis la petite enfance : « il faut travailler dur pour avoir de bonnes notes », « il faut avoir de bonnes notes pour passer dans la classe supérieure », « il faut être compétent pour être recruté »…

Lefebvre Dalloz 2025.

La compétence est au cœur de la méritocratie. Et l’incompétent doit être sanctionné, du moins, s’il persiste à l’être. C’est une perte de repères car c’est l’incompétence qui a alors de la valeur !

La trappe de la compétence

À l’inverse, de nombreux hypercompétents témoignent qu’ils ont le sentiment d’être dans une nasse. Ils sont en quelque sorte « collés » à leur poste car, sans eux, le service ne pourrait pas fonctionner ! Cette « trappe de la compétence » est la source d’une grande souffrance et peut amener à du désengagement, et un mal-être profond relevant des risques psycho-sociaux.

Pour éviter ces dérives et ces promotions qui n’ont aucun sens, le manager doit intervenir avant. Il doit affronter le mauvais collègue pour poser avec lui les termes du problème. Pour cela, il est incontournable d’objectiver les situations où des dérives et des dysfonctionnements ont été observés.

Il faut ensuite bien peser les différentes issues, en sachant résister à celle de la promotion qui peut laisser des traces durables dans l’équipe.

Cela demande du temps, car la voie du dialogue est longue. Il faut aussi du courage, car il n’est pas simple de mettre un collaborateur devant ses failles. Entre déni et désir d’évacuer un problème complexe, le non-choix de la promotion vers le management est une voie qu’on retrouve souvent. Le risque est grand de la systématisation. C’est comme cela que naissent les kakistocraties.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Un mauvais collègue peut-il devenir un bon manager ? Non, mais oui ! – https://theconversation.com/un-mauvais-collegue-peut-il-devenir-un-bon-manager-non-mais-oui-265885

Pour relever certains défis de l’entreprise, le doctorat peut être la solution

Source: The Conversation – in French – By Michel Kalika, Professeur émérite, iaelyon School of Management – Université Jean Moulin Lyon 3

Oubliez tous vos préjugés sur le doctorat. Le Doctorate of business administration (DBA) peut apporter une aide aux entreprises. Précisions sur ce diplôme peu connu qui crée des ponts entre le monde des affaires et celui de la recherche.


Dans un contexte caractérisé par la multiplication des crises (géopolitiques, environnementales, économiques, sanitaires, etc.), les entreprises doivent remettre en cause leurs processus de décision et leurs business models. Pour cela, elles se heurtent à un obstacle : les connaissances passées des employés et des dirigeants sont frappées d’une obsolescence accélérée.

Un certain nombre de managers déjà titulaires de MBA ou de maîtrises, soit des programmes très professionnels mais sans le pas de côté indispensable à la réflexion et à l’action, s’engagent alors dans un parcours doctoral afin de trouver de nouvelles réponses. L’expérience acquise dans un secteur ou un métier permet en effet de prendre la mesure des changements en cours.




À lire aussi :
Recherche ou innovation ? Avec les thèses Cifre, plus besoin de choisir


Récemment, un manager membre du Comex d’une grande entreprise internationale du secteur électronique nous a contactés, sa direction lui ayant confié la mission de refondre les business models des différentes divisions pour les adapter au changement climatique inévitable.

Deux sous-questions se posent alors :

  • Un parcours doctoral est-il utile à un manager, et plus généralement à une organisation ?

  • Quel parcours doctoral choisir, entre doctorat traditionnel (sigle anglais, PhD) et Doctorate of Business Administration (DBA) ?

L’intérêt d’un doctorat

Concernant la première question, l’expérience des auteurs, qui ont dirigé ensemble plus d’une soixantaine de thèses de doctorat, ainsi que le récent Livre blanc « La recherche en Management au bénéfice des entreprises », qui présente le récit et les résultats d’une vingtaine de parcours doctoraux de managers en activité, apportent une réponse sans ambiguïté. Des managers ayant une expérience professionnelle significative peuvent bénéficier grandement d’une porte ouverte vers la performance en s’engageant dans une thèse de doctorat sur un sujet en lien avec leur pratique.

Le premier DBA a été créé en France en 1993 par GEM, et les programmes (environ une vingtaine aujourd’hui) se sont véritablement développés depuis une dizaine d’années. Les candidats viennent d’organisations, privées ou publiques. Ils occupent des fonctions très diverses, ils peuvent être consultants. Mais ils ont tous en commun d’être animés par un désir commun de prise de recul.

Cette démarche les autorise à prendre un recul utile par rapport aux routines organisationnelles. Par ailleurs, la possibilité de travailler en grande symbiose pendant plusieurs années avec des professeurs habilités à diriger des recherches est toujours fructueuse. De cette façon, il est possible d’associer expérience managériale, richesse du terrain et apport conceptuel et méthodologique des encadrants.

Une prise de recul sur l’expérience

La réponse à la deuxième question, celle du choix du format, suppose en préalable de clarifier les différences entre doctorat traditionnel et Doctorate of business administration, même si, bien évidemment, certaines caractéristiques les rapprochent. Au plan international, EQUAL (organisme international qui fédère AACSB, AMBA, EFMD et une vingtaine d’associations académiques) précise clairement l’existence de deux parcours doctoraux dans son document « Guidelines for Doctoral Programmes in Business and Management ».

Dans le domaine du management, le doctorat traditionnel concerne plutôt de jeunes chercheurs financés pour réaliser une thèse et intégrer ensuite à temps plein une institution d’enseignement supérieur (université ou école). Si, en revanche, l’objectif du doctorant est de prendre du recul sur son expérience, de la capitaliser en produisant des connaissances nouvelles utiles à son organisation ou à son secteur, tout en restant en activité, le DBA apparaît plus adapté.

L’organisation pédagogique diffère également : le doctorat suppose un travail à temps plein, alors que le DBA est conçu à temps partiel, compatible avec une activité professionnelle. Les deux parcours ont en commun de reposer sur une réflexion conceptuelle, de mobiliser la littérature existante, une méthodologie de recherche et une analyse de données de terrain. En revanche, ils diffèrent par l’objectif majeur de la thèse. Le doctorat traditionnel poursuit principalement une finalité conceptuelle et académique, matérialisée par des publications dans des revues scientifiques internationales en vue d’une carrière académique. Le DBA, quant à lui, trouve son importance dans la formulation de recommandations managériales et la création indispensable d’un impact organisationnel et sociétal.

Le rôle du directeur de thèse amendé

De plus, dans le doctorat traditionnel, le rôle du directeur de thèse est déterminant dans le choix du sujet, tandis que dans le DBA, c’est le doctorant-manager qui se présente avec son expérience, son sujet et son accès au terrain.

Fnege 2025.

Un autre élément de distinction est propre au contexte français : le doctorat est un diplôme national préparé au sein des Écoles Doctorales universitaires. Le DBA, créé par Harvard en 1953, reconnu internationalement par les organismes d’accréditation (AACSB, AMBA, EFMD), reste en France un diplôme d’établissement qu’il soit universitaire ou d’école.

Cela dit, les trajectoires ne sont pas toujours linéaires. Certains titulaires de doctorat en management rejoignent l’industrie, tandis que certains DBA s’orientent vers une carrière académique, soit en prolongeant leur DBA par un doctorat, soit en complétant leur parcours par des publications académiques.

Au regard de l’expérience internationale et nationale, le DBA peut contribuer très positivement à répondre aux défis actuels des organisations publiques et privées. Une récente enquête auprès d’une soixantaine de diplômés indique que les domaines d’impact les plus cités sont : transformation digitale (18 %), gestion du changement (15 %), planification stratégique (30 %), résolution de problèmes organisationnels (20 %). En effet, ce programme crée un pont entre deux mondes qui – on peut le regretter – s’ignorent trop souvent : celui de la recherche académique et celui des pratiques managériales.

Un pont existait déjà avec les thèses Cifre, mais celles-ci s’adressent à de jeunes diplômés, qui font leur thèse dans une entreprise que, bien souvent, ils découvrent, quand la thèse de DBA s’adresse au manager en DBA travaillant déjà dans l’entreprise qui est son terrain d’investigation.

The Conversation

Michel Kalika a créé le DBA a l université Paris Dauphine en 2008 et le DBA du Business Science Institute en 2012. Les deux co-auteurs ont coordonne le livre blanc de la Fnege sur le DBA .

Jean-Pierre Helfer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pour relever certains défis de l’entreprise, le doctorat peut être la solution – https://theconversation.com/pour-relever-certains-defis-de-lentreprise-le-doctorat-peut-etre-la-solution-265098

Les secrets de la domination de l’Université Harvard au classement de Shanghai

Source: The Conversation – in French – By Michel Ferrary, Professeur de Management à l’Université de Genève, Chercheur-affilié, SKEMA Business School

Sur les cinq dernières années, Harvard a déposé 204 560 publications, dont 16 873 dans des revues à comité de lecture. JannisTobiasWerner/Shutterstock

L’élection de Donald Trump met à mal le « business model » de l’Université d’Harvard. Cette université domine le classement de Shanghai grâce à son excellence scientifique, une fondation gérant 53,2 milliards de dollars et un réseau de 420 000 diplômés. À partir de la « théorie des capitaux » de Bourdieu, une étude cherche à comprendre comment la plus prestigieuse université domine son champ scientifique.


Le classement de Shanghai mesure l’excellence scientifique des universités dans le monde. Sur les dix premières, huit sont états-uniennes ; l’université d’Harvard trône à son sommet depuis 2003. Comment expliquer la domination de cette organisation privée à but non lucratif dans un champ universitaire réputé très concurrentiel ?

Avec Rachel Bocquet et Gaëlle Cotterlaz-Rannard, à partir de la « théorie des capitaux » de Pierre Bourdieu, nous décodons le modèle économique, ou business model, des universités de recherche états-uniennes. L’enjeu est de comprendre comment la plus prestigieuse et la plus puissante d’entre elles domine son champ scientifique.

L’excellence scientifique d’Harvard, symboliquement reconnue par le classement de Shanghai, résulte de l’accumulation et de la conversion de capital économique, social, culturel et symbolique. La dimension systémique qui fonde la robustesse du business model le rend difficilement reproductible. Il est lié à cette capacité d’accumuler simultanément les quatre formes de capitaux et de les interconvertir.

Près de 204 560 publications au cours des cinq dernières années

La théorie de Bourdieu articule quatre formes de capitaux : le capital économique, le capital culturel, le capital social et le capital symbolique. Le dernier étant la reconnaissance sociétale de la possession des trois autres. Chaque forme de capital contribue à l’accumulation des autres formes de capital par un processus d’inter-conversion ; le capital culturel est converti en capital économique, social ou symbolique et inversement.

Harvard est une université de recherche. Ses 2 445 professeurs et 3 048 chercheurs affiliés ont pour mission première de produire des connaissances scientifiques – capital culturel. Sur les cinq dernières années, la plateforme Web of Science recense pour Harvard 204 560 publications, dont 16 873 dans des revues à comité de lecture, ce qui en fait l’université qui produit le plus de connaissances scientifiques. Ses chercheurs sont les plus cités par la communauté scientifique.

Ce capital culturel est converti en capital économique par l’obtention de financement : 6,5 milliards de dollars en 2024. La faculté de médecine est l’une des universités états-uniennes qui obtient le plus de financement de l’État fédéral (National Institut of Health).

Fondation de 53,2 milliards de dollars

Ce capital culturel fait l’objet d’une reconnaissance sociétale par l’attribution à ses chercheurs de récompenses prestigieuses : prix Nobel, médaille Fields, prix Turing, prix Pulitzer, etc. Cette reconnaissance correspond à une conversion du capital culturel en capital symbolique, ce qui renforce le prestige de l’institution.

Accumulation des capitaux symboliques, sociaux, économiques et culturels liés à l’Université d’Harvard.
Fourni par l’auteur

Ce capital symbolique contribue par sa conversion à l’accumulation des autres formes de capitaux, notamment en capital économique en favorisant les donations à la fondation de l’université par des individus ou des entreprises.

En 2024, l’endownment (capital économique) issu de donations représente 53,2 milliards de dollars, soit le plus important fond de dotation au monde pour une université. En 2024, la rentabilité des investissements de la fondation est de 9,6 %. Ces revenus permettent de verser 2,4 milliards de dollars à l’université, soit 40 % de son budget, pour financer des projets de recherche.

Sélection des meilleurs étudiants

Le capital symbolique est également converti en capital économique en justifiant des frais d’inscription importants. En 2025, une inscription au bachelor d’Harvard coûte 61 670 dollars par an, soit une des institutions les plus chères des États-Unis. Les frais d’inscription au programme MBA sont de 81 500 de dollars par an et ceux de la Harvard Law School sont de 82 560 dollars. Certaines grandes fortunes peuvent faire des donations à Harvard pour faciliter l’admission de leur progéniture.




À lire aussi :
Harvard face à l’administration Trump : une lecture éthique d’un combat pour la liberté académique


Le prestige académique attire d’excellents étudiants et contribue à l’accumulation de capital social. Pour être admis dans son bachelor, Harvard exige le plus haut score SAT des universités états-uniennes (1500-1580). Son taux d’admission des candidats de 3 % est le plus faible du pays.

Lorsqu’ils sont diplômés, ces étudiants irriguent la société dans ses sphères scientifique – Roy Glauber, George Minot –, politique – huit présidents des États-Unis sont diplômés d’Harvard –, économique pour créer ou diriger de grandes entreprises – Microsoft, JP Morgan, IBM, Morgan Stanley, Amazon, Fidelity Investments, Boeing, etc. –, littéraire – William S. Burroughs, T. S. Eliot – et artistique – Robert Altman, Natalie Portman.

Harvard Alumni Association

Tous ces diplômés, notamment en adhérant à la Harvard Alumni Association, correspondent à une accumulation de capital social qui représente un réseau de 420 000 personnes. L’université mobilise ce réseau pour des levées de fonds, des participations à ses instances de gouvernance ou des évènements.

L’homme d’affaires Kenneth Griffin illustre ce mécanisme. En 1989, Il est diplômé d’Harvard en économie. Il fonde Citadel LLC, un des hedge funds les plus réputés des États-Unis et, accessoirement, devient la 34e fortune mondiale. Il a donné 450 millionsde dollars à son alma mater (université) : 300 millions à la faculté des arts et des sciences et 150 millions à Harvard College. Son objectif est de financer la recherche et de subventionner des étudiants issus de milieux défavorisés. La célébrité de Kenneth Griffin dans les milieux financiers incite des étudiants à venir à Harvard et, à terme, entretenir le processus d’accumulation et de conversion lorsqu’ils travailleront dans la finance.

L’université instaure une compétition symbolique entre ses diplômés sur les montants donnés à la fondation. Les plus importants donateurs sont reconnus par le prestige de voir leur nom attribué à un bâtiment du campus, voir à une faculté. En 2015, John Paulson, diplômé de la Harvard Business School et fondateur d’un des hedge funds les plus importants des États-Unis, a donné 400 millions de dollars à la faculté d’ingénierie et des sciences appliquées qui est devenu la Harvard John A. Paulson School of Engineering and Applied Sciences.

Face à Trump, la vulnérabilité du « business model »

L’élection du président Trump ouvre une période d’hostilité avec Harvard en menaçant son modèle économique.

La première raison est fiscale. Les donations à la fondation de l’université offrent des avantages fiscaux importants aux donateurs en matière de déductions. La fondation est exonérée sur les bénéfices réalisés par nombre de ses investissements. Une révocation de ces deux avantages par l’administration des États-Unis réduirait les montants disponibles pour financer la recherche et la production de capital culturel.

La seconde est liée aux financements fédéraux de la recherche. En 2024, Harvard a reçu 686 millions de dollars de l’État fédéral. Leur suppression limiterait la capacité de l’université à développer des connaissances scientifiques.

La troisième résulte des poursuites pour discrimination menées par l’administration Trump, qui peut nuire à la réputation de l’université et détourner d’Harvard certains donateurs, chercheurs ou étudiants. Kenneth Griffin et Leonard Blavatnik, deux importants donateurs, ont décidé de suspendre leurs dons en raison des accusations d’antisémitisme portées contre Harvard. En 2024, les dons ont diminué de 193 millions dollars, notamment en raison de ces accusations.

La suppression pour Harvard de la possibilité d’attribuer des certificats d’éligibilité, ou DS 2019, aux étudiants étrangers, notamment aux doctorants et post-doctorants, limiterait le nombre d’individus contribuant à la recherche. En 2025, l’Université d’Harvard compte 10 158 étrangers, dont 250 professeurs et 6 793 étudiants, soit 27,2 % de l’ensemble des étudiants.




À lire aussi :
Moins d’étudiants étrangers aux États-Unis : une baisse qui coûte cher aux universités


The Conversation

Michel Ferrary ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les secrets de la domination de l’Université Harvard au classement de Shanghai – https://theconversation.com/les-secrets-de-la-domination-de-luniversite-harvard-au-classement-de-shanghai-264516

Derrière la promesse d’autonomie du travail hybride, de vrais risques de surcharge cognitive

Source: The Conversation – in French – By Caroline Diard, Professeur associé – Département Droit des Affaires et Ressources Humaines, TBS Education

La multiplication des outils numériques peut produire de nouvelles formes de stress au travail, quand ils sont utilisés dans le cadre du travail hybride. Quelles en sont les raisons ? Comment y remédier ?


L’hybridation s’est pérennisée et apparaît comme une forme durable d’organisation du travail. Près de 75 % des cadres adaptent désormais leurs jours de télétravail à leurs missions. Ce mode d’organisation est désormais incontournable, car de nombreux salariés et notamment les cadres : 67 % d’entre eux déclarent qu’ils seraient mécontents d’une réduction du télétravail et 82 % d’une suppression. Du côté des employeurs, 70 % des entreprises privées de plus de 250 salariés, révèlent que ne pas proposer le télétravail constitue un frein pour le recrutement d’après l’étude APEC de mars 2025 Il s’agit d’un élément fort de la marque employeur.

L’hybridation recouvre plusieurs réalités : le nomadisme, le travail à domicile, le coworking. Il offre une forme de flexibilité dans l’organisation et une meilleure articulation des temps de vie. Pourtant, derrière cette apparente flexibilité se cache cependant une hyperconnectivité. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.




À lire aussi :
Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?


L’usage des outils numériques accroît la porosité entre les sphères privée et professionnelle particulièrement en situation hybride, pouvant ouvrir la voie à des troubles psychosociaux, comme le stress chronique, l’isolement ou l’épuisement. De nouvelles formes de harcèlement peuvent également se révéler à distance, associées au technostress.

Le multitâche : juste une illusion, à peine une sensation

C’est une forme de « servitude volontaire » qui contribue à cette hyperconnectivité et augmente l’amplitude des journées de travail – parfois sans même que les télétravailleurs en aient conscience. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.

Face à l’accélération de ces sollicitations numériques constantes, certains s’imposent un autocontrôle constant pour être capables de répondre à tout, à tout moment, dans un souci de performance ou de reconnaissance, soumis à des injonctions de disponibilité et de réactivité. Les sollicitations en visio et demandes de reporting augmentent (observatoire du télétravail).

Certains souffrent d’une forme de syndrome du bon élève ! Ceci pourrait soulever des problèmes de santé au travail.

Les limites du cerveau humain

Pour faire face aux exigences de ces environnements hyperconnectés, notre cerveau sollicite intensément ses réseaux attentionnels, notamment ceux de la vigilance. Cela entraîne des situations de « multitâche » auxquelles il est en réalité très mal adapté. Contrairement aux idées reçues, notre cerveau n’est pas multitâche, il ne traite pas les informations en parallèle, mais en série, c’est-à-dire l’une après l’autre, en basculant rapidement entre elles. S’il est extrêmement rapide et puissant, capable de passer d’une tâche à l’autre en quelques dizaines de millisecondes, cela n’est pas sans coût.

Chaque changement demande une réinitialisation coûteuse en énergie mentale. Plus les interruptions s’enchaînent, surtout lorsqu’elles échappent à notre contrôle, plus ce « carburant attentionnel » s’épuise vite. Comme une voiture qui consomme davantage en ville qu’à vitesse constante, notre cerveau brûle son énergie à force de passer d’un mail à une réunion, d’une notification à un rapport. La conséquence de ce phénomène ? Nous nous épuisons plus vite et commettons davantage d’erreurs. Il est donc plus que temps, d’une part, de prendre conscience des contraintes neurobiologiques de notre cerveau afin d’améliorer les méthodes de travail en mode hybride, et d’autre part, de développer les compétences nécessaires pour mieux collaborer.

D’ailleurs, une étude menée auprès de plus de 1500 étudiants montre que 63 % pensent pouvoir gérer plusieurs tâches simultanément. Pourtant, lorsque des étudiants bénéficient d’un apprentissage explicite et d’une mise en situation concrète, ils ne sont plus que 22 % à maintenir cette croyance.

Xerfi Canal 2022.

Former à l’attention : une urgence dans un monde fragmenté

Des programmes existent pour renforcer certaines compétences mentales clés :

  • la flexibilité cognitive : capacité à passer d’un objectif à un autre rapidement ou encore à envisager un sujet sous différents angles ;

  • le monitoring attentionnel : capacité à suivre, modifier et améliorer ses stratégies attentionnelles ;

  • la réactivité : capacité à réagir rapidement face à des situations ou sollicitations inattendues et à ajuster ses priorités en fonction ;

  • la planification : capacité à hiérarchiser des tâches et à les effectuer dans le temps imparti tout en respectant les délais.

Ces compétences permettent de mieux s’adapter à l’environnement numérique, de limiter la surcharge et de préserver l’énergie mentale.

Un cadre à rappeler collectivement

Les risques posés par le travail numérique ont été pris au sérieux par les pouvoirs publics. Dès 2015, le rapport Mettling s’est intéressé à la transformation numérique et préconisait de « compléter le droit à la déconnexion par un devoir de déconnexion du salarié ». Le droit à la déconnexion a ensuite été inscrit dans la loi du 8 août 2016 (article L. 2242-17 du Code du travail). Il garantit aux salariés la possibilité de ne pas être sollicités en dehors des horaires de travail. Ce droit est une protection contre les dérives de l’hyperconnexion.

L’employeur encourt d’ailleurs des sanctions pénales (emprisonnement et amende) s’il n’a pas respecté son obligation de négocier sur la qualité de vie au travail incluant le droit à la déconnexion (art. L.2243-2). Il s’agit d’organiser la déconnexion par accord, charte, notes de service en formalisant une utilisation responsable des outils de travail à distance, en permettant le respect des horaires légaux et des temps de pause (déconnexion automatique avec envoi différé des mails par exemple).

La culture du résultat doit ainsi prendre le pas sur celle du présentéisme. Les managers doivent veiller à :

  • évaluer la charge réelle de travail,

  • organiser les conditions d’exercice à distance,

  • repérer les éventuelles inégalités entre collaborateurs,

  • mesurer et prévenir aux risques psychosociaux.

Au-delà de la liberté promise, une nouvelle forme d’aliénation numérique se développe en mode hybride. Malgré des perspectives encourageantes en matière d’organisation des temps de vie, il impose en contrepartie une vigilance accrue quant à ses impacts sur la santé mentale et cognitive des travailleurs.

Former à l’attention, reconnaître les risques de surcharge, garantir un droit effectif à la déconnexion : autant de conditions indispensables pour que flexibilité ne rime pas avec épuisement.

Sans accompagnement, sans régulation, sans pédagogie, l’épuisement cognitif présente un risque pour la santé mentale des télétravailleurs.

Travailler en mode hybride, oui mais à condition de veiller à notre santé mentale !


Cet article a été rédigé avec Dr Nawal Abboub, cofondatrice et directrice scientifique de Rising Up et cocréatrice du Core Skills Scan.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Derrière la promesse d’autonomie du travail hybride, de vrais risques de surcharge cognitive – https://theconversation.com/derriere-la-promesse-dautonomie-du-travail-hybride-de-vrais-risques-de-surcharge-cognitive-262741

Paroles de salariés Asperger : sept clés pour comprendre leur quotidien

Source: The Conversation – in French – By Alexandre Richet, Doctorant en science de gestion, Université de Caen Normandie

Les salariés concernés par le syndrome Asperger aiment les règles écrites, pas les sous-entendus. « Tout le monde pense que c’est intuitif, mais pour moi ça ne l’est pas », témoigne une personne interviewée. Veja/Shutterstock

Sept différences avec des salariés dans la norme, ou neurotypiques, suffisent pour mieux comprendre la place dans l’entreprise des salariés Asperger. Elles dessinent un besoin de stabilité émotionnelle. Et si on donnait la parole aux premiers concernés ?


Dans l’ombre des grands discours savants sur la « neurodiversité », il y a des vies très simples : des vies de travail, des vies de salariés Asperger. Ce syndrome concerne environ 1 personne sur 132 dans le monde.

Classé dans les troubles du spectre de l’autisme, il se traduit par une autre manière de communiquer et de percevoir les interactions sociales. Concrètement, les personnes concernées parlent souvent de façon très directe, comprennent mal l’implicite ou le second degré, mais développent une rigueur et une passion remarquables dans leurs centres d’intérêt.

Treize participants ont accepté de partager leur expérience professionnelle au cours de plus de sept heures d’entretiens réalisés dans le cadre d’un travail doctoral. Résultat : une fresque à la fois complexe et simple, teintée d’une logique imparable mais essentielle. Sept différences suffisent pour mieux comprendre leur place dans l’entreprise. Les voici :

1. Le travail n’est pas juste un salaire

Pour beaucoup, travailler c’est vivre. Pas seulement gagner de l’argent.

« Le travail, pour moi, c’est vraiment une passion. »

Certains deviennent « fan » de leur travail, au point d’oublier de manger ou de se reposer.

« Je suis complètement accro au travail. Chez nous, ça ouvre à 7 heures donc, à 6 h 50, je suis devant la grille. »

On dirait presque une histoire d’amour : l’entreprise devient une maison, un refuge, parfois même une famille.

2. Le détail comme signature

Les personnes concernées par l’autisme Asperger aiment quand les choses sont bien faites. Ici, le détail n’est pas une obsession maladive, mais une véritable marque de fabrique.

« Je suis tellement perfectionniste que du coup, même mon chef, j’arrive à l’agacer. »

Cette exigence est précieuse pour l’entreprise, même si elle déroute parfois les collègues. Car derrière la remarque piquante, il n’y a qu’une envie : aider, jamais accuser.

3. Un contrat clair, rien de plus

Les salariés Asperger aiment les règles écrites, pas les sous-entendus.

« Tout le monde pense que c’est intuitif, mais pour moi, ça ne l’est pas. »_

Une pause-café ? Si ce n’est pas dans le contrat, ce n’est pas obligatoire. Et comme le dit une enquêtée avec humour :

« Si c’est une exigence pour la boîte que je sois coiffée et maquillée tous les matins, qu’ils me payent l’heure et demie que je vais y passer. »

Ici, le contrat de travail, c’est le contrat papier. Le reste ? de la confusion inutile.

4. Le manager comme capitaine bienveillant

Un bon manager n’est pas un chef autoritaire, mais un facilitateur.

« Un bon manager, c’est quelqu’un qui peut interrompre la réunion et dire : tiens, Pierre, qu’est-ce que tu en penses ? »

Parfois même, il est vu comme un repère affectif :

« Vaut mieux dire “bienveillant”, mais c’est même plus loin encore, c’est vraiment attentif, un peu parental, j’allais presque dire : un peu nounou, nourrice, psychologue, qui connaît les difficultés. »

Pas de paternalisme ici, mais une vraie relation de confiance, qui rend le travail plus simple et plus humain.

5. Les aménagements : simples et efficaces

Les ajustements demandés ne sont pas des privilèges, mais des outils de production.

« J’ai installé un tapis de gym dans mon bureau, donc parfois les téléconférences, je les fais allonger. »

Un casque antibruit, un bureau plus calme, un horaire flexible… Ce sont de petites choses, à faible coût, qui changent tout pour le salarié – porteur ou non d’un handicap – et, par ricochet, pour l’entreprise.




À lire aussi :
Efficacité, constance, faible absentéisme… tout ce que les autistes Asperger apportent à l’entreprise


6. Le piège du « toujours plus »

Dire non ? Très difficile. Refuser une mission ? Presque impossible.

« Même si je suis fatigué, si j’y passe trois ou quatre nuits blanches, il fallait que je le fasse. »

Cette énergie impressionne, mais elle épuise. L’épuisement professionnel n’est pas rare, et porte même le nom de burn out autistique. Le rôle du manager est essentiel : poser des limites, protéger, rappeler qu’un bon salarié est aussi un salarié qui dure.

7. Le collectif comme horizon

Ce qui compte le plus, ce n’est pas la carrière individuelle. C’est le groupe :

« C’est encore au-dessus parce que, en fait, on va acquérir la connaissance de l’autre que l’on n’a pas et, en même temps, on va apporter à l’autre ce que l’autre n’a pas non plus. »

Travailler, c’est construire ensemble, sans écraser les autres. La solidarité n’est pas une option, mais une règle d’or.

Stabilité émotionnelle

Ces sept différences dessinent un tableau simple : un besoin de stabilité émotionnelle. Les salariés Asperger ne demandent pas des privilèges, seulement des règles claires, compréhensibles, un management attentif et quelques aménagements concrets. En retour, les entreprises gagnent des collaborateurs loyaux, précis, constants. Pas des machines froides, mais des personnes engagées, parfois fragiles, mais donnant toujours le meilleur d’elles-mêmes.

Après tout, qui se lève le matin en se disant : « Aujourd’hui, je vais mal faire mon travail » ? Personne. Les salariés concernés par le syndrome Asperger non plus. Et c’est peut-être ça, la vraie ressemblance qui nous unit : avoir envie de bien faire.

Alors oui, les personnes Asperger osent le dire, osent être vraies, intègres, gêner et se dresser face à l’injustice sociale. Leur franchise ne doit pas être vue comme un obstacle, mais comme une force qui éclaire ce que beaucoup taisent.

Au fond, n’est-ce pas ce que nous recherchons tous ? Bien faire, offrir le meilleur de nous-mêmes et ressentir cette fierté intime devant l’œuvre accomplie – qu’il s’agisse d’un métier, d’un geste ou d’un ouvrage. Derrière chaque action juste, chaque travail soigné, se cache le désir universel d’humanité et de dignité.

The Conversation

Alexandre Richet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Paroles de salariés Asperger : sept clés pour comprendre leur quotidien – https://theconversation.com/paroles-de-salaries-asperger-sept-cles-pour-comprendre-leur-quotidien-265606

Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?

Source: The Conversation – France (in French) – By Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon

Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.


Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.

Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.

Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.

La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.

Émissions hors échappement : de quoi parle-t-on ?

Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.

Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.

Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.

Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.

Quel impact sur notre santé ?

Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.

Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.

Système de collecte via un sac à dos.
Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l’auteur

Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.

Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.

Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.

Véhicule équipé d’un système de collecte.
Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l’auteur

Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.

La norme Euro 7, une réponse appropriée ?

Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.

La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.

L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.

De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.

Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :

le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;

les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;

la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.

La mobilité électrique, pas forcément une panacée

Selon une analyse publiée par le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).

Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.

Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.

Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.

The Conversation

Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d’Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN

Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ? – https://theconversation.com/freinage-et-particules-fines-une-pollution-routiere-oubliee-des-evolutions-reglementaires-260730