Sur Pornhub, un simple message suffit à dissuader les utilisateurs cherchant des vidéos pedopornographiques

Source: The Conversation – in French – By Joel Scanlan, Senior Lecturer in Cybersecurity and Privacy, University of Tasmania

La sécurité des utilisateurs doit être intégrée à la conception des plates-formes numériques. Elle n’est pas forcément complexe ou coûteuse, contrairement à ce que prétendent les entreprises numériques. Une expérience, menée sur la plateforme pornographique Pornhub, montre qu’un simple message adressé aux internautes cherchant des images pédopornographiques est fort dissuasif.


Le mot d’ordre officieux de l’industrie tech pendant deux décennies était « Move fast and break things », qu’on pourrait traduire par « aller vite quitte à tout casser ». Une philosophie qui a brisé bien plus que les seuls monopoles des taxis ou le modèle d’affaires des chaînes hôtelières. Elle a aussi façonné un monde numérique rempli de risques pour les plus vulnérables.

Pour la seule année fiscale 2024-2025, l’Australian Centre to Counter Child Exploitation a reçu près de 83 000 signalements de contenus d’exploitation sexuelle d’enfants en ligne (CSAM), principalement sur des plateformes grand public – une hausse de 41 % par rapport à l’année précédente.

En Australie, avec l’entrée en vigueur cette semaine de l’interdiction d’utiliser les réseaux sociaux pour les moins de 16 ans, ainsi que la mise en place de la vérification de l’âge pour les utilisateurs connectés aux moteurs de recherche le 27 décembre et pour les contenus réservés aux adultes le 9 mars 2026, nous atteignons un moment charnière – mais il faut bien comprendre ce que cette régulation permet et ce qu’elle laisse de côté. (Note du traducteur : En France, la loi du 7 juillet 2023 fixe à 15 ans l’âge minimal pour l’inscription et l’utilisation des réseaux sociaux).

L’interdiction empêchera une partie des enfants d’accéder aux plateformes (s’ils ne la contournent pas), mais elle ne corrige en rien l’architecture toxique qui les attend lorsqu’ils y reviendront. Elle ne s’attaque pas non plus aux comportements nocifs de certains adultes. Nous avons besoin d’un changement réel vers un devoir de vigilance numérique, qui obligerait légalement les plateformes à anticiper les risques et à les atténuer.

Le besoin de penser la sécurité dès la conception

Aujourd’hui, la sécurité en ligne repose souvent sur une approche dite « whack-a-mole », une référence à ce jeu d’arcade qui consiste à donner des coups de maillet sur la tête de taupes émergeant aléatoirement de quelques trous. De fait, les plateformes attendent que les utilisateurs signalent des contenus nocifs, puis les modérateurs les retirent. C’est une méthode réactive, lente, et souvent traumatisante pour les modérateurs humains qui y participent.

Pour remédier réellement au problème, il faut intégrer la sécurité dès la conception. Ce principe impose que les dispositifs de protection soient inscrits au cœur même de l’architecture de la plateforme. Il dépasse la simple restriction d’accès pour interroger les raisons pour lesquelles la plateforme permet, à l’origine, l’existence de mécanismes menant à des usages nocifs.

On en voit déjà les prémices lorsque des plateformes marquées par des précédents problématiques ajoutent de nouvelles fonctions – comme les « connexions de confiance » sur Roblox, qui limitent les interactions dans le jeu aux personnes que l’enfant connaît aussi dans la vie réelle. Cette fonction aurait dû être intégrée dès le départ.

Au CSAM Deterrence Centre, dirigé par Jesuit Social Service en partenariat avec l’Université de Tasmanie, nos travaux contredisent le discours récurrent de l’industrie selon lequel assurer la sécurité serait « trop difficile » ou « trop coûteux ».

En réalité, nous avons constaté que des interventions simples et bien conçues peuvent perturber des comportements nocifs sans nuire à l’expérience des autres utilisateurs.

Perturber les comportements dangereux

L’une de nos découvertes les plus marquantes provient d’un partenariat avec l’un des plus grands sites pour adultes au monde, Pornhub. Lors de la première intervention de dissuasion évaluée publiquement, lorsqu’un utilisateur cherchait des mots-clés liés aux abus sur mineurs, il ne se retrouvait pas face à un écran vide. Un message d’avertissement s’affichait et un chatbot l’orientait vers une aide thérapeutique.

Nous avons observé une baisse des recherches de contenus illégaux, et plus de 80 % des utilisateurs confrontés à cette intervention n’ont pas tenté de rechercher ces contenus à nouveau sur Pornhub durant la même session.

Ces données, cohérentes avec les résultats de trois essais contrôlés randomisés que nous avons menés auprès d’hommes australiens âgés de 18 à 40 ans, démontrent l’efficacité des messages d’avertissement.

Elles confirment également un autre constat : le programme Stop It Now (Australie) de Jesuit Social Service, qui propose des services thérapeutiques aux personnes préoccupées par leurs sentiments envers les enfants, a enregistré une forte augmentation des recommandations web après que le message d’avertissement affiché par Google dans les résultats de recherche liés aux contenus d’abus sur mineurs ait été amélioré plus tôt cette année.

En interrompant le parcours de l’utilisateur par un message clair de dissuasion, on peut empêcher qu’une pensée nocive se transforme en acte dangereux. C’est de la « safety by design » (« sécurité dès la conception »), utilisant l’interface même de la plateforme pour protéger la communauté.

Rendre les plateformes responsables

C’est pourquoi il est crucial d’inclure un devoir de vigilance numérique dans la législation australienne sur la sécurité en ligne, engagement pris par le gouvernement plus tôt cette année.

Plutôt que de laisser les utilisateurs naviguer à leurs risques et périls, les plateformes en ligne seraient légalement tenues de repérer et de réduire les risques qu’ils créent, qu’il s’agisse d’algorithmes suggérant des contenus nocifs ou de fonctions de recherche permettant d’accéder à du matériel illégal.

Parmi les mesures possibles, figurent la détection automatique de comportements de grooming (repérer les personnes cherchant à exploiter des enfants), le blocage du partage d’images et de vidéos d’abus déjà connus ainsi que des liens vers les sites qui les hébergent, et la suppression proactive des voies permettant d’atteindre les personnes vulnérables – par exemple empêcher que des enfants en ligne puissent interagir avec des adultes qu’ils ne connaissent pas.

Comme le montre notre recherche, les messages de dissuasion jouent également un rôle : afficher des avertissements clairs lorsque les utilisateurs recherchent des termes dangereux est très efficace. Les entreprises technologiques devraient collaborer avec des chercheurs et des organisations à but non lucratif pour tester ce qui fonctionne, en partageant les données plutôt qu’en les dissimulant.

L’ère du « aller vite quitte à tout casser » est révolue. Il faut un changement culturel qui fasse de la sécurité en ligne une caractéristique essentielle, et non un simple ajout optionnel. La technologie pour rendre ces plateformes plus sûres existe déjà, et les données montrent qu’intégrer la sécurité dès la conception peut porter ses fruits. Il ne manque plus qu’une réelle volonté de le faire.

The Conversation

Joel Scanlan est le co-responsable académique du CSAM Deterrence Centre, un partenariat entre l’Université de Tasmanie et Jesuit Social Services, qui gèrent Stop It Now (Australie), un service thérapeutique offrant un soutien aux personnes préoccupées par leurs propres sentiments, ou ceux de quelqu’un d’autre, envers les enfants. Joel Scanlan a reçu des financements de l’Australian Research Council, de l’Australian Institute of Criminology, du eSafety Commissioner, de la Lucy Faithfull Foundation et de l’Internet Watch Foundation.

ref. Sur Pornhub, un simple message suffit à dissuader les utilisateurs cherchant des vidéos pedopornographiques – https://theconversation.com/sur-pornhub-un-simple-message-suffit-a-dissuader-les-utilisateurs-cherchant-des-videos-pedopornographiques-271771

‘Is my boss a narcissist?’ How researchers look and listen for clues

Source: The Conversation – France – By Ivana Vitanova, Associate professor, EM Lyon Business School

Between the public extravagances of today’s business icons and the recent trials of prominent CEOs, narcissistic managers have firmly taken the spotlight. In academia, the fascination with the potent mix of charisma and ego that defines narcissistic leaders has fuelled nearly two decades of extensive research and analysis. Yet one of the central challenges of this work is measurement: how can we identify and assess narcissism in managers outside a clinical setting? Since it’s rarely possible to administer traditional psychometric tests to top executives, management scholars have developed a range of clever, unobtrusive ways to identify narcissistic tendencies by observing behavior, language, and public presence.

Narcissism: its traditional measurement

According to the Diagnostic and Statistical Manual of Mental Disorders (DSM) of the American Psychiatric Association, “narcissistic personality disorder is defined as a pervasive pattern of grandiosity (sense of superiority in fantasy or behavior), need for admiration, and lack of empathy, beginning by early adulthood and occurring in a variety of contexts.” In their 2020 article in the Journal of Management, authors Ormonde Rhees Cragun, Kari Joseph Olsen and Patrick Michael Wright write that “despite its origin in clinical psychology, the DSM’s definition is also widely accepted for defining narcissism in its nonclinical form”.

Research in psychology traditionally assesses narcissism through self-report tests or third-party psychometric tests. As first outlined by R. A. Emmons in 1984, the basic principle of these tests is to link simple statements to the components of narcissism. The most widely used and empirically validated are the 40-item Narcissistic Personality Inventory (NPI) and its shorter version, the NPI-16. The NPI asks respondents to choose between paired statements such as “I really like to be the center of attention” versus “it makes me uncomfortable to be the center of attention”, and “I am much like everybody else” versus “I am an extraordinary person”.

While a few studies have administered the NPI directly to top managers – or adapted it for third-party evaluations, asking employees or stakeholders to rate managers based on daily interactions – such approaches remain extremely rare due to limited access to suitable participants. Faced with these limitations, researchers in management and organizational studies have sought alternative ways to detect narcissism in leaders. They began by identifying behavioral and linguistic cues in CEOs’ official communications that could reflect one or more dimensions of narcissism. More recently, however, the rise of social media has provided researchers with new, more direct opportunities to observe and measure narcissistic behavior in real time.

Spotting narcissistic traits in interviews and official communications

One of the first studies to measure managerial narcissism was developed by Arijit Chatterjee and Donald C. Hambrick in 2007. After consulting with corporate communication experts, they followed Emmons’ principle and identified four potential signs of narcissism in CEOs’ public behavior. These were the prominence of the CEO’s photograph in a company’s annual report; the CEO’s prominence in a company’s press releases; the CEO’s use of first-person singular pronouns (eg I, me and my) in interviews; and the CEO’s compensation divided by that of the second-highest paid executive in the firm.

Later research expanded this approach with new indicators, such as the number of lines in a CEO’s official biography or the number of awards listed in their self-description. Other studies zoomed in on more specific linguistic cues – such as the ratio of singular pronouns to plural pronouns (eg we, us and ours) in CEOs’ press releases.

Inspired by findings in psychology, some researchers have even used the size of a CEO’s signature as a proxy for narcissism – a larger, more flamboyant signature being linked to a higher level of narcissism.




À lire aussi :
Signature size and narcissism − a psychologist explains a long-ago discovery that helped establish the link


Importantly, many of these studies have validated their unobtrusive measures against traditional personality tests, finding strong correlations with established tools like the NPI. This evidence suggests that we can reliably spot narcissistic tendencies in leaders by observing their behavior and communication.

How social media reveals narcissistic traits in managers

In recent years, the rise of social media has given researchers unprecedented opportunities to observe how managers present themselves to the public – opening a new window into their narcissistic behavior. For instance, a recent study by Sebastian Junge, Lorenz Graf-Vlachy, Moritz Hagen and Franziska Schlichte analysed managers’ LinkedIn profiles to develop a multidimensional index of narcissism. Building on the DSM’s components of narcissism, the authors identified five features of a profile that may signal narcissistic tendencies: the number of pictures of the executive; the length of the “About” section; the number of listed professional experiences; the number of listed skills; and the number of listed credentials. They then combined these indicators to create an overall index of managerial narcissism.

Admittedly, research that only uses social media profiles may focus on the most narcissistic managers, since less narcissistic executives may not maintain, for example, a LinkedIn presence. Moreover, social psychology research suggests that social media itself encourages exaggeratedly narcissistic communication by encouraging self-promotion. To help address these concerns, Junge et al. assigned managers without LinkedIn profiles the lowest possible narcissism score and included them in their overall analysis. Their study found strong correlations between the LinkedIn-based measure and earlier, unobtrusive measures of narcissistic CEO behavior, as well as traditional psychometric tests such as the NPI.

The takeaway is encouraging: we don’t always need a personality test to spot narcissistic leaders – their words, images and online profiles can reveal a great deal. These tools offer employees, investors and board members a way to better recognize narcissistic tendencies in managers and adjust their decisions and interactions accordingly. And there’s still huge potential for being creative: building on psychologists’ insights into narcissistic behaviors, we could explore psycholinguistic dictionaries of narcissistic rhetoric and even, more eccentrically, analyse facial features such as eyebrow distinctiveness.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Ivana Vitanova ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. ‘Is my boss a narcissist?’ How researchers look and listen for clues – https://theconversation.com/is-my-boss-a-narcissist-how-researchers-look-and-listen-for-clues-270691

Ces pointes de flèches prouvent-elles la présence d’Homo Sapiens en Eurasie il y a 80 000 ans ?

Source: The Conversation – in French – By Hugues Plisson, archéologue spécialisé en tracéologie (reconstitution de la fonction des outils préhistoriques par l’analyse de leurs usures), Université de Bordeaux

Des pointes de flèche retrouvées en Asie centrale. Malvina Baumann, Fourni par l’auteur

De minuscules pointes de projectile triangulaires ont été identifiées à partir de leurs fractures d’impact dans les plus anciennes couches d’occupation du site d’Obi-Rakhmat en Ouzbékistan, vieilles de 80 000 ans. Elles ont la dimension de pointes de flèches et sont identiques à celles découvertes dans une couche beaucoup plus récente d’un site de la vallée du Rhône, en France, à la toute fin du Paléolithique moyen, correspondant à une incursion d’Homo Sapiens en territoire néanderthalien il y a 54 000 ans. Cette nouvelle étude, publiée dans la revue « PLOS One », apporte un argument décisif pour la réécriture du scénario de l’arrivée d’Homo Sapiens en Europe.


Développés en Europe occidentale et plus particulièrement en France à partir de la seconde moitié du XIXe siècle, les cadres chrono-culturels et anthropologiques de la Préhistoire et les modèles évolutifs qu’ils inspirèrent furent d’abord linéaires et européocentrés : Cro-Magnon descendant de Néanderthal posait les fondements d’une supériorité civilisationnelle dont se prévalait alors cette partie du monde. Ce n’est qu’un siècle plus tard que sera mise en évidence l’origine africaine d’Homo Sapiens et des traits technologiques et sociaux structurants du Paléolithique supérieur occidental, de ~ 45 000 à 12 000 ans avant le présent (productions symboliques, réseaux à grande distance, outillages et armements lithiques et osseux diversifiés).

Les plus anciennes évidences de présence d’Homo Sapiens en Australie vers 65 000 ans précèdent de 10 millénaires celles de l’Europe dont les modalités du peuplement demeurent sujet de discussion. À ce jour, le calage chronologique des toutes premières occupations européennes du Paléolithique supérieur par rapport à celles de l’est du bassin méditerranéen, pourtant regardées comme les plus proches, demeure insatisfaisant. Soit les données sont issues de fouilles trop anciennes pour avoir été suffisamment précises, soit elles ne s’inscrivent pas dans la filiation directe supposée entre le Levant et l’Europe. Les racines mêmes du Paléolithique supérieur initial levantin, malgré la proximité africaine, sont incertaines. Une origine centre asiatique, a été suggérée par l’archéologue Ludovic Slimak en 2023.

Un site en Asie centrale

Vue depuis l’abri d’Obi-Rakhmat sur l’extrémité du Tien Shan.
Fourni par l’auteur

Corridor entre l’ouest et l’est du continent ou zone refuge, selon les phases climatiques, l’Asie centrale n’est encore documentée que par quelques sites paléolithiques, mais qui sont autant de références de l’histoire de la Préhistoire.

Parmi ceux-ci figure l’abri sous roche d’Obi-Rakhmat en Ouzbékistan découvert en 1962. Ce gisement livre sur 10 mètres de stratigraphie, entre 80 000 et 40 000 ans, une industrie lithique qui par certains traits s’inscrit clairement dans la continuité du Paléolithique moyen ancien du Levant mais par d’autres fut rapprochée du Paléolithique supérieur initial. Ce Paléolithique moyen ancien du Levant, associé dans le site de Misliya à de l’Homo Sapiens archaïque, disparut du Proche-Orient vers 100 000 ans. À Obi-Rakhmat, les restes crâniens d’un enfant trouvés dans une couche à ~ 70 000 ans, présentent des caractères regardés comme néanderthaliens et d’autres comme anatomiquement modernes, combinaison pouvant résulter d’une hybridation.

Lames massives mais pointes microlithiques

Éléments de l’industrie lithique de la couche 21 d’Obi-Rakhmat : lames brutes (1-2), grande lame retouchée (3), lames retouchées en pointe (4-5), pointes retouchées impactées (6-8), micro pointe Levallois brute (9), micro-pointes brutes impactées (10-11).
Fourni par l’auteur

C’est dans ce contexte que notre équipe internationale, dirigée par Andrei I. Krivoshapkin, a identifié dans les couches les plus anciennes de minuscules pointes de projectiles triangulaires. Mesurant moins de 2 cm de large et ne pesant que quelques grammes, elles sont impropres par leurs dimensions et leur fragilité à avoir été montées sur des hampes de lances. Leur étroitesse correspond au diamètre (inférieur ou égal à 8 mm) des hampes documentées ethnographiquement sur tous les continents pour les flèches tirées à l’arc droit.

Deux micro-pointes brutes de la couche 21 du site d’Obi-Rakhmat, l’une intacte, l’autre brisée et rayée par son usage en armature de projectile. L’allumette matérialise leur minuscule dimension.
Fourni par l’auteur

Question de balistique

Les armes perforantes projetées constituent des systèmes complexes dont les éléments ne sont pas interchangeables d’un type d’arme à l’autre, car répondant à des contraintes différentes en intensité et en nature.

L’importante force d’impact des lances tenues ou lancées à la main fait de la robustesse de l’arme un paramètre essentiel, aussi bien en termes d’efficacité que de survie du chasseur, la masse assurant à la fois cette robustesse, la force d’impact et la pénétration. À l’opposé, la pénétration des traits légers tirés à grande distance repose sur leur acuité, car l’énergie cinétique, beaucoup plus faible, procède là essentiellement de leur vitesse, laquelle, à la différence de la masse, décroit très rapidement sur la trajectoire et dans la cible. Cette vitesse ne pouvant être atteinte par la seule extension du bras humain, elle est obligatoirement tributaire de l’emploi d’un instrument de lancer. Les pointes de flèche et celles de lances ou de javelines ne sont donc pas conçues selon les mêmes critères et ne se montent pas sur les même hampes, les dimensions et le degré d’élasticité desquelles sont par ailleurs essentiels en terme balistique. Ainsi, comme en paléontologie où la forme d’une dent révèle le type d’alimentation et suggère le mode de locomotion, les caractéristiques d’une armature fournissent des indices sur le type d’arme dont elle est l’élément vulnérant.

Un armement propre à Sapiens ?

Le minuscule gabarit des pointes d’Obi-Rakhmat ne peut être regardé comme un choix par défaut, car non seulement la matière première lithique de bonne qualité dont on a tiré de grandes lames ne manque pas à proximité du site, mais l’inventaire des traces d’usage relevées à la loupe binoculaire et au microscope met en évidence au sein du même assemblage des pointes retouchées beaucoup plus robustes (15 à 20 fois plus lourdes et 3 à 4 fois plus épaisses) et du gabarit des têtes de lance ou de javeline.

En retournant à la bibliographie et à nos propres travaux sur des outillages du Paléolithique moyen, nous avons constaté que la présence dans un même ensemble d’armatures de divers types, pour partie microlithiques et produites à cette fin, n’était à ce jour connue que dans les sites à Homo Sapiens. Les plus anciennes occurrences documentées sont en Afrique du Sud dans les couches culturelles Pre-Still Bay (plus de 77 000 ans) et postérieures du gisement de Sibudu. Dans l’univers néanderthalien, les pointes lithiques endommagées par un usage en armature de projectile sont rares, elles sont de fort gabarit et ne se distinguent ni par leurs dimensions, leur facture ou leur type de celles employées à d’autres activités que la chasse, telles que la collecte de végétaux ou la boucherie. Cette distinction dans la conception des outillages et des armements prend valeur de marqueur anthropologique.

Pointes levallois du site d’Um el-Tlel en Syrie, Paléolithique Moyen récent levantin attribué à Néanderthal. De gauche à droite : reconstitution graphique à partir d’un fragment planté dans une vertèbre d’âne, lame de couteau à plante, lame de couteau de boucherie. Ces pointes polyvalentes sont 2 à 3 fois plus larges que les micro-pointes d’Obi-Rakhmat.
Fourni par l’auteur

En raison de leurs dates respectives, de la distance entre l’Afrique du sud et l’Asie centrale (14 000 km) et de la différence de facture des armatures d’Obi-Rakhmat et de Sibudu (lithique brut de débitage vs lithique façonné ou retouché, osseux façonné), l’hypothèse de foyers d’invention indépendants est la plus vraisemblable.

Des piémonts du Tien Shan à la vallée du Rhône 25 000 plus tard

La seule forme d’armature miniature de projectile identique actuellement connue est beaucoup plus récente. Elle fut découverte par Laure Metz, sur le site de Mandrin, en vallée du Rhône en France, qui livra aussi une dent de lait d’Homo Sapiens déterminée par Clément Zanolli. L’ensemble est daté d’environ 54 000 ans, soit une dizaine de milliers d’années avant la disparition des Néanderthaliens locaux. La similitude des micro-pointes d’Obi-Rakhmat et de Mandrin, pourtant séparées par plus de 6 000 km et 25 millénaires, est telle que les unes et les autres pourraient être interchangées sans qu’aucun autre détail que la roche ne trahisse la substitution.

Similitude des micro-pointes d’Obi-Rakhmat et de Mandrin brisées par leur usage en armature de projectile. La localisation et l’extension de leur fracture (surlignement en rouge et en bleu et détail macroscopique) signent l’impact axial.
Fourni par l’auteur

Des travaux récents publiés par Leonardo Vallini et Stéphane Mazières définissent le Plateau perse, à la périphérie nord-est duquel est situé Obi-Rakhmat, comme un concentrateur de population où les ancêtres de tous les non-Africains actuels vécurent entre les premières phases de l’expansion hors d’Afrique – donc bien avant le Paléolithique supérieur – et la colonisation plus large de l’Eurasie. Cet environnement riche en ressources pourrait avoir constitué une zone de refuge propice à une régénération démographique après le goulet d’étranglement génétique de la sortie d’Afrique, à l’interaction entre les groupes et par conséquent aux innovations techniques.

De part et d’autre du plateau perse (encadré orange), identifié génétiquement comme une aire refuge de concentration et développement démographique des Homo Sapiens sortis d’Afrique, Obi-Rakhmat et Mandrin ont en commun, à 25 000 ans et 6 000 km de distance, les mêmes micro-pointes de projectile.
Fourni par l’auteur

Mandrin et Obi-Rakhmat représentent probablement deux extrémités géographiques et temporelles d’une phase pionnière de peuplement telle qu’entrevue par Ludovic Slimak, marquée par ce que les typologues qualifiaient jadis de fossile directeur et qui ici recouvrirait la propagation d’une invention fondamentale propre à Homo Sapiens. Jusqu’à présent passées inaperçues parce que brutes de débitage, minuscules et fragmentaires, il est à parier que les micro-pointes de projectile dont les critères de reconnaissance sont maintenant posés commenceront à apparaître dans des sites intermédiaires entre l’Asie centrale et la Méditerranée occidentale.

Prémisses d’un nouveau scénario du peuplement occidental d’Homo Sapiens

Cette découverte est stimulante à plusieurs titres. Elle valide la cohérence de l’étude du site de Mandrin qui concluait à une brève incursion en territoire néanderthalien de Sapiens armés d’arcs, mais dont plusieurs éléments avaient été critiqués – ce qui est cependant le jeu scientifique habituel lorsqu’une proposition nouvelle s’écarte par trop des connaissances admises – et dont la dimension prédictive n’avait alors pas été considérée.

La similitude des micro-pointes de Mandrin et d’Obi-Rakhmat ne peut être une simple coïncidence. Elle ne porte pas seulement sur leur forme, mais aussi sur leur mode de fabrication, qui requière un réel savoir-faire comme en témoigne la préparation minutieuse de leur plan de frappe avant débitage, et sur leur fonctionnement. On pourra débattre de l’instrument approprié au tir de flèche armées de si minuscules armatures, l’arc étant en filigrane, ou si l’on préfère garder une certaine réserve ne parler que de tir instrumenté, mais cela contraste déjà avec ce que l’on connait des armes de chasse de Néanderthal et de leur conception.

L’autre aspect remarquable, encore peu habituel, est la convergence et la complémentarité de données provenant de la culture matérielle et de la mémoire de nos gènes, qui ne purent s’influencer au regard des dates d’étude et de publication respectives. Les deux conjuguées esquissent la réécriture du scénario de l’arrivée d’Homo Sapiens en Europe : on le pensait venu directement d’Afrique par le chemin le plus court, il y a 45 000 ans, et on le découvre implanté depuis fort longtemps au cœur du continent eurasiatique, bien avant qu’il n’en sorte en quête de nouveaux territoires.

The Conversation

Plisson Hugues a reçu des financements du CNRS et de l’université de Bordeaux

Andrey I. Krivoshapkin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ces pointes de flèches prouvent-elles la présence d’Homo Sapiens en Eurasie il y a 80 000 ans ? – https://theconversation.com/ces-pointes-de-fleches-prouvent-elles-la-presence-dhomo-sapiens-en-eurasie-il-y-a-80-000-ans-267375

Au Louvre, la radiologue qui révèle les mystères des chefs-d’œuvre

Source: The Conversation – France in French (2) – By Elisabeth Ravaud, Ingénieur de recherche, Ministère de la Culture

Elisabeth Ravaud en train d’analyser une peinture au microscope dans son laboratoire. Antoine Merlet, Fourni par l’auteur

Vous l’ignorez peut-être, mais sous le Louvre, se cache un laboratoire un peu particulier, le Centre de recherche et de restauration des musées de France. Il a pour mission d’étudier, de documenter et d’aider à la restauration des œuvres des 1 200 musées de France. Benoît Tonson, chef de rubrique Science et Technologie, y a rencontré Elisabeth Ravaud. Elle est l’autrice d’un ouvrage de référence sur l’utilisation de la radiographie appliquée à l’étude des peintures « Radiography and Painting » et l’une des plus grandes spécialistes mondiales de cette discipline.


The Conversation : Vous êtes entrée au laboratoire du Louvre en 1993, pourtant à cette époque vous n’étiez ni historienne de l’art ni restauratrice…

Elisabeth Ravaud : À l’époque, je suis médecin, spécialisée en radiodiagnostic et imagerie médicale. J’ai fait mes études de médecine à Paris, à la Pitié-Salpêtrière, puis passé l’internat des hôpitaux de Paris. En parallèle de cette activité hospitalière, j’ai toujours cultivé un goût pour l’histoire de l’art. J’avais d’ailleurs entamé un cursus dans cette discipline, bénéficiant d’une équivalence en deuxième année grâce à ma thèse de doctorat : après sept ans de médecine, on y avait droit. Un jour, on m’a annoncé qu’il me fallait faire un stage. Et c’est comme ça, presque par hasard, que j’ai atterri ici.

Naturellement, je me suis intéressée à la radiographie, le seul point commun évident entre mes études médicales et l’examen des œuvres d’art. Dans le monde hospitalier, je pratiquais la radio conventionnelle, mais aussi l’échographie, l’écho-Doppler, la radiologie interventionnelle, le scanner, l’IRM… Tout un arsenal qui n’existe évidemment pas pour les œuvres. La radio, elle, constituait un vrai pont.

Quelles sont les grandes différences que vous avez pu remarquer entre l’hôpital et le laboratoire ?

E. R. : Très vite, un point m’a frappée : en lisant les rapports ou les articles produits à l’époque, j’ai eu l’impression que l’interprétation des radiographies d’œuvres se limitait aux signes les plus évidents. Par exemple, vous voyez trois personnages sur la radio, mais seulement deux sur le tableau, on en déduit qu’un personnage a été recouvert. Mais tout ce qui relevait d’une information plus subtile semblait laissé de côté. Or, je venais d’un milieu où l’image est examinée en long, en large et en travers. On n’aborde jamais l’examen d’un foie sans jeter un œil aux reins, aux poumons : l’interprétation est systématique, structurée. Cette différence méthodologique m’a immédiatement sauté aux yeux.

Autre surprise : dans les rapports, rien sur les supports, les essences de bois, la toile, les petits signes discrets… On se contentait des évidences. Et quand j’ai voulu me documenter, là où la médecine offre des bibliothèques entières, j’ai découvert qu’en imagerie d’œuvres d’art, il n’existait pratiquement aucun ouvrage. L’information était éparpillée : un peu ici, un peu là, un article isolé… rien de systématisé.

À la fin de mon stage, on m’a proposé de rester. Et si je n’avais pas perçu cette sous-exploitation de l’image, et cette absence d’outils méthodologiques, je ne suis pas sûre que j’aurais accepté : j’avais déjà un poste hospitalier. Mais je me suis dit que je pouvais peut-être apporter quelque chose, une forme d’expertise méthodologique, en faisant passer mes compétences de l’univers médical au monde du patrimoine. C’est ce sentiment qui m’a finalement convaincue.

Sur quels types d’œuvres avez-vous travaillé ?

E. R. : Avec mon parcours, tout portait à croire que je travaillerais sur des objets en volume, comme on travaille en imagerie 3D à l’hôpital, je travaillais sur des corps, donc ce qui aurait pu s’en rapprocher le plus étaient les statues. Mais non : on m’a mise sur… la peinture. Ça m’a surprise. Et en même temps, cela a eu un effet décisif : j’ai réalisé que les tableaux, que beaucoup considèrent comme des objets en deux dimensions (une hauteur et une largeur), possèdent en réalité une profondeur, essentielle à prendre en compte en radiographie. L’épaisseur de la couche picturale, les structures internes du support, l’accumulation des matériaux… tout cela forme une troisième dimension qui conditionne l’interprétation. Et c’est précisément cette profondeur, parfois réduite à quelques millimètres, qui rend l’analyse complexe. Chaque signe radiographique doit être rapporté à sa structure d’origine.

Radiographie de la Joconde.
E. Ravaud/E. Lambert-C2RMF, Fourni par l’auteur

Finalement, ce retour à la radio conventionnelle, alors que je travaillais surtout en scanner et IRM, des techniques plus avancées, s’est révélé cohérent. Comme en médecine, la radiographie conventionnelle conserve son importance. Elle offre une première vision globale, oriente le diagnostic, et guide vers d’autres examens. Dans le domaine du patrimoine, elle joue ce même rôle fondamental.

Pouvez-vous nous rappeler le principe de la radiographie ?

E. R. : La radiographie est une technique d’imagerie fondée sur les rayons X, découverts en 1895 par Wilhelm Röntgen, physicien allemand travaillant à l’Université de Würzburg (Bavière). Elle consiste à produire, à partir d’un tube, un faisceau de rayons X qui traverse la matière en subissant une atténuation. Cette atténuation est décrite par la loi de Beer-Lambert. Il s’agit d’une décroissance exponentielle dépendant de l’épaisseur traversée, plus elle est grande, plus l’atténuation est forte, cette décroissance dépend également de la nature du matériau. Par exemple, un métal a un coefficient d’atténuation très élevé : en quelques dizaines de microns, il arrête presque totalement les rayons X. À l’inverse, l’air laisse passer les rayons X très facilement.

Voici le principe : un faisceau homogène traverse successivement le support, la préparation et la couche picturale. Chaque photon est atténué différemment selon les matériaux rencontrés, transformant le faisceau initialement homogène en un faisceau hétérogène. Cette hétérogénéité est ensuite enregistrée par les émulsions radiographiques ou les capteurs numériques.

Historiquement, sur film, plus l’énergie résiduelle est importante, plus l’émulsion devient noire ; à l’inverse, un matériau très absorbant, comme un clou, laisse très peu d’énergie au film, qui reste blanc. L’air apparaît donc noir, le métal blanc. La radio permet ainsi d’observer simultanément le support, la préparation et la couche picturale.

Radiographie de La Belle Ferronnière de Léonard de Vinci.
Radiographie de la Belle Ferronnière, de Léonard de Vinci.
C2RMF, Elsa Lambert, Elisabeth Ravaud, Fourni par l’auteur

J’ai illustré cela avec la Belle Ferronnière, de Léonard de Vinci. On y voit les stries du bois de noyer, caractéristiques du support ; les stries transversales correspondant aux coups de pinceau de la préparation, destinée à régulariser la surface du support ; puis la couche picturale, reconnaissable par la forme du portrait et fortement influencée par la nature des pigments. Les carnations, en particulier, apparaissent très marquées en radiographie car elles contiennent un pigment utilisé depuis l’Antiquité jusqu’à la fin du XIXᵉ ou le début XXᵉ siècle : le blanc de plomb. Le plomb arrête fortement les rayons X, ce qui rend ces zones très lisibles.

C’est d’ailleurs parce que les peintres anciens utilisaient du blanc de plomb que la radiographie est si informative sur leurs œuvres. À l’inverse, les peintures acryliques contemporaines sont composées d’éléments organiques : elles se laissent traverser, ce qui rend la radiographie beaucoup moins performante.

Vous disiez qu’au moment de votre arrivée au laboratoire, on n’exploitait pas le plein potentiel de la radiographie, c’est-à-dire ?

E. R. : Ce qui m’a surprise, c’est que personne ne s’était réellement intéressé au bois. Pourtant, l’essence du panneau est essentielle, car elle constitue un véritable témoin de provenance. En Italie, les peintres utilisent généralement le peuplier ou le noyer (en Lombardie, notamment) tandis que les panneaux flamands sont réalisés en chêne. Ainsi, si on vous présente un tableau prétendument italien et que la radiographie révèle un support en chêne, on peut avoir de sérieux doutes quant à l’authenticité. Ces indices concernant les supports (bois, toile, papier) ne sont pas aussi spectaculaires que les repentirs.

Dans les années 1920–1930, la radiographie était perçue comme une « lanterne magique » : on faisait une radio et l’on découvrait trois personnages au lieu de deux, ou un bras levé au lieu d’un bras baissé. Ce caractère spectaculaire a beaucoup impressionné, et il continue d’impressionner : chaque fois que je vois une radio riche en informations cachées, il y a toujours ce « Waouh ! ». Mais paradoxalement, cette fascination pour l’effet spectaculaire a plutôt freiné l’intérêt pour des signes plus modestes.

Par exemple, je peux identifier qu’un panneau a été confectionné à partir de noyer. Je peux aussi déterminer le type de préparation utilisé pour préparer les panneaux avant de les peindre : à l’époque de Léonard de Vinci, par exemple, on utilisait surtout des préparations à base de calcium alors que Léonard, lui, utilisait des préparations au blanc de plomb. Ce sont ce type de signes, plus discrets, sur lesquels j’ai passé du temps.

L’examen lui-même est simple à réaliser : l’équipement nécessaire est accessible, et on pourrait même faire une radiographie en ville, chez un radiologue. Mais ce que j’ai surtout transféré de la médecine vers le patrimoine, c’est une méthodologie, une manière d’aborder l’image de façon systématique. Les techniques, elles, sont différentes. J’ai dû réapprendre l’anatomie du tableau : ses couches, comment il est fabriqué, avec quels pigments, quelles compositions. Et ensuite, comme en médecine, voir des cas, accumuler de l’expérience. Cela a été une aventure passionnante.

Au-delà de la radiographie, utilisez-vous d’autres techniques d’imagerie ?

E. R. : La radiographie ne se suffit pas à elle-même. On la croise avec de nombreuses autres techniques d’imagerie, que j’ai dû apprendre en arrivant ici, car elles diffèrent totalement de celles du milieu médical. On ne fait pas d’IRM ni de scanner, mais on utilise des infrarouges qui permettent de pénétrer la couche picturale et de révéler le dessin préparatoire. L’ultraviolet, lui, renseigne surtout sur les matériaux en surface, comme le vernis, ou sur les retouches qui apparaissent comme des taches noires sur la fluorescence du vernis ancien.

La Belle Ferronnière, de Léonard de Vinci éclairée avec différentes lumières.
C2RMF, Elsa Lambert, Elisabeth Ravaud, Thomas Clot, Laval, Calligaro, Fourni par l’auteur

La micro-fluorescence X consiste à exciter la matière picturale avec un rayonnement X faible. La matière réémet alors un rayonnement qui est enregistré sous forme de spectre, révélant les éléments présents : calcium, plomb, fer, cuivre, étain, strontium, argent, or, etc. Chaque point fournit la composition de tous les éléments présents. Depuis les années 2010, grâce à l’informatique, on peut faire ces mesures en déplacement continu, générant une « image cube », c’est-à-dire une cartographie complète du tableau où, en chaque point, on peut lire le spectre et isoler la présence d’un élément particulier, par exemple le mercure du vermillon.
Cette technique permet de cartographier différents pigments, comme le plomb, le cuivre ou l’étain, de manière très précise sur la couche picturale.

L’usage combiné de ces techniques a profondément amélioré l’étude fine des couches picturales, permettant d’exploiter au maximum les informations disponibles, tout en gardant la radiographie pour ses informations complémentaires.

Et toutes ces techniques, vous les avez appliquées pour étudier des tableaux de Léonard de Vinci ?

E. R. : Il faut savoir que les collections françaises possèdent cinq œuvres de Léonard de Vinci sur une quinzaine existantes dans le monde. Avoir accès à ce corpus a été une occasion exceptionnelle pour comparer sa manière de travailler au fil du temps. En radiographie, je le rappelle, l’opacité de l’image est proportionnelle à la quantité de matière présente : beaucoup de matière rend l’image opaque, peu de matière la rend transparente.

En comparant la Belle Ferronnière, la Joconde et Saint Jean-Baptiste, on observe une transparence croissante dans les radios : au fil du temps, Léonard utilise la préparation comme réflecteur de lumière, plaçant la matière avec une économie croissante mais précise pour créer des modulations subtiles. Cette information sur la quantité de matière est spécifique à la radio.

Concernant les liants (les matières qui servent à donner de la cohésion et une tenue dans le temps au dépôt de pigments sur un support), il faut savoir que jusqu’au XVᵉ siècle, la peinture se faisait principalement à la tempera à l’œuf (on se servait de jaune d’œuf en guise de liant), liant rapide à sécher, qui obligeait à poser des coups de pinceau courts et qui produisait des couleurs opaques.

L’apparition de la peinture à l’huile a permis de poser des touches plus longues, de moduler la couleur et de créer des transparences impossibles avec la tempera. Elle est documentée dès le XIIIᵉ siècle dans le nord de l’Europe, car dans ces régions la tempera avait tendance à moisir à cause de l’humidité.

En Italie, où le climat était plus clément, l’huile s’est imposée plus tardivement, offrant aux artistes de nouvelles possibilités expressives. Léonard de Vinci, autour de 1472-1473, figure parmi les premiers peintres florentins à utiliser l’huile, marquant ainsi un tournant dans la peinture italienne et la manière de travailler les couches et les effets de lumière.

À l’époque de Léonard, les peintres ne maîtrisaient pas encore très bien le liant et les siccatifs (substances qui jouent un rôle de catalyseur en accélérant le séchage). Ils risquaient soit d’en mettre trop, soit pas assez, et le séchage pouvait devenir problématique : trop rapide, cela provoquait des craquelures prématurées et trop lent, il fallait attendre longtemps avant de poser la couche suivante.

Les écrits de Léonard témoignent de cette inventivité constante : ses recettes de peinture montrent un véritable inventaire de techniques et d’astuces, qu’il mélangeait à des notes sur d’autres domaines. En consultant ses manuscrits pour le travail sur Léonard que nous avons effectué en 2019, on découvre à quel point ces documents sont dispersés : certaines pages contiennent beaucoup d’informations sur la peinture, d’autres seulement trois lignes sur une recette, mêlées à des calculs mathématiques, des études d’hydraulique ou des croquis divers.

Sur une même feuille, il pouvait noter une ébauche pour une Vierge à l’Enfant, un calcul algébrique, un projet hydraulique, et bien d’autres idées, ce qui donne l’impression qu’il avait cent idées à la minute qu’il couchait toutes en vrac.

Grâce à toutes ces lectures, vous êtes capable de reproduire la peinture utilisée par Léonard ?

E. R. : Je me suis particulièrement intéressée à un aspect très spécifique des peintures de Léonard, les grains de verre. On savait déjà que certains peintres, notamment au XVIᵉ siècle, en ajoutaient dans leurs peintures, mais les publications existantes se contentaient de constater leur présence sans vraiment l’expliquer.

Cela m’a amené à me poser la question : à quoi servaient réellement ces grains de verre ? Pour y répondre, j’ai monté un projet de recherche visant à comprendre leur rôle, en testant trois hypothèses principales. La première était que les grains de verre pouvaient modifier la rhéologie de la peinture, c’est-à-dire la manière dont elle se comporte sous le pinceau. La deuxième supposait qu’ils favorisaient le séchage, ce qui était une problématique importante avec le nouveau liant à l’huile utilisé à l’époque. La troisième portait sur la transparence, car le verre est un matériau naturellement transparent et pourrait influencer l’effet visuel.

Les résultats ont montré que les grains de verre n’altèrent pas la texture de la peinture, ce qui est un avantage. Le peintre peut les incorporer sans modifier son geste ou son « écriture ». En revanche, ils favorisent un séchage doux, moins rapide et moins problématique que celui produit par d’autres siccatifs. Sur le plan de la transparence, les analyses optiques ont confirmé que l’ajout de verre fonctionne comme l’ajout d’huile, mais sans entraîner les complications de séchage : l’indice de réfraction du verre et de l’huile étant similaire, la peinture gagne en transparence tout en restant stable. Étant donné l’intérêt constant de Léonard pour la lumière et les effets optiques, je suis convaincue que cette transparence jouait un rôle central et constituait un argument important dans ses choix techniques.

The Conversation

Elisabeth Ravaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Au Louvre, la radiologue qui révèle les mystères des chefs-d’œuvre – https://theconversation.com/au-louvre-la-radiologue-qui-revele-les-mysteres-des-chefs-doeuvre-271632

Sous pression : la charge émotionnelle méconnue des emplois administratifs

Source: The Conversation – in French – By Jacynthe Angers-Beauvais, Étudiante au doctorat interdisciplinaire en santé et société, Université du Québec à Montréal – Université du Québec à Rimouski, Université du Québec à Rimouski (UQAR)

On parle souvent des infirmières, des médecins, des préposés aux bénéficiaires épuisés… Mais les employés des secteurs administratifs du réseau de la santé sont aussi exposés à une charge émotionnelle élevée. Une nouvelle étude révèle des résultats inattendus.

Le personnel en gestion médico-administrative en santé et sécurité au travail (SST) occupe un poste hybride : à la fois administratif et profondément humain.

Leur quotidien dépasse largement la gestion de formulaires. Les employés en gestion médico-administrative doivent concilier les droits des travailleurs (maladie, invalidité, lésions professionnelles) avec les contraintes de l’organisation. Cela suppose de recueillir de l’information, poser des questions délicates, analyser et enquêter, tout en accompagnant les employés dans leur retour au travail.

Leur rôle comporte aussi une forte dimension humaine : ils sont en contact avec des personnes en détresse – souffrance physique, psychologique, précarité ou maladie. Il leur arrive d’annoncer qu’une demande d’assurance salaire n’est pas admissible, même si l’employé se considère incapable de travailler, ou de traiter des dossiers de travailleurs gravement malades, menacés de perdre leur emploi malgré leur volonté de rester en poste. Ni gestionnaires ni simples administratifs, ils agissent au nom de l’employeur et occupent un rôle de médiateur, entre logique organisationnelle et soutien humain. Chaque situation exige tact, empathie et une grande retenue émotionnelle.

Les risques psychosociaux au travail – comme la reconnaissance, l’autonomie décisionnelle ou les exigences émotionnelles – au travail sont bien documentés dans certains corps de métier, notamment chez le personnel de soins. En revanche, peu se sont consacrés à d’autres catégories d’emploi, notamment ceux des secteurs administratifs. Pourtant, la pandémie de Covid-19 a démontré à quel point chaque rouage du système compte. Et la Loi modernisant le régime de santé et sécurité au travail exige désormais d’élargir la prévention des RPS à l’ensemble des travailleurs.

Mais encore faut-il avoir les données pour agir.

Une étude pour combler un angle mort

Pour mieux comprendre cette réalité, une étude quantitative a été menée à l’automne 2024 auprès de 71 employés en gestion médico-administrative en SST, répartis dans sept établissements du réseau de la santé et des services sociaux (RSSS).

L’objectif principal : déterminer si ce personnel est exposé à des exigences émotionnelles élevées, un risque psychosocial encore peu étudié dans les milieux de travail et qui désigne l’effort requis pour gérer ses émotions au travail (garder son calme, cacher ses réactions, faire preuve d’empathie, etc.).

Les résultats ont été comparés avec ceux d’une étude réalisée auprès d’une population hétérogène de travailleurs canadiens. Comme l’échantillon du personnel en gestion médico-administrative en SST comptait 96 % de femmes, la population de travailleuses canadiennes a été retenue pour l’analyse comparative.

Les exigences émotionnelles ont été mesurées à l’aide d’un questionnaire reconnu pour évaluer l’environnement psychosocial au travail.

Des résultats qui interpellent

Les employés du secteur étudié obtiennent un score moyen de 60 % à la dimension des exigences émotionnelles, comparativement à 51 % chez la population de travailleuses canadiennes. Les tests statistiques ont démontré que la différence entre les deux groupes est hautement significative et non attribuable au hasard.

Concrètement, cela signifie qu’en moyenne, ce personnel administratif vit une charge émotionnelle plus élevée que dans l’ensemble de la population active.

Comprendre les exigences émotionnelles au travail

Les risques psychosociaux menacent à la fois la santé mentale et la santé physique. Ils découlent du travail et sont issus de mécanismes sociaux et psychiques. Ils peuvent être liés aux pratiques de gestion, à l’organisation du travail, aux conditions d’emploi et aux relations sociales.

Les exigences émotionnelles constituent un risque psychosocial encore peu pris en compte dans les programmes de prévention. Elles renvoient à l’intensité des émotions induites dans le cadre du travail, et résultent d’un effort nécessaire pour exprimer, moduler ou réprimer une émotion, qu’il s’agisse d’un processus volontaire ou d’une réaction somatique.

Elles peuvent provenir de sources variées : les relations avec le public, le contact avec la souffrance (physique, psychologique ou sociale), l’obligation de dissimuler ses émotions, la peur ou encore des rapports professionnels difficiles.

Les conséquences des exigences émotionnelles sur la santé mentale sont variées. Une synthèse de revues systématiques et de méta-analyses a déterminé, avec une certitude élevée, que les exigences émotionnelles peuvent mener à un épuisement professionnel, et avec une certitude limitée, à des troubles du sommeil, des troubles dépressifs, des troubles anxieux et de l’anxiété.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Inclure aussi les employés « de l’ombre » ?

À priori, nous pourrions croire que les emplois des secteurs administratifs sont à l’abri des risques émotionnels. Au contraire, les résultats de l’étude montrent qu’ils doivent faire partie intégrante des démarches de prévention des RPS. Seule une mesure réelle des risques, par exemple à l’aide d’un questionnaire reconnu, permet d’obtenir un portrait fidèle de chaque situation.

Inclure l’ensemble des employés dans ces démarches, c’est aussi une marque de reconnaissance de leur contribution, un élément clé pour renforcer la santé psychologique au travail.

Il est primordial que l’organisation considère la charge émotionnelle et ses impacts comme un risque réel pouvant affecter les employés. Pour mieux soutenir ce personnel, plusieurs mesures peuvent être envisagées : une communication claire sur la réalité du poste dès l’embauche, des formations en gestion des relations humaines, la mise en place d’espaces de dialogue, ainsi que des temps de récupération après des situations à forte charge émotionnelle. Il est également essentiel de favoriser le soutien entre collègues et d’adapter ces pratiques aux réalités du télétravail, qui concerne de plus en plus d’employés.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Sous pression : la charge émotionnelle méconnue des emplois administratifs – https://theconversation.com/sous-pression-la-charge-emotionnelle-meconnue-des-emplois-administratifs-263487

Et si l’IA générative ne valait rien ? Ce ne serait pas forcément un problème

Source: The Conversation – in French – By Fenwick McKelvey, Associate Professor in Information and Communication Technology Policy, Concordia University

Dans la ruée vers l’or de l’intelligence artificielle générative, un scénario rarement évoqué reste à considérer : que se passerait-il si la technologie ne parvenait jamais à remplacer vos collègues, si les entreprises ne savaient pas l’exploiter efficacement, ou si la plupart des jeunes entreprises spécialisées dans l’IA échouaient purement et simplement ?

Les estimations actuelles suggèrent que les grandes entreprises d’IA sont confrontées à un manque à gagner de 800 milliards de dollars américains.

Jusqu’à présent, les gains de productivité de l’IA générique sont minimes et concernent principalement les programmeurs et les rédacteurs publicitaires. L’IA générative (GenAI) fait des choses intéressantes et utiles, mais ce n’est pas encore le moteur d’une nouvelle économie.

Ce futur est loin d’être désastreux, mais il diffère de celui présenté dans les médias. Et c’est un avenir qui ne correspond pas au récit que les entreprises d’IA veulent raconter. Le battage médiatique alimente de nouveaux cycles d’investissement promettant des profits futurs colossaux.

Peut-être que l’IA générative s’avérera inutile, et peut-être que ce n’est pas grave.

Indispensable ou indéfendable ?

Les services genAI gratuits et les services d’abonnement bon marché comme ChatGPT et Gemini coûtent très cher à exploiter. À l’heure actuelle, cependant, de plus en plus de questions se posent sur la manière dont les entreprises d’IA vont gagner de l’argent.

Le PDG d’OpenAI, Sam Altman, a été franc sur les dépenses de son entreprise, affirmant avec humour que chaque fois que les utilisateurs disent « s’il vous plaît » ou « merci » à ChatGPT, cela coûte des millions. Personne ne sait exactement combien OpenAI perd par chat, mais Sam Altman a précisé que même les comptes pro payants génèrent des pertes à cause des coûts informatiques élevés liés à chaque requête.

Comme beaucoup de start-up, les entreprises genAI ont adopté la stratégie classique : dépenser sans compter pour attirer et retenir les utilisateurs avec un produit jugé indispensable. Mais la plupart des géants de la technologie n’ont pas réussi en créant des produits coûteux, mais plutôt en fabriquant des produits à bas prix dont les utilisateurs ne peuvent se passer, financés en grande partie par la publicité.

Lorsque les entreprises tentent de trouver une nouvelle valeur, le résultat est ce que le journaliste et auteur Cory Doctorow a appelé « l’enshittification », c’est-à-dire le déclin progressif des plates-formes au fil du temps. Dans ce cas, l’« enshittification » signifie que le nombre de publicités augmente pour compenser la perte liée à l’offre d’un service gratuit.




À lire aussi :
The internet is worse than it used to be. How did we get here, and can we go back?


OpenAI envisage d’introduire des publicités dans ChatGPT, mais l’entreprise assure qu’elle le fera avec prudence et discernement.

Il est encore trop tôt pour dire si cette stratégie fonctionnera pour l’IA générative. Il est possible que la publicité ne génère pas suffisamment de revenus pour justifier les dépenses massives nécessaires à son fonctionnement. En effet, l’IA générative est en train de devenir un véritable fardeau.

Les coûts cachés des modèles d’IA

Un autre problème qui se profile pour l’IA générative est celui des droits d’auteur. La plupart des entreprises d’IA sont soit poursuivies en justice pour avoir utilisé du contenu sans autorisation, soit contraintes de conclure des contrats coûteux pour obtenir des licences sur du contenu.

La GenAI a « appris » de nombreuses manières douteuses, notamment en lisant des livres protégés par le droit d’auteur et en collectant presque tout ce qui est dit en ligne. Un modèle peut même se souvenir « de mémoire » de 42 % du premier roman Harry Potter.

Les entreprises font face à un casse-tête financier : elles doivent négocier des exemptions sur les droits d’auteur et rémunérer éditeurs et créateurs pour protéger leurs modèles, ce qui pourrait finir par peser lourdement sur elles.

Anthrophic, start-up américaine spécialisée dans l’IA, a tenté de payer les auteurs environ 3 000 $ par livre pour entraîner ses modèles, soit un règlement total de 1,5 milliard de dollars. Ce plan a rapidement été rejeté par les tribunaux pour cause de simplicité excessive, et la valorisation actuelle d’Anthropic, de 183 milliards de dollars, pourrait être rapidement affectée par les poursuites.

Au final, l’IA est trop coûteuse pour être possédée et devient un actif toxique : utile, mais sans vraie valeur.

Une IA générative bon marché

Meta, peut-être de manière stratégique, a publié son modèle d’IA générique, Llama, en open source (code source ouvert). Que ce soit pour contrarier ses concurrents ou afficher une position éthique, cela permet à quiconque disposant d’un ordinateur suffisamment performant d’exécuter gratuitement sa propre version locale.

Les modèles OpenAI représentent une stratégie pour conserver des parts de marché, avec quelques effets secondaires inattendus. Moins avancés que Gemini ou ChatGPT, ils restent suffisamment performants et gratuits – ou du moins moins chers que les modèles commerciaux.

Les modèles ouverts bouleversent les valorisations élevées attribuées aux entreprises d’IA. La start-up chinoise DeepSeek a fait chuter temporairement les actions des entreprises d’IA lorsqu’elle a lancé un modèle ouvert aussi performant que les modèles commerciaux. Ses motivations restent floues, mais son succès nourrit les doutes sur la valeur réelle de l’IA générative.

Les modèles ouverts, fruits de la concurrence industrielle, se multiplient et deviennent faciles d’accès. S’ils rencontrent le succès, les entreprises commerciales d’IA pourraient peiner à vendre leurs services face à des alternatives gratuites.

Les investisseurs pourraient également devenir plus sceptiques à l’égard de l’IA commerciale, ce qui pourrait potentiellement tarir les sources de financement initial. Même si les modèles en libre accès finissent par être poursuivis en justice et tombent dans l’oubli, il sera beaucoup plus difficile de les supprimer d’Internet.

L’IA appartient-elle à quelqu’un ?

La valeur de l’IA générative est indissociable de celle de la connaissance, une ressource à la fois partagée et difficile à quantifier. Les meilleurs modèles d’IA générative s’appuient sur l’ensemble des connaissances mondiales, si vastes que leur valeur réelle est difficile à estimer.

Ironiquement, ces efforts déployés par les entreprises d’IA pour capturer et commercialiser les connaissances mondiales pourraient bien être ce qui condamne leurs produits : une ressource si précieuse qu’il est impossible de lui attribuer un prix. Ces systèmes dépendent tellement du travail intellectuel collectif que leurs résultats échappent à toute forme de propriété.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Si l’IA générative ne produit pas de profits durables, les conséquences seront limitées. Les créateurs espérant des accords lucratifs avec OpenAI, Anthropic ou Google pourraient être déçus : si les modèles s’avèrent être des passifs, les chèques ne tomberont pas.

Les progrès de l’IA générative pourraient ralentir, laissant aux consommateurs des outils « suffisamment bons » et gratuits. Les entreprises d’IA perdraient alors en importance, la technologie continuerait à progresser légèrement, et cela pourrait très bien marcher. Les utilisateurs bénéficieraient d’outils accessibles et fonctionnels, sans subir une nouvelle vague de promesses exagérées vouées à l’échec.

La menace d’une IA moins rentable que prévu pourrait être la meilleure défense contre le pouvoir croissant des géants technologiques. Si le modèle économique de l’IA générative s’avère non viable, quel meilleur endroit pour voir un tel empire s’effondrer que dans ses bilans financiers ?

La Conversation Canada

Fenwick McKelvey reçoit des financements du Conseil de recherches en sciences humaines du Canada et du Fonds de recherche du Québec.

ref. Et si l’IA générative ne valait rien ? Ce ne serait pas forcément un problème – https://theconversation.com/et-si-lia-generative-ne-valait-rien-ce-ne-serait-pas-forcement-un-probleme-266641

How Canada’s emergency communications still exclude Indigenous languages

Source: The Conversation – Canada – By Sara Wilson, PhD Candidate, Communications, Simon Fraser University

When life-saving information is not provided in a language people understand, it can delay protective action and put communities at unnecessary risk.

This was evident during the 2023 Yellowknife wildfire evacuation, one of the largest climate-related displacements in Canadian history, when nearly 20,000 residents were ordered to leave the city of Yellowknife with little warning.

Despite the Northwest Territories (N.W.T) recognizing nine Indigenous languages under its Official Languages Act, emergency alerts were issued only in English and French. For Indigenous-language-first speakers from the Yellowknives Dene First Nation and neighbouring Indigenous communities — particularly Elders — this meant relying on relatives, radio hosts or social media to interpret urgent instructions during a fast-moving wildfire.

At the very moment when clarity matters most, official alerts are not delivering.

Indigenous languages, though acknowledged symbolically in legislation, are not implemented in emergency communication protocols. This structural imbalance reflects a longstanding colonial assumption that English and French are the default languages of safety, even in regions where they are not the languages most widely spoken.

The recent magnitude 7.0 earthquake in the Yukon was the strongest on Canadian soil in 79 years. While there were thankfully no reports of injuries or building damages, the incident highlights the urgent need for an efficient emergency communications system.

Emergency alerts through a colonial lens

For my master’s thesis on the inclusion of Indigenous languages in emergency messaging, I examined public communications, government documents and after-action records. I found that the absence of Indigenous-language alerts was not a technical failure, but a predictable outcome of systems designed without Indigenous-language access in mind.

The scale of linguistic diversity in Canada underscores why this matters. According to Statistics Canada, more than 189,000 people speak an Indigenous language at home and more than 243,000 report being able to speak one.

During the Yellowknife evacuation, many residents — nearly one in five of whom report an Indigenous mother tongue — waited for translated information to appear on Facebook or relied on community broadcasters to interpret English alerts, causing delays that can be significant when roads, flights and services are rapidly shifting.

Policy choices and communication strategies during emergencies can have immediate and profound consequences. But this isn’t just a technical gap, it’s part of a much longer history of exclusion — one that continues to undermine Indigenous safety.

What international disasters teach us

After the 2011 Tōhoku earthquake and tsunami in Japan, researchers documented that unclear or linguistically inaccessible messaging contributed to evacuation delays, especially for those relying on informal interpretation networks.

In Aotearoa New Zealand, civil defence messaging routinely includes te reo Māori as part of national commitments to shared authority and revitalization. In Hawaii, emergency communication systems were strengthened after the 2018 false missile alert, and alerts are now issued in both ʻŌlelo Hawaiʻi and English.

While Canada’s context differs, the lesson is consistent: people act more quickly and confidently when emergency instructions are delivered in languages they understand. Nunavut, for example, issues emergency alerts in Inuktut using pre-translated templates and partnerships with Inuit broadcasters, demonstrating that multilingual alerting is entirely feasible with political will and basic planning.

Canada’s National Public Alerting System (NPAS), which sends alerts to phones, televisions and radios, currently supports message delivery only in English and French. There is no federal mechanism requiring or enabling translation into Indigenous languages or into widely used newcomer languages such as Punjabi, Mandarin or Arabic.

According to the Canadian Radio-television and Telecommunications Commission, 1,307 broadcast and wireless immediate emergency alerts were issued in Canada between 2019 and 2022. Despite this volume, none were issued in Indigenous languages.

In recent years, in Lytton, West Kelowna, Manitoba and across the North, wildfire seasons have reminded us that climate hazards are accelerating. If alerts are to do their job, they must be intelligible to the people who need them most. That is what linguistic equity means in practice.

Officials often claim translation takes too long, yet the technology and methods already exist. Pre-scripted templates, partnerships with community broadcasters and training for emergency managers could all be implemented now.

What’s missing, it seems, is policy direction and the will to act.

Reimagining a safety system for everyone

The same logic applies to newcomers building lives in Canada. If a wildfire or flood order arrives in a language someone cannot read, people are not safe.

Multilingual communication is not political correctness; it’s competent governance. People cannot protect themselves from threats they cannot understand. A multilingual alert system would reimagine safety through inclusion, rather than just cluttering screens with text. Policies of exclusion, especially in this context, put lives at risk.

Responsible use of AI translation tools could also help generate alerts in multiple languages, but always under Indigenous and community oversight to ensure accuracy and cultural integrity.

Canada has committed to both reconciliation and climate resilience, yet neither goal can be realized if life-saving information remains accessible only to those fluent in English or French. Whether future wildfire seasons unfold with safe and timely evacuations may depend on whether Indigenous Elders, Indigenous-language-first speakers and multilingual families can comprehend the alerts intended to protect them.

No one in Canada should be left in danger because of the language they speak.

The Conversation

Sara Wilson does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How Canada’s emergency communications still exclude Indigenous languages – https://theconversation.com/how-canadas-emergency-communications-still-exclude-indigenous-languages-267193

El problema de la vivienda, la corrupción y la desigualdad social erosionan la calidad de vida de los españoles

Source: The Conversation – (in Spanish) – By Víctor Raúl López Ruiz, Catedrático de Universidad en Economía Aplicada (Econometría), Universidad de Castilla-La Mancha

Podemos afirmar sin rodeos que el índice ponderado de felicidad social y calidad de vida de los españoles vuelve a retroceder en 2025. Este índice, elaborado por el Observatorio de Intangibles y Calidad de Vida (OICV), es de tipo subjetivo y mide las percepciones reales sobre el entorno residencial, familiar, laboral y económico.

El estudio anual recoge los factores sensibles al bienestar social, como la oferta de servicios públicos, integración social, política de vivienda, planificación urbana, gestión y gobernanza, unidos a cuestiones coyunturales como las crisis sanitarias o económicas.

El dato es claro: 7,17 sobre 10, dos décimas menos que en 2024 y medio punto por debajo del máximo alcanzado en 2020. Detrás del descenso aparece un triángulo muy reconocible: precio de la vivienda, corrupción e integración social. A estos tres pilares se suman dos fenómenos que erosionan estructuralmente nuestro bienestar: el edadismo digital, visible para tres de cada cuatro españoles en una población que envejece, y la soledad no deseada, que afecta al 40 % de los jóvenes adultos menores de treinta años.

El muro que crece cada año

España vive un momento crítico en el mercado inmobiliario. En Baleares, Madrid y Cataluña los precios han superado ya los de la burbuja de 2008. No se trata de un vaivén coyuntural, es un problema que atraviesa por dentro la vida de miles de familias.

¿Qué implica esto para la sociedad? El acceso a la vivienda se ha convertido en un desafío insalvable para jóvenes, parejas que quieren emanciparse y clases medias que ven cómo su alquiler sube año tras año, mientras una hipoteca se convierte en un sueño imposible. El resultado es conocido: más precariedad, expulsión de residentes hacia zonas periféricas y pérdida progresiva de estabilidad.

La falta de intervención pública, la caída en la oferta privada, la presión de la demanda, las tensiones inflacionistas en el mercado de alquiler y el auge de los alojamientos turísticos en grandes ciudades y áreas costeras componen un cóctel que genera desigualdad y vulnerabilidad.

En el estudio para 2025 los residentes valoran la relación entre precio, ubicación y calidad de la vivienda cerca del mínimo posible: apenas una puntación de 1 sobre 10 en las zonas más tensionadas. Solo aprueban Extremadura, La Rioja y algunas áreas de baja presión demográfica y turística en Castilla y León y Castilla-La Mancha. La España rural despoblada sigue sin consolidarse como alternativa residencial, más allá del refugio temporal que ofreció durante los meses más duros de la pandemia.

Turismo: ¿impulso económico o amenaza?

El turismo se ha convertido en el motor económico de muchas zonas costeras y de interior, transformando su paisaje urbano y social. Sin embargo, detrás de las cifras récord de visitantes y los titulares sobre crecimiento económico surge una pregunta clave: ¿cómo afecta realmente esta actividad a la calidad de vida de quienes habitan estos destinos?

Por un lado, el turismo trae consigo beneficios indiscutibles. Genera empleo, impulsa la inversión en infraestructuras y mejora servicios que también disfrutan los residentes. Además, la interacción con visitantes fomenta la apertura social y el intercambio cultural, enriqueciendo la identidad local.

No todo es positivo. De media, el 30 % de los residentes ponen un suspenso a su relación con el turismo, llegando al 50 % en regiones tensionadas como Baleares, Cataluña o Cantabria.

La llegada masiva de turistas en temporada alta tensiona los recursos básicos: hospitales saturados, transporte colapsado y servicios públicos al límite. A esto se suma el encarecimiento de la vivienda en propiedad y en alquiler, la pérdida de espacios comunitarios y el deterioro ambiental, que amenaza tanto la biodiversidad como la esencia cultural de las ciudades. El resultado puede ser una paradoja: mientras la economía florece, la vida cotidiana se complica.

La clave está en la planificación. Un turismo sostenible, que regule el uso del suelo, proteja el medio ambiente y escuche a la comunidad, puede equilibrar la balanza. Sin estas medidas, el riesgo es evidente, aquello que atrae a los turistas puede acabar expulsando a quienes habitan esos lugares por el bloqueo al acceso de vivienda y de servicios de transporte.

La exclusión tecnológica sigue siendo un problema

Vivimos en una sociedad sostenida relacionalmente por la infraestuctura digital. La tecnología conecta, pero abre nuevas brechas. A las desigualdades clásicas, como la salarial de género, se suman otras de naturaleza digital.

El edadismo digital reduce la calidad de vida de las personas mayores. La exclusión tecnológica no es un inconveniente menor, pues implica problemas para acceder a servicios, sentirse desorientados, perder autonomía y caer en situaciones de aislamiento social. El umbral crítico aparece en torno a los 75 años.

Y no están solos. La soledad no deseada alcanza niveles alarmantes entre los jóvenes menores de 30 años. De este modo España, en 2025, convive con dos polos de soledad que crecen a la vez.

A ello se suma un clima social complejo. La polarización política y la mala gestión pública generan incertidumbre y minan la confianza ciudadana. La falta de políticas de integración, la inmigración de baja cualificación y las grietas en el mercado laboral están creando nuevos guetos urbanos de pobreza y exclusión.

El IX informe Fundación FOESSA sobre exclusión y desarrollo social en España (informe Cáritas 2025) pone de manifiesto una situación de profunda fragmentación social y aumento de la exclusión, con 9,4 millones de personas en riesgo de pobreza.

La llamada clase media se ha reducido sustancialmente, ampliándose las brechas sociales. Aunque se ha incrementado el salario mínimo, se está produciendo un efecto nivelación a la baja del salario medio en los trabajos cualificados que empeora la capacidad adquisitiva.

Corrupción en la Comunitat Valenciana

Además, la corrupción provoca una separación entre clase política y sociedad, resultando en las peores valoraciones del estudio en 2025. La Comunitat Valenciana presenta hoy los valores más críticos, después de haber encabezado el ranking en 2024, ejercicio en el que el trabajo de campo se cerró justo antes de la dana.

La calidad de vida se resiente en zonas urbanas, turísticas y tecnológicamente exigentes. Más españoles viven en situación de vulnerabilidad y el bienestar retrocede. Cuando el deterioro es constante, hay que intervenir.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. El problema de la vivienda, la corrupción y la desigualdad social erosionan la calidad de vida de los españoles – https://theconversation.com/el-problema-de-la-vivienda-la-corrupcion-y-la-desigualdad-social-erosionan-la-calidad-de-vida-de-los-espanoles-269528

Dirigir para ganar, no para evitar perder

Source: The Conversation – (in Spanish) – By Alejandro Ruelas-Gossi, Profesor en el departamento de Empresa, Facultad de Ciencias Económicas y Empresariales, Universidad de Navarra

tomertu/Shutterstock

Según el economista estadounidense Joel Mokyr –que este 10 de diciembre recibirá en Estocolmo el premio Nobel de Economía–, entre las diferentes escuelas de pensamiento económico, la schumpeteriana es la que genera en mayor medida el crecimiento económico deseado.

Ideas schumpeterianas

Para el economista austríaco Joseph Alois Schumpeter (1883-1950), el empresario tiene un papel primordial en la innovación que, a su vez, es determinante para el aumento o la disminución de la prosperidad. La expresión más representativa de su pensamiento económico es la de destrucción creativa; la innovación implica destrucción porque su objetivo, más que mejorar, es ser diferentes.

A diferencia de otros economistas, que argumentan que el progreso tecnológico es “inevitable”, Mokyr defiende el postulado de un progreso tecnológico deliberado, con gran inversión en ciencia y tecnología.

Retomando el papel que asigna Schumpeter a los empresarios como motores de la innovación, ¿cuál debería ser el perfil de los líderes que produzcan el progreso tecnológico necesario para un crecimiento sostenido?

¿Más ingresos o menos costes?

Hay diferencias entre la visión de un director general que cree que el crecimiento sostenido se logra a través del progreso tecnológico (donde siempre hay incertidumbre), y la de otro con un enfoque más bien financiero o de operaciones. Unos y otros siguen caminos diametralmente opuestos. El primero tendrá la vista puesta en el numerador de la ecuación y su objetivo será aumentar los ingresos (diferenciación). Los segundos, por su parte, ponen el foco en el denominador y trabajan para hacer caer los costes (low cost).

La cuestión es que el low-cost no inventa nada, cuando es precisamente la invención –la innovación– la que explica mejor el crecimiento económico sostenido. La clave no es hacer cosas más baratas sino diferentes. Lamentablemente, el low-cost incide en bajos salarios: al buscar proveedores más baratos, estos a su vez buscarán otros proveedores baratos, provocando un efecto de circulo vicioso de bajos salarios.

En realidad, una estrategia de costes y precios bajos genera una competición a la baja, basada en una reducción de estándares (como salarios, calidad o controles) para atraer inversiones o ser más competitivos.

Según un análisis citado por el Financial Times, solo el 8% de los CFOs convertidos en CEO alcanzan un desempeño destacado.

Conservadurismo versus innovación

Un estudio de una consultora internacional especializada en equipos de alta dirección determinó que solo el 8 % de los directores financieros que llegan a directores generales alcanzan un desempeño destacado.

La cuestión es que los directores financieros tienden al conservadurismo financiero, que puede ser muy útil cuando se controlan las finanzas de la empresa, pero un gran limitante en el rol de director general. Por supuesto que los números son una parte necesaria de la estrategia empresarial pero un director general exitoso debe saber gestionar la incertidumbre.

Mientras que un director general ve cada aspecto de la empresa para determinar cómo mejorar los ingresos, el director financiero tiene la perspectiva de la contención del gasto.

Algunos casos de éxito

Existen ejemplos muy documentados, y mediáticos, sobre la gestión empresarial orientada a la innovación y el crecimiento orgánico de la organización.

Satya Nadella, director general de Microsoft desde 2014, es ingeniero eléctrico con un master en informática. Nadella provenía del área de innovación y desarrollo de productos en la nube. Ha desarrollado un liderazgo empático, basado en las necesidades de los clientes. Durante su gestión se ha producido una transformación cultural y tecnológica que ha devuelto valor y crecimiento a la compañía.

A lo largo de 30 años, Jeff Bezos –también formado en ciencias de la computación e ingeniería eléctrica– ha ido construyendo Amazon a partir de una visión de largo plazo y una obsesión por el cliente, más allá de la rentabilidad inmediata.

Indra Nooyi, como CEO de PepsiCo, impulsó la estrategia “Rendimiento con propósito” basada en la salud de sus clientes, la sostenibilidad y la diversificación, más allá de los resultados financieros del corto plazo. Su formación en gestión y consultoría le permitió tener una mirada amplia del negocio.

Estos casos reflejan que los perfiles que entienden al mercado, la innovación y al cliente tienen más probabilidades de impulsar transformaciones sostenibles que aquellos anclados únicamente en la lógica contable.




Leer más:
Bezos, estratega de largo plazo: 30 años de crecimiento y cambio


Gestionar la incertidumbre

Los perfiles del denominador (que administran y controlan los costes) tienen un pensamiento puramente lineal y utilizan la lógica causa-efecto. El de un director general debe ser más intuitivo para que sea capaz de gestionar la incertidumbre y sentirse cómodo en ella. La creatividad, la intuición y la percepción emocional van a redundar en el crecimiento de los ingresos (top line growth), el numerador de la ecuación.

Es ese lado innovador de la gestión empresarial lo que el Nobel 2025 premia este año.

Ojalá esto sirva de punto de inflexión para que empresas y gobiernos apuesten a la inversión en ciencia y tecnología. La única manera de inventar el futuro es “pagar por pensar” a las mentes con ideas disruptivas.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Dirigir para ganar, no para evitar perder – https://theconversation.com/dirigir-para-ganar-no-para-evitar-perder-264238

Fusión extrema en el Ártico: el nuevo rostro del deshielo acelerado por el cambio climático

Source: The Conversation – (in Spanish) – By Josep Bonsoms, Postdoctoral researcher and professor, Universitat de Barcelona

El paisaje ártico se está transformando a un ritmo sin precedentes. Más allá del aumento de las temperaturas, el cambio climático está dando lugar a episodios de fusión acelerada que concentran en pocos días pérdidas de hielo que antes requerían semanas o meses.

Estos eventos, cada vez más frecuentes, están alterando la dinámica tradicional del deshielo y modificando profundamente el estado de la nieve y el hielo, los elementos más vulnerables del sistema climático polar.

La acumulación de nieve durante el invierno ya no compensa la pérdida estival: desde hace décadas, el balance anual es claramente negativo. Los episodios de fusión extrema –que pueden durar días o semanas– provocan tasas de derretimiento muy superiores a las habituales. Son auténticas olas de calor, pero no definidas por la temperatura del aire, sino por la fusión con la que desaparecen el hielo y la nieve.

Un Ártico que se derrite con episodios masivos de fusión

Lo que antes era excepcional ahora ocurre con creciente regularidad. Este patrón se observa en todo el Ártico, aunque con notables diferencias regionales. Las mayores tasas de fusión extrema se registran en el noroeste y norte de Groenlandia, así como en las islas Ellesmere y Devon, en el Ártico canadiense. En contraste, el sector oriental –incluyendo Islandia y y el archipiélago Nueva Zembla (Rusia)– muestra aumentos de menor magnitud.

A pesar de esta variabilidad, Groenlandia concentra los impactos más significativos. Alberga la mayor reserva de hielo del hemisferio norte, con suficiente agua como para elevar el nivel del mar más de siete metros, y su localización geográfica la hace especialmente sensible a los patrones atmosféricos que disparan la fusión extrema.

Durante los últimos veranos en Groenlandia se han registrado algunos de los episodios más intensos jamás documentados –como en julio de 2012, agosto de 2019 y agosto de 2021– cuando más del 90 % de su superficie se encontraba simultáneamente en estado de fusión, en algunos casos superando registros paleoclimáticos.




Leer más:
El deshielo de Groenlandia, un altavoz del cambio global y sus impactos


¿Por qué ocurren estos eventos extremos?

Estos episodios se desencadenan cuando el calentamiento general del Ártico se combina con patrones atmosféricos capaces de intensificar la fusión. El aumento progresivo de las temperaturas prepara el terreno, pero son configuraciones meteorológicas concretas, como bloqueos anticiclónicos prolongados, las que pueden convertir un verano caluroso en un evento extremo.

Los bloqueos anticiclónicos se producen cuando un área de alta presión se mantiene estacionaria durante varios días, desviando los sistemas meteorológicos normales. Esto provoca estabilidad atmosférica y cielos despejados, permitiendo que el aire templado procedente del sur eleve rápidamente las temperaturas en superficie.

En algunos casos, la llegada de masas de aire húmedo genera nubes cálidas que irradian calor hacia el hielo, acelerando aún más el derretimiento. Estos bloqueos se han vuelto más frecuentes y duraderos, aumentando la probabilidad de que el mecanismo se repita.

Cada episodio deja además una huella física sobre el terreno: la fusión elimina la nieve reciente y expone hielo más oscuro y menos reflectante. Esta disminución del albedo intensifica la absorción de energía solar, haciendo que la siguiente fusión actúe sobre una superficie aún más vulnerable. Así se establece un círculo de retroalimentación que acelera la pérdida de masa y contribuye al rápido calentamiento que caracteriza al Ártico contemporáneo.

Además, desde alrededor de los años 1990, la fusión estival se ha intensificado y extendido espacialmente, afectando incluso a zonas elevadas que históricamente permanecían bajo cero durante todo el verano. En la actualidad, la isoterma, la línea que indica la altitud a la que la temperatura es de 0 ºC, asciende a mayores altitudes, lo que desplaza la zona de fusión hacia el interior de los glaciares y reduce áreas que antes actuaban como reservorios de acumulación.




Leer más:
Océano Ártico: el cambio climático lo está inundando de luz (y de nuevas especies)


Repercusiones de la fusión extrema

La fusión extrema tiene efectos inmediatos sobre los glaciares y consecuencias que trascienden el ámbito polar. A nivel local, reestructura la nieve, debilita la superficie del hielo y genera picos de escorrentía capaces de movilizar grandes volúmenes de agua en muy poco tiempo. Esta agua superficial acelera la fusión y termina desembocando en el océano como un pulso concentrado de agua dulce.

A escala global, el impacto es también notable. El Ártico funciona como un regulador climático clave: su superficie blanca refleja gran parte de la radiación solar entrante. Cuando el hielo disminuye, esa capacidad se reduce y la región absorbe más calor, amplificando el calentamiento. Los episodios extremos intensifican este efecto al oscurecer la superficie y acelerar la pérdida de hielo.

Además, el aporte de agua dulce al Atlántico Norte contribuye directamente al aumento del nivel del mar, altera la salinidad oceánica y puede afectar la circulación meridional de vuelco del Atlántico (AMOC), corriente marítima que actúa como un elemento fundamental para la estabilidad climática de Europa y otras regiones.

La fusión extrema no es solo un fenómeno polar sino que afecta a todo el planeta: conecta el destino del Ártico con el equilibrio ambiental global.

The Conversation

Josep Bonsoms recibe fondos postdoctorales del Ministerio de Ciencia, Innovación y Universidades (Gobierno de España) (PRE2021-097046) y de ANTALP a través del Gobierno de Cataluña (2017-SGR-1102).

ref. Fusión extrema en el Ártico: el nuevo rostro del deshielo acelerado por el cambio climático – https://theconversation.com/fusion-extrema-en-el-artico-el-nuevo-rostro-del-deshielo-acelerado-por-el-cambio-climatico-269573