Why Major League Baseball keeps coming back to Japan

Source: The Conversation – USA (2) – By Jared Bahir Browsh, Assistant Teaching Professor of Critical Sports Studies, University of Colorado Boulder

When Shohei Ohtani stepped onto the field at the Tokyo Dome in March 2025, he wasn’t just playing a game – he was carrying forward more than 100 years of baseball ties between the U.S. and Japan.

That history was front and center when the Los Angeles Dodgers and Chicago Cubs opened their 2025 regular season facing off in the Tokyo Series on March 18 and 19. The two games featured several players from Japan, capping a slate of events that included four exhibition games against Japanese professional teams.

It was a massive financial success. Marking MLB’s first return to Tokyo since 2019, the series generated over US$35 million in ticket sales and sponsorship revenue and $40 million in merchandise sales.

The first game of the Tokyo Series broke viewership records in Japan.

For MLB, which has seen significant viewership growth this season, it was proof that its investment in Japan and international baseball over the past three decades has been paying off.

Baseball’s early journey to Japan

Baseball, which is by far the most popular sport in Japan, was introduced to the nation during the Meiji Restoration in the late 19th century.

American baseball promoters were quick to see the potential of the Japanese market, touring the country as early as 1908. The most famous such tour took place in 1934 and featured a number of American League All-Stars, including Babe Ruth and catcher Moe Berg, who was later revealed to be a U.S. spy.

That trip had a long legacy. The U.S. All-Stars faced a team called The Greater Japan Tokyo Baseball Club, which, a year later, barnstormed in the United States. When they played the San Francisco Seals, the Seals’ manager, Lefty O’Doul – who later trained baseball players in Japan – suggested a name change to better promote the team for an American audience.

Commenting that Tokyo is the New York of Japan, O’Doul suggested they take on one of their team names. And since “Yankee” is a uniquely American term, The Greater Japan Tokyo Baseball Club was reborn as the Tokyo (Yomiuri) Giants.

When the Giants returned to Japan, the Japanese Baseball League was formed, which was reorganized into Nippon Professional Baseball in 1950. The Giants have gone on to dominate the NPB, winning 22 Japan Series and producing Sadaharu Oh, who hit 868 home runs during his illustrious career.

Breaking into MLB

The first Japanese-born MLB player, Masanori Murakami, debuted for the San Francisco Giants in September 1964. But his arrival wound up sparking a contractual tug-of-war between the NPB and MLB. To prevent future disputes, the two leagues signed an agreement in 1967 that essentially blocked MLB teams from signing Japanese players.

By the 1990s, this agreement became untenable, as some Japanese players in NPB became frustrated by their lack of negotiating power. After the Kintetsu Buffaloes refused to give Hideo Nomo a multiyear contract after the 1994 season, his agent found a loophole in the “voluntary retirement clause” that would allow him to sign with an MLB franchise. He signed with the Los Angeles Dodgers in February 1995.

Nomo’s impact was immeasurable. His “tornado” windup and early success made him one of the most popular players in the major leagues, which was recovering from the cancellation of the World Series the previous year. In Japan, “Nomo fever” took hold, with large crowds gathering television screens in public to watch him play, even though his games aired in the morning. Nomo helped drive Japanese sponsorship and television rights as his first season ended with him winning National League Rookie of the Year.

But within a few years, disputes over contracts soon showed the need for new rules. This ultimately led to the establishment of posting rules for NPB players looking to transition to the major leagues.

The rules have shifted some since they were set out in late 1998, but if a player declares their intention to leave NPB, then MLB teams have a 45-day window to negotiate. If the player from NPB is under 25 or has less than nine years of professional experience, they’re subject to the limited MLB signing pool for international players. Otherwise, they’re declared a free agent.

A wave of stars

The new rules led many more Japanese players to join major league baseball from Nippon Professional Baseball: Of the 81 Japanese players who’ve played in the majors, all but four played in NPB before their debut. Ichiro Suzuki, who became the first Japanese player inducted into the National Baseball Hall of Fame, was also the first Japanese position player to make the leap.

Other players, like Hideki Matsui, the only Japanese player to be named World Series MVP, continued the success. And then came Ohtani, a two-way superstar who both hits and pitches, drawing comparisons to Babe Ruth.

For MLB, Japanese players haven’t just boosted performance on the field – they’ve expanded its global fan base. The Dodgers brought in over $120 million in increased revenue in Ohtani’s first year alone, easily covering his salary even with Ohtani signing the richest contract in baseball history. The franchise has also seen its value increase by at least 23% to nearly $8 billion. MLB has also seen a significant increase in viewership over the past two seasons, partially driven by the growing interest from Japan.

As American sports leagues deal with an increasingly distracted, fragmented domestic audience, it’s not surprising that they’re looking abroad for growth. And as MLB teams prepare to court another wave of Japanese stars this offseason, it’s clear that its decades-long investment in Japan is paying off.

The Conversation

Jared Bahir Browsh does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why Major League Baseball keeps coming back to Japan – https://theconversation.com/why-major-league-baseball-keeps-coming-back-to-japan-264668

Breastfeeding is ideal for child and parent health but challenging for most families – a pediatrician explains how to find support

Source: The Conversation – USA (3) – By Ann Kellams, Professor of Pediatrics, University of Virginia

Many new parents start out breastfeeding but switch to formula within a few days. JGI/Jamie Grill via Tetra Images

As a pediatrician, I thought my medical background and pediatric training meant I would be well prepared to breastfeed my newborn. I knew all about the research on how an infant’s diet can affect both their short- and long-term health. Compared to formula, breastfeeding is linked to a lower risk of sudden infant death syndrome, lower rates of infections and hospitalizations and a lower risk of developing diabetes later in life. Breastfeeding can also provide health benefits to the parent.

But I struggled to breastfeed my own firstborn. I was exhausted and in pain. My nipples were bleeding and my breasts swollen. I worried about whether my baby was getting enough to eat. And I was leaking breast milk all over the place. I found myself asking questions familiar to many new parents: What in the world is going on with breastfeeding? Can I keep this up when I go back to work? How does a breast pump even work? Why doesn’t anyone know how to help me? And why are some families able to start breastfeeding and never look back?

The American Academy of Pediatrics recommends caregivers breastfeed their child for up to two years. However, many new parents are unable to reach these breastfeeding goals and find it very difficult to get breastfeeding going. Combined with inadequate support, some blame themselves or feel like less than a good parent.

While over 80% of families start out breastfeeding their baby, roughly 19% of newborns have already received infant formula two days after birth. Around half of families are able to breastfeed their babies six months after birth and only 36% at 12 months.

Mother breastfeeding newborn, eyes closed in pain, lying in hospital bed at night
Breastfeeding can be painful – especially without support.
Yoss Sabalet/Moment via Getty Images

Inspired by my own and my patients’ experiences with breastfeeding, I sought extra training in the field of breastfeeding and lactation medicine. Now, as a board-certified physician in breastfeeding and lactation medicine, I wanted to understand how pregnant and breastfeeding parents – and those who care for them – perceive breastfeeding. How do they define breastfeeding success? What would make breastfeeding easier, especially for underserved communities with some of the lowest breastfeeding rates in the U.S.

Listening to new parents

In partnership with the Academy of Breastfeeding Medicine and Reaching Our Sisters Everywhere, a nonprofit focused on supporting breastfeeding among Black families, my team and I started a research project to identify the key components of a successful breastfeeding journey as defined by parents. We also wanted to determine what would enable families to achieve their breastfeeding goals.

To do this, we asked a range of parents and experts in the field of breastfeeding and lactation medicine about what would make breastfeeding easier for families. We recruited participants through social media, listservs and at the Academy of Breastfeeding Medicine’s annual international meeting, inviting them to provide feedback through virtual listening sessions, online surveys and in-person gatherings.

What we found is fascinating. From the perspective of the parents we talked to, success for breastfeeding had less to do with how long or to what extent they exclusively breastfed. Rather, success had a lot more to do with their experience with breastfeeding and whether they had the support they needed to make it possible.

Support included someone who could listen and help them with breastfeeding; communities that welcomed breastfeeding in public; and supportive loved ones, friends and workplaces. Having their questions about breastfeeding answered in accessible and practical ways through resources such as breastfeeding and lactation professionals in their area, peer support and websites with reliable, trustworthy information was also important to helping them feel successful in breastfeeding.

Parent sitting in chair with baby in lap, hand on temple, breast pumps in foreground
Figuring out how to make time and room for breastfeeding can be taxing.
FatCamera/iStock via Getty Images Plus

Important questions about breastfeeding also arose from these conversations. How can hospitals, clinics and health care workers make sure that breastfeeding support is available to everyone and is equitable? What education do health care professionals need about breastfeeding, and what are barriers to them getting that education? How should those in health care prepare families to breastfeed before the baby is born? And how can the care team ensure that families know when and how to get help for breastfeeding problems?

The good news is that most of the problems raised within our study are solvable. But it will take an investment in resources and support for breastfeeding, including training health care workers on troubleshooting common problems such as nipple pain, ineffective latch and concerns about breast milk production.

Corporate influences on feeding babies

Commercial infant formula is a US$55 billion dollar industry. And yet, most formula use would not be necessary were barriers to breastfeeding reduced.

Research shows that the marketing practices of commercial infant formula companies are predatory, pervasive and misleading. They target not only families but also health care workers. During my medical training, commercial infant formula companies would give us lectures, free lunches, and books and calculators, and my fellow residents and I knew the representatives by name. As a medical director of a newborn unit, I saw these companies stocking our hospital shelves with commercial infant formula and building relationships with our nursing staff. These companies profit when breastfeeding goes wrong.

The World Health Organization has advocated against aggressive commercial infant formula marketing.

This is not to say that commercial infant formula is a bad thing. When breastfeeding isn’t possible, it can be lifesaving. But in some cases, because the U.S. doesn’t provide universal paid maternity leave and not all workplaces are supportive of breastfeeding, parents may find themselves relying on commercial infant formula.

Thinking about breast milk and commercial infant formula less as a question of lifestyle or brand choices and more as an important health care decision can help families make more informed choices. And health care providers can consider thinking about infant formula as a medicine for when it is necessary to ensure adequate nutrition, putting more focus on helping families learn about and successfully breastfeed.

Breastfeeding is a team sport

As the saying goes, it takes a village to raise a child, and breastfeeding is no exception – it is a team sport that calls upon everyone to help new parents achieve this personal and public health goal.

What can you do differently to support breastfeeding in your family, neighborhood, workplace and community?

When I am educating new or expectant families about breastfeeding, I emphasize skin-to-skin contact whenever the parent is awake and able to monitor and respond to baby. I recommend offering the breast with every feeding cue, until the baby seems content and satisfied after each feeding.

Manually expressing drops of milk into the baby’s mouth after each feeding can boost their intake and also ensure the parent’s body is getting signaled to make more milk.

If your family has concerns about whether the baby is getting enough milk, before reaching for formula, ask a lactation consultant or medical professional who specializes in breastfeeding how to tell whether everything is going as expected. Introducing formula can lead to decreased milk production, the baby preferring artificial nipples over the breast and stopping breastfeeding earlier than planned.

Some parents are truly unable to continue breastfeeding for various reasons, and they should not feel ashamed or stigmatized by it.

Finally, give yourself time for breastfeeding to feel routine – both you and baby are learning.

The Conversation

Ann L. Kellams receives funding from NICHD for her research and Pediatric UptoDate as an author. She is the immediate past-president of the Academy of Breastfeeding Medicine.

ref. Breastfeeding is ideal for child and parent health but challenging for most families – a pediatrician explains how to find support – https://theconversation.com/breastfeeding-is-ideal-for-child-and-parent-health-but-challenging-for-most-families-a-pediatrician-explains-how-to-find-support-240396

Des pesticides dans les nuages : les dessous d’une étude inédite

Source: The Conversation – France (in French) – By Angelica Bianco, Chercheuse en Chimie de l’atmosphère, Université Clermont Auvergne (UCA)

Le puy de Dôme (1 465 mètres), où des scientifiques tâchent de mettre des nuages en bouteille pour analyser leur composition. Wirestock Creators/Shutterstock

Une équipe franco-italienne a pu analyser six échantillons d’eau de nuage prélevés au sommet du massif auvergnat du puy de Dôme à différentes saisons, entre 2023 et 2024. Les chercheurs y ont décelé 32 pesticides différents, dont plusieurs interdits en Europe depuis plus d’une décennie. Un tiers des échantillons présentaient également une concentration totale de pesticides supérieure aux taux réglementaires pour l’eau potable.

Leur travail pionnier a aussi permis d’estimer, pour la première fois, la quantité de pesticides qui se trouveraient dans l’ensemble des nuages bas et moyens de France hexagonale, soit de 6 à 139 tonnes. Retour sur cette publication inédite, avec sa première autrice.


The Conversation : Quelle est la genèse de votre recherche ?

Angelica Bianco : Avec ma collègue chimiste Pascale Besse-Hoggan, experte de l’ICCF (UCA/CNRS) en (bio)dégradation des pesticides dans les sols, nous voulions, depuis quelques années, quantifier les pesticides dans les nuages, car les pesticides sont des contaminants d’intérêt dans toutes les matrices environnementales.

Une étude récente du chercheur Ludovic Mayer et de ses collègues avait déjà rapporté la présence de pesticides dans les aérosols atmosphériques prélevés sur 29 sites en Europe, dont plusieurs en troposphère libre, soit la première couche de l’atmosphère de la Terre qui débute de un à deux kilomètres d’altitude et qui n’est que peu ou pas affectée par les émissions locales.

De plus, la présence de pesticides dans les précipitations est connue depuis longtemps, avec des travaux notables à la fin des années 1990. Nous avons donc profité de l’Observatoire du puy de Dôme, géré par l’Observatoire de physique du globe (OPGC) de Clermont-Ferrand et par le Laboratoire de météorologie physique (LaMP) de l’Université de Clermont-Ferrand (UCA) et du CNRS, pour quantifier les pesticides dans une matrice encore inexplorée jusqu’à présent : les nuages.

Techniquement, ce n’est pas la première mesure dans les nuages. En 1991, l’équipe du chercheur allemand Franz Trautner avait déjà mesuré l’atrazine, un herbicide aujourd’hui interdit qui bloque la photosynthèse de végétaux et qui était fréquemment utilisé dans les champs de maïs, dans plusieurs échantillons collectés dans un même nuage au-dessus de cultures de maïs dans les Vosges avec des concentrations allant de 24 à 260 nanogrammes par litre (ng/l), soit bien plus que la limite autorisée pour l’eau potable.

L’originalité de notre dernière étude repose sur la quantification des pesticides :

  • dans plusieurs échantillons d’eau de nuage, collectés à deux saisons différentes ;

  • avec des masses d’air d’origines différentes (différentes saisons, différentes températures et différentes origines géographiques) …

  • avec une analyse de 446 pesticides (herbicides, fongicides, insecticides, biocides) et quelques produits de dégradation ;

  • avec des limites de détection très faibles en utilisant des méthodologies certifiées (Cofrac).

Nous savions déjà qu’un nombre important de pesticides étaient présents dans les cours d’eau. Il peut donc sembler logique d’en trouver également dans les nuages, cependant, de telles recherches n’ont pas tellement été menées auparavant. Comment expliquez-vous cela ?

A. B. : Les nuages représentent la matrice environnementale la plus difficile à attraper et à échantillonner : ce n’est pas de l’eau d’un lac ou d’une rivière que l’on peut prélever aisément avec un seau et en grande quantité. Ce ne sont pas non plus des poussières ou des gaz, qui sont toujours présents dans l’atmosphère et que l’on peut récolter de façon automatique sur des filtres ou dans des ballons.

Les nuages présentent un caractère évènementiel : ils ne sont pas toujours là ! Bien sûr, il est possible de les échantillonner en avion, comme le font certains de mes collègues. Mais cette méthode est techniquement complexe parce qu’il faut absolument éviter toute contamination de l’échantillon par les moteurs de l’appareil. De plus, les nuages sont constitués de fines gouttelettes (entre 10 et 50 micromètres de diamètre), qu’il faut collecter pour avoir un échantillon liquide suffisant pour faire toutes les analyses. Actuellement, en France, seule la station du puy de Dôme, qui présente une forte occurrence nuageuse (40 % du temps) permet l’étude des nuages.

Notre dispositif n’est pas automatisé, ce qui veut dire qu’un opérateur doit être sur place pour le montage du collecteur, la collecte, le démontage et le traitement de l’échantillon. Nous utilisons un collecteur de nuage baptisé « boogie » et des protocoles très stricts de nettoyage et de collecte de l’échantillon.

3 Boogies permettant d’analyser la composition des nuages
Trois boogies permettant d’analyser la composition des nuages.
Angelica Bianco, Fourni par l’auteur

La quantité d’eau dans les nuages varie de 0,3 à 1 g/m3 d’air, ce qui signifie qu’il faut aspirer beaucoup de nuages pour avoir peu de millilitres. C’est un des points limitants de notre analyse : le volume de nuage collecté.

Nos collectes durent rarement plus de deux heures, parce que nous devons tenir compte de la dynamique atmosphérique. Il est bien plus facile d’étudier les caractéristiques d’un échantillon quand l’histoire de la masse d’air est simple, plutôt que quand il résulte de la combinaison de plusieurs masses d’air différentes. Or, plus le temps passe, plus la composition d’un nuage se complexifie, car les composés emportés dans les différentes masses d’air, influencés par des sources différentes (par exemple, marine et anthropique) se mélangent dans le même échantillon liquide. Pour éviter cela, nous limitons donc la durée de collecte à deux heures, par conséquent nos échantillons sont de faibles volumes et la quantité d’analyses que nous pouvons mener est limitée.

Mais, si je résume, le caractère novateur de notre étude, c’est que nous, chasseurs de nuages, avons la chance de travailler sur une matrice environnementale très peu explorée où tout reste à découvrir.

La doctorante Pauline Nibert explique comment il est possible de mettre « des nuages en bouteille » pour analyser leur composition.

Vous avez été, j’ai cru comprendre, les premiers surpris par les résultats constatés.

A. B. : Franchement, pour le bien de notre belle planète verte et bleue, nous espérions ne pas trouver de pesticides dans les nuages !

La première surprise a donc été la détection de ces composés dans tous les échantillons analysés, même les non suspectés, ceux qui ont une masse d’air qui a voyagé en altitude et sur l’océan Atlantique, donc a priori à une distance éloignée des terres où l’on épand des pesticides.

Nous avons donc fait plusieurs vérifications, notamment un croisement avec les mesures d’aérosols présentées par Ludovic  Mayer de l’Université Masaryk (Tchéquie) et ses collègues, et nos concentrations se sont révélées plausibles. Les concentrations observées restent cependant faibles, de l’ordre du nano au microgramme par litre.

Après discussions, nous avons décidé de calculer la masse totale de pesticides potentiellement présents dans les nuages qui survolent la France hexagonale. Pour cela, nous avons pris le parti de formuler une hypothèse importante, à savoir que la concentration mesurée dans les nuages puydomois est représentative des nuages de basse altitude présents sur l’ensemble du territoire français. C’est discutable, certes, mais probablement pas si loin de la vérité : les relecteurs de notre publication n’ont d’ailleurs jamais remis en question cette hypothèse. Nous avons ainsi évalué qu’il pourrait y avoir entre 6,4 et 139 tonnes de pesticides présents dans les nuages au-dessus de la France.

Alors, il faut savoir que les nuages contiennent beaucoup d’eau, de l’ordre du milliard de tonnes, mais, personnellement et naïvement, je ne pensais pas trouver des tonnes de pesticides ! C’est cette estimation qui a déclenché le plus de réactions et qui a fait le plus parler, en bien comme en plus critique, mais j’estime que l’essentiel, au-delà des chiffres, est la prise de conscience collective de la pollution que nous apportons dans l’environnement.

En quoi vos travaux sont-ils utiles à notre compréhension de la circulation des pesticides dans l’environnement ?

A. B. : De mon point de vue, cet article montre que la boucle est bouclée : les pesticides sont retrouvés dans l’eau des rivières, des lacs, dans les nappes phréatiques, dans la pluie et… maintenant dans les nuages. L’atmosphère est extrêmement dynamique et transporte ces composés, même s’ils sont faiblement concentrés, dans les endroits les plus reculés de notre Terre et finalement, certains lieux isolés, comme les régions polaires, qui ne devraient pas être impactés directement par la pollution par des pesticides, sont finalement exposés par ces transports longue distance.

Mais l’atmosphère et les nuages en particulier sont aussi un réacteur chimique capable de transformer ces molécules : les rayons du soleil provoquent des réactions photochimiques qui peuvent dégrader ces composés. C’est pourquoi nous retrouvons parfois dans nos échantillons des produits de transformation et non le pesticide d’origine. Il est donc aussi important de comprendre comment ces molécules se dégradent dans l’environnement.

Dans quels sens allez-vous poursuivre vos recherches à la suite de cette publication ?

A. B. : Plusieurs collègues ont témoigné d’un vif intérêt pour les résultats présentés dans cet article. En tant que chimiste, je me dis que six échantillons collectés sur un seul site ne suffisent pas à représenter la variabilité environnementale. Je pense donc que cette étude doit être étendue à un plus grand nombre d’échantillons, et si possible, prélevés sur plusieurs sites ! Malgré tout, je garde espoir de trouver de nombreux échantillons sans pesticides dans les prochains nuages que nous collecterons…


Entretien relu par Pascale Besse-Hoggan, co-autrice de l’étude, et réalisé par Gabrielle Maréchaux, journaliste Environnement, The Conversation France.

The Conversation

Angelica Bianco a reçu des financements de l’Agence Nationale de la Recherche (ANR 23-CE01-0015), de la Fédération des Recherches en Environnement (projet PONCOS), de la China Scholarship Council (CSC).

ref. Des pesticides dans les nuages : les dessous d’une étude inédite – https://theconversation.com/des-pesticides-dans-les-nuages-les-dessous-dune-etude-inedite-266505

Le management par objectifs n’est pas une invention nazie

Source: The Conversation – France (in French) – By Aurélien Rouquet, Professeur de logistique, Neoma Business School

Alfred P. Sloan, dirigeant de General Motors dans les années 1920, a « inventé » le management par objectifs. Double Day (couverture du livre publié en 1963)

Les origines du management par objectifs sont-elles à chercher du côté des héritiers du IIIe Reich, comme le prétend l’ouvrage récent de l’historien Johann Chapoutot. Rien n’est moins sûr pour les théoriciens du management : le management par objectifs est né dans l’industrie automobile nord-américaine dès les années 1920.


De quoi le management par objectifs est-il le nom ? Pour l’historien Johann Chapoutot, auteur de Libres d’obéir. Le management, du nazisme à aujourd’hui, l’affaire serait entendue : ce mode de management moderne trouverait sa source voire son inspiration dans l’idéologie du IIIe Reich en Allemagne. Le nazisme aurait inventé un type de management « par délégation », qui se serait ensuite diffusé dans les entreprises contemporaines, sous l’influence notamment du juriste et historien allemand Reinhard Höhn. D’après l’auteur, cet ancien nazi et officier SS a formé, après la Seconde Guerre mondiale, des milliers de cadres au sein de l’Académie de Bad Harzburg (Basse-Saxe).

Que certaines formes de management actuelles soient critiquables, nul ne le contestera. Cela explique vraisemblablement le succès de cet ouvrage d’historien écoulé à 20 000 exemplaires et désormais adapté en bande dessinée. Mais qu’en est-il vraiment de ce lien affirmé, qui a été critiqué par de nombreux connaisseurs de l’histoire des sciences de gestion et du management, tels Thibault Le Texier, Marcel Guenoun, Yves Cohen ou Franck Aggeri.

Implication active des salariés

Pour commencer, revenons sur ce qu’on appelle « management (ou, direction) par objectifs ». Le management par objectifs (MPO) repose sur l’idée que la performance d’une organisation s’améliore lorsque les objectifs sont clairement définis et partagés par la hiérarchie et les collaborateurs. Concrètement, il s’agit d’établir des buts précis, mesurables et limités dans le temps, alignés à la fois sur la stratégie globale de l’entreprise et sur les responsabilités individuelles. Ce processus suppose une implication active des salariés dans la définition de leurs objectifs, afin de favoriser l’adhésion, la motivation et le sens donné à leur travail.

Au-delà de l’établissement d’objectifs, le MPO intègre un suivi régulier des résultats et un dialogue continu entre managers et collaborateurs. Ce système encourage l’autonomie dans la mise en œuvre, tout en instaurant des mécanismes d’évaluation périodiques, qui permettent d’ajuster les actions, de reconnaître les réussites et d’identifier les axes de progrès.

L’enjeu est donc double : améliorer la performance collective de l’organisation et développer les compétences individuelles, dans une logique de responsabilisation et de coopération.




À lire aussi :
À 70 ans, le management par objectifs reste indépassable


Une invention nazie ?

Dans son livre, Johann Chapoutot défend la thèse que ce type de management aurait été en quelque sorte « inventé » par les nazis. Pour cela, dans la première partie, l’historien s’attache à décrire le fonctionnement du nazisme. Spécialiste reconnu de cette période, il se montre particulièrement convaincant lorsqu’il analyse la pensée antiétatique développée par les juristes SS : rejet de l’État « judéo-romain », mise en place d’une polycratie fondée sur la concurrence entre institutions, et recours à l’arbitrage ultime du führer (dirigeant) dans une logique darwinienne. Ces analyses, denses et précises, se révèlent particulièrement stimulantes.

Mais J. Chapoutot franchit ensuite dans la suite du livre un pas risqué : il affirme que de cette conception serait née une vision du management par délégation, fondée sur la fameuse « liberté d’obéir » pour reprendre l’expression forgée par lui. Que recouvre cette idée ? Pour l’universitaire, le nazi n’est pas contraint : il est « libre » dans le choix des moyens pour atteindre des objectifs fixés d’en haut, mais il n’a aucun droit de discuter la finalité. On obéit, mais avec une marge d’initiative. Cette liberté encadrée serait, selon J. Chapoutot, l’ancêtre de notre management par objectifs.

Déjà chez General Motors

Le problème est que, comme le rappelle Yves Cohen, ce modèle n’a rien de nazi. La délégation par objectifs existait déjà depuis plusieurs années. Alfred P. Sloan l’avait mise en place chez General Motors (GM) aux États-Unis dans les années 1920, à un moment où GM devait gérer la complexité d’un conglomérat en pleine expansion. Contrairement à Ford, qui reposait alors sur une structure très centralisée, orientée autour d’un modèle unique (la Ford T) et d’un contrôle direct exercé depuis le sommet, GM fit le choix d’une organisation décentralisée. Chaque division bénéficiait d’une autonomie significative dans ses décisions, mais devait rendre compte de ses performances à travers des objectifs chiffrés, principalement financiers. Ce dispositif permettait de combiner la souplesse et l’adaptation locales avec un contrôle global exercé par le siège.

Dans les années 1940, Peter Drucker étudie les pratiques de GM. Après avoir mis en évidence la structure décentralisée de l’entreprise dans Concept of the Corporation (1946), il théorise le management par objectifs en 1954 dans un autre ouvrage qui aura une forte influence : The Practice of Management. Cet ouvrage qui deviendra un best-seller mondial, a été publié bien avant que l’Académie de Bad Harzburg ne voie le jour et que Reinhard Höhn publie ses ouvrages – ouvrages, dont la renommée ne dépassera jamais l’Allemagne puisque, comme le rappelle Thibault Le Texier, ils ne seront jamais traduits en français ou en anglais. Ainsi, ce que Chapoutot présente comme une invention nazie est en réalité une idée qui était déjà théorisée depuis quelques années à partir des pratiques américaines, et largement popularisée par Peter Drucker. Bref, le management par objectifs vient de Detroit, pas de Berlin.

Il est d’autant plus surprenant que Chapoutot se laisse aller à une telle thèse que depuis des décennies, et à la suite de l’historien Alfred Chandler et de son ouvrage sur la Main visible des managers (1977), de multiples travaux historiques ont été menés sur l’essor des entreprises et du management. Les faits présentés ici sont par conséquent très largement connus par une large communauté de chercheurs qui publient dans d’excellents journaux. Citons en France la revue Entreprise & Histoire, et, à l’international, Business History.

Bad Harzburg n’est pas Harvard

Deuxième pilier de la thèse de Johann Chapoutot : Reinhard Höhn, ancien SS devenu directeur de l’Académie de Bad Harzburg, aurait diffusé la « liberté d’obéir » auprès de centaines de milliers de cadres, influençant ainsi le management contemporain. Là encore, la démonstration ne convainc pas. Certes, 600 000 cadres allemands sont passés par Bad Harzburg en cinquante ans. Mais cette institution n’a jamais eu le poids intellectuel de l’École des hautes études commerciales (HEC) de Paris, ni celui de Harvard, ni celui des plus prestigieuses institutions allemandes que sont, par exemple, Mannheim Business School, ou WHU–Otto-Beisheim School of Management. Pas de recherche internationale ni de publications scientifiques reconnues qui en sont issues, encore moins de rayonnement mondial.

Bad Harzburg n’est ainsi aucunement un centre influent de la pensée managériale et, contrairement à la pensée de Peter Drucker dont l’ouvrage est, à la date, où j’écris ces lignes, cité selon Google scholar par 21 608 autres textes, les ouvrages de Höhn ne sont aucunement cités par les grands théoriciens du management. Comme l’a souligné Thibault Le Texier, J. Chapoutot ne montre pas, par ailleurs, combien d’entreprises ont appliqué ses méthodes ni si elles ont eu le moindre impact hors d’Allemagne. Bref, Höhn n’est clairement pas Drucker : c’est un ancien nazi recyclé, dont l’influence est restée locale, limitée à un cercle étroit d’entreprises de la République fédérale d’Allemagne d’alors.

France Culture, 2021.

Assimiler le management au nazisme est une reductio ad Hitlerum, en aucun cas une thèse démontrée. Certes, le management moderne mérite d’être critiqué : culte de la performance, absurdité des indicateurs, prolifération des « bullshit jobs ». Mais pour comprendre ces dérives, nul besoin de convoquer Hitler, mieux vaut lire les spécialistes du champ des critical management studies. Le management que nous connaissons n’est pas le produit du nazisme. Cette manière de diriger et d’organiser le travail est bien plus le produit du capitalisme industriel, de l’Amérique des années 1920 et des business schools d’après-guerre.

The Conversation

Aurélien Rouquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le management par objectifs n’est pas une invention nazie – https://theconversation.com/le-management-par-objectifs-nest-pas-une-invention-nazie-265633

Pour des forêts à croissance rapide, favorisez les arbres à croissance lente

Source: The Conversation – in French – By Marie Charru, Maîtresse de conférence en sylviculture et aménagement forestier, Bordeaux Sciences Agro

Les forêts participent grandement à l’atténuation du changement climatique par leur capacité à capturer le CO2. Dès lors, quelles espèces d’arbres favoriser pour reconstituer des forêts rapidement ? Le bon sens nous soufflerait de privilégier les arbres à croissance rapide… mais la réalité des dynamiques forestières est plus complexe.


Pour gagner une course de vitesse, choisiriez-vous une Formule 1 ou une voiture de rallye ? D’emblée, on aurait plutôt le réflexe de tout miser sur la Formule 1. Puis on se demanderait, peut-être, quelle est la nature du circuit : on a du mal à imaginer une Formule 1 être performante sur une piste cabossée, et on préférera dans ce cas une voiture plus robuste.

Il en va de même pour la croissance des arbres : si certaines espèces, prises de façon isolée, sont théoriquement bien équipées pour maximiser leur vitesse de croissance, elles sont en fait rarement gagnantes dans les forêts, où les conditions sont plus contraignantes. Comme la vitesse de croissance va de pair avec la capacité des arbres à séquestrer du dioxyde de carbone (le CO2), cela a des implications importantes concernant les capacités des forêts à atténuer le changement climatique.

Il s’agit pourtant d’un des nombreux services écosystémiques que celles-ci fournissent. Outre la régulation microclimatique, la préservation de la biodiversité, la purification de l’air et de l’eau et la protection des sols, les forêts constituent, avec les océans, l’un des deux puits de carbone les plus importants, de par leur capacité à stocker du carbone dans les sols et dans la biomasse des arbres. Les gestionnaires forestiers se posent alors une question clé : quelles espèces d’arbres ont le plus grand potentiel d’atténuation ?

Un premier élément de réponse consiste à identifier les espèces d’arbres qui grandissent le plus rapidement : plus un arbre pousse vite, plus il séquestre de carbone à travers la photosynthèse. Promouvoir des arbres à croissance rapide semble un des leviers de l’atténuation du changement climatique.

Mais est-ce vraiment le cas ? Pour tester cette hypothèse, nous avons mené récemment une étude. Dans ce travail mené par Bordeaux Sciences Agro et l’Inrae, réunissant un consortium international de chercheurs, nous avons analysé la croissance de 233 espèces d’arbres dans 160 forêts expérimentales réparties dans le monde entier.

Deux grandes familles d’arbres

Nous avons étudié la relation entre la vitesse de croissance des espèces et certaines de leurs caractéristiques appelées « traits fonctionnels ».

Un érable en automne.
Sid Dahal/Pexels

Ceux-ci permettent de séparer les espèces en deux grandes catégories :

  • Les espèces dites « acquisitives », comme les érables ou les peupliers. Elles sont caractérisées par leur efficacité dans l’acquisition de ressources (lumière, eau, nutriments) et dans la transformation de ces ressources en biomasse (richesse des feuilles en enzymes et en nutriments pour faire la photosynthèse). Cela passe par l’optimisation des surfaces de prélèvement (feuilles larges et fines, racines longues et fines).
Chêne vert (Quercus ilex).
Jean-Pol Grandmont/Wikicommons, CC BY-SA
  • Les espèces dites « conservatives », comme le sapin, le chêne pubescent ou le chêne vert. Elles sont plus efficaces dans la conservation des ressources internes (feuilles et racines moins étalées et plus épaisses pour limiter les pertes d’eau, renouvellement des organes moins fréquents pour limiter les besoins en ressources). Elles sont aussi plus tolérantes aux stress environnementaux.

Nous nous sommes alors demandé : quelles espèces poussent le plus vite, les acquisitives ou les conservatives ?

Les espèces « acquisitives », les Formule 1 du monde végétal

Des travaux antérieurs ont montré qu’en conditions contrôlées (souvent des expériences en serre) les espèces acquisitives poussent généralement très vite. En effet, leurs caractéristiques font d’elles de véritables voitures de Formule 1 végétales, où tout est optimisé pour gagner la course à la croissance.

À l’inverse, les espèces conservatives n’optimisent pas leur croissance, mais plutôt leur résistance aux contraintes de l’environnement, et grandissent souvent moins vite dans ces expériences.

Ces résultats ont conduit les écologues à bâtir une théorie selon laquelle les espèces acquisitives poussent plus vite que les espèces conservatives dans la plupart des conditions. Cependant, cette théorie a été questionnée par des chercheurs qui n’arrivaient pas à la vérifier en dehors des laboratoires, à savoir dans des forêts.

Et de fait, notre étude a montré que cette théorie n’est pas valable en conditions réelles.

Les espèces « conservatives », des championnes de rallye

En effet, dans les forêts boréales, tempérées et méditerranéennes, les espèces conservatives poussent généralement plus vite que les acquisitives.

Ce résultat s’explique par la localisation de ses forêts, le plus souvent dans des zones où les conditions de croissance sont défavorables (faible fertilité du sol, climat froid et/ou sec).

Pour filer la métaphore automobile, les forêts mondiales s’apparentent plus souvent à des chemins cabossés qu’à des circuits de course.

  • Ceci donne un avantage aux espèces conservatives, plus résistantes au stress et plus frugales dans la gestion de ressources limitées : telles des voitures de rallye, elles sont équipées pour s’accommoder des aléas de l’environnement.

  • À l’inverse, les Formule 1 acquisitives sont beaucoup moins performantes dans ces conditions défavorables, car elles ne peuvent exprimer leur potentiel que dans des conditions optimales : une sécheresse équivaut à une crevaison fatale, et un sol pauvre conduit rapidement à une panne de carburant.

D’où cet apparent paradoxe de forêts qui poussent plus vite si on privilégie des espèces supposées à croissance lente.

Dans les forêts tropicales humides, où le climat est potentiellement plus favorable à la croissance des végétaux, les deux types d’espèces d’arbres ne se départagent pas en moyenne. Pourtant, on aurait pu s’attendre à une vitesse de croissance plus élevée pour les espèces acquisitives dans ces bonnes conditions climatiques. Mais les limitations nutritives liées aux sols donnent sans doute l’avantage aux espèces conservatives dans certaines situations.

Des espèces à choisir selon les climats et selon les sols

Retenons de cette étude le rôle déterminant des conditions locales dans le choix des espèces d’arbres.

De la même façon que l’on s’est demandé sur quel type de piste la course aurait lieu avant de choisir entre la Formule 1 et la voiture de rallye, il faut analyser finement les conditions environnementales avant de choisir quel type d’espèce favoriser dans un endroit donné.

Ainsi, sous des climats favorables et des sols fertiles, les espèces acquisitives telles que les érables, les frênes ou les peupliers pousseront plus vite et donc fixeront plus de carbone que des espèces conservatives comme le chêne vert, le chêne pubescent ou de nombreux pins.

À l’inverse, sous des climats défavorables et sur des sols pauvres, ce sont les espèces conservatives qui auront le meilleur potentiel d’accumulation de carbone dans la biomasse.

Le carbone stocké par les sols, autre paramètre crucial

Notre étude ne s’est intéressée qu’à la vitesse de croissance en hauteur des arbres et au stockage de carbone dans le bois. Mais n’oublions pas que 50 % du carbone stocké en forêt l’est par les sols.

Une autre étude, réalisée dans le cadre du même projet de recherche, a mis en évidence l’effet du type d’espèce et du milieu sur le stockage de carbone dans le sol.

Quand les conditions environnementales sont défavorables, les espèces conservatives stockent davantage de carbone dans le sol, mais sous une forme peu stable. Ce carbone peut donc être relargué dans l’atmosphère si les conditions changent (exploitation forestière, incendie, réchauffement, etc.).

Quand les conditions environnementales sont favorables en revanche, les espèces acquisitives et conservatives stockent autant de carbone dans les sols. Mais le carbone issu des espèces acquisitives est plus stable et moins susceptible d’être relargué dans l’atmosphère.

Ces résultats confirment le fait qu’il faut privilégier les espèces conservatives dans les milieux défavorables, car elles y stockent le carbone de façon plus efficace, aussi bien dans la biomasse que dans le sol. À l’inverse, les espèces acquisitives doivent être préférées dans les milieux favorables, où elles peuvent pousser plus vite et stocker du carbone de manière plus durable dans le sol.

Il n’y a ainsi pas une espèce meilleure que l’autre pour stocker du carbone, mais seulement des espèces adaptées à différents types de conditions environnementales. N’oublions pas que, sur notre planète, les espèces sont déjà très bien réparties en fonction de leurs besoins. Cette étude permet donc de confirmer que la nature fait bien les choses : écoutons-la !


Le projet CARbone, Traits fonctionnels associés, et leur OptimisatioN est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Marie Charru a reçu des financements de l’Agence Nationale de la Recherche

Laurent Augusto a reçu des financements de l’Agence nationale de la recherche (ANR).

ref. Pour des forêts à croissance rapide, favorisez les arbres à croissance lente – https://theconversation.com/pour-des-forets-a-croissance-rapide-favorisez-les-arbres-a-croissance-lente-260456

Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?

Source: The Conversation – in French – By Ariane Mirabel, Tropical ecology researcher, Cirad

Longtemps considérées comme de précieux « puits de carbone » absorbant une partie du CO2 en excès dans l’atmosphère, les forêts voient aujourd’hui ce rôle fragilisé. Certaines émettent désormais plus de CO2 qu’elles n’en captent. La cause de ce phénomène est multiple : elle tient au changement climatique, aux pressions anthropiques et à leurs conséquences.


Par le processus de photosynthèse, les plantes utilisent l’énergie lumineuse et le CO2 de l’atmosphère pour produire de la matière organique.

Les forêts contribuent donc, comme le reste du règne végétal, au piégeage de carbone dans leur biomasse : en grande partie les troncs, les branches et les feuilles – on parle alors de biomasse « aérienne », mais également les racines et les sols. Dans les forêts tropicales et tempérées, cette biomasse est principalement aérienne, tandis qu’elle est majoritairement stockée dans les sols en forêt boréale.

Avec une constante : sous tous les climats, les forêts sont les écosystèmes qui stockent le plus de carbone. Cependant, l’évolution de ce stock de carbone dépend de la dynamique des forêts.

En effet, même si du carbone est séquestré lors de sa croissance, une plante (et donc un arbre), comme tout organisme vivant, respire, et va à son tour émettre du CO2 dans l’atmosphère. Par ailleurs, les végétaux se décomposent après leur mort. À terme et dans la plupart des cas, le carbone stocké est donc restitué à l’atmosphère sous forme de carbone atmosphérique (excepté sous certains climats boréaux où la décomposition n’est pas totale et la biomasse s’accumule dans les sols, par exemple sous forme de tourbières).

Pour avoir un effet vertueux sur le climat, il faut donc que les forêts séquestrent davantage de carbone (dans les troncs, les branches, les racines et les sols) qu’elles n’en émettent (à travers la respiration et la mort des végétaux). On parle alors pour les décrire de « puits de carbone » naturels.

Mais sous certaines conditions, les forêts peuvent avoir un bilan carbone net émetteur : elles émettent davantage de CO2 qu’elles n’en captent. Comment cela est-il possible et pourquoi ? Une telle situation est-elle amenée à se généraliser sous l’effet du changement climatique ? Tour d’horizon.




À lire aussi :
Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?


Les forêts, des puits de carbone… à certaines conditions

Dans une forêt à l’équilibre, qui ne serait pas perturbée par des changements environnementaux, d’origine naturelle ou anthropique, les flux de carbone liés à la croissance et à la mortalité s’équilibrent. Dans le bilan global, il n’y a dans ce cas alors ni stockage ni émission de carbone.

Le puits de carbone forestier, bien documenté depuis la fin du XXe siècle, provient ainsi des dynamiques de reforestation, de récupération après des perturbations antérieures et de l’augmentation de la concentration en CO2 de l’atmosphère, qui conduisent les écosystèmes forestiers vers un nouveau point d’équilibre, non encore atteint précédemment.

Les feux de forêt ou la déforestation (conversion de forêts en zones agricoles ou urbaines), à l’inverse, déstockent le carbone forestier et génèrent d’importantes émissions de carbone atmosphérique.

Mais au-delà de la disparition des forêts, même lorsqu’un couvert forestier est maintenu, c’est bien le bilan net des flux de carbone qui va déterminer si une forêt stocke du carbone ou si elle en émet.

Des forêts qui stockent de moins en moins de carbone

Dans certaines conditions, en effet, des forêts peuvent avoir un bilan carbone émetteur : plutôt que de stocker le carbone, elles le déstockent. Pourquoi ?

Une première explication tient à la balance croissance-mortalité des arbres. En effet, tout facteur augmentant la mortalité – ou limitant la croissance des arbres (sécheresses, maladies, ravageurs) – va induire une réduction du stockage de carbone, voire un déstockage.

Or, depuis quelques années, on observe une diminution globale de la croissance des arbres et une augmentation de leur mortalité, en lien avec les sécheresses plus longues et plus intenses.

Ce déclin du rôle de puits de carbone des forêts a été observé notamment en Amazonie. Les forêts matures, à l’équilibre, stockent moins de carbone depuis les années 2000 : la quantité moyenne de carbone stockée par hectare a chuté d’environ 30 % entre 2000 et 2010.

Au contraire, en Afrique centrale, le stockage de carbone est resté constant entre 2000 et 2010. Cette différence s’expliquerait par le fait que les essences d’arbres qu’on retrouve dans les forêts tropicales africaines seraient davantage adaptées à des épisodes de sécheresse et de fortes températures.




À lire aussi :
Les forêts tropicales, des « puits de carbone » hautement vulnérables


Les forêts changent de composition sous l’effet du changement climatique

Les mélanges d’espèces végétales qui composent les forêts ont donc un rôle majeur. Tout changement dans cette composition, dans une logique d’adaptation au changement climatique ou aux pressions anthropiques, est donc susceptible de modifier le bilan carbone d’une forêt.

Lorsqu’un arbre meurt, il n’est pas toujours remplacé par un autre de la même espèce.

En effet, la quantité de carbone stockée par une forêt dépend aussi de la couverture forestière et de la densité du bois des arbres, qui diffèrent pour chaque espèce d’arbre.

De tels changements de composition peuvent subvenir sous toutes les latitudes. Ils existent également en forêts tempérées, mais sont particulièrement flagrants dans les forêts boréales et tropicales :

  • En forêt boréale, les arbres peuvent être remplacés par des espèces arbustives ou herbacées, plus résistantes à la sécheresse, mais plus petites et moins denses.

  • En forêt tropicale, les arbres de forêt mature, de grande taille et à bois dense, peuvent être remplacés par des espèces de forêt secondaire, plus petites et à bois moins dense.

Dans les deux cas, cela peut entraîner une baisse des quantités de carbone stocké.

Le cas particulier des forêts tempérées

Qu’en est-il pour les forêts tempérées ? En Europe, une meilleure gestion et des politiques de reforestation ambitieuses ont permis d’augmenter les quantités de carbone stockées chaque année entre 1990 et 2005.

Cependant, les effets combinés des sécheresses, tempêtes, maladies et ravageurs, ont augenté la mortalité des arbres et diminué leur croissance. De fait, la quantité de carbone stockée chaque année en forêt tempérée, en tenant compte des variations de croissance et de l’augmentation des surfaces forestières, a diminué au cours des dernières décennies : aux États-Unis, la baisse a été de 10 % entre 2000 et 2010. En Europe, elle avoisine 12 %.

En France, les dernières données de l’inventaire forestier indiquent que sur la période 2014-2022, les forêts métropolitaines ont absorbé 39 millions de tonnes de CO2 par an en moyenne, tandis qu’elles en absorbaient 63 millions de tonnes de CO2 par an au cours de la période 2005-2013.




À lire aussi :
La forêt française et ses sols pour limiter les gaz à effet de serre


L’influence délétère des feux de forêt

Le changement climatique alimente des conditions climatiques particulièrement propices aux feux de forêt et aux invasions de ravageurs

Or, les feux de forêt sont des facteurs aggravants de la dégradation du puits de carbone forestier : non seulement ils entraînent des émissions massives de gaz à effet de serre, mais ils accélèrent aussi les changements de composition des forêts, qui peuvent alors mettre des décennies à retrouver leur état d’origine.

Dans certains cas, il s’agit même de transition vers des écosystèmes non forestiers : les forêts disparaissent purement et simplement.

En forêts boréales, cela affecte d’ores et déjà le stockage du carbone. Celui-ci est en nette diminution depuis les années 90.

  • En Russie, par exemple, les forêts dont devenues émettrices dans les années 2010.

  • Au Canada, elles étaient encore neutres dans les années 1990, mais sont devenues émettrices entre les années 2000 et 2010.

Ce phénomène devrait s’amplifier et se répéter à l’avenir, car des saisons d’incendies telles que celle connue par le Canada en 2023 sont appelées à se multiplier.

Dans ces zones normalement froides, le changement climatique peut aussi entraîner le dégel et l’assèchement des sols, ce qui conduit à une dégradation accélérée du carbone organique qu’ils contiennent, et à un déstockage plus rapide de carbone. Les feux de forêt contribuent aussi à consumer la matière accumulée.

À l’échelle globale, l’absorption de carbone par les sols en forêt boréale a ainsi diminué de 30 % entre 2000 et 2010. Ces flux de carbone sont difficiles à évaluer et variables dans le temps et l’espace, mais quasiment toutes les études pointent vers une réduction du stockage de carbone organique dans ces sols.

Mais les feux de forêt ne dépendent pas que des conditions climatiques : en forêts tempérées, les activités humaines sont responsables de la quasi-totalité des départs de feux.

En 2022, à l’échelle de l’Europe, 785 000 hectares de forêts ont brûlé, ce qui représente plus du double de la moyenne entre 2006 et 2021. Cette année 2025, le Portugal, la Grèce et la Turquie ont enregistré de nouveaux records d’incendies. La France n’est pas épargnée : 17 000 hectares ont brûlé en quelques jours dans l’Aude.

Près de 30 % de carbone en moins entre 1990 et 2010

Que retenir de tout ceci ? Si les causes de réduction du stock de carbone forestier sont identifiées aux différentes latitudes, il est difficile de prédire finement l’évolution à venir des forêts et les conséquences qui en découleront.

Ainsi, aucune forêt n’est épargnée : toutes sont susceptibles de devenir émettrices de carbone suite aux effets combinés des activités anthropiques et du changement climatique.

Globalement, il est estimé que la quantité de carbone stockée chaque année par les forêts dans le monde a diminué d’environ 30 % entre 1990 et 2010. Cette tendance risque de se poursuivre.

La meilleure façon d’endiguer ce déclin reste de préserver les forêts existantes.
Dans les forêts gérées par l’humain, le maintien du stock de carbone forestier et/ou l’accompagnement des transitions des peuplements d’arbres vers des espèces adaptées aux nouvelles conditions climatiques est un nouvel enjeu de la gestion forestière à l’échelle planétaire.

The Conversation

Ariane Mirabel a reçu des financements de recherche publics.

Géraldine Derroire a reçu des financements de recherche publics.

Plinio Sist a reçu des financements de la recherche publique.

Stéphane Traissac a reçu des financements de la recherche publique française

ref. Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ? – https://theconversation.com/comment-une-foret-peut-elle-emettre-plus-de-co-quelle-nen-capture-265423

Inside the new repairability scores for smartphones and tablets in the EU

Source: The Conversation – France (in French) – By Christoforos Spiliotopoulos, Scientific Researcher, Joint Research Centre (JRC)

More and more electronics are being sold in the EU, contributing to waste generation. According to Eurostat, the amount of electrical and electronic equipment on the market increased from 7.6 million tonnes in 2012 to 14.4 million tonnes in 2022. However, while the amount of total e-waste collected in the bloc also increased during this period, only a fraction of electric and electronic equipment – 4 million tonnes in 2022 – is recycled and prepared for reuse.

To help reduce waste, pollution and resource extraction, my colleagues and I at the European Commission’s Joint Research Centre (JRC) designed a tool to help consumers make sustainable purchasing decisions: repairability scores for smartphones and tablets. The scores, now included on the EU energy label for these products, could help build a more circular economy.

The path to a circular economy

One reason why product waste is on the rise is the way products are designed. A good example is mobile phone batteries. According to a report prepared for the Commission by the Fraunhofer Institute for Reliability and Microintegration, the Fraunhofer Institute for Systems and Innovation Research and the Flemish Institute for Technological Research (VITO), these batteries were typically replaceable by end-users until 2011. But design practices shifted rapidly, and as the report shows, user-replaceable batteries became a rarity by 2020.

The share of mobile phones with user-replaceable batteries, 2000-2020

In the face of supply challenges for raw materials critical to achieving EU climate and digital objectives, there is an increased focus on circularity in the bloc. This should not come as a surprise: material circularity has multiple potential benefits. In a linear economy, raw material is extracted and turned into manufactured products, which are disposed of as waste after use. By contrast, a circular economy is a closed-loop system whereby resources are kept in circulation via reuse or recycling. Extending the lifetime of products by repairing them is a typical strategy for circularity. It reduces demand for both extraction and production, slowing down those resource loops, and generates savings for consumers as purchases become less frequent.

We developed the scoring system for smartphones and tablets based on a more general repairability scoring system that the JRC developed in 2019. Falling on an A to E scale (highest to lowest repairability), the scores began appearing on the EU energy label for these two kinds of devices, alongside other product information such as battery endurance and resistance to dust and water penetration (the “IP” rating), on June 20, 2025.

EU energy labelling regulations are often paired with the bloc’s Ecodesign regulations, which set minimum requirements for the same or similar qualities. While the minimum requirements in the Ecodesign regulations aim at ridding the EU market of “the worst-performing products”, the energy labelling regulations reward the products that perform best with consumer-facing high scores.

Evaluating repairability

To develop a method to determine repairability scores for smartphones and tablets, we dived into product characteristics to understand what makes repair easy or difficult.

First, we identified key components (“priority parts”). This allowed us to focus on components that are critical for a product to function and are associated with frequent failures. It also ensured that the assessment addresses failures that consumers face in daily life. Product analyses and consumer surveys revealed that batteries and screens are most vulnerable to failure. As such, the ability to replace them weighs in accordingly in the assessment. Cameras, ports, microphones and speakers were some of the other key components that formed part of the overall score.

As a second step, we identified the parameters that determine the ability to repair. These fell into two groups. The first is comprised of those related to the physical design of the product, and the effort and time needed for repair. They include the kind of tools that are required to access the components needing replacement, the way components are fastened together, and the number of steps it takes to remove a faulty component (“disassembly depth”).

The second group of parameters is comprised of those related to services provided by product manufacturers. These include the availability of spare parts to replace faulty ones, the availability of repair instructions (such as diagrams and disassembly maps) for independent professionals and consumers, and the length of time software updates are available.

The evaluation of all the parameters in both groups results in the aggregated repairability score that is now on EU energy labels for smartphones and tablets.

A person’s fingers touch the back and front of a smartphone as that person opens its back cover
The back cover of a smartphone with a snap-fit fastening system, which is easily removable by hand.
Tobias Isakeit and an unnamed contributor, iFixit.com, CC BY-NC-SA

Benefits from more sustainable consumption

Increasing the lifetime of smartphones and tablets could help save raw materials, meet EU climate goals and reduce costs for consumers. According to an estimate in the Ecodesign Impact Accounting Overview Report 2024, a report prepared by the VHK consultancy for the Commission, in 2030, the EU Ecodesign and energy labelling regulations for mobile phones (of which the repairability score is part) are expected to save 0.2 megatonnes of CO2-equivalent emissions and €20 billion for consumers per year.

But there is more: if the scores stimulate consumer demand for more repairable products, supply could follow, with manufacturers looking to gain a competitive advantage on that basis. And eventually, you might have fewer wasted hours trying to recover your contacts, photos and user accounts from your broken phone.

Beyond smartphones and tablets

The methodology behind the scores for smartphones and tablets is highly adaptable. Selecting the priority parts and repairability parameters that correspond to the technical characteristics and market conditions of a given product can be used for a variety of appliances and devices.

In April, the European Commission announced plans to propose repairability requirements (including repairability scores) for more consumer electronics and small household appliances, under the EU Ecodesign for Sustainable Products Regulation. As such, consumers may have more readily accessible information about repairability in the coming years.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Christoforos Spiliotopoulos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Inside the new repairability scores for smartphones and tablets in the EU – https://theconversation.com/inside-the-new-repairability-scores-for-smartphones-and-tablets-in-the-eu-266102

Jane Goodall, la discrète révolutionnaire dont les recherches sur les chimpanzés ont redéfini notre conception de l’humanité

Source: The Conversation – France (in French) – By Mireya Mayor, Director of Exploration and Science Communication, Florida International University

Jane Goodall apparaît sur scène au 92NY à New York le 1er octobre 2023. Charles Sykes/Invision/AP

La primatologue britannique Jane Goodall, figure mondiale de la protection de l’environnement et pionnière de l’étude des chimpanzés, est morte le 1er octobre à l’âge de 91 ans. Sa consœur Mireya Mayor lui rend hommage.


Toute personne qui voudrait proposer un cours magistral sur l’art de changer le monde en mieux, sans sombrer dans le négatif, le cynisme, la colère ou l’étroitesse d’esprit, pourrait s’inspirer de la vie et de l’œuvre de la pionnière de l’éthologie Jane Goodall.

Son parcours débute dans les années 1930, lorsqu’enfant, elle observe émerveillée, dans son jardin anglais, des créatures en apparence banales – même si elle ne les aurait jamais qualifiées ainsi. Il la conduit ensuite jusqu’aux forêts de Tanzanie, où ses recherches sur les chimpanzés ont remis en question la définition même de ce qui fait l’humain. De là, elle est devenue une icône mondiale et Messagère de la paix des Nations unies.

Jusqu’à sa mort le 1ᵉʳ octobre 2025 à l’âge de 91 ans, Jane Goodall a conservé ce charme, cette ouverture d’esprit, cet optimisme et cette capacité d’émerveillement qu’on attribue plutôt aux enfants. Je peux en témoigner, ayant eu la chance de passer du temps à ses côtés et de partager avec elle les enseignements de ma propre carrière scientifique.) Pour le grand public, elle était une chercheuse de renommée mondiale et une figure emblématique. Pour moi, elle était Jane – une mentor inspirante et une amie.

Malgré les bouleversements qu’elle a introduits dans la science en transformant l’étude du comportement animal, Jane Goodall est toujours restée souriante, encourageante et stimulante. Je la considère comme une douce perturbatrice. L’un de ses plus grands dons était sa capacité à faire sentir à chacun, quel que soit son âge, qu’il avait le pouvoir de changer le monde.

Jane Goodall a documenté le fait que les chimpanzés n’utilisent pas seulement des outils, mais les fabriquent – une découverte qui a bouleversé notre vision des animaux et des humains.

Découverte de l’usage d’outils chez les animaux

Dans ses recherches pionnières menées dans la luxuriante forêt du Gombe Stream Game Reserve en Tanzanie – aujourd’hui parc national –, Jane Goodall observa que les chefs chimpanzés les plus respectés étaient ceux qui se montraient doux, attentionnés et proches de leur groupe. Les mâles qui tentaient d’imposer leur autorité par la violence, la tyrannie ou la menace ne parvenaient pas à durer.

Également primatologue, j’ai moi-même étudié les observations fondatrices de Goodall à Gombe. Elle a notamment décrit comment des chimpanzés prenaient de longues brindilles d’herbe pour les introduire dans les termitières et « pêcher » les insectes pour s’en nourrir, une pratique que personne n’avait encore observée. C’était la première fois qu’un animal était vu utilisant un outil, une découverte qui allait bouleverser la frontière que les scientifiques traçaient entre l’humanité et le reste du règne animal.

Le célèbre anthropologue Louis Leakey avait choisi Goodall pour mener ce travail précisément parce qu’elle n’avait pas de formation académique formelle. Lorsqu’elle s’était présentée dans son bureau en Tanzanie en 1957, à l’âge de 23 ans, il l’avait d’abord embauchée comme secrétaire. Mais il avait rapidement perçu son potentiel et l’avait encouragée à étudier les chimpanzés. Leakey voulait une approche totalement neuve, libre de tout biais scientifique, persuadé que la plupart des chercheurs perdaient cette ouverture d’esprit au fil de leur formation.

Puisque les chimpanzés sont les plus proches parents vivants des humains, Leakey espérait que leur observation apporterait des indices sur nos propres ancêtres. Dans un milieu alors largement masculin, il pensait aussi qu’une femme saurait se montrer plus patiente et perspicace qu’un homme. Il avait vu juste. Six mois après le début de ses recherches, lorsque Goodall rédigea ses notes sur l’usage d’outils, Leakey écrivit : « Nous devons désormais redéfinir l’outil, redéfinir l’Homme, ou accepter les chimpanzés comme humains. »

Goodall parlait des animaux comme d’êtres dotés d’émotions et de cultures, et, dans le cas des chimpanzés, de véritables communautés presque tribales. Elle leur donnait des noms, une pratique alors inconcevable dans le monde scientifique, où l’on se contentait de numéroter les sujets d’étude. Elle essuya de vives critiques pour cette approche humanisante.

Parmi ses observations les plus marquantes figure ce qui est resté dans l’histoire comme la « guerre des chimpanzés de Gombe ». Ce conflit, qui dura quatre ans, vit huit mâles adultes d’une communauté exterminer les six mâles d’un autre groupe pour s’approprier leur territoire, avant de perdre eux-mêmes ce territoire au profit d’une troisième communauté, plus nombreuse et avec plus de mâles.

Confiance en son destin

Jane Goodall était persuasive, déterminée et dotée d’une grande force de conviction. Elle me conseillait souvent de ne pas céder face aux critiques. Ses découvertes révolutionnaires ne sont pas nées de la compétition ou du besoin d’évincer les autres, mais d’un émerveillement profond, d’un amour des animaux et d’une imagination débordante. Petite fille, elle était fascinée par l’histoire de Tarzan chez les singes, d’Edgar Rice Burroughs (1912), et aimait plaisanter en disant que Tarzan avait épousé la mauvaise Jane.

À 23 ans, ancienne pom-pom girl de la NFL sans aucune formation scientifique, j’ai découvert son travail et me suis dit que moi aussi, je pouvais suivre ses traces. C’est en grande partie grâce à elle que je suis devenue primatologue, que j’ai co-découvert une nouvelle espèce de lémurien à Madagascar et que j’ai eu une vie professionnelle et personnelle extraordinaire, à la fois dans les sciences et à la TV, comme exploratrice de National Geographic. Lorsque j’ai écrit mon propre récit, j’ai demandé à Jane Goodall d’en rédiger l’introduction. Elle a écrit :

« Mireya Mayor me rappelle un peu moi-même. Comme moi, elle aimait être au contact des animaux lorsqu’elle était enfant. Et comme moi, elle a poursuivi son rêve jusqu’à le réaliser. »

Lors d’une interview en 2023, Jane Goodall répond aux questions de l’animateur Jimmy Kimmel sur le comportement des chimpanzés.

Conteuse et pédagogue

Jane Goodall était une narratrice exceptionnelle, convaincue que raconter des histoires était le moyen le plus efficace pour faire comprendre aux gens la véritable nature des animaux. Avec des images saisissantes, elle partageait des récits extraordinaires sur l’intelligence des animaux, des singes et dauphins aux rats et aux oiseaux, sans oublier les pieuvres. Elle m’a inspirée à devenir correspondante animalière pour National Geographic afin de partager, à mon tour, les histoires et les menaces qui pèsent sur les espèces en danger à travers le monde.

Elle a inspiré et conseillé des dirigeants, des célébrités, des scientifiques et des défenseurs de l’environnement, tout en touchant la vie de millions d’enfants.

Jane Goodall et le livre de Mireya Mayor
Jane Goodall et la primatologue Mireya Mayor avec le livre de Mayor, Just Wild Enough, un récit destiné aux jeunes lecteurs.
Mireya Mayor, CC BY-ND

À travers le Jane Goodall Institute, qui s’efforce de mobiliser les populations du monde entier pour la conservation, elle a lancé Roots & Shoots, un programme international pour les jeunes présent dans plus de 60 pays. Ce programme enseigne aux enfants les liens entre les humains, les animaux et l’environnement, et leur montre comment agir localement pour protéger les trois.

Au-delà de sa chaleur humaine, de son amitié et de ses récits fascinants, je garde précieusement cette phrase de Jane Goodall : « Le plus grand danger pour notre avenir, c’est notre indifférence. Chacun de nous doit assumer la responsabilité de sa propre vie et, surtout, montrer respect et amour envers les êtres vivants qui nous entourent, en particulier envers les autres. »

Une idée radicale, portée par une scientifique hors du commun.

The Conversation

Mireya Mayor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Jane Goodall, la discrète révolutionnaire dont les recherches sur les chimpanzés ont redéfini notre conception de l’humanité – https://theconversation.com/jane-goodall-la-discrete-revolutionnaire-dont-les-recherches-sur-les-chimpanzes-ont-redefini-notre-conception-de-lhumanite-266600

En 2030, l’ISS laissera la place à des stations spatiales commerciales

Source: The Conversation – France in French (2) – By John M. Horack, Professor of Mechanical and Aerospace Engineering, The Ohio State University

La Station spatiale internationale sera désorbitée en 2030. NASA via AP

La Station spatiale internationale vit ses dernières années : en 2030, elle sera désorbitée. Vingt-cinq ans d’occupation continue laisseront alors place à une nouvelle ère, celle des stations spatiales commerciales.


Depuis novembre 2000, la NASA et ses partenaires internationaux assurent sans interruption une présence humaine en orbite basse, avec toujours au moins un Américain à bord. Une continuité qui fêtera bientôt ses 25 ans.

Dans l’histoire de l’exploration spatiale, la Station spatiale internationale apparaît sans doute comme l’une des plus grandes réalisations de l’humanité, un exemple éclatant de coopération dans l’espace entre les États-Unis, l’Europe, le Canada, le Japon et la Russie. Mais même les plus belles aventures ont une fin.

Un emblème représentant une photo de la Station spatiale internationale, entourée d’un anneau où figurent les drapeaux des pays partenaires
L’emblème de la Station spatiale internationale arbore les drapeaux des États signataires d’origine.
CSA/ESA/JAXA/NASA/ROSCOSMOS

En 2030, la Station spatiale internationale sera désorbitée : elle sera dirigée vers une zone isolée du Pacifique.

Je suis ingénieur en aérospatiale et j’ai contribué à la conception de nombreux équipements et expériences pour l’ISS. Membre de la communauté spatiale depuis plus de trente ans, dont dix-sept au sein de la NASA, il me sera difficile d’assister à la fin de cette aventure.

Depuis le lancement des premiers modules en 1998, la Station spatiale internationale a été le théâtre d’avancées scientifiques majeures dans des domaines tels que la science des matériaux, la biotechnologie, l’astronomie et l’astrophysique, les sciences de la Terre, la combustion et bien d’autres encore.

Les recherches menées par les astronautes à bord de la station et les expériences scientifiques installées sur sa structure extérieure ont donné lieu à de nombreuses publications dans des revues à comité de lecture. Certaines ont permis de mieux comprendre les orages, d’améliorer les procédés de cristallisation de médicaments essentiels contre le cancer, de préciser comment développer des rétines artificielles en apesanteur, d’explorer la production de fibres optiques ultrapures et d’expliquer comment séquencer l’ADN en orbite.

Vue de dessus d’un scientifique en blouse de laboratoire et portant des gants, manipulant une pipette sur un plan de travail à bord de l’ISS
L’environnement en microgravité de l’ISS en fait un cadre idéal pour une grande variété de projets de recherche scientifique.
NASA, CC BY

Au total, plus de 4 000 expériences ont été menées à bord de l’ISS, donnant lieu à plus de 4 400 publications scientifiques destinées à améliorer la vie sur Terre et à tracer la voie de futures activités d’exploration spatiale.

La station a démontré toute la valeur de la recherche conduite dans l’environnement unique des vols spatiaux – marqué par une très faible gravité, le vide, des cycles extrêmes de température et des radiations – pour faire progresser la compréhension d’une large gamme de processus physiques, chimiques et biologiques.

Maintenir une présence en orbite

Avec le retrait annoncé de la station, la NASA et ses partenaires internationaux n’abandonnent pas pour autant leur avant-poste en orbite terrestre basse. Ils cherchent au contraire des alternatives pour continuer à exploiter le potentiel de ce laboratoire de recherche unique et prolonger la présence humaine ininterrompue maintenue depuis 25 ans à quelque 402 kilomètres au-dessus de la Terre.

En décembre 2021, la NASA a annoncé trois contrats visant à soutenir le développement de stations spatiales privées et commerciales en orbite basse. Depuis plusieurs années, l’agence confie déjà le ravitaillement de l’ISS à des partenaires privés. Plus récemment, elle a adopté un dispositif similaire avec SpaceX et Boeing pour le transport d’astronautes à bord respectivement de la capsule Dragon et du vaisseau Starliner.

Un vaisseau spatial blanc de forme conique avec deux panneaux solaires rectangulaires en orbite, la Terre en arrière-plan
La capsule Dragon de SpaceX s’amarre à l’ISS.
NASA TV via AP

Fort de ces succès, la NASA a investi plus de 400 millions de dollars pour stimuler le développement de stations spatiales commerciales, avec l’espoir de les voir opérationnelles avant la mise hors service de l’ISS.

L’aube des stations spatiales commerciales

En septembre 2025, la NASA a publié un projet d’appel à propositions pour la phase 2 des partenariats concernant les stations spatiales commerciales. Les entreprises retenues recevront des financements pour réaliser les revues critiques de conception et démontrer le bon fonctionnement de stations capables d’accueillir quatre personnes en orbite pendant au moins 30 jours.

La NASA procédera ensuite à une validation et une certification formelles afin de garantir que ces stations répondent à ses normes de sécurité les plus strictes. Cela permettra ensuite à l’agence d’acheter des missions et des services à bord de ces stations sur une base commerciale – de la même manière qu’elle le fait déjà pour le transport de fret et d’équipages vers l’ISS. Reste à savoir quelles entreprises réussiront ce pari, et selon quel calendrier.

Pendant que ces stations verront le jour, les astronautes chinois continueront à vivre et à travailler à bord de leur station Tiangong, un complexe orbital habité en permanence par trois personnes, évoluant à environ 400 kilomètres au-dessus de la Terre. Si la continuité habitée de l’ISS venait à s’interrompre, la Chine et Tiangong prendraient ainsi le relais comme station spatiale habitée sans discontinuité la plus ancienne en activité. Tiangong est occupée depuis environ quatre ans.

Photos et vidéos de l’ISS permettant d’observer la Terre depuis l’orbite.

En attendant, levons les yeux

Il faudra encore plusieurs années avant que les nouvelles stations spatiales commerciales n’encerclent la Terre à environ 28 000 kilomètres par heure et avant que l’ISS ne soit désorbitée en 2030.

D’ici là, il suffit de lever les yeux pour profiter du spectacle. Lors de ses passages, l’ISS apparaît la plupart des nuits comme un point bleu-blanc éclatant, souvent l’objet le plus brillant du ciel, traçant silencieusement une courbe gracieuse à travers la voûte étoilée. Nos ancêtres n’auraient sans doute jamais imaginé qu’un jour, l’un des objets les plus lumineux du ciel nocturne serait conçu par l’esprit humain et assemblé par la main de l’homme.

The Conversation

John M. Horack a reçu des financements de recherche externes de la NASA, de Voyager Technologies et d’autres organismes liés au domaine spatial, dans le cadre de son travail de professeur à l’Université d’État de l’Ohio.

ref. En 2030, l’ISS laissera la place à des stations spatiales commerciales – https://theconversation.com/en-2030-liss-laissera-la-place-a-des-stations-spatiales-commerciales-266506

Razones para estudiar humanidades en la era de la inteligencia artificial

Source: The Conversation – (in Spanish) – By Francisco Zamora-Polo, Profesor Contratado Doctor del Área de Proyectos de Ingeniería. Departamento de Ingeniería del Diseño, Universidad de Sevilla

“Qué pena que te metas en Filología (o Historia, o Filosofía), con las notas tan altas que tienes podrías estudiar lo que quisieras”. Esta frase o alguna variación sobre la misma idea la han escuchado, probablemente, en algún momento de sus carreras muchos estudiantes e investigadores de disciplinas humanísticas. Es una expresión que indica un menor valor social o laboral de las humanidades, y que se refleja en el porcentaje tan pequeño de estudiantes que acaban eligiendo una carrera humanística en la universidad.

Según los datos oficiales de las estadísticas universitarias en España, tan sólo un 10 % de los estudiantes de grado se matriculan en estudios de Artes y Humanidades. Estas titulaciones son además las menos elegidas como primera opción.

Existe una percepción social y económica de que las humanidades no “son útiles” para el mundo, o para ganar dinero. Y lo cierto es que esa creencia de que los egresados en disciplinas de Artes y Humanidades tienen mayor índice de desempleo, salarios bajos y un mayor desajuste de éstos con el nivel de formación ha sido respaldada por algunos estudios.




Leer más:
Por qué necesitamos las ciencias sociales en un mundo cada vez más complejo


Algunas universidades están relegando estos grados universitarios a puestos de menor atención, o incluso sustituyéndolos progresivamente por otras propuestas formativas. Detrás de estas acciones está el bajo número de estudiantes que eligen estas carreras. Este bajo interés es algo que tiene repercusiones incluso en los planes de estudio de secundaria y primaria. Es una tendencia general en todo el mundo. Como señala la filósofa estadounidense Martha Nussbaum (Premio Princesa de Asturias de las Letras en 2012) en su obra Sin fines de lucro:

“En casi todas las naciones del mundo se está erradicando las materias relacionadas con las artes y las humanidades, tanto a nivel primario, como secundario y en las universidades. Concebidas como ornamentos inútiles por quienes definen las políticas estatales, en un momento en el que las naciones deben eliminar todo lo que no tenga ninguna utilidad para ser competitiva en el mercado global, estas carreras y materias pierden terreno, a gran velocidad, tanto en los programas curriculares como en la mente y el corazón de padres a hijos.”

Vocación de impacto en la sociedad

Sin embargo, no han desaparecido esos estudiantes que, con un expediente excelente, optan por las humanidades. ¿Por qué lo hacen? Hemos analizado recientemente historias personales de esos estudiantes “atípicos” para entender sus motivaciones.

Al ser entrevistados, estos informantes privilegiados expusieron un predominio claro de motivaciones internas (vocación, capacidad de servicio e interés personal) sobre las externas (empleo, estatus, influencia familiar) en la selección de la titulación. Es el caso de esta persona, que con una nota elevada, se decantó finalmente por uno de esos “saberes inútiles”:

“Mis notas de acceso a la universidad fueron buenas, saqué un 8,75 (sobre 10) y eso me dio la posibilidad de acceder a cualquier carrera de artes e incluso a algunas de ciencias. Tanto mi familia como mis compañeros querían que estudiara una carrera en la que me resultara fácil encontrar trabajo y que me proporcionara un buen estatus social y buenas condiciones de vida.”

Más que un trabajo

Los estudiantes con los que hablamos valoraban el impacto que su formación tenía sobre la sociedad. Para ellos, la elección de carrera no era simplemente un modo de procurarse un trabajo en el futuro, sino que percibían que con ellas podrían tener un protagonismo especial en la construcción de la sociedad, pues sus aspiraciones no eran tan solo laborales, sino vocacionales.

Entendían que la aportación a la sociedad a que estaban llamados desde sus estudios se realizaba en el cultivo de los valores humanísticos asociados a “las letras”: la reflexión filosófica, la belleza artística o la dimensión poética y lírica de la literatura, por poner solo algunos ejemplos.

Motivaciones internas

En una reciente tesis doctoral hemos evaluado el tipo de motivación que prevalecía cuando los estudiantes elegían modalidad de bachillerato (momento en el que, de manera tradicional, una persona se decanta por “ciencias” o “letras”).

Observamos que, aunque en general predominan las motivaciones externas (asociadas al salario o la empleabilidad), el alumnado con calificaciones altas que se decanta por humanidades y ciencias sociales valora más las motivaciones internas (el gusto por la disciplina, la capacidad de ser útil o la vocación).

No obstante, los estudiantes que tienen calificaciones altas eligen mayoritariamente la modalidad de ciencias y valoran motivaciones como la salida profesional o el estatus económico.

Dicho de otro modo, la tendencia general del alumnado con buenas notas, movido por motivaciones externas, es la de buscar una profesión rentable, mientras que el alumnado de calificaciones altas que se decanta por humanidades refiere motivaciones más vocacionales.

Saberes útiles

Esta motivación intrínseca tiene que ver con una concepción de las humanidades como un factor clave en la configuración de la sociedad, tal como proponía el pensador italiano Nuccio Ordine en La utilidad de lo inútil.

“Existen saberes que son fines en sí mismos, y que, precisamente por su naturaleza gratuita y desinteresada, alejada de todo vínculo práctico y comercial, pueden ejercer un papel fundamental en el cultivo del espíritu y en el desarrollo civil y cultural de la humanidad”.

¿Se puede poner de manifiesto la utilidad de estos saberes? En otro estudio que hemos hecho recientemente sobre el interés de las humanidades y las ciencias sociales para la construcción de la sociedad, proponíamos a un grupo de estudiantes de educación secundaria configurar su ciudad ideal tomando diez decisiones, vinculadas a las diversas modalidades de estudio que cursan.




Leer más:
Por qué las Humanidades nos ayudan a entender lo que ocurre en Ucrania


Durante el proceso se dieron cuenta de lo siguiente: para que en su ciudad hubiese un modelo de gobierno, sistema de justicia, educación, cultura o arte, era necesaria la presencia de saberes humanísticos y sociales con los que no contaban al principio de la intervención.

Aprender es necesario, por sí mismo

De manera popular, o incluso tradicionalmente, las humanidades se han percibido como el estudio o análisis de lo que otros hicieron (sea arte, literatura, filosofía, etc.), con poca aplicación práctica. Por eso, en un escenario cultural, social y tecnológico como el que vivimos, donde el acceso a los datos es inmediato y constante, estas disciplinas se consideran de poco valor.

El antiguo debate sobre la necesidad de exigir aprendizaje de contenidos y habilidades cuando estos estaban en los libros o en los ordenadores parece afectar especialmente a este tipo de saberes, los humanísticos. ¿Es preciso potenciar la adquisición y dominio de esta cultura general cuando todo se puede encontrar en la red?




Leer más:
La filosofía no es útil ni inútil: es inevitable


Evidentemente, sí. Una afirmación rotunda porque el objetivo no son los contenidos, sino el propio proceso de aprendizaje. Estas competencias “duras” son precisamente las que permiten el desarrollo de otras “blandas”, como son el pensamiento crítico, la autorregulación de aprendizajes o la actitud de curiosidad.

Estudiar a los grandes pensadores de la historia nos puede llevar a identificar el valor de la verdad en un contexto de noticias falsas y manipulación. Y conocer el devenir histórico de los conflictos del siglo pasado será un elemento clave para comprender cuán frágil es la paz en la que algunos vivimos, por poner solo algunos ejemplos.

El papel de las humanidades

En un contexto de menoscabo sistemático de las ciencias sociales y las humanidades en el currículo académico y en el interés general, la alfabetización científica es algo fuera de discusión. Pero las humanidades, como bien defendía el filósofo español José Ortega y Gasset, tienen una misión en la universidad: son el tronco principal de la cultura.

Avances tecnológicos como los algoritmos de inteligencia artificial generativa (IAG) nos obligan a hacernos preguntas que solamente las humanidades pueden ayudarnos a responder. Por esa razón, los estudios y disciplinas humanísticas deberían tener un carácter transversal para otros ámbitos de conocimiento (científicos, ciencias de la salud o tecnológicos).

En cuanto a las etapas de primaria y secundaria, dar mayor visibilidad a lo que los profesionales del ámbito humanístico aportan al bien común conduciría a potenciar las vocaciones humanísticas.

El escritor Isaac Asimov adivinó en su obra Yo, Robot que la tecnocracia era insuficiente y que siempre necesitaría del saber humano, ese que hizo cristalizar en sus Tres Leyes de la Robótica. Leyes que, más de dos mil años después, nos remiten inequívocamente al adagio latino de Terencio: “Nada humano me es ajeno”.

The Conversation

Francisco Zamora-Polo es socio de la Aosciación Española de Ingeniería y Dirección de Proyectos (AEIPRO, de la Red de Estudios para el Desarrollo y de Ongawa. Colabora en la Cátedra de patrocinio “Ingeniería en la Industria Agroalimentaria – GOYA – Antonio Unanue” financiada por Goya Spain. Recibe financiación del programa propio de investigación de la Universidad de Sevilla.

Jesús Sánchez Martín y Mario Corrales Serrano no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Razones para estudiar humanidades en la era de la inteligencia artificial – https://theconversation.com/razones-para-estudiar-humanidades-en-la-era-de-la-inteligencia-artificial-260211