Un autre monde du travail est possible

Source: The Conversation – France (in French) – By Sophia Galière, Maîtresse de conférences en sciences de gestion, Université Côte d’Azur

Nous vous proposons des extraits tirés de deux chapitres pour penser l’entreprise autrement, à l’heure des bouleversements environnementaux. ZoranOrcik/Shutterstock

Pour changer le monde du travail, il faut repenser le sens des mots que l’on utilise pour en parler. Voici le point de départ de l’ouvrage collectif Un autre monde du travail est possible. Par exemple, comment penser la productivité en dehors du capitalisme et de son injonction à la croissance ? Dans cet ouvrage, 26 experts analysent les mots du monde du travail pour imaginer de nouvelles pratiques d’entrepreneuriat, de management et de travail. Dans ces bonnes feuilles, nous vous proposons des extraits tirés de deux chapitres pour penser l’entreprise autrement, à l’heure des bouleversements environnementaux.


Les organisations sont-elles nécessairement adiaphoriques ? (Bertrand Valiorgue)

Les désordres climatiques et environnementaux que les sociétés humaines connaissent aujourd’hui, et vont subir de manière amplifiée dans les années qui viennent, sont fabriqués par des organisations et des dynamiques d’action collective. C’est « la société des organisations » qui s’est développée en Occident au sortir de la Seconde Guerre mondiale, et qui s’est aujourd’hui généralisée à l’échelle du globe, qui est directement à l’origine du franchissement des limites planétaires et du basculement dans une nouvelle phase géologique du système Terre que certains nomment l’anthropocène.

Les organisations de cette « société des organisations » ont une caractéristique essentielle qui a été relevée dans le prolongement des travaux de Zygmunt Bauman : elles sont adiaphorisantes. À travers leurs modes de fonctionnement et leurs processus, ces organisations fabriquent de l’indifférence morale et de l’insensibilité de la part de leurs membres à l’égard du vivant et du système Terre. Seul un redimensionnement du travail dans ses dimensions subjectives, objectives et collectives peut conduire à sortir de cet état adiaphorique pour aller vers des organisations qui s’avéreront sensibles et responsables à l’égard du système Terre et de ses composantes. À l’heure du grand basculement dans l’anthropocène et du franchissement des limites planétaires, il est indispensable de penser le travail comme un acte de « renaturation » et de reconnexion à l’égard des liens et dépendances que nous entretenons individuellement et collectivement à l’égard du système Terre.

Nous soutenons […] que c’est d’ailleurs cette adiaphorie organisationnelle généralisée à l’égard du vivant et du système Terre qui est à l’origine du basculement dans une nouvelle phase géologique du système Terre et du franchissement des limites planétaires. Les organisations contemporaines dans lesquelles nous travaillons masquent, invisibilisent et amoralisent les conséquences de leurs actions sur le système Terre. Elles nous plongent dans un état d’adiaphorie généralisée à l’égard du vivant et du système Terre.

[…]

La philosophie morale développée par Bauman nous enseigne que les humains n’ont pas de facultés morales innées et qu’ils peuvent basculer dans la moralité ou l’immoralité en fonction du contexte social (et organisationnel) dans lequel ils sont plongés. La lecture de Bauman est riche d’un second enseignement. Ce dernier considère que seuls les individus, et en aucun cas les entités collectives et les organisations, peuvent être dotées de facultés morales.

infographie
Quatre des neuf limites planétaires impliquent l’océan.
CGDD 2023

Bauman considère qu’étendre les préoccupations morales au-delà des individus constitue une erreur ontologique particulièrement grave. Pour Bauman, ce sont les membres d’une organisation qui doivent tracer et pratiquer individuellement un chemin éthique au sein des organisations auxquelles ils appartiennent. Dit autrement, les possibilités de changement proviennent non pas d’un rehaussement moral de l’organisation ou de la personne dite morale mais bien du comportement concret et des engagements quotidiens des individus qui la composent.

[…]

C’est le travail et ses effets plus ou moins adiaphorisants qui est au cœur des grands défis en matière de développement durable que nos sociétés et les organisations qui les composent vont devoir relever. Dans cette perspective, la tâche essentielle qui nous incombe consiste à débusquer les différentes dimensions du travail et les dynamiques organisationnelles qui concourent à l’adiaphorie.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Contre l’adiaphorie, repenser l’innovation pour la redirection écologique (Aura Parmentier)

L’entrée dans l’ère de l’anthropocène est considérée comme le défi le plus important. Pour faire face à cette menace, l’innovation est souvent considérée comme une source de solutions. Mais peut-on faire confiance à l’innovation pour résoudre nos problèmes contemporains, alors que les défis que nous rencontrons sont souvent la conséquence de la course folle à l’innovation ? Comprendre d’où vient ce terme et les sources de sa théorisation permet de mieux cerner les orientations choisies jusqu’alors ; en retour, penser l’innovation à l’aide d’autres approches offre des voies pour penser les changements qu’appellent les crises environnementales.

[…]

Divers moyens existent pour envisager différemment le travail de conception. Assez traditionnellement, nous pouvons y intégrer des analyses de cycle de vie des produits et services pour réduire l’impact du cycle global, passant de l’extraction des ressources à la conception, puis à la fin de vie du produit. Cette approche est adaptée à la problématique environnementale car elle s’appuie sur une conversion en équivalent CO2. Elle s’inscrit donc dans les réponses possibles à la limitation des gaz à effet de serre. Elle est cependant peu adaptée pour mesurer ou apprécier d’autres problèmes comme l’obsolescence programmée.

Une autre approche consisterait à simplifier les systèmes, voire d’en supprimer une partie. Il s’agit ici de penser l’innovation par le moins, ce que les sociologues Frédéric Goulet et Dominique Vinck appellent « l’innovation par retrait ». Cette approche de l’innovation invite à une réflexion différente quant à la conception, l’utilisation et les usages des innovations. Plusieurs exemples peuvent en être donnés : la mise en place du non-labour en agriculture, mais aussi les circuits courts. Dans ce second cas, « le retrait » étant alors celui d’intermédiaires dans la chaîne de distribution.




À lire aussi :
Peut-on s’en remettre à la sélection naturelle pour faire émerger des innovations durables ?


Puisque la notion d’innovation dans son acception actuelle fait principalement référence à la technologie, il est intéressant de se pencher sur le concept de technologie low-tech développé et popularisé par le spécialiste des ressources minérales Philippe Bihouix. Ce concept offre des perspectives intéressantes, car il s’agit de concevoir des solutions innovantes dans le respect des limites planétaires.

D’ailleurs, Mathieu Arnoux José Halloy, Nicolas Nova et Alexandre Monnin ont proposé les notions de Technologie Zombie Vs Technologie Vivante pour qualifier les technologies selon leur impact sur les limites planétaires dont le vivant. Selon cette typologie, les technologies dites zombies sont à limiter et éviter autant que possible ; tandis que les technologies vivantes sont à favoriser dans la réflexion qu’appelle la redirection écologique. Ces dernières s’appuient sur des ressources renouvelables, les premières ne le sont pas.

De plus, la durée de fonctionnement en état de marche est minimale dans le cas des technologies zombies, mais maximale dans le cas des technologies vivantes. Enfin, la durée en tant que déchet est maximale pour les premières et minimales pour les technologies vivantes.

[…]

En somme, cet exemple illustre les deux approches de l’innovation, l’une centrée principalement sur la croissance économique et l’autre centrée sur la protection de l’environnement. À l’ère des dangers de l’anthropocène, il nous faut choisir notre priorité (la croissance économique ou l’écosystème) et in fine, privilégier un type d’innovation ou un autre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Un autre monde du travail est possible – https://theconversation.com/un-autre-monde-du-travail-est-possible-260015

Les réseaux sociaux d’entreprises favorisent-ils vraiment le partage de connaissances ?

Source: The Conversation – France (in French) – By Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management

Avec le développement du télétravail, les réseaux sociaux d’entreprise sont devenus indispensables pour partager des connaissances. Mais l’outil ne fait pas tout. Trois obstacles en limitent l’efficacité. Accompagnés d’autres solutions, ils peuvent être des outils redoutablement efficaces.


Alors que 2 salariés sur 3 parmi les cadres ont eu recours au télétravail entre 2022 et 2024, le mode d’organisation hybride, alternant entre télétravail et présentiel, présente des défis majeurs pour le partage des connaissances et l’apprentissage organisationnel. L’un comme l’autre est rendu à la fois plus complexe et davantage nécessaire en raison de l’éloignement des personnes. La distance physique et la dispersion des équipes complexifient notamment l’apprentissage vicariant. Ce terme désigne un processus essentiel d’acquisition de connaissances par l’observation des actions, des résultats et de leurs conséquences chez ses collègues [ plutôt qu’en expérimentant soi-même les résultats de ses propres actions]

Les réseaux sociaux d’entreprises tels que les Intranet, mais aussi les outils comme Teams ou Slack ont été déployés pour encourager l’apprentissage collaboratif et pallier le manque d’interactions directes. Cependant, leur efficacité est souvent compromise par le paradoxe de la visibilité. Bien que la visibilité sur ces plates-formes soit censée faciliter l’apprentissage vicariant et le partage des connaissances en général, elle engendre aussi des enjeux de crédibilité, une surcharge d’information et une sélectivité des réponses, transformant potentiellement ces outils en obstacles à l’échange.

Notre article explore ce phénomène, où une visibilité initialement bénéfique crée des tensions et des entraves inattendues à l’apprentissage vicariant en ligne. Il repose sur une étude de cas menée au sein d’un cabinet de conseil, où les consultants sont habitués au travail à distance et aux plates-formes digitales. Trois tensions ont été identifiées.

Actualisation des compétences

La première concerne la dynamique d’apprentissage et la préservation de la crédibilité. Dans les cabinets de conseil, l’expertise des consultants est primordiale. Ils doivent constamment actualiser leurs compétences pour répondre aux questions et aux attentes des clients et se montrer compétents. Cette exigence crée une tension entre le besoin d’apprendre, nécessaire pour aborder de nouveaux projets, et la nécessité de préserver une image d’expert en évitant de montrer leurs limites, comme nous le rappelle un consultant :

« Il faut toujours rester à jour, car un consultant doit toujours être au courant des dernières évolutions » et être capable de « répondre aux questions du type “Alors, toi, tu ferais quoi ? ”, “ Comment tu t’y prendrais ? ” ou encore “ Qu’as-tu vu chez d’autres clients ? ” ».

La visibilité sur les réseaux sociaux d’entreprise exacerbe cette tension, incitant certains consultants à apprendre discrètement, en dehors des heures de travail ou sur des plates-formes externes anonymes, et à contrôler soigneusement le contenu qu’ils partagent pour ne pas nuire à leur crédibilité.

Trop d’informations tuent l’information ?

La deuxième tension est liée à la surcharge d’information et à la dépendance aux réseaux personnels. Les consultants utilisent les réseaux sociaux d’entreprise pour compenser le manque de partage d’expériences en présentiel et maintenir leur réseau. Cependant, l’abondance de communications peut entraîner une surcharge cognitive, rendant difficile l’identification des informations pertinentes et rapidement exploitables pour répondre aux contraintes de temps des projets. Comme le souligne un consultant,

« Il y a tellement de sources d’information aujourd’hui qu’on ne sait plus où chercher ! »

Paradoxalement, une plus grande visibilité des échanges peut conduire à une forme d’opacité due au volume d’informations. Face à cela, les consultants ont tendance à se tourner vers leurs réseaux personnels de confiance, constitués de collègues actuels ou anciens, via des outils de communication directe comme Skype, Teams ou WhatsApp, pour obtenir rapidement des informations précises. Bien que cela réponde à leurs besoins individuels, cela limite le partage d’expériences à un cercle restreint et réduit l’apprentissage collectif au sein de l’organisation.




À lire aussi :
Relations humaines : l’impact des nouveaux outils collaboratifs


Gérer le temps

La troisième tension concerne la disponibilité des sources de connaissances et la sélectivité des réponses. Les réseaux sociaux d’entreprise offrent aux consultants un accès à une diversité d’expertises et de retours d’expérience. Cependant, les experts ne peuvent pas répondre « à toutes les sollicitations » car ils n’ont « tout simplement pas le temps ». Ils ont alors tendance à prioriser les sollicitations provenant de leurs relations établies, de leurs équipes directes ou celles jugées urgentes, renforçant ainsi les réseaux personnels existants au détriment de l’établissement de nouveaux contacts et de l’élargissement des échanges.

Une étude de l’Association for Talent Development révèle par ailleurs une baisse significative des heures de formation par collaborateur, passant de 32,9 heures en 2021 à 20,7 heures en 2022 selon cette étude réalisée auprès de 454 organisations (principalement américaines bien que certaines puissent provenir d’autres pays) représentant une grande diversité de tailles d’entreprises et de secteurs d’activité. Cette diminution souligne l’importance des réseaux sociaux d’entreprise comme outils potentiels de partage de connaissances, tout en mettant en lumière les défis à surmonter pour qu’ils soient réellement efficaces.

Pour naviguer dans ce paradoxe de la visibilité, les consultants adoptent diverses stratégies. Outre l’apprentissage discret et le contrôle du contenu partagé, ils s’appuient fortement sur leurs réseaux personnels pour obtenir des informations rapidement. Cependant, ces stratégies, bien qu’efficaces individuellement, limitent l’apprentissage collectif et la transparence organisationnelle.

Des référents pour la curation

Pour surmonter le paradoxe de la visibilité et optimiser le potentiel des réseaux sociaux d’entreprise pour l’apprentissage continu et collaboratif, les organisations doivent adopter des stratégies proactives. Il est essentiel d’encourager la création et le développement de réseaux personnels au sein de l’entreprise, notamment par l’organisation régulière d’événements de networking en présentiel. Ces relations interpersonnelles favorisent la fluidité du partage des connaissances, particulièrement dans un contexte de travail hybride.

Un autre levier est d’encourager la curation de contenu en désignant des référents pour les thématiques clés. Ces « courtiers » de connaissances seraient responsables de gérer et de mettre en avant le contenu pertinent sur les réseaux sociaux d’entreprise, réduisant ainsi la surcharge d’information et soulageant les experts de sollicitations excessives.

Évaluer régulièrement les outils numériques

Il est également crucial de promouvoir une culture d’entreprise qui valorise le partage d’expériences, y compris les échecs, afin de créer un environnement de confiance et de transparence. En valorisant l’apprentissage collectif via les réseaux sociaux d’entreprises et en récompensant les contributions visibles, les organisations peuvent réduire le recours à des stratégies d’évitement comme l’anonymat.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Enfin, les départements des systèmes d’information, en collaboration avec les experts opérationnels, doivent s’assurer que les outils numériques sont utilisés de manière optimale et répondent réellement aux besoins des collaborateurs, en procédant à des évaluations régulières.

En résumé, pour que les réseaux sociaux d’entreprises jouent pleinement leur rôle dans l’apprentissage vicariant en environnement hybride, les organisations doivent réévaluer leur gestion des connaissances, renforcer les relations interpersonnelles, encourager une culture de partage et optimiser les outils numériques afin d’atténuer les effets du paradoxe de la visibilité et de faire de cette visibilité un véritable atout pour l’apprentissage organisationnel.

The Conversation

Christine Abdalla Mikhaeil is a member of the Association for Information Systems (AIS)

Myriam Benabid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les réseaux sociaux d’entreprises favorisent-ils vraiment le partage de connaissances ? – https://theconversation.com/les-reseaux-sociaux-dentreprises-favorisent-ils-vraiment-le-partage-de-connaissances-252824

Petit guide du management toxique : comment faire fuir vos salariés en 6 leçons

Source: The Conversation – France (in French) – By George Kassar, Full-time Faculty, Research Associate, Performance Analyst, Ascencia Business School

Si la gestion de la performance n’est pas mise en œuvre de manière adéquate, elle peut devenir un formidable outil pour démotiver, épuiser et pousser au départ vos collaborateurs. PeopleImages.comYuri A/Shutterstock

La recherche en gestion de performance offre une gamme complète de pratiques managériales toxiques à appliquer sans modération pour faire fuir les talents les plus précieux. Si ces conseils sont à prendre au second degré, ces pratiques restent bien réelles dans la gestion quotidienne de certains managers.


Qui a dit que la principale ressource d’une entreprise, et son véritable avantage concurrentiel, résidait dans ses employés, leur talent ou leur motivation ?

Après tout, peut-être souhaitez-vous précisément vider vos bureaux, décourager durablement vos collaborateurs et saboter méthodiquement votre capital humain.

Dans ce cas, la recherche en gestion de performance vous offre généreusement tout ce dont vous avez besoin : une gamme complète de pratiques managériales toxiques à appliquer sans modération pour faire fuir les talents les plus précieux.

En fait, la gestion de la performance, issue des pratiques de rationalisation au début du XXe siècle, est devenue aujourd’hui un élément clé du management moderne. En théorie, elle permet d’orienter l’action des équipes, de clarifier les attentes et de contribuer au développement individuel. En pratique, si elle n’est pas mise en œuvre de manière adéquate, elle peut également devenir un formidable outil pour démotiver, épuiser et pousser au départ vos collaborateurs les plus précieux.

Voici comment :

Management par objectifs flous

Commencez par fixer des objectifs vagues, irréalistes ou contradictoires. Surtout, évitez de leur donner du sens ou de les relier à une stratégie claire, et évidemment ne pas leur assurer les ressources appropriées. Bref, adoptez les « vrais » objectifs SMART : Stressants, Mesurés arbitrairement, Ambigus, Répétés sans contexte, Totalement déconnectés du terrain !

Selon les recherches en psychologie organisationnelle, cette approche garantit anxiété, confusion et désengagement parmi vos équipes, augmentant significativement leur intention de quitter l’entreprise.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Le silence est d’or

Éviter toute forme de dialogue et de communication. Ne donnez jamais de feedback. Et si vraiment vous ne pouvez pas l’éviter, faites-le rarement, de manière irrégulière, strictement détachée du travail, et portez-le plutôt sur une critique de la personne. L’absence d’un retour d’information régulier, axé sur les tâches et exploitable, laisse les employés dans l’incertitude et les surprend au moment de l’évaluation et mine progressivement leur engagement.

Plus subtilement encore, c’est la manière dont vos employés interprètent vos intentions, et le feedback que vous leur donnez, qui compte le plus. Attention, lorsqu’il est perçu comme ayant une intention constructive, il risque de renforcer la motivation à apprendre et l’engagement. Mais lorsque ce même feedback est perçu comme incité par des intérêts personnels du manager (attribution égoïste), il produit l’effet inverse : démotivation, repli et départ.

« Procès » d’évaluations de performance

Organisez des entretiens annuels où vous ne relevez que les erreurs et oubliez totalement les réussites ou les efforts invisibles. Soyez rigide, critique, et concentrez-vous uniquement sur les faiblesses. Prenez soin de vous attribuer tout le mérite lorsque l’équipe réussit – après tout, sans vous, rien n’aurait été possible. En revanche, lorsque les résultats ne sont pas à la hauteur, n’hésitez pas à pointer les erreurs, à individualiser la faute et à rappeler que « vous aviez pourtant prévenu ».

Ce type d’évaluation de performance, mieux vaut le qualifier de procès punitif, garantit une démotivation profonde et accélère la rotation des équipes.




À lire aussi :
Détruire une carrière professionnelle, nouvelle forme de harcèlement moral


Compétition interne poussée à l’extrême

Favorisez une culture de rivalité entre collègues : diffusez régulièrement des classements internes, récompensez uniquement les meilleurs, éliminer systématiquement les moins bien classés, dévaloriser l’importance de la coopération, et laisser la concurrence interne faire le reste. Après tout, ce sont les caractéristiques essentielles de la « célèbre » méthode que Jack Welch a popularisée chez General Electric.

Si vous remarquez un possible élan de motivation à court terme, ne vous inquiétez pas, les effets de la « Vitality Curve » de Jack Welch seront, à terme, beaucoup plus néfastes que bénéfiques. La féroce concurrence interne vous sera un excellent outil de détruire la confiance entre coéquipiers, de créer une atmosphère toxique durable et d’augmenter le nombre de départs volontaires.

Ignorez le bien-être : surtout, restez sourd

Nous avons déjà établi qu’il fallait éviter le feedback et tout dialogue. Mais si, par malheur, un échange survient, surtout n’écoutez pas les plaintes ni les signaux d’alerte liés au stress ou à l’épuisement. Ne proposez aucun soutien, aucun accompagnement, et bien sûr, ignorez totalement le droit à la déconnexion.

En négligeant la santé mentale et en refusant d’aider vos employés à trouver du sens à leur travail – notamment lorsqu’ils effectuent des tâches perçues comme ingrates ou difficiles – vous augmentez directement l’éventualité de burn-out et d’absentéisme chronique

De plus, privilégiez systématiquement des primes de rémunération très variables et mal conçues : cela renforcera l’instabilité salariale des employés et tuera ce qui reste d’engagement.

L’art d’user sans bruit

Envie d’aller plus loin dans l’art de faire fuir vos équipes ? Inspirez-vous de ce que la recherche classe parmi les trois grandes formes de violence managériale. Il s’agit de pratiques souvent banalisées, telles que micro-gestion, pression continue, absence de reconnaissance ou isolement, qui génèrent une souffrance durable. Ces comportements, parfois invisibles mais répétés, finissent par user les salariés en profondeur, jusqu’à les pousser à décrocher, mentalement puis physiquement jusqu’à rupture.


Évidemment, ces conseils sont à prendre au second degré !

Pourtant, les pratiques toxiques décrites ici restent malheureusement bien réelles dans la gestion quotidienne de certains managers. Si l’objectif est véritablement de retenir les talents et d’assurer le succès durable d’une entreprise, il devient indispensable d’orienter la gestion de la performance autour du sens, de l’équité et du développement authentique du potentiel humain.

The Conversation

George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Petit guide du management toxique : comment faire fuir vos salariés en 6 leçons – https://theconversation.com/petit-guide-du-management-toxique-comment-faire-fuir-vos-salaries-en-6-lecons-260438

Faux experts, vrais influenceurs : un défi pour les marques

Source: The Conversation – France (in French) – By Damien Chaney, Professor, EM Normandie

Certains consommateurs, forts de leur expérience avec un type de produit, se perçoivent comme experts au point de se sentir légitimes pour diffuser leur avis tout en rejetant toute information nouvelle. Ce phénomène de dogmatisme acquis peut poser de sérieux problèmes aux marques, notamment sur les réseaux sociaux.


Dans l’un de ses sketchs, l’humoriste Fabrice Éboué évoque un certain Dédé, l’idiot du village, figure comique des conversations de comptoir. Les habitués du bistrot se moquent de lui pour ses affirmations péremptoires, que Dédé défend avec une conviction absolue. Pourtant, ce Dédé a peut-être passé du temps à consulter des sites – pas toujours les plus fiables –, à échanger sur des forums avec d’autres passionnés – pas toujours les plus compétents –, jusqu’à se forger un fort sentiment d’expertise. Si la figure de Dédé amuse, elle inquiète davantage lorsqu’avec les réseaux sociaux, comme l’évoque Fabrice Éboué, les Dédés de différents villages se regroupent, diffusent leurs convictions, et finissent par devenir une voix influente.

Dans une version moins caricaturale, le Dédé 2.0 existe bel et bien : il s’exprime sur les forums, publie des avis tranchés, et se présente comme connaisseur. En effet, certains consommateurs s’estiment hautement compétents sur un type de produit ou une marque, convaincus d’avoir atteint un niveau de connaissance tel qu’ils n’auraient plus rien à apprendre – et qu’ils sont légitimes pour donner leur avis. Ils adoptent alors une posture dogmatique. Ne ressentant pas le besoin de mettre à jour leurs connaissances, ces consommateurs peuvent diffuser des informations erronées, décrédibiliser un produit, et semer le doute chez d’autres acheteurs potentiels.

Nous avons étudié cette forme acquise de dogmatisme et ses effets pour les marques. Quels sont les ressorts de ces discours ? Quelles sont les conditions qui les favorisent ? Pour cela, nous avons étudié plusieurs marchés où l’on trouve des passionnés, tels que le sport, le whisky ou encore les jeux vidéo.




À lire aussi :
Marketing sur les réseaux sociaux : à chaque produit son influenceur…


Une norme sociale qui légitime le ton dogmatique

Pour évaluer si le discours dogmatique est perçu comme acceptable, une étude pilote a été menée suivant le protocole suivant : des participants lisaient un commentaire tranché d’un internaute sur une plate-forme spécialisée en jeux vidéo. Selon les cas, l’auteur du commentaire était présenté comme expert ou novice.

Résultat : lorsque le commentaire venait d’un expert, il était perçu comme plus acceptable. Les propos affirmés, voire fermés, étaient moins questionnés. La perception d’expertise joue ici le rôle d’un amplificateur de dogmatisme. Autrement dit, l’expertise perçue confère un droit implicite à l’intransigeance.

Pour aller plus loin, quel profil de personnes adopte davantage ces postures fermées ? Quelles sont leurs motivations ? Le protocole suivi pour identifier les comportements consistait à demander aux participants de remémorer deux situations liées à une discipline sportive : l’une où ils se sentaient compétents, l’autre où ils se percevaient comme novices. Pour chaque situation, ils évaluaient leur propre ouverture d’esprit : leur capacité à envisager d’autres idées, à accepter la contradiction, etc.

Le résultat est que l’ouverture d’esprit diminue significativement dans la situation où le participant se sent expert. Il devient moins attentif, moins curieux, moins réceptif. Ce n’est pas la compétence réelle qui entraîne ce biais, mais le sentiment de compétence. Pour les entreprises, cela signifie que certains consommateurs peuvent devenir imperméables à l’innovation simplement parce qu’ils se croient déjà bien informés.

Gare au faux expert sûr de lui

La relation entre connaissance subjective (ce que l’individu pense savoir) et connaissance objective (évaluée par un quiz) a été ensuite mesurée. Pour cela, le marché du whisky a été retenu. La raison ? Il est relativement propice aux croyances bien ancrées, par exemple l’idée qu’un whisky plus vieux est forcément meilleur.

Résultats : plus la connaissance subjective est élevée, plus la personne se montre dogmatique. Mais surtout : plus la connaissance objective est faible, plus le phénomène s’amplifie. Le dogmatisme atteint son maximum chez ceux qui se croient experts, sans l’être vraiment. À l’inverse, quand les deux niveaux sont élevés, le dogmatisme recule. Cette figure du « faux expert sûr de lui » est particulièrement problématique pour les marques.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Gare au sentiment d’expertise

Dernière dimension évaluée par notre étude : les intentions de bouche à oreille, autrement dit, les intentions de partager un avis sur un sujet. Les participants devaient indiquer leur envie de partager un avis dans trois cas : un produit pour lequel ils se sentent experts, un autre pour lequel ils ne s’estiment pas compétents, et une catégorie neutre.

Résultat : plus les participants se sentent experts, plus ils souhaitent s’exprimer. Le sentiment d’expertise accroît l’intention de prise de parole. Et lorsqu’ils sont perçus comme experts, leurs propos ne sont que rarement remis en cause. Cela fausse la dynamique d’opinion collective. Les pseudo-experts les plus visibles dans les communautés ne sont pas toujours les mieux informés – ni les plus ouverts.

Ils peuvent entretenir des représentations erronées d’un produit, figer des standards ou nuire à l’acceptation d’innovations. À l’heure où les réseaux sociaux façonnent les perceptions et les comportements d’achat, cette prise de parole biaisée est un enjeu stratégique pour les entreprises.

Que peuvent faire les marques ?

Ces travaux invitent les entreprises à identifier les profils dogmatiques dans leurs communautés et à ajuster leurs stratégies de communication. Voici quelques pistes :

  • Proposer des ressources accessibles (FAQ, infographies, actualités sur le produit) pour favoriser une information fiable et actualisée ;

  • Développer des partenariats avec des influenceurs capables de remettre leurs connaissances à jour, d’engager le dialogue et d’intégrer la contradiction ;

  • Différencier deux grands types de consommateurs : ceux fermés d’esprit et ceux ouverts d’esprit.

Ludo Salenne 2020.

Les premiers doivent être ciblés par des messages simples, directs et validés par des figures perçues comme expertes, afin de renforcer leur sentiment de confiance. Il est également stratégique de les fidéliser via des programmes valorisant leur engagement passé, car ils changent rarement d’avis une fois convaincus.

Les consommateurs ouverts d’esprit sont davantage réceptifs aux contenus éducatifs et immersifs qui nourrissent leur curiosité et leur envie de comprendre, comme des comparatifs ou des formats narratifs. Pour renforcer leur engagement, il faut privilégier les interactions, les témoignages utilisateurs, et les expériences participatives ou communautaires.

Il ne faut pas se moquer de Dédé

L’étude révèle que l’expertise perçue, quand elle est surévaluée, peut devenir un piège : elle légitime un discours dogmatique, limite l’ouverture à l’innovation et favorise la diffusion d’informations biaisées. Les marques ne doivent pas se limiter à l’identification des consommateurs parlant le plus fort – encore faut-il comprendre comment ils se positionnent cognitivement.

Favoriser des communautés où la compétence rime avec l’humilité, où l’on sait et où l’on écoute, est sans doute l’un des défis communicationnels les plus importants des années à venir. Car si les Dédés numériques ne sont pas tous malintentionnés, ils peuvent parfois, à force de certitudes mal fondées, faire beaucoup de bruit… et tromper bien des consommateurs.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Faux experts, vrais influenceurs : un défi pour les marques – https://theconversation.com/faux-experts-vrais-influenceurs-un-defi-pour-les-marques-258653

Cape Town’s sewage treatment isn’t coping: scientists are worried about what the city is telling the public

Source: The Conversation – Africa – By Lesley Green, Professor of Earth Politics and Director: Environmental Humanities South, University of Cape Town

Urban water bodies – rivers, lakes and oceans – are in trouble globally. Large sewage volumes damage the open environment, and new chemicals and pharmaceutical compounds don’t break down on their own. When they are released into the open environment, they build up in living tissues all along the food chain, bringing with them multiple health risks.

The city of Cape Town, South Africa, is no exception. It has 300km of coastline along two bays and a peninsula, as well as multiple rivers and wetlands. The city discharges more than 40 megalitres of raw sewage directly into the Atlantic Ocean every day. In addition, large volumes of poorly treated sewage and runoff from shack settlements enter rivers and from there into both the Atlantic and the Indian Oceans.

Over almost a decade, our multi-disciplinary team, and others, have studied contamination risks in Cape Town’s oceans, rivers, aquifers and lakes. Our goal has been to bring evidence of contaminants to the attention of officials responsible for a clean environment.

Monitoring sewage levels in the city’s water bodies is essential because of the health risks posed by contaminated water to all citizens – farmers, surfers, and everybody eating fish and vegetables. Monitoring needs to be done scientifically and in a way that produces data that is trustworthy and not driven by vested interests. This is a challenge in cities where scientific findings are expected to support marketing of tourism or excellence of the political administration.

Our research findings have been published in multiple peer-reviewed journals. We have also communicated with the public through articles in the media, a website and a documentary.

Cape Town’s official municipal responses to independent studies and reports, however, have been hostile. Our work has been unjustifiably denounced by top city officials and politicians. We have been subject to attacks by fake social media avatars. Laboratory studies have even received a demand for an apology from the political party in charge of the city.

These extraordinary responses – and many others – reflect the extent to which independent scientific inquiry has been under attack.

We set about tracking the different kinds of denial and attacks on independent contaminant science in Cape Town over 11 years. Our recently published study describes 18 different types of science communication that have minimised or denied the problem of contamination. It builds on similar studies elsewhere.

Our findings show the extent to which contaminant science in Cape Town is at risk of producing not public knowledge but public ignorance, reflecting similar patterns internationally where science communication sometimes obfuscates more than it informs. To address this risk, we argue that institutionalised conflicts of interest should be removed. There should also be changes to how city-funded testing is done and when data is released to citizens. After all, it is citizens’ rates and taxes that have paid for that testing, and the South African constitution guarantees the right to information.

We also propose that the city’s political leaders take the courageous step of accepting that the current water treatment infrastructure is unworkable for a city of over 5 million people. Accepting this would open the door to an overhaul of the city’s approach to wastewater treatment.

The way forward

We divided our study of contaminant communication events into four sub-categories:

  • non-disclosure of data

  • misinformation that gives a partial or misleading account of a scientific finding

  • using city-funded science to bolster political authority

  • relying on point data collected fortnightly to prove “the truth” of bodies of water as if it never moves or changes, when in reality, water bodies move every second of every day.

We found evidence of multiple instances of miscommunication. On the basis of these, we make specific recommendations.

First: municipalities should address conflicts of interest that are built into their organisational structure. These arise when the people responsible for ensuring that water bodies are healthy are simultaneously contracting consultants to conduct research on water contaminants. This is particularly important because over the last two decades large consultancies have established themselves as providers of scientific certification. But they are profit-making ventures, which calls into question the independence of their findings.

Second: the issue of data release needs to be addressed. Two particular problems stand out:

  • Real-time information. Water quality results for beaches are usually released a week or more after samples have been taken. But because water moves all the time every day, people living in the city need real-time information. Best-practice water contamination measures use water current models to predict where contaminated water will be, given each day’s different winds and temperatures.

  • Poor and incomplete data. When ocean contaminant data is released as a 12-month rolling average, all the very high values are smoothed out. The end result is a figure that does not communicate the reality of risks under different conditions.

Third: Politicians should be accountable for their public statements on science. Independent and authoritative scientific bodies, such as the Academy of Science of South Africa, should be empowered to audit municipal science communications.

Fourth: Reputational harm to the science community must stop. Government officials claiming that they alone know a scientific truth and denouncing independent scientists with other data closes down the culture of scientific inquiry. And it silences others.

Fifth: The integrity of scientific findings needs to be protected. Many cities, including Cape Town, rely on corporate brand management and political reputation management. Nevertheless, cities, by their very nature, have to deal with sewage, wastes and runoff. Public science communication that is based on marketing strategies prioritises advancing a brand (whether of a political party or a tourist destination). The risk is that city-funded science is turned into advertising and is presented as unquestionable.

Finally, Cape Town needs political leaders who are courageous enough to confront two evident realities. Current science communications in the city are not serving the public well, and wastewater treatment systems that use rivers and oceans as open sewers are a solution designed a century ago. Both urgently need to be reconfigured.

Next steps

As a team of independent contaminant researchers we have worked alongside communities where health, ecology, livestock and recreation have been profoundly harmed by ongoing contamination. We have documented these effects, only to hear the evidence denied by officials.

We recognise and value the beginnings of some new steps to data transparency in Cape Town’s mayoral office, like rescinding the 2021 by-law that banned independent scientific testing of open water bodies, almost all of which are classified as nature reserves.

We would welcome a dialogue on building strong and credible public science communications.

This study is dedicated to the memory of Mpharu Hloyi, head of Scientific Services in the City of Cape Town, in acknowledgement of her dedication to the health of urban bodies of water. Her untimely passing was a loss for all.

This article also drew on Masters theses written by Melissa Zackon and Amy Beukes.

The Conversation

Lesley Green has received funding from the Science for Africa Foundation; the Seed Box MISTRA Formas Environmental Humanities Collaboratory; and the Science For Africa Foundation’s DELTAS Africa II program (Del:22-010).

Cecilia Yejide Ojemaye receives funding from the University of Cape Town Carnegie DEAL Sustainable Development Goals Research Fellowship and the National Research Foundation for the SanOcean grant from the South Africa‐Norway Cooperation on Ocean Research (UID 118754).

Leslie Petrik received funding from National Research Foundation for the SanOcean grant from the South Africa‐Norway Cooperation on Ocean Research (UID 118754) for this study.

Nikiwe Solomon received funding at different stages for PhD research from the Water Research Commission (WRC) and National Institute for Humanities and Social Sciences (NIHSS), in collaboration with the South African Humanities Deans Association (SAHUDA). Opinions expressed and conclusions arrived at are those of the author and are not necessarily to be attributed to the WRC, NIHSS and SAHUDA.

Jo Barnes and Vanessa Farr do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Cape Town’s sewage treatment isn’t coping: scientists are worried about what the city is telling the public – https://theconversation.com/cape-towns-sewage-treatment-isnt-coping-scientists-are-worried-about-what-the-city-is-telling-the-public-260317

We don’t need deep-sea mining, or its environmental harms. Here’s why

Source: The Conversation – Global Perspectives – By Justin Alger, Associate Professor / Senior Lecturer in Global Environmental Politics, The University of Melbourne

Potato-sized polymetallic nodules from the deep sea could be mined for valuable metals and minerals. Carolyn Cole / Los Angeles Times via Getty Images

Deep-sea mining promises critical minerals for the energy transition without the problems of mining on land. It also promises to bring wealth to developing nations. But the evidence suggests these promises are false, and mining would harm the environment.

The practice involves scooping up rock-like nodules from vast areas of the sea floor. These potato-sized lumps contain metals and minerals such as zinc, manganese, molybdenum, nickel and rare earth elements.

Technology to mine the deep sea exists, but commercial mining of the deep sea is not happening anywhere in the world. That could soon change. Nations are meeting this month in Kingston, Jamaica, to agree to a mining code. Such a code would make way for mining to begin within the next few years.

On Thursday, Australia’s national science agency, CSIRO, released research into the environmental impacts of deep-sea mining. It aims to promote better environmental management of deep-sea mining, should it proceed.

We have previously challenged the rationale for deep-sea mining, drawing on our expertise in international politics and environmental management. We argue mining the deep sea is harmful and the economic benefits have been overstated. What’s more, the metals and minerals to be mined are not scarce.

The best course of action is a ban on international seabed mining, building on the coalition for a moratorium.

The Metals Company spent six months at sea collecting nodules in 2022, while studying the effects on ecosystems.

Managing and monitoring environmental harm

Recent advances in technology have made deep-sea mining more feasible. But removing the nodules – which also requires pumping water around – has been shown to damage the seabed and endanger marine life.

CSIRO has developed the first environmental management and monitoring frameworks to protect deep sea ecosystems from mining. It aims to provide “trusted, science-based tools to evaluate the environmental risks and viability of deep-sea mining”.

Scientists from Griffith University, Museums Victoria, the University of the Sunshine Coast, and Earth Sciences New Zealand were also involved in the work.

The Metals Company Australia, a local subsidiary of the Canadian deep-sea mining exploration company, commissioned the research. It involved analysing data from test mining the company carried out in the Pacific Ocean in 2022.

The company has led efforts to expedite deep-sea mining. This includes pushing for the mining code, and exploring commercial mining of the international seabed through approval from the US government.

In a media briefing this week, CSIRO Senior Principal Research Scientist Piers Dunstan said the mining activity substantially affected the sea floor. Some marine life, especially that attached to the nodules, had very little hope of recovery. He said if mining were to go ahead, monitoring would be crucial.

We are sceptical that ecological impacts can be managed even with this new framework. Little is known about life in these deep-water ecosystems. But research shows nodule mining would cause extensive habitat loss and damage.

Do we really need to open the ocean frontier to mining? We argue the answer is no, on three counts.

How does deep-sea mining work? (The Guardian)

1. Minerals are not scarce

The minerals required for the energy transition are abundant on land. Known global terrestrial reserves of cobalt, copper, manganese, molybdenum and nickel are enough to meet current production levels for decades – even with growing demand.

There is no compelling reason to extract deep-sea minerals, given the economics of both deep-sea and land-based mining. Deep-sea mining is speculative and inevitably too expensive given such remote, deep operations.

Claims about mineral scarcity are being used to justify attempting to legitimise a new extractive frontier in the deep sea. Opportunistic investors can make money through speculation and attracting government subsidies.

2. Mining at sea will not replace mining on land

Proponents claim deep-sea mining can replace some mining on land. Mining on land has led to social issues including infringing on indigenous and community rights. It also damages the environment.

But deep-sea mining will not necessarily displace, replace or change mining on land. Land-based mining contracts span decades and the companies involved will not abandon ongoing or planned projects. Their activities will continue, even if deep-sea mining begins.

Deep-sea mining also faces many of the same challenges as mining on land, while introducing new problems. The social problems that arise during transport, processing and distribution remain the same.

And sea-based industries are already rife with modern slavery and labour violations, partly because they are notoriously difficult to monitor.

Deep-sea mining does not solve social problems with land-based mining, and adds more challenges.

The sun sets on the mining vessel Hidden Gem in Rotterdam, South Holland, Netherlands, 2022.
Hidden Gem was the world’s first deep-sea mineral production vessel with seabed-to-surface nodule collection and transport systems.
Photo by Charles M. Vella/SOPA Images/LightRocket via Getty Images

3. Common heritage of humankind and the Global South

Under the United Nations Convention on the Law of the Sea, the international seabed is the common heritage of humankind. This means the proceeds of deep-sea mining should be distributed fairly among all countries.

Deep-sea mining commercial partnerships between developing countries in the Global South and firms from the North have yet to pay off for the former. There is little indication this pattern will change.

For example, when Canadian company Nautilus went bankrupt in 2019, it saddled Papua New Guinea with millions in debt from a failed domestic deep-sea mining venture.

The Metals Company has partnerships with Nauru and Tonga but the latest deal with the US creates uncertainty about whether their agreements will be honoured.

European investors took control of Blue Minerals Jamaica, originally a Jamaican-owned company, shortly after orchestrating its start up. Any profits would therefore go offshore.

A man holding a nodule from the deep sea stands on the dock with a ship labelled The Metals Company behind him.
Australian Gerard Barron is Chairman and CEO of The Metals Company, formerly DeepGreen.
Carolyn Cole / Los Angeles Times via Getty Images

A wise investment?

It is unclear whether deep-sea mining will ever be a good investment.

Multiple large corporate investors have pulled out of the industry, or gone bankrupt. And The Metals Company has received delisting notices from the Nasdaq stock exchange due to poor financial performance.

Given the threat of environmental harm, the evidence suggests deep-sea mining is not worth the risk.

The Conversation

Justin Alger receives funding from the Social Sciences and Humanities Research Council of Canada.

D.G. Webster receives funding from the National Science Foundation in the United States and various internal funding sources at Dartmouth University.

Jessica Green receives funding from the Social Sciences and Humanities Research Council of Canada.

Kate J Neville receives funding from the Social Sciences and Humanities Research Council of Canada.

Stacy D VanDeveer and Susan M Park do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. We don’t need deep-sea mining, or its environmental harms. Here’s why – https://theconversation.com/we-dont-need-deep-sea-mining-or-its-environmental-harms-heres-why-260401

Ageing bridges around the world are at risk of collapse. But there’s a simple way to safeguard them

Source: The Conversation – Global Perspectives – By Andy Nguyen, Senior Lecturer in Structural Engineering, University of Southern Queensland

The Story Bridge, with its sweeping steel trusses and art deco towers, is a striking sight above the Brisbane River in Queensland. In 2025, it was named the state’s best landmark. But more than an icon, it serves as one of the vital arteries of the state capital, carrying more than 100,000 vehicles daily.

But a recent report revealed serious structural issues in the 85-year-old bridge. These included the deterioration of concrete, corrosion and overloading on pedestrian footpaths.

The findings prompted an urgent closure of the footpath for safety reasons. They also highlighted the urgency of Brisbane City Council’s planned bridge restoration project.

But this example – and far more tragic ones from around the world in recent years – have also sparked a broader conversation about the safety of ageing bridges and other urban infrastructure. A simple, proactive step known as structural health monitoring can help.

A number of collapses

In January 2022, the Fern Hollow Bridge in Pittsburgh, Pennsylvania, in the United States collapsed and injured several people. This collapse was caused by extensive corrosion and the fracturing of a vital steel component. It stemmed from poor maintenance and failure to act on repeated inspection recommendations. These problems were compounded by inadequate inspections and oversight.

Three years earlier, Taiwan’s Nanfang’ao Bridge collapsed. Exposure to damp, salty sea air had severely weakened its suspension cables. Six people beneath the bridge died.

In August 2018, Italy’s Morandi Bridge fell, killing 43 people. The collapse was due to corrosion in pre-stressed concrete and steel tendons. These factors were worsened by inspection and maintenance challenges.

In August 2007, a bridge in the US city of Minneapolis collapsed, killing 13 people and injuring 145. This collapse was primarily due to previously unnoticed problems with the design of the bridge. But it also demonstrated how ageing infrastructure, coupled with increasing loads and ineffective routine visual inspections, can exacerbate inherent weaknesses.

A technology-driven solution

Structural health monitoring is a technology-driven approach to assessing the condition of infrastructure. It can provide near real-time information and enable timely decision-making. This is crucial when it comes to managing ageing structures.

The approach doesn’t rely solely on occasional periodic inspections. Instead it uses sensors, data loggers and analytics platforms to continuously monitor stress, vibration, displacement, temperature and corrosion on critical components.

This approach can significantly improve our understanding of bridge performance compared to traditional assessment models. In one case, it updated a bridge’s estimated fatigue life – the remaining life of the structure before fatigue-induced failure is predicted to occur– from just five years to more than 52 years. This ultimately avoided unnecessary and costly restoration.

Good structural health-monitoring systems can last several decades. They can be integrated with artificial intelligence techniques and bridge information modelling to develop digital twin-based monitoring platforms.

The cost of structural health monitoring systems varies by bridge size and the extent of monitoring required. Some simple systems can cost just a few thousand dollars, while more advanced ones can cost more than A$300,000.

These systems require ongoing operational support – typically 10% to 20% of the installation cost annually – for data management, system maintenance, and informed decision-making.

Additionally, while advanced systems can be costly, scalable structural health monitoring solutions allow authorities to start small and expand over time.

A model for proactive management

The design of structural health monitoring systems has been incorporated into new large-scale bridge designs, such as Sutong Bridge in China and Governor Mario M. Cuomo Bridge in the US.

But perhaps the most compelling example of these systems in action is the Jacques Cartier Bridge in Montreal, Canada.

Opened in 1930, it shares design similarities with Brisbane’s Story Bridge. And, like many ageing structures, it faces its own challenges.

A steel bridge seen at sunset.
Opened in 1930, the Jacques Cartier Bridge in Montreal, Canada, shares design similarities with Brisbane’s Story Bridge.
Pinkcandy/Shutterstock

However, authorities managing the Jacques Cartier Bridge have embraced a proactive approach through comprehensive structural health monitoring systems. The bridge has been outfitted with more than 300 sensors.

Acoustic emission monitoring enables early detection of micro-cracking activity, while long-term instrumentation tracks structural deformation and dynamic behaviour across key spans.

Satellite-based radar imagery adds a remote, non-intrusive layer of deformation monitoring, and advanced data analysis ensures that the vast amounts of sensor data are translated into timely, actionable insights.

Together, these technologies demonstrate how a well-integrated structural-health monitoring system can support proactive maintenance, extend the life of ageing infrastructure – and ultimately improve public safety.

A way forward for Brisbane – and beyond

The Story Bridge’s current challenges are serious, but they also present an opportunity.

By investing in the right structural health monitoring system, Brisbane can lead the way in modern infrastructure management – protecting lives, restoring public confidence, preserving heritage and setting a precedent for cities around the world.

As climate change, urban growth, and ageing assets put increasing pressure on our transport networks, smart monitoring is no longer a luxury – it’s a necessity.

The Conversation

Andy Nguyen receives funding from the Queensland government, through the Advance Queensland fellowship. He is on the executive committee of Australian Network of Structural Health Monitoring.

ref. Ageing bridges around the world are at risk of collapse. But there’s a simple way to safeguard them – https://theconversation.com/ageing-bridges-around-the-world-are-at-risk-of-collapse-but-theres-a-simple-way-to-safeguard-them-260005

Astronomers have spied an interstellar object zooming through the Solar System

Source: The Conversation – Global Perspectives – By Kirsten Banks, Lecturer, School of Science, Computing and Engineering Technologies, Swinburne University of Technology

K Ly / Deep Random Survey

This week, astronomers spotted the third known interstellar visitor to our Solar System.

First detected by the Asteroid Terrestrial-impact Last Alert System (ATLAS) on July 1, the cosmic interloper was given the temporary name A11pl3Z. Experts at NASA’s Center for Near Earth Object Studies and the International Astronomical Union (IAU) have confirmed the find, and the object now has an official designation: 3I/ATLAS.

A diagram of the Solar System out to Jupiter detailing the path of interstellar object 3I/ATLAS.
The orbital path of 3I/ATLAS through the Solar System.
NASA/JPL-Caltech, CC BY-NC

There are a few strong clues that suggest 3I/ATLAS came from outside the Solar System.

First, it’s moving really fast. Current observations show it speeding through space at around 245,000km per hour. That’s more than enough to escape the Sun’s gravity.

An object near Earth’s orbit would only need to be travelling at just over 150,000km/h to break free from the Solar System.

Second, 3I/ATLAS has a wildly eccentric orbit around the Sun. Eccentricity measures how “stretched” an orbit is: 0 eccentricity is a perfect circle, and anything up to 1 is an increasingly strung-out ellipse. Above 1 is an orbit that is not bound to the Sun.

3I/ATLAS has an estimated eccentricity of 6.3, by far the highest ever recorded for any object in the Solar System.

Has anything like this happened before?

An artist's impression of the first confirmed interstellar object, 1I/'Oumuamua.
An artist’s impression of the first confirmed interstellar object, 1I/‘Oumuamua.
ESO/M. Kornmesser, CC BY

The first interstellar object spotted in our Solar System was the cigar-shaped ‘Oumuamua, discovered in 2017 by the Pan-STARRS1 telescope in Hawaii. Scientists tracked it for 80 days before eventually confirming it came from interstellar space.

The interstellar comet 2I/Borisov, imaged by the Hubble Space Telescope.
The interstellar comet 2I/Borisov, imaged by the Hubble Space Telescope.
NASA, ESA, and D. Jewitt (UCLA), CC BY-NC

The second interstellar visitor, comet 2I/Borisov, was discovered two years later by amateur astronomer Gennadiy Borisov. This time it only took astronomers a few weeks to confirm it came from outside the Solar System.

This time, the interstellar origin of 3I/ATLAS has been confirmed in a matter of days.

How did it get here?

We have only ever seen three interstellar visitors (including 3I/ATLAS), so it’s hard to know exactly how they made their way here.

However, recent research published in The Planetary Science Journal suggests these objects might be more common than we once thought. In particular, they may come from relatively nearby star systems such as Alpha Centauri (our nearest interstellar neighbour, a mere 4.4 light years away).

Two bright stars of the Alpha Centauri triple star system.
Alpha Centauri A and Alpha Centauri B, from the triple star system Alpha Centauri.
ESA/Hubble & NASA, CC BY

Alpha Centauri is slowly moving closer to us, with its closest approach expected in about 28,000 years. If it flings out material in the same way our Solar System does, scientists estimate around a million objects from Alpha Centauri larger than 100 metres in diameter could already be in the outer reaches of our Solar System. That number could increase tenfold as Alpha Centauri gets closer.

Most of this material would have been ejected at relatively low speeds, less than 2km/s, making it more likely to drift into our cosmic neighbourhood over time and not dramatically zoom in and out of the Solar System like 3I/ATLAS appears to be doing. While the chance of one of these objects coming close to the Sun is extremely small, the study suggests a few tiny meteors from Alpha Centauri, likely no bigger than grains of sand, may already hit Earth’s atmosphere every year.

Why is this interesting?

Discovering new interstellar visitors like 3I/ATLAS is thrilling, not just because they’re rare, but because each one offers a unique glimpse into the wider galaxy. Every confirmed interstellar object expands our catalogue and helps scientists better understand the nature of these visitors, how they travel through space, and where they might have come from.

A swarm of new asteroids discovered by the NSF–DOE Vera C. Rubin Observatory.

Thanks to powerful new observatories such as the NSF–DOE Vera C. Rubin Observatory, our ability to detect these elusive objects is rapidly improving. In fact, during its first 10 hours of test imaging, Rubin revealed 2,104 previously unknown asteroids.

This is an astonishing preview of what’s to come. With its wide field of view and constant sky coverage, Rubin is expected to revolutionise our search for interstellar objects, potentially turning rare discoveries into routine ones.

What now?

There’s still plenty left to uncover about 3I/ATLAS. Right now, it’s officially classified as a comet by the IAU Minor Planet Center.

But some scientists argue it might actually be an asteroid, roughly 20km across, based on the lack of typical comet-like features such as a glowing coma or a tail. More observations will be needed to confirm its nature.

Currently, 3I/ATLAS is inbound, just inside Jupiter’s orbit. It’s expected to reach its closest point to the Sun, slightly closer than the planet Mars, on October 29. After that, it will swing back out towards deep space, making its closest approach to Earth in December. (It will pose no threat to our planet.)

Whether it’s a comet or an asteroid, 3I/ATLAS is a messenger from another star system. For now, these sightings are rare – though as next-generation observatories such as Rubin swing into operation, we may discover interstellar companions all around.

The Conversation

Kirsten Banks does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Astronomers have spied an interstellar object zooming through the Solar System – https://theconversation.com/astronomers-have-spied-an-interstellar-object-zooming-through-the-solar-system-260422

Rural hospitals will be hit hard by Trump’s signature spending package

Source: The Conversation – USA (3) – By Lauren S. Hughes, State Policy Director, Farley Health Policy Center; Associate Professor of Family Medicine, University of Colorado Anschutz Medical Campus

Health policy experts predict that cuts to Medicaid will push more rural hospitals to close. sneakpeekpic via iStock / Getty Images Plus

The public health provisions in the massive spending package that President Donald Trump signed into law on July 4, 2025, will reduce Medicaid spending by more than US$1 trillion over a decade and result in an estimated 11.8 million people losing health insurance coverage.

As researchers studying rural health and health policy, we anticipate that these reductions in Medicaid spending, along with changes to the Affordable Care Act, will disproportionately affect the 66 million people living in rural America – nearly 1 in 5 Americans.

People who live in rural areas are more likely to have health insurance through Medicaid and are at greater risk of losing that coverage. We expect that the changes brought about by this new law will lead to a rise in unpaid care that hospitals will have to provide. As a result, small, local hospitals will have to make tough decisions that include changing or eliminating services, laying off staff and delaying the purchase of new equipment. Many rural hospitals will have to reduce their services or possibly close their doors altogether.

Hits to rural health

The budget legislation’s biggest effect on rural America comes from changes to the Medicaid program, which represent the largest federal rollback of health insurance coverage in the U.S. to date.

First, the legislation changes how states can finance their share of the Medicaid program by restricting where funds states use to support their Medicaid programs can come from. This bill limits how states can tax and charge fees to hospitals, managed care organizations and other health care providers, and how they can use such taxes and fees in the future to pay higher rates to providers under Medicaid. These limitations will reduce payments to rural hospitals that depend upon Medicaid to keep their doors open.

Rural hospitals play a crucial role in health care access.

Second, by 2027, states must institute work requirements that demand most Medicaid enrollees work 80 hours per month or be in school at least half time. Arkansas’ brief experiment with work requirements in 2018 demonstrates that rather than boost employment, the policy increases bureaucracy, hindering access to health care benefits for eligible people. States will also now be required to verify Medicaid eligibility every six months versus annually. That change also increases the risk people will lose coverage due to extra red tape.

The Congressional Budget Office estimates that work requirements instituted through this legislative package will result in nearly 5 million people losing Medicaid coverage. This will decrease the number of paying patients at rural hospitals and increase the unpaid care hospitals must provide, further damaging their ability to stay open.

Additionally, the bill changes how people qualify for the premium tax credits within the Affordable Care Act Marketplace. The Congressional Budget Office estimates that this change, along with other changes to the ACA such as fewer and shorter enrollment periods and additional requirements for documenting income, will reduce the number of people insured through the ACA Marketplace by about 3 million by 2034. Premium tax credits were expanded during the COVID-19 pandemic, helping millions of Americans obtain coverage who previously struggled to do so. This bill lets these expanded tax credits expire, which with may result in an additional 4.2 million people becoming uninsured.

An insufficient stop-gap

Senators from both sides of the aisle have voiced concerns about the legislative package’s potential effects on the financial stability of rural hospitals and frontier hospitals, which are facilities located in remote areas with fewer than six people per square mile. As a result, the Senate voted to set aside $50 billion over the next five years for a newly created Rural Health Transformation Program.

These funds are to be allocated in two ways. Half will be directly distributed equally to states that submit an application that includes a rural health transformation plan detailing how rural hospitals will improve the delivery and quality of health care. The remainder will be distributed to states in varying amounts through a process that is currently unknown.

While additional funding to support rural health facilities is welcome, how it is distributed and how much is available will be critical. Estimates suggest that rural areas will see a reduction of $155 billion in federal spending over 10 years, with much of that concentrated in 12 states that expanded Medicaid under the Affordable Care Act and have large proportions of rural residents.

That means $50 billion is not enough to offset cuts to Medicaid and other programs that will reduce funds flowing to rural health facilities.

An older bearded white man in a yellow shirt sits on a hospital bed in an exam room
Americans living in rural areas are more likely to be insured through Medicaid than their urban counterparts.
Halfpoint Images/Moment via Getty Images

Accelerating hospital closures

Rural and frontier hospitals have long faced hardship because of their aging infrastructure, older and sicker patient populations, geographic isolation and greater financial and regulatory burdens. Since 2010, 153 rural hospitals have closed their doors permanently or ceased providing inpatient services. This trend is particularly acute in states that have chosen not to expand Medicaid via the Affordable Care Act, many of which have larger percentages of their residents living in rural areas.

According to an analysis by University of North Carolina researchers, as of June 2025 338 hospitals are at risk of reducing vital services, such as skilled nursing facilities; converting to an alternative type of health care facility, such as a rural emergency hospital; or closing altogether.

Maternity care is especially at risk.

Currently more than half of rural hospitals no longer deliver babies. Rural facilities serve fewer patients than those in more densely populated areas. They also have high fixed costs, and because they serve a high percentage of Medicaid patients, they rely on payments from Medicaid, which tends to pay lower rates than commercial insurance. Because of these pressures, these units will continue to close, forcing women to travel farther to give birth, to deliver before going full term and to deliver outside of traditional hospital settings.

And because hospitals in rural areas serve relatively small populations, they lack negotiating power to obtain fair and adequate payment from private health insurers and affordable equipment and supplies from medical companies. Recruiting and retaining needed physicians and other health care workers is expensive, and acquiring capital to renovate, expand or build new facilities is increasingly out of reach.

Finally, given that rural residents are more likely to have Medicaid than their urban counterparts, the legislation’s cuts to Medicaid will disproportionately reduce the rate at which rural providers and health facilities are paid by Medicaid for services they offer. With many rural hospitals already teetering on closure, this will place already financially fragile hospitals on an accelerated path toward demise.

Far-reaching effects

Rural hospitals are not just sources of local health care. They are also vital economic engines.

Hospital closures result in the loss of local access to health care, causing residents to choose between traveling longer distances to see a doctor or forgoing the services they need.

But hospitals in these regions are also major employers that often pay some of the highest wages in their communities. Their closure can drive a decline in the local tax base, limiting funding available for services such as roads and public schools and making it more difficult to attract and retain businesses that small towns depend on. Declines in rural health care undermine local economies.

Furthermore, the country as a whole relies on rural America for the production of food, fuel and other natural resources. In our view, further weakening rural hospitals may affect not just local economies but the health of the whole U.S. economy.

The Conversation

Lauren S. Hughes has received funding for rural health projects from the Sunflower Foundation, The Colorado Health Foundation, the University of Colorado School of Medicine Rural Program Office, the Caring for Colorado Foundation, and the Zoma Foundation. She currently serves as chair of the Rural Health Redesign Center Organization Board of Directors and is a member of the Rural Primary Care Advisory Council with the Weitzman Institute.

Kevin J. Bennett receives funding from the National Institutes of Health, the Centers for Disease Control & Prevention, the Health Resources and Services Administration and the state of South Carolina. He is currently on the Board of Trustees of the National Rural Health Association as immediate past president.

ref. Rural hospitals will be hit hard by Trump’s signature spending package – https://theconversation.com/rural-hospitals-will-be-hit-hard-by-trumps-signature-spending-package-260164

The oldest rocks on Earth are more than four billion years old

Source: The Conversation – Canada – By Hanika Rizo, Associate Professor, Department of Earth Sciences, Carleton University

Earth formed about 4.6 billion years ago, during the geological eon known as the Hadean. The name “Hadean” comes from the Greek god of the underworld, reflecting the extreme heat that likely characterized the planet at the time.

By 4.35 billion years ago, the Earth might have cooled down enough for the first crust to form and life to emerge.

However, very little is known about this early chapter in Earth’s history, as rocks and minerals from that time are extremely rare. This lack of preserved geological records makes it difficult to reconstruct what the Earth looked like during the Hadean Eon, leaving many questions about its earliest evolution unanswered.

We are part of a research team that has confirmed the oldest known rocks on Earth are located in northern Québec. Dating back more than four billion years, these rocks provide a rare and invaluable glimpse into the origins of our planet.

two men stand on rocks examining pieces in their hands
Geologists Jonathan O’Neil and Chris Sole examine rocks in northern Québec.
(H. Rizo), CC BY

Remains from the Hadean Eon

The Hadean Eon is the first period in the geological timescale, spanning from Earth’s formation 4.6 billion years ago and ending around 4.03 billion years ago.

The oldest terrestrial materials ever dated by scientists are extremely rare zircon minerals that were discovered in western Australia. These zircons were formed as early as 4.4 billion years ago, and while their host rock eroded away, the durability of zircons allowed them to be preserved for a long time.

Studies of these zircon minerals has given us clues about the Hadean environment, and the formation and evolution of Earth’s oldest crust. The zircons’ chemistry suggests that they formed in magmas produced by the melting of sediments deposited at the bottom of an ancient ocean. This suggests that the zircons are evidence that the Hadean Eon cooled rapidly, and liquid water oceans were formed early on.

Other research on the Hadean zircons suggests that the Earth’s earliest crust was mafic (rich in magnesium and iron). Until recently, however, the existence of that crust remained to be confirmed.

In 2008, a study led by one of us — associate professor Jonathan O’Neil (then a McGill University doctoral student) — proposed that rocks of this ancient crust had been preserved in northern Québec and were the only known vestige of the Hadean.

Since then, the age of those rocks — found in the Nuvvuagittuq Greenstone Belt — has been controversial and the subject of ongoing scientific debate.

a flat, rocky landscape
The Nuvvuagittuq Greenstone Belt in northern Québec.
(H. Rizo), CC BY

‘Big, old solid rock’

The Nuvvuagittuq Greenstone Belt is located in the northernmost region of Québec, in the Nunavik region above the 55th parallel. Most of the rocks there are metamorphosed volcanic rocks, rich in magnesium and iron. The most common rocks in the belt are called the Ujaraaluk rocks, meaning “big old solid rock” in Inuktitut.

The age of 4.3 billion years was proposed after variations in neodymium-142 were detected, an isotope produced exclusively during the Hadean through the radioactive decay of samarium-146. The relationship between samarium and neodymium isotope abundances had been previously used to date meteorites and lunar rocks, but before 2008 had never been applied to Earth rocks.

This interpretation, however, was challenged by several research groups, some of whom studied zircons within the belt and proposed a younger age of at most 3.78 billion years, placing the rocks in the Archean Eon instead.

Confirming the Hadean Age

In the summer of 2017, we returned to the Nuvvuagittuq belt to take a closer look at the ancient rocks. This time, we collected intrusive rocks — called metagabbros — that cut across the Ujaraaluk rock formation, hoping to obtain independent age constraints. The fact that these newly studied metagabbros are in intrusion in the Ujaraaluk rocks implies that the latter must be older.

The project was led by masters student Chris Sole at the University of Ottawa, who joined us in the field. Back in the laboratory, we collaborated with French geochronologist Jean-Louis Paquette. Additionally, two undergraduate students — David Benn (University of Ottawa) and Joeli Plakholm (Carleton University) participated to the project.

We combined our field observations with petrology, geochemistry, geochronology and applied two independent samarium-neodymium age dating methods, dating techniques used to assess the absolute ages of magmatic rocks, before they became metamorphic rocks. Both assessments yielded the same result: the intrusive rocks are 4.16 billion years old.

a rocky landscape silhouetted by sunset
Sunset at the Nuvvuagittuq Greenstone Belt.
(H. Rizo), CC BY

The oldest rocks

Since these metagabbros cut across the Ujaraaluk formation, the Ujaraaluk rocks must be even older, placing them firmly in the Hadean Eon.

Studying the Nuvvuagittuq rocks, the only preserved rocks from the Hadean, provides a unique opportunity to learn about the earliest history of our planet. They can help us understand how the first continents formed, and how and when Earth’s environment evolved to become habitable.

The Conversation

Hanika Rizo receives funding from the Natural Sciences and Engineering Research Council of Canada (NSERC).

Jonathan O’Neil receives funding from the Natural Sciences and Engineering Research Council of Canada.

ref. The oldest rocks on Earth are more than four billion years old – https://theconversation.com/the-oldest-rocks-on-earth-are-more-than-four-billion-years-old-259657