Des primes d’assurance personnalisées moins chères grâce à l’IA ? Voici pourquoi il s’agit d’une pente glissante

Source: The Conversation – in French – By Arthur Charpentier, Professeur, Université de Rennes 1 – Université de Rennes

L’assurance repose sur un principe de solidarité que mettent à mal les algorithmes chargés de constituer nos profils. À mesure en effet que les algorithmes se précisent, la facture se personnalise. Divers profils « à risque » peuvent ainsi se retrouver exclus des régimes d’assurance, tant les coûts sont élevés. La personnalisation a une légitimité évidente. On doit toutefois lui concilier un accès équitable à l’assurance.

Il faut d’abord savoir que l’assurance est traversée par un paradoxe fondamental. D’un côté, ses principes mêmes supposent un mécanisme collectif où chacun contribue selon sa capacité, et tire profit de la solidarité en cas de sinistre. De l’autre, les avancées technologiques, les données de plus en plus massives et les méthodes actuarielles de plus en plus précises poussent à individualiser toujours davantage les tarifs.

À cette tension s’ajoute un cadre légal de plus en plus exigeant, qui interdit toute forme de discrimination fondée sur des données sensibles, parfois corrélées à des facteurs de risque pourtant pertinents.

Professeur de mathématiques à l’Université du Québec à Montréal (UQAM), je suis co-auteur du Manuel d’Assurance et auteur récent de l’ouvrage Insurance, Biases, Discrimination and Fairness. Cet article revient sur la difficulté de concilier la mutualisation solidaire, qui fonde l’assurance, avec l’hypersegmentation tarifaire rendue possible par les mégadonnées, sans exclure ni discriminer les assurés.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


La segmentation tarifaire

Les compagnies d’assurance utilisent depuis longtemps la classification comme pilier de leur modèle économique : âge, sexe, profession, zone géographique, historique de sinistralité…

En 1662, le statisticien anglais John Graunt publie les Bills of Mortality, une première analyse statistique des registres de décès de Londres. En 1693, l’astronome anglais Edmund Halley élabore la première table de mortalité chiffrée, qui permet de calculer l’espérance de vie à chaque âge. Ces travaux posent les bases d’une tarification différenciée selon l’âge et le sexe, longtemps restés les deux grands critères de segmentation en vie-décès.

À la même époque, après le Grand Incendie de Londres en 1666, les premiers contrats d’assurance incendie apparaissent : les compagnies collectent des données sur la nature des matériaux de construction et la densité urbaine. Aux XVIIIe–XIXe siècles, on segmente les tarifs selon la proximité des bâtiments voisins et la présence de services de lutte contre l’incendie, donnant naissance aux premières « zones à haut risque » et « zones à faible risque ».

Avec l’essor de l’automobile dans les années 1910–1920, les assureurs américains commencent à relever systématiquement le nombre de sinistres, l’âge et le sexe des conducteurs. Dès les années 1920, on distingue plusieurs « classes » tarifaires : jeunes conducteurs, conductrices, conducteurs expérimentés, permettant de fixer des primes variables en fonction du profil.

Aujourd’hui, les actuaires disposent d’algorithmes sophistiqués, d’outils de machine learning et d’une avalanche de données : télématique embarquée, objets connectés, géolocalisation, comportement de conduite ou de vie… Pour l’assureur, affiner la segmentation lui permet de facturer chaque assuré « à son vrai niveau de risque », en réduisant les effets de subvention croisée des bons risques vers les mauvais, tout en améliorant la rentabilité globale.

Mais une tarification trop fine réduit la mutualisation ; elle peut rendre l’assurance très coûteuse, voire inaccessible pour certains segments à haut risque. Aussi, aujourd’hui, l’actuaire cherche un équilibre subtil, visant à capter les bonnes informations pour différencier les profils, tout en préservant la viabilité de la communauté assurée.

Les assurés et l’illusion de la personnalisation gagnante

En Europe, la proposition législative FIDA (Financial Data Access Framework) ouvrirait aux assureurs un accès encadré aux données financières des particuliers. Son but est d’affiner la connaissance des comportements de dépense et de remboursement. Dans ce contexte, la promesse d’une tarification ultra-personnalisée suscite autant d’espoirs de baisse de primes que de craintes de profilage excessif, et d’exclusions importantes.

Face à ce nouvel afflux de données, de nombreux clients perçoivent la personnalisation comme une approche gagnant‑gagnant : si je gère mieux mon budget, je bénéficierai d’une ristourne ; si mes habitudes d’épargne et de remboursement sont jugées vertueuses, ma prime santé diminuera ; si mon profil financier se bonifie, mon assurance habitation se fera plus légère.

Cette logique de « pay‑as‑you‑live » ou « pay‑how‑you‑drive » séduit : l’individu se pense maître de son coût d’assurance par ses choix de vie.

Pourtant, plusieurs points méritent d’être soulignés.

  • Le principe de mutualisation n’est pas neutralisé : ceux qui ne peuvent pas adopter les comportements les plus vertueux restent dépendants de la solidarité des autres. En effet, même si les personnes les plus à risque paient davantage à titre individuel, celles qui sont moins à risque continuent néanmoins de supporter une part des coûts grâce au principe de mutualisation.

  • L’asymétrie d’information se renforce, l’assureur connaissant mieux les statistiques que le client. L’offre de personnalisation s’appuie en effet souvent sur des corrélations, parfois ténues, dont le client ignore la portée.

  • Une personnalisation très fine peut contraindre les plus à risque à se surassurer, ou au contraire à renoncer à s’assurer, fragilisant la mutualité.

Ainsi, même renforcée par l’accès aux données financières, la « personnalisation » n’est pas nécessairement synonyme d’ « empowerment » pour le consommateur.

Le cadre légal : quand la lutte contre la discrimination s’impose

Le développement des données massives en assurance soulève d’importantes questions éthiques et juridiques : jusqu’où peut‑on exploiter des variables sensibles pour prédire le risque ?




À lire aussi :
IA et crédit, comment éviter que les machines ne contribuent à reproduire nos biais sociaux ?


En France et dans l’Union européenne, la législation interdit explicitement la discrimination fondée sur des critères protégés : origine ethnique, genre, orientation sexuelle, handicap, convictions religieuses, etc. La Directive Solvabilité II (UE) impose aux assureurs d’utiliser des modèles de risque « transparents » et non discriminatoires.

Contrairement à l’Union européenne – qui bannit la tarification différenciée selon des critères protégés (genre, origine, handicap) –, le modèle québécois offre un cadre encore permissif. Si la Charte des droits et libertés de la personne du Québec interdit également la discrimination, elle prévoit des exemptions propres aux assureurs : ceux-ci peuvent, lorsqu’un facteur est statistiquement pertinent, fonder la tarification sur l’âge, le sexe ou l’état civil.

Cet usage, autorisé sur la seule base d’une corrélation, soulève des questions.

Éthique et responsabilité sociale des assureurs

Au‑delà de la seule conformité juridique, les assureurs sont de plus en plus jugés sur leurs pratiques éthiques et leur responsabilité sociale par des associations de consommateurs et les médias, qui relaient les incidents de discrimination algorithmique et exercent une pression de réputation.

Depuis quelques années, les assureurs doivent donc se demander, collectivement, comment garantir un accès équitable à leurs produits pour les populations vulnérables, sans sacrifier la viabilité financière de leurs portefeuilles. Certains modèles novateurs proposent des formules « solidaires » ou des tarifs plafonnés pour éviter l’exclusion.

Les assureurs se voient imposer sans cesse plus de transparence. Ils doivent expliquer de façon claire les critères tarifaires, rendre accessibles les clefs de calcul pour éviter le sentiment d’arbitraire. Enfin, ils doivent intégrer la protection des données et la vie privée dès la conception des offres ( « privacy by design »), préserver la confiance.

Les assureurs qui sauront concilier personnalisation, équité et inclusion deviendront les acteurs de référence pour les clients soucieux d’éthique.

Réconcilier solidarité et données : un défi crucial

Le défi, on le voit, est de taille.

Il s’agit ni plus ni moins de réconcilier la finesse actuarielle avec les valeurs de redistribution et de solidarité qui ont fondé le métier d’assureur.

C’est dans cette tension résolue que se jouera l’avenir de l’assurance : ni pure discrimination tarifaire ni simple personnalisation illusoire, elle les conjuguera plutôt en un équilibre permettant à chacun de contribuer selon son risque et de bénéficier à sa juste mesure de la mutualisation des aléas de la vie.

La Conversation Canada

Arthur Charpentier est membre (fellow) de l’Institut Louis Bachelier. Il a reçu des financements du CRSNG (NSERC) de 2019 à 2025, du Fond AXA Pour la Recherche de 2020 à 2022, puis de la Fondation SCOR pour la Science de 2023 à 2026.

ref. Des primes d’assurance personnalisées moins chères grâce à l’IA ? Voici pourquoi il s’agit d’une pente glissante – https://theconversation.com/des-primes-dassurance-personnalisees-moins-cheres-grace-a-lia-voici-pourquoi-il-sagit-dune-pente-glissante-259861

Agents masqués et armés : la police migratoire de Trump sème la peur dans les rues américaines

Source: The Conversation – France in French (3) – By Dafydd Townley, Teaching Fellow in US politics and international security, University of Portsmouth

Aux États-Unis, la police de l’immigration de Donald Trump multiplient les raids ciblant les personnes non blanches, principalement sans papiers ou titulaires d’un titre de séjour. Bras armé de la politique migratoire de Donald Trump, cette agence fédérale (ICE), renforcée par un budget historique, applique une répression de grande ampleur.


Des hommes masqués, et parfois des femmes, patrouillent dans les rues des villes américaines, parfois à bord de voitures banalisées, souvent armés et vêtus de tenues militaires. Ils ont le pouvoir d’identifier, d’arrêter, de détenir des personnes qui n’ont pas la citoyenneté américaine et d’expulser les immigrés sans papiers. Ils ont également le droit d’interroger toute personne qu’ils soupçonnent de ne pas être citoyenne américaine afin de vérifier son droit de séjourner aux États-Unis.

Ce sont des agents de l’Immigration and Customs Enforcement Agency, connue sous le nom d’Ice. Il s’agit d’un organisme fédéral chargé de l’application de la loi, qui relève du département de la Sécurité intérieure (DHS) et qui joue un rôle important et controversé dans la mise en œuvre de la politique d’immigration stricte de Donald Trump.

Lors de la campagne électorale, Trump a promis « la plus grande opération d’expulsion intérieure de l’histoire américaine ». Et il donne à Ice plus de pouvoir pour réaliser ses projets.

Depuis l’entrée en fonction de Trump en janvier, le financement d’Ice a été considérablement augmenté. Le « big beautiful bill » (« grand et beau projet de loi ») de Trump, adopté par le Congrès en juillet 2025, a accordé à Ice 75 milliards de dollars US (65 milliards d’euros) pour les quatre années à venir, contre environ 8 milliards de dollars US (6,9 milliards d’euros) par an auparavant.

Cette augmentation de financement permettra à l’agence de recruter davantage d’agents, d’ajouter des milliers de lits supplémentaires et des extensions aux bâtiments afin d’augmenter la capacité des centres de détention. De nouveaux fonds sont également prévus pour des outils de surveillance avancés, incluant la reconnaissance faciale assistée par IA et la collecte de données mobiles. Une enveloppe supplémentaire de 30 milliards de dollars (26 milliards d’euros) est destinée aux opérations de première ligne, notamment l’expulsion des immigrants et leur transfert vers les centres de détention.

Le président s’est engagé à expulser toutes les personnes en situation irrégulière aux États-Unis, soit, selon le Wall Street Journal, environ 4 % de la population actuelle. Au cours des cinq derniers mois, le nombre de personnes interpellées par les agents d’Ice a augmenté rapidement.




À lire aussi :
Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?


Le nombre moyen d’arrestations quotidiennes a augmenté de 268 %, atteignant environ 1 000 par jour en juin 2025, comparé au même mois un an plus tôt. Cela représente également une hausse de 42 % par rapport à mai 2025, selon une analyse des données réalisée par le Guardian et le Deportation Data Project. Cependant, ce chiffre reste bien en deçà des 3 000 arrestations par jour ordonnées par la secrétaire à la Sécurité intérieure Kristi Noem et le chef adjoint de cabinet de la Maison Blanche Stephen Miller.

Les tactiques d’Ice ont déjà suscité de vives critiques. La chaîne de télévision conservatrice Fox News a rapporté que des agents masqués ne présentaient pas leur carte d’identité ni le nom de leur agence lorsqu’ils interpellaient des personnes lors de raids. D’autres reportages ont mis en lumière des allégations selon lesquelles des citoyens américains seraient également parfois pris dans ces raids.

Fonctionnement et organisation d’ICE

L’agence, actuellement dirigée par le directeur par intérim Todd M. Lyons, comporte trois divisions principales :

Lyons a affirmé que le port du masque était nécessaire car les agents de l’ICE étaient victimes de « doxxing », c’est-à-dire que leurs informations personnelles, telles que leurs noms et adresses, étaient divulguées en ligne sans leur consentement. Il a également déclaré que les agressions contre les agents d’Ice avaient augmenté. Les données du DHS indiquent qu’il y avait eu 79 agressions contre des agents d’Ice entre janvier et juin 2025, contre dix sur la même période en 2024.

Le chef de la minorité démocrate à la Chambre des représentants, Hakeem Jeffries, a comparé le port du masque par les agents d’Ice à des forces de police secrète dans des régimes autoritaires : « Nous ne sommes pas derrière le Rideau de fer. Nous ne sommes pas dans les années 1930. »

L’agence Ice a été créée en 2003 par l’administration de George W. Bush, en partie à la suite des attentats terroristes du 11 septembre, et faisait partie d’une réorganisation plus large des agences fédérales sous la direction du DHS alors tout juste créé. Elle a intégré des parties de l’ancienne Immigration and Naturalization Service (INS) ainsi que certains éléments du Service des douanes américaines.

Selon le site web de l’agence, la mission principale d’Ice est « de protéger l’Amérique par le biais d’enquêtes criminelles et de l’application des lois sur l’immigration afin de préserver la sécurité nationale et la sécurité publique ».

Comment ICE a accru ses moyens et son champ d’action

Au début du mandat présidentiel en janvier dernier, la Maison Blanche a donné à Ice le droit d’accélérer l’expulsion des immigrés entrés légalement dans le pays sous l’administration précédente. Ce « droit d’expulsion accélérée » permettait à Ice d’expulser des personnes sans qu’elles aient à comparaître devant un juge de l’immigration.

Alors que les arrestations se sont multipliées ces derniers mois, Lyons a déclaré à CBS News qu’Ice traquait tout immigrant sans papiers, même s’il n’avait pas de casier judiciaire.

L’administration Trump a également autorisé les agents de l’ICE à procéder à des arrestations dans les tribunaux d’immigration, ce qui était auparavant interdit. Cette restriction avait été introduite par l’administration Biden en 2021 afin de garantir que les témoins, les victimes de crimes et les accusés puissent toujours comparaître devant la justice sans craindre d’être arrêtés pour des infractions à la législation sur l’immigration (à l’exception des personnes représentant une menace pour la sécurité nationale).

La plupart du temps, Ice a ciblé les immigrants illégaux. Mais l’agence a aussi arrêté et détenu certaines personnes qui étaient résidentes (détentrices de la carte verte) ou touristes – et, dans certains cas même des citoyens étatsuniens.

Ces dernières semaines, selon le Washington Post, ICE a reçu l’ordre d’augmenter le nombre d’immigrants équipés de bracelets électroniques GPS. Cela augmenterait considérablement le nombre d’immigrants sous surveillance. Ces dispositifs limitent également la liberté de mouvement des personnes concernées.

Des manifestations face aux raids d’ICE

De nombreuses manifestations publiques ont eu lieu contre les raids d’Ice, notamment en Californie. Le point culminant a été atteint le 6 juin après qu’Ice ait mené plusieurs raids à Los Angeles, qui ont donné lieu à des affrontements entre agents et manifestants. Cela a conduit la Maison Blanche à envoyer environ 2 000 soldats de la Garde nationale et 700 Marines à Los Angeles, malgré l’opposition du gouverneur de Californie, Gavin Newsom.




À lire aussi :
Trump face à la Californie : affrontement à haute tension


Une partie des tensions entre l’administration Trump et l’État vient du fait que Los Angeles et San Francisco ont adopté des politiques locales limitant la coopération avec les autorités fédérales en matière d’immigration, notamment ICE. La Californie dispose de lois sur les sanctuaires, telles que la SB 54, qui interdisent aux forces de police et aux shérifs locaux d’aider Ice dans l’application des lois civiles sur l’immigration.

Cependant, Trump semble déterminé à durcir et accélérer la répression contre les immigrants illégaux, et les agents d’Ice sont clairement en première ligne de cette stratégie.

The Conversation

Dafydd Townley ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Agents masqués et armés : la police migratoire de Trump sème la peur dans les rues américaines – https://theconversation.com/agents-masques-et-armes-la-police-migratoire-de-trump-seme-la-peur-dans-les-rues-americaines-262539

Boîtes de conserve : des risques invisibles pour la santé ?

Source: The Conversation – in French – By Antía Lestido Cardama, Doctora en el área de Innovación en Seguridad y Tecnologías Alimentarias, Universidade de Santiago de Compostela

Mieux vaut éviter d’assaisonner des pâtes ou des salades avec le liquide contenu dans les boîtes de conserve, car cela pourrait augmenter l’exposition à certaines substances à risque. Ilia Nesolenyi/Shutterstock

Les boîtes de conserve métalliques qui contiennent des aliments ou des boissons sont des emballages sûrs pour la santé. Cependant, il est nécessaire d’approfondir les interactions possibles entre l’emballage et les aliments. C’est ce qui ressort d’analyses faites sur du thon et des boissons en conserves par des chercheurs de l’Université de Santiago de Compostela, en Espagne, en collaboration avec l’Agence nationale de sécurité alimentaire et nutrition (AESAN).


Elles font partie de tout kit de survie et beaucoup d’entre elles sont indispensables à la vie universitaire des étudiants. Si nous n’avons pas envie de cuisiner ou quand nous manquons de temps, elles sont la meilleure option, et elles sont indispensables si nous partons camper. Nous parlons bien sûr des conserves qui permettent de garder différents types d’aliments et de boissons dans des conditions nutritionnelles et organoleptiques parfaites.

Ce mode de conservation est utilisé depuis des décennies dans notre système alimentaire. Parmi ses nombreux avantages, il permet notamment de garder les aliments dans nos placards pendant des années grâce à leur date limite de consommation très longue.

De ce fait, traditionnellement, dans la société, les boîtes de conserve sont associées à un moyen sûr de conserver les aliments. Cependant, d’un point de vue chimique, il est nécessaire d’étudier plus en profondeur les interactions possibles entre l’emballage et les aliments qu’il contient afin de garantir leur innocuité.

En général, sauf si nous constations des bosses ou des traces de rouille sur les conserves, nous considérions que nous pouvions être tranquilles. Un choc nous mettait en alerte et ce, à juste titre, car cela peut endommager l’intégrité de la boîte au point de provoquer de petites perforations qui ne sont pas toujours visibles, ce qui facilite l’entrée de bactéries et, par conséquent, la contamination des aliments à l’intérieur de la conserve.

Ce qui a généralement été ignoré ou, a minima, insuffisamment abordé, ce sont les questions de sécurité alimentaire liées aux composants de la boîte de conserve, par exemple l’augmentation potentielle de l’exposition à des substances dangereuses que représenterait l’assaisonnement d’une salade avec l’huile qui accompagne le thon en conserve.

Les risques liés aux composants des boîtes de conserve

De quelles substances parlons-nous ? Et surtout, à quels risques sommes-nous exposés ? Les emballages métalliques contiennent généralement des revêtements polymères qui agissent comme une barrière entre les aliments et le métal. Ce revêtement empêche la corrosion de la boîte et préserve les propriétés organoleptiques et la qualité des aliments.

Cependant, certains de ses composants peuvent se retrouver dans les aliments par un processus appelé migration. Cela peut affecter la qualité du produit et, dans certains cas, représenter un risque potentiel pour la santé du consommateur, soit en raison de son ingestion en quantités importantes, soit en raison d’une exposition cumulée tout au long de la vie via l’alimentation.

Des perturbateurs endocriniens dans les boîtes de conserve

Le groupe FoodChemPack (Recherche, développement et évaluation de la sécurité chimique des aliments et des matériaux en contact avec les aliments) de la faculté de pharmacie de l’université de Santiago de Compostela (USC), en Espagne, étudie les revêtements des boîtes métalliques, pour les boissons comme pour les conserves alimentaires, dans le cadre de plusieurs projets (MIGRAEXPO, MIGRACOATING, BACFood4Expo et ACHED), en collaboration avec l’Agence espagnole dédiée à la sécurité alimentaire et à la nutrition (AESAN).

Au cours de ces dernières années, nous avons constaté que de nombreux revêtements contenaient des résines époxy à base de bisphénol A diglycidyl éther (BADGE), synthétisé à partir d’épichlorhydrine et de bisphénol A (BPA), un perturbateur endocrinien qui interfère avec le système hormonal. Il contribue ainsi au développement de maladies métaboliques, telles que le diabète ou l’obésité, et peut affecter le système reproducteur, entre autres effets néfastes. En 2011, la dangerosité de ce composé a ainsi conduit à son interdiction dans les biberons pour bébé.

Les autorités européennes réduisent de plus en plus la quantité maximale de bisphénol à laquelle la population générale devrait être exposée. À tel point que la Commission européenne a récemment interdit l’utilisation du BPA et de ses dérivés dans les matériaux destinés à entrer en contact avec des denrées alimentaires.

Le thon, plutôt au naturel que dans l’huile ou à l’escabèche

Dans les boissons que nous avons étudiées (boissons alcoolisées, énergisantes, rafraîchissantes ou eau minérale), la migration de ces composés dérivés du bisphénol A s’est avérée faible. En revanche, dans les aliments en conserve, en particulier dans ceux à forte teneur en matières grasses, des niveaux de migration plus élevés ont été mesurés.

Par exemple, dans les conserves, comme le thon à la tomate, à l’escabèche ou à l’huile, des concentrations plus élevées que dans le thon au naturel ont été relevées pour un autre composé appelé cyclo-di-BADGE. Contrairement au BPA, ce composé n’est pas encore réglementé en raison du manque d’informations toxicologiques.

Pour toutes ces raisons, nous considérons que ce n’est pas une bonne habitude d’assaisonner des pâtes ou des salades avec le liquide contenu dans les boîtes de conserve, car cela pourrait augmenter notre exposition à ces substances.

De plus, il a été observé que le fait de réchauffer les aliments directement dans la boîte de conserve, une pratique associée à des contextes spécifiques, tels que le camping, peut augmenter la migration de ces composés. En effet, la chaleur accélère les processus de transfert des substances depuis la couche interne de l’emballage vers les aliments, ce qui pourrait augmenter les risques pour la santé.

Qu’absorbons-nous, comment et en quelle quantité ?

Dans des études récentes, nous avons constaté que la bioaccessibilité de ces substances, c’est-à-dire la quantité qui pourrait être absorbée par l’organisme, augmente considérablement lorsqu’elles sont ingérées avec des aliments gras.

Pour parvenir à cette conclusion, nous avons tenté de simuler la manière dont notre système digestif traite ces composés. Pour ce faire, nous avons utilisé le protocole de digestion gastro-intestinale in vitro INFOGEST qui, entre autres, simule la composition de la salive et des fluides gastro-intestinaux, la durée de chaque phase, la température ou les valeurs de pH corporelles. Nous avons ainsi pu observer comment différents groupes de populations sont exposés de manière différente à ces substances, principalement en fonction du pH basal de l’estomac, qui est de 1,5 chez les adultes, tandis que les enfants et les personnes âgées ont un pH gastrique moins acide.

Dans la majorité des cas, les quantités détectées étaient inférieures aux limites fixées par la Commission européenne. Il est toutefois important de tenir compte de l’exposition potentielle par différentes voies et de l’exposition cumulative tout au long de la vie. En effet, une personne peut être en contact avec la même substance de différentes manières, non seulement par voie orale, par l’eau ou les aliments, mais aussi par d’autres voies, telles que les voies respiratoires ou cutanées. Cela peut augmenter l’exposition totale de l’organisme à cette substance.

Même à de faibles niveaux, une exposition prolongée peut avoir des effets négatifs sur la santé, en particulier chez les groupes de populations les plus vulnérables.

Une société informée, une alimentation plus sûre

La connaissance de ces résultats, et de ceux à venir, permettra aux consommateurs de prendre des décisions éclairées concernant l’utilisation de ce type d’emballages (par exemple, ne pas chauffer directement les boîtes de conserve sur le feu lorsque l’on fait du camping) et la consommation des aliments (par exemple, éviter de réutiliser les liquides de couverture pour assaisonner les salades), ce qui contribuera ainsi à une alimentation plus sûre.

The Conversation

Lara Pazos Soto a reçu des financements de Xunta de Galicia.

Antía Lestido Cardama ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Boîtes de conserve : des risques invisibles pour la santé ? – https://theconversation.com/boites-de-conserve-des-risques-invisibles-pour-la-sante-258330

Mars : la planète rouge se pare de vert durant la nuit

Source: The Conversation – in French – By Lauriane Soret, Planétologue, Université de Liège

Le rover Perseverance devant une aurore sur la planète Mars – observée, pour la première fois en 2024, dans le domaine visible. ©️Alex McDougall-Page, Fourni par l’auteur

Sur la planète Mars, il y a des lumières qui dansent dans la nuit, un peu comme les aurores boréales sur Terre. On peut aujourd’hui les observer dans différentes couleurs, depuis l’orbite ou à la surface de la planète rouge… et vert, donc.


Mars, la planète rouge, n’est finalement pas uniquement rouge.

Durant la nuit, la planète se pare de lumières vertes, certaines semblables aux aurores boréales ou australes se produisant sur Terre. Ces lueurs sont si intenses qu’elles pourraient être observées à l’œil nu par de futurs astronautes en orbite ou à la surface de Mars. Mais outre les aurores, les astronautes pourront également voir un autre phénomène lumineux nocturne appelé « nightglow », ce que l’on pourrait traduire par « lueur nocturne ».

Aurores et lueurs nocturnes martiennes étaient bien connues dans l’ultraviolet et l’infrarouge, principalement grâce aux missions Mars Express (depuis 2003) et MAVEN (depuis 2013). Mais c’est depuis 2023 seulement que nous avons pu les détecter dans le domaine du visible, grâce à la mission ExoMars de l’Agence spatiale européenne (ESA) et aux observations du rover Perseverance de la NASA.

Ces observations ouvrent la voie à de futures études avec des instruments conçus dans le domaine de visible, plus simples, plus légers et moins onéreux que ceux conçus pour observer les ultraviolets. En particulier, le nightglow doit nous apprendre davantage sur la dynamique et de la composition de l’atmosphère martienne ; tandis que les aurores nous renseignent sur les interactions entre le vent solaire et la planète rouge… et vert.

Aurore ou « nightglow » ?

Même si ces deux types d’émission lumineuse, aurore et nightglow, produisent des lueurs dans l’atmosphère, les processus en jeu sont complètement différents.

Les aurores sont le résultat de l’interaction de particules énergétiques venant de l’espace avec les atomes ou molécules de l’atmosphère neutre de la planète, par exemple l’azote ou l’oxygène sur Terre, et le CO2 sur Mars. Sur Terre, les aurores se forment près des pôles, car c’est là que convergent les lignes du champ magnétique terrestre que suivent les électrons du vent solaire.

Mais sur Mars, la réalité est bien plus complexe, car le noyau de la planète Mars ne génère pas de champ magnétique comme celui de la planète Terre. C’est d’ailleurs pour cette raison que la communauté scientifique ne s’attendait pas à trouver d’aurores dans l’atmosphère martienne, jusqu’à la découverte d’émissions aurorales ultraviolettes, en 2005, avec l’instrument SPICAM de Mars Express (ESA).




À lire aussi :
D’où viennent les aurores boréales, et pourquoi sont-elles si différentes sur Jupiter?


Le nightglow se forme différemment, par une suite de réactions « photochimiques ». Du côté de la planète où il fait jour, les molécules naturellement présentes dans l’atmosphère sont dissociées par les photons émis par le Soleil. Par exemple, les photons peuvent casser une molécule de CO2 en atomes de carbone et d’oxygène. Les atomes nouvellement créés sont transportés par la circulation atmosphérique provoquée par une différence de température, vers le côté nuit, où il fait beaucoup plus froid. Les atomes se recombinent alors pour reformer une molécule. La molécule se trouve cette fois dans un état excité : elle va émettre de la lumière à une longueur d’onde caractéristique en revenant à son état fondamental. C’est cette émission que l’on appelle nightglow.

Les sources de ces émissions lumineuses (aurores et nightglow) étant différentes, elles nous permettent d’étudier différents paramètres de l’atmosphère, à différents endroits et différentes altitudes de l’atmosphère.

Les aurores de Mars vues depuis l’orbite

Grâce à l’instrument SPICAM de Mars Express, notre équipe a pu observer une vingtaine d’aurores sur Mars. Toutes se situaient aux endroits où le champ magnétique résiduel piégé dans la roche à la surface de Mars est le plus fort – une région s’étend principalement dans l’hémisphère Sud, entre 120° et 250° de longitude.

détections d’aurores sur Mars
Deux types d’aurores détectées sur Mars dans l’ultraviolet par la mission emirati Emirates Mars Mission et son spectrographe Emirates Mars Ultraviolet Spectrograph. À gauche, l’aurore suit le champ magnétique résiduel conservé dans les roches de la croûte martienne (lignes rose et bleue). À droite, une aurore sinueuse qui ne suit pas le champ magnétique résiduel.
Chirakkil et collaborateurs, JGR Planets, 2024, CC BY-SA

À cet endroit, les lignes de champ magnétique forment des arcs qui agissent comme des boucliers contre les particules énergétiques, un peu comme un mini champ magnétique terrestre.

Entre deux arcades, les lignes de champ sont ouvertes et forment des sortes de canyons, dans lesquels les électrons venant du vent solaire se précipitent et interagissent avec les atomes et molécules neutres de l’atmosphère, principalement dioxyde de carbone et oxygène. Ces atomes et molécules se retrouvent alors dans un état excité instable et, lorsqu’ils se désexcitent pour retrouver dans leur état fondamental, émettent des photons à des longueurs d’onde bien caractéristiques. C’est ainsi que l’on trouvera principalement des émissions de monoxyde de carbone (CO), dioxyde de carbone ionisé (CO2+) et oxygène (O) dans l’ultraviolet et des émissions d’oxygène dans l’ultraviolet lointain. Ces émissions se produisent à environ 135 kilomètres d’altitude.

Depuis 2013, grâce aux instruments IUVS de la mission MAVEN de la NASA et EMUS à bord d’Emirates Mars Mission bien plus sensibles que SPICAM, nous sommes constamment surpris !

En effet, nous savons désormais que des émissions aurorales se produisent également en dehors de la zone de fort champ magnétique résiduel. Elles sont moins intenses, mais beaucoup plus fréquentes dans l’hémisphère Nord, par exemple.

D’autres types d’aurores ont également été observés : des aurores sinueuses, avec une forme de serpent dont la longueur peut couvrir tout un hémisphère en se déplaçant très rapidement, ou encore des aurores diffuses qui peuvent recouvrir toute la face nocturne de la planète ! Ces aurores diffuses se produisent plus bas en altitude, à environ 60 kilomètres à 80 kilomètres. Elles se produisent assez rarement car elles nécessitent la présence d’évènements SEP (pour Solar Energetic Particle) durant lesquels les particules émises par le Soleil, principalement des protons, se retrouvent fortement accélérées.

Aurores et activité solaire sont donc intimement liées. Les aurores martiennes peuvent avoir, comme sur Terre, des endroits de formation privilégiés, mais sont globalement très variables et assez difficilement prévisibles.

Observer des aurores depuis la surface de Mars

Nous savons que l’une des émissions aurorales précédemment observées dans l’UV (les atomes d’oxygène excités émettant à 297 nanomètres) possède une contrepartie dans le domaine du visible – il s’agit de la raie de l’oxygène à 557 nanomètres, qui donne sa couleur verte aux aurores terrestres. Cette composante devrait également être observable dans l’atmosphère martienne.

Et c’est l’exploit qu’a réalisé l’équipe du rover Perseverance en détectant la première aurore visible dans le ciel martien en mars 2024. L’équipe a guetté l’apparition d’évènements SEP au niveau du Soleil pour commander à distance au rover d’observer le ciel durant les nuits correspondantes. Une stratégie fructueuse, puisque l’émission à 557 nanomètres a été détectée par le spectromètre de Perseverance ! C’est donc la première fois qu’une image d’une aurore a été prise depuis le sol d’une planète autre que celui de la Terre.

L’intensité de cet évènement aurait probablement été trop faible pour pouvoir être perceptible par un œil humain, mais d’autres aurores, plus intenses, pourraient tout à fait être détectées à l’œil nu par de futurs astronautes à la surface ou en orbite autour de Mars.

Le « nightglow » de Mars serait visible par de futurs astronautes

Dans le cas de Mars, les photons émis par le Soleil interagissent avec les molécules de CO2 majoritairement présentes dans l’atmosphère martienne (~96 %), principalement au niveau du pôle d’été, éclairé et échauffé par le Soleil.

Les molécules de CO2 sont alors dissociées et les atomes d’oxygène sont transportés vers le pôle d’hiver plongé dans la nuit et le froid, par ce que l’on appelle la circulation été-hiver. Là, les atomes d’oxygène se recombinent pour former une molécule de O2 dans un état excité, qui émet alors une émission lumineuse à une longueur d’onde caractéristique en retournant à son état fondamental. C’est cette émission, que l’on observe dans la nuit polaire martienne d’hiver, que l’on appelle nightglow.

animation montrant la migration d’atomes dissociés d’une région à une autre
Production du nightglow sur Mars : des molécules de dioxyde de carbone présentes dans l’atmosphère sont dissociées côté été, et des atomes d’oxygène résultant de la dissociation se voient transportés vers les régions polaires hivernales. Les atomes d’oxygène (sphères rouges) s’y recombinent pour y former des molécules de dioxygène excitées qui émettent la lueur nocturne.
ESA, CC BY

Ce nightglow a d’abord été observé dans l’infrarouge, à 1,27 micromètre, à partir de l’orbite martienne, par la mission MRO (pour Mars Reconnaissance Orbiter), lancée en 2005, par la NASA.

Mais c’est en 2023 que cette émission de l’oxygène a été observée pour la toute première fois dans le domaine du visible, à environ 50 kilomètres d’altitude. Contrairement aux aurores, variables et difficilement prévisibles, le nightglow est très homogène dans le temps et dans l’espace.

De plus, son intensité est telle que de futurs astronautes n’auraient aucune difficulté à observer un ciel vert au-dessus du pôle d’hiver lors d’une belle nuit étoilée.

Les futures missions

Grâce à ces avancées majeures dans le domaine du visible, nous savons désormais qu’il nous est possible de continuer d’étudier l’atmosphère de Mars en utilisant des instruments plus simples, plus légers et moins onéreux en utilisant le domaine visible plutôt que celui de l’ultraviolet.

C’est ce que nous voulons faire avec la caméra aurorale M-AC à bord de M-MATISSE, une mission que nous avons proposée à l’Agence spatiale européenne (ESA) et qui est actuellement en phase de sélection. Deux orbiteurs emporteraient à leur bord différents instruments pour analyser l’environnement de Mars, ainsi qu’une caméra avec un filtre pour observer les émissions vertes autour de 557 nanomètres.

Grâce à M-AC, nous pourrions photographier et prendre des vidéos des aurores martiennes avec une résolution et une sensibilité jamais atteintes auparavant. Si elle est acceptée par l’ESA, cette mission devrait être lancée en 2037 en direction de la planète rouge… et vert !

The Conversation

Lauriane Soret a reçu des financements du F.R.S.-FNRS.

ref. Mars : la planète rouge se pare de vert durant la nuit – https://theconversation.com/mars-la-planete-rouge-se-pare-de-vert-durant-la-nuit-261723

Votre logement est-il adapté à la chaleur ?

Source: The Conversation – in French – By Ainhoa Arriazu-Ramos, Dra Arquitecta-Investigadora postdoctoral en sostenibilidad medioambiental y adaptación al cambio climático de las ciudades, Universidad de Deusto

En 2050, plus de 70 % de la population mondiale vivra en ville. Kzww/Shutterstock

En ville, planter des arbres peut faire baisser les températures, mais au niveau des habitations en elles-mêmes, l’isolation, les fenêtres et l’exposition jouent un rôle tout aussi important.


L’année 2024 a été la plus chaude jamais recensée au niveau mondial depuis le début des mesures, avec une température moyenne supérieure de 1,55 °C à celle de la période préindustrielle. Les vagues de chaleur ne sont plus des événements isolés : elles sont de plus en plus fréquentes, intenses et longues.

L’impact du réchauffement climatique global est particulièrement grave dans les villes. Le phénomène des îlots de chaleur urbain (ICU) entraîne des températures urbaines jusqu’à 4 °C plus élevées que dans les zones rurales voisines, en particulier pendant les nuits d’été.

Si l’on ajoute à cela le fait que de plus en plus de personnes vivent en milieu urbain (en 2050, plus de 70 % de la population mondiale sera concernée), une question se pose inévitablement : comment concevoir les villes pour qu’elles restent habitables malgré les températures élevées ?

Mieux concevoir l’espace public

Intégrer davantage de nature dans nos villes est l’une des meilleures stratégies pour les adapter à la chaleur.

Mais il ne s’agit pas seulement d’assurer un minimum d’espace vert par habitant : à quoi sert d’avoir un grand parc à une heure de route, si on ne trouve pas d’ombre sur le chemin du travail ou qu’on ne dispose pas d’un espace vert dans son quartier où se réfugier pour échapper à la chaleur ?

Il faut intégrer la nature dans l’aménagement urbain en tenant compte des principes de proximité, de qualité et de quantité des espaces verts. Dans cette optique, la règle des « 3-30-300 » est intéressante : chaque personne devrait pouvoir voir au moins trois arbres depuis son domicile, vivre dans un quartier où au moins 30 % de la superficie est couverte d’arbres et avoir un parc à moins de 300 mètres.

Revoir les aménagements et bâtiments de l’espace public est aussi urgent que de planter des arbres. Les toitures des bâtiments, par exemple, peuvent être des alliés pour réduire la chaleur. Pour cela, il peut être essentiel d’y intégrer de la végétation ou des matériaux réfléchissants. Les façades sont également importantes. Bien choisir leur couleur (de préférence des tons clairs) et les matériaux qui les composent peut contribuer à réduire le problème de surchauffe au lieu de l’aggraver.

Au niveau du sol, il est tout aussi important de repenser le choix des revêtements. Il faut éviter l’utilisation systématique d’asphalte et de béton qui absorbent la chaleur. Explorer des matériaux plus perméables, plus frais et intégrer davantage de végétation peut faire une différence significative.




À lire aussi :
Nos villes doivent être plus perméables : comment le biochar peut être une solution durable face aux inondations


Des logements adaptés à la chaleur

Mais il ne suffit pas seulement d’améliorer l’espace public : les logements aussi doivent pouvoir faire face à la chaleur. Nous y passons la majeure partie de notre temps et beaucoup d’entre eux sont inadaptés. Par exemple, une étude a révélé que 85 % des logements de Pampelune (Espagne) ont enregistré des températures trop élevées pendant l’été 2022.

La conception des bâtiments est, à cet égard, déterminante. Certains aspects liés à la conception et à la construction de ces bâtiments, s’ils ne sont pas pris en compte, peuvent aggraver le problème de surchauffe des logements.

L’isolation thermique est le premier point. Bien isoler un bâtiment est une mesure importante, surtout en hiver, mais aussi en été. Cependant, lorsque des logements bien isolés mais trop hermétiques se réchauffent, il devient difficile d’évacuer la chaleur. La clé réside donc dans la conception : la distribution des pièces (et les éventuels systèmes de ventilation mécanique, comme la VMC, ndlt) doit permettre une ventilation adéquate.

Les grandes baies vitrées constituent un autre point qui peut poser problème. Elles sont aujourd’hui appréciées pour la lumière naturelle et la vue qu’elles offrent, mais si elles ne sont pas correctement protégées du soleil, elles contribuent au réchauffement du logement. Il est important que les protections solaires fassent partie intégrante de la conception du bâtiment et ne soient plus seulement des éléments accessoires. Il est possible d’atténuer le rayonnement solaire sans totalement assombrir la maison : avant-toits, volets orientables, auvents ou lamelles, etc.

Il faut également noter que les logements qui n’ont qu’une seule exposition sont plus à risque, alors que ceux à double exposition rendent le rafraîchissement plus aisé.

Compte tenu des besoins actuels en matière de logement, les nouvelles maisons ont tendance à être plus petites. De nombreux appartements en centre-ville sont eux aussi divisés en appartements plus petits. Cette tendance est problématique, car elle entraîne une augmentation du nombre de logements mono-orientés. Outre le respect de la surface minimale, il serait donc intéressant d’exiger qu’ils garantissent des conditions minimales de confort thermique.

En outre, il a été démontré que les logements situés aux derniers étages subissent entre 3,4 % et 5,4 % plus d’heures de surchauffe que ceux situés aux étages intermédiaires. Améliorer l’isolation des toitures n’est pas suffisant, car l’isolation a une limite d’efficacité. Il faut donc aussi innover pour améliorer la construction des bâtiments à ce niveau.

Tout ne dépend pas seulement de l’urbanisme ou de l’architecture. Les citoyens doivent également apprendre à s’adapter à la chaleur urbaine et savoir comment gérer leur logement lors des journées les plus chaudes : comprendre l’influence de l’orientation du logement, aérer au bon moment en fonction de la différence entre la température intérieure et extérieure ou encore utiliser correctement les protections solaires.




À lire aussi :
Impact environnemental du bâtiment : qu’est-ce que la construction passive ?


Quelles perspectives ?

Si l’on veut adapter les villes à la chaleur, il ne faut pas éluder la dimension sociale du problème.

La chaleur extrême n’affecte pas toute la population de la même manière : les personnes âgées, les enfants et ceux qui vivent dans des logements de mauvaise qualité ou dans des quartiers peu végétalisés sont plus exposés.

Enfin, nous devons être conscients que le confort thermique ne peut dépendre uniquement de la climatisation ou d’autres systèmes mécaniques. Il est nécessaire de repenser nos villes et nos logements afin qu’ils puissent s’adapter à la chaleur de par leur conception même.

Dans un monde de plus en plus chaud, les villes le plus adaptées seront celles qui seront capables de maintenir le confort thermique tout en minimisant la dépendance à la consommation d’énergie.

The Conversation

Ainhoa Arriazu-Ramos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre logement est-il adapté à la chaleur ? – https://theconversation.com/votre-logement-est-il-adapte-a-la-chaleur-262240

Le « bon sens » en politique : analyse d’un mot d’ordre contemporain

Source: The Conversation – in French – By Julien Rault, Maître de Conférences en linguistique et stylistique, Université de Poitiers

La formule est bien connue : « C’est du bon sens ! » Au quotidien, une telle injonction peut paraître juste. L’enjeu est toutefois différent lorsqu’il s’agit de discours politique. Dans le champ démocratique, le « bon sens » irrigue aujourd’hui la moindre prise de parole et vient supplanter le cadre idéologique, refusant toute confrontation d’idées.


Que rétorquer face à l’évidence sans appel du « bon sens » ? Qu’opposer à la rhétorique du consensus, au discours du « Ça va de soi » ? Avec le « bon sens », nul échange, nulle controverse, nulle spéculation. Ici règnent en maîtres la norme et le normal ; Descartes, on le sait, en fait la chose au monde le mieux partagée. L’abbé Girard, quant à lui, nous indique que, contrairement au jugement, à l’esprit ou à l’entendement, le bon sens est une faculté qui transcende les distinctions sociales pour « convenir avec tout le monde ».

S’il sent bon la logique et la volonté générale, le bon sens sent aussi la morale. Roland Barthes, dans l’Usager de la grève, parle en effet du « bon sens » comme d’un mixte de morale et de logique, qui substitue à l’ordre politique et social un ordre présenté comme naturel.

L’interprétation s’efface devant l’évidence. La formule est donc bien un mot d’ordre implicite, une sommation instaurant sans le nommer un ordre du monde autant qu’une parole sans réplique. Mais d’où ce mot d’ordre tient-il sa puissance d’imposition ? Et quel rapport entretenons-nous – en France notamment – avec cette disposition d’esprit qu’on appelle « le bon sens » et, plus étroitement, avec l’expression elle-même, qui resurgit ces dernières années dans les discours et slogans politiques, tous bords confondus ?

Un bon sens français

En France, le « bon sens » témoigne d’un imaginaire bien nourri politiquement. Et si l’on suit le leitmotiv de l’Union des Français de bon sens (UFBS), parti politique de droite fondé en 1977, il serait même devenu le « vrai symbole de la France » – le clip vaut le détour. Et, à en croire les images de terroir qui accompagnent chacune de ses interventions sloganisées, le « bon sens » des campagnes est aussi un bon argument marketing. La publicité pour le Crédit agricole a abondamment puisé dans cet imaginaire de la ruralité et de la proximité.

Évidemment, il est permis de douter d’une aptitude spécifiquement française au bon sens. Mais force est de constater que la notion est particulièrement bien implantée dans notre pays. Les trois conférences d’Henri Bergson, réunies sous le titre le Bon Sens ou l’esprit français (1895), en attestent : une longue tradition française habite l’expression, qui vient fédérer autour d’une aptitude supposément commune et d’une spécificité culturelle.

Politiquement, le « bon sens » appartient-il exclusivement à un camp ? À gauche, on le trouve très tôt dans des journaux progressistes. Le Bon Sens, journal républicain qui paraît de 1832 à 1839, se propose ainsi, selon Louis Blanc, de faire appel à « l’intelligence du peuple ». On le rencontre également dans les discours syndicaux : André Bergeron, syndicaliste FO, publie en 1996 Je revendique le bon sens, quand la Fédération des Travailleurs du Québec fait campagne en 2019 autour de l’expression « le gros bon sens ». En 2016, La France insoumise (LFI) reprend l’expression à son compte en lançant la chaîne YouTube « Le Bon Sens », sous l’impulsion d’Antoine Léaument, à l’époque responsable de la communication numérique de Jean-Luc Mélenchon.

Le bon sens est-il de droite ?

La formule reste toutefois l’apanage de la pensée de droite, dans la filiation de Pierre Poujade qui en avait fait l’élément central de sa « philosophie ». On la retrouve aujourd’hui en abondance dans le discours des républicains (LR) et du Rassemblement national. Marine Le Pen, en décembre 2010, en revendiquait sans détour l’incarnation : « C’est le vrai choix d’une autre politique. J’incarne le bon sens. » En mai 2019, elle réitérait en en faisant l’élément constitutif de sa politique : « Cela fait vingt ou vingt-cinq ans que l’on parle du bon sens, ça a toujours irrigué notre conception de la politique. »

En 2017, François Fillon l’érigeait en mot d’ordre, suivi par Éric Ciotti qui affirmait, en 2022, vouloir être le « candidat du bon sens ».

En 2019, le « bon sens » formait encore l’élément de langage fédérateur de l’extrême droite française et italienne pour les élections européennes : il se retrouve aujourd’hui dans les discours de Giorgia Meloni qui souhaite « révolutionner la normalité » en proposant « des petites choses de bon sens ». En 2025, la « révolution du bon sens » est le motif litanique de Donald Trump à l’orée de son nouveau mandat.

Lors de son discours au Congrès des États-Unis du 4 mars 2025, Donald Trump parle de la « révolution du bon sens » (« common sense revolution ») le slogan incarnant ses premières semaines au pouvoir.

Un bon sens extrême

Un tel succès est à mettre d’abord au crédit de la formule elle-même, qui active un imaginaire antisystème et anti-élite, assez proche de la pensée populiste.

Si cette dernière reste assez difficile à définir, l’invocation du « bon sens » peut apparaître finalement comme l’un de ses axiomes les plus probants. Sa fréquence actuelle s’explique aussi par le discrédit massif jeté sur l’idéologie, laquelle se doit de céder la place au réel : le « bon sens » rejoint alors la constellation des mots-consensus qui étouffent toute ambition progressiste et utopique. Enfin, l’incantation du bon sens permet surtout d’atténuer la radicalité de certaines idées. C’est l’une des fonctions actuelles du common sense, martelé par l’outrancier Donald Trump.

La substitution contemporaine du « bon sens » aux traditionnels réalisme et pragmatisme dans le discours de gouvernement peut alors se comprendre comme la manifestation langagière d’une métamorphose populiste du paysage politique.

Depuis 2020, la formule est largement utilisée par des personnalités proches du macronisme, à l’image de Jean-Michel Blanquer. Celui-ci prônait, en réponse à un mouvement lycéen d’opposition aux codes vestimentaires imposés dans les établissements scolaires, une « position d’équilibre et de bon sens ». Et prenait soin d’ajouter : « Il suffit de s’habiller normalement et tout ira bien. »

Emmanuel  Macron est également friand de la formule, étayant son plaidoyer pour la réforme des retraites avec cette sentence : « Je pense que tout le monde a du bon sens dans notre pays. » En janvier 2017, alors en campagne présidentielle, il affirmait vouloir « réconcilier l’ambition avec le réel » et défendait un « projet de bon sens ».

En visite au marché de Rungis, le 18 février 2023, Emmanuel Macron mobilise l’argument du « bon sens » pour évacuer les critiques d’une personne l’interpellant au sujet de la réforme de l’âge de départ à la retraite, adoptée un mois plus tard.

L’usage présidentiel de l’expression offre une parfaite illustration de l’émergence de ce que Pierre Serna a nommé très justement « l’extrême centre ». Cette expression en apparence oxymorique permet de qualifier la radicalisation d’une pensée et d’une action politiques dites modérées et de raison, abritant sa violence symbolique et réelle sous les étendards discursifs de l’évidence.

Mot-masque et mot d’ordre

Relevant d’une parole euphémisante, le « bon sens » fait figure de mot-masque. Derrière son pseudo-rejet de l’idéologie se cachent des orientations tout à fait idéologiques, aux relents poujadistes parfois flagrants. Interrogé sur le travail de chercheurs et les études réalisées par l’Insee qui montraient une stagnation de la délinquance, Gérald Darmanin avançait ainsi en mai 2021 : « J’aime beaucoup les enquêtes de victimation et les experts médiatiques, mais je préfère le bon sens du boucher-charcutier de Tourcoing. » Avant d’inviter journalistes et concitoyens, de façon éloquente, à ne pas « nier le réel ».

Contrairement au réalisme, pour lequel on peut constater la présence récurrente de tournures qui tendent à le redéfinir pour mieux l’asséner (« le réalisme, c’est… », « par réalisme je veux dire… »), on rencontre beaucoup moins d’énoncés cherchant à préciser ce que l’invocation du « bon sens » implique ou signifie.

Le bon sens échappe ainsi encore plus facilement à la spécification : il s’impose avec autorité, puisqu’il est bon, évident, à la portée de tout un chacun. Pointe extrême du réalisme, il instaure une vision unique du monde social et politique, étouffant toute possibilité d’un débat démocratique, dont l’essence se fonde sur l’exact opposé : l’explicitation des points de vue, la confrontation des idées.

Argument de ceux qui n’en ont pas ou plus, le mot d’ordre du « bon sens » est la traduction langagière d’une forme de perversion du politique. Il est le reflet d’une tendance contemporaine qui vise à déresponsabiliser l’acteur. En dépolitisant l’action, il permet ainsi de neutraliser le conflit et de disqualifier toute forme d’opposition.

Dès lors, il n’est pas question d’envisager cette formule (et ses voisines) pour ce qu’elle serait supposée dire réellement : l’efficacité rhétorique et plus exactement manipulatoire d’une expression augmente à proportion de son flou sémantique. Il s’agit plutôt d’interroger l’usage politique qui en est fait, la façon dont elle se manifeste dans les discours qui la convoquent et la commentent. À ce titre, le « bon sens » est bien un moyen de polariser et de politiser et, ce faisant, témoigne d’un positionnement qui, quoi qu’on en dise, reste éminemment idéologique.

The Conversation

Julien Rault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le « bon sens » en politique : analyse d’un mot d’ordre contemporain – https://theconversation.com/le-bon-sens-en-politique-analyse-dun-mot-dordre-contemporain-257311

Quand les communautés de marque prennent le pouvoir à l’ère du Web3 et du métavers

Source: The Conversation – France (in French) – By kaabachi souheila, Enseignant-Chercheur, EBS Paris

Le métavers et toutes les technologies qui y sont associées sont en train de changer à bas bruit les modes de consommation. La place du consommateur ne peut plus être la même avant qu’après. Comment les marques doivent-elles en tenir compte pour rester dans la compétition ?


L’essor du Web3 et du métavers annonce une nouvelle ère d’innovation pour les entreprises, ouvrant ainsi la voie à la création de modèles d’affaires disruptifs où les consommateurs deviennent des acteurs clés, des cocréateurs actifs voire des copropriétaires des produits. Avec une architecture décentralisée du Web3, les utilisateurs auront la possibilité de créer, de posséder et d’échanger des objets virtuels en toute liberté avec une totale maîtrise sur leurs données.

Simultanément, nous assistons depuis quelques années à une multiplication d’environnements immersifs en 3D associant la réalité virtuelle et l’intelligence artificielle, appelés métavers. Dans ces nouveaux univers, les frontières entre les mondes physique et virtuel s’estompent pour proposer aux utilisateurs des expériences immersives avec les possibilités de naviguer d’une manière fluide entre les différents univers virtuels interconnectés.

Un changement majeur

Ces innovations devraient conduire à un changement majeur dans la conception des stratégies d’innovation des entreprises qui deviennent plus ouvertes et collaboratives. Dans ce contexte, les membres de la communauté deviennent des cocréateurs de valeur qui participent activement à toutes les étapes du processus d’innovation : du partage de l’information, à l’idéation en passant par le vote, le test des prototypes jusqu’à la conception.




À lire aussi :
Le marketing digital est-il en voie de disparition ?


Le métavers s’impose comme un levier stratégique pour des entreprises en quête de solutions innovantes, efficaces, et rapides. Par sa dimension immersive, Il permet à des individus d’horizons variés de se concerter virtuellement en vue de mutualiser leurs expertises et leurs connaissances pour dénouer de façon créative des problèmes complexes. Cet univers collaboratif devient un terrain dynamique où les idées se croisent et s’enrichissent pour stimuler l’intelligence collective et favoriser l’émergence de solutions innovantes.

L’exemple frappant de l’association Pencils of Promise proposant à ses collaborateurs et à ses membres bienfaiteurs une expérience immersive au sein d’une salle de classe au Ghana, à l’issue de laquelle les participants sont parvenus à mieux identifier les besoins réels et les défis de l’éducation dans cette région. Cette approche a ainsi facilité la conception de solutions pertinentes et ciblées, parfaitement adaptées aux réalités du terrain.

L’irruption de l’ethnographie immersive

Le succès d’une stratégie d’innovation réside dans la connaissance fine des attentes des consommateurs et de leurs comportements. Aujourd’hui, pour affiner les études de marché traditionnelles – telles que les groupes de discussion et les tests A/B, transposables dans des environnements virtuels –, l’ethnographie immersive s’impose plus en plus. Grâce à l’observation fine des expériences des utilisateurs, elle permet aux entreprises d’accéder et d’analyser, en temps réels, une multitude de données comportementales et émotionnelles. L’exploitation de ces informations permet de mieux saisir les motivations profondes des utilisateurs, d’identifier leurs besoins latents ainsi que leurs insatisfactions, rendant les stratégies d’innovations des entreprises proactives et agiles.

La réussite d’un nouveau produit ne relève pas seulement de son originalité, Il dépend surtout de sa fiabilité et de sa capacité à répondre aux attentes des consommateurs. Dans ce contexte, la phase de test préalable au lancement ainsi que la participation active des consommateurs dans ce processus de validation deviennent des étapes clés. Traditionnellement, les tests de produit s’appuient sur des descriptions verbales, des dessins, des images ou même des listes de caractéristiques. Bien qu’utiles pour fournir les premières impressions des utilisateurs sur le produit, ces techniques restent informatives et peu pertinentes en raison de l’absence d’interactions réel avec le produit, les feedbacks des utilisateurs demeurent superficiels.

Jumeaux numériques

L’avènement des jumeaux numériques, des répliques virtuelles d’objets physiques modifient la donne avec une approche plus authentique et expérientielle à cette phase de test. En effet, grâce à des simulations immersives et interactives, les entreprises sont en mesure de tester virtuellement leurs prototypes par un grand nombre d’utilisateurs. L’observation en temps réel des réactions des utilisateurs lors de l’usage du produit, accompagnées de feedback riches et pertinents, oriente les entreprises bien en amont sur les dysfonctionnements, les pistes d’améliorations et les nouvelles opportunités de développement. Ces décisions proactives limitent considérablement le taux d’échec des nouveaux produits.

Copropriété numérique

Les innovations ne s’arrêtent pas là. Faire participer activement les membres de la communauté au développement des produits n’est pas une nouveauté en soi. En revanche, leur offrir une copropriété numérique, un pouvoir de décision et une maîtrise complète de leurs données est totalement disruptif.

Kiki World, une start-up du secteur de la beauté a réussi ce pari en bousculant les codes de l’industrie. Le business model de la marque repose sur deux innovations majeures : d’une part, faire participer la communauté à toutes les phases de conception du produit en l’invitant à voter pour les produits qu’elle souhaiterait voir naître puis contribuer à leur cocréation lors d’ateliers virtuels, des discussions communautaires et des séances de brainstorming en ligne.

Le business model participatif de Kiki World est en parfaite adéquation avec les attentes du marché puisqu’il a réussi à mobiliser une communauté comptant plus de 12 000 membres autour de la création de produits cosmétiques. Chaque nouveau lancement suscite l’enthousiasme de la communauté, confirmant l’attractivité d’une approche collaborative pour les consommateurs. Cet engouement communautaire s’est traduit par une levée de fond de 7 millions de dollars soutenu par des investisseurs de renom, dont a16z Crypto et New Incubation Ventures d’Estée Lauder.

D’autre part, l’innovation de la marque réside dans son système de récompense basé sur la blockchain. Les membres se voient attribuer pour chacune de leurs contributions des points échangeables contre des produits gratuits ainsi qu’un jeton numérique non transférable. Le jeton étroitement lié au profil permet au bénéficiaire d’acquérir la propriété numérique des produits qu’il crée. La marque possède l’une des plus grandes communautés, avec plus de 1500 détenteurs de jetons. Les membres les plus actifs créent des expériences décentralisées grâce à des objets de collection NFT spécifiques aux produits contribuant ainsi à la création de la valeur.

Xerfi Canal 2022.

Un obstacle éthique ?

Hyperconnectée et créative, la génération Z semble être la cible idéale pour s’engager dans des stratégies de cocréation avec des entreprises innovantes. Néanmoins, bien que technophile, cette génération affiche un réel scepticisme à l’égard de l’utilité et l’usage des technologies du web 3.0 et du métavers, souvent perçues comme abstraites et complexes. La méconnaissance conjuguée à un cadre juridique encore ambigu, soulèvent des questions éthiques cruciales touchant à la confidentialité, à la sécurité des données et aux droits de propriété, incertitudes qui entravent l’enthousiasme de collaborer avec les marques et accentuent la réticence à partager les données.

La démocratisation de l’IA générative ouvre la voie à de nouvelles stratégies d’innovation automatisée profondément dynamiques. En effet, disposant d’outils capables de générer des idées et des concepts et de les concrétiser en un temps record, de plus en plus de marques cèdent leur processus créatif à des plates-formes comme MidJourney. Ces nouvelles stratégies qui s’appuient sur des algorithmes réduisent drastiquement le temps, les coûts et les risques associés à l’innovation. Alors, des interrogations et des questions cruciales s’imposent d’elles-mêmes : sommes-nous sur le point de signer la fin de l’ère de la cocréation ? Les communautés de marque risquent-elles à terme de se faire détrôner par les algorithmes ?

The Conversation

kaabachi souheila ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les communautés de marque prennent le pouvoir à l’ère du Web3 et du métavers – https://theconversation.com/quand-les-communautes-de-marque-prennent-le-pouvoir-a-lere-du-web3-et-du-metavers-256604

Comment les directions marketing B2B peuvent devenir actrices de l’innovation pilotée par les données

Source: The Conversation – France (in French) – By Ludivine Ravat, Assistant Professor of Marketing, International University of Monaco

La multiplication des données recueillies en ligne est aussi une chance pour le marketing « business-to-business » à destination des professionnels. L’innovation, la création de nouveaux services peuvent être stimulées grâce à de nouveaux outils. Encore faut-il posséder la bonne méthodologie.


Chaque fois que je monte dans ma voiture électrique, je reçois une notification sur mon téléphone portable m’indiquant que mon comportement de conduite est analysé afin d’optimiser différents réglages du véhicule, tels que l’efficacité énergétique, la position du siège ou encore le temps moyen passé dans la voiture. Je peux aussi connecter l’application de ma voiture à celle d’Alexa pour activer le chauffage et l’éclairage cinq minutes avant mon arrivée à la maison, parmi de nombreuses autres fonctionnalités – à condition d’accepter de relier mes appareils personnels à cette application.

Cet exemple illustre pleinement l’évolution des stratégies d’innovation dans l’industrie business-to-business (B2B), marquée par le passage d’une logique industrielle à une logique technologique centrée sur le client, visant à tirer parti des données pour développer une nouvelle forme d’innovation : l’innovation pilotée par les données].




À lire aussi :
La digitalisation peut améliorer l’expérience client, mais des défis uniques se posent pour les services complexes


Il n’est donc pas surprenant de constater que l’innovation pilotée par les données constitue l’un des piliers de la croissance au XXIe siècle, selon l’Organisation de coopération et de développement économiques (OCDE). Elle est devenue essentielle pour constituer un avantage concurrentiel. Les prévisions de la Commission européenne sur l’avenir de l’économie orientée données ouvrent la voie à son déploiement : d’ici à la fin de 2025, la valeur du secteur pourrait atteindre 829 milliards d’euros.

Des services créés grâce à la donnée

L’innovation pilotée par les données utilise stratégiquement les données en tant que ressource clé. Pour ce faire, elle s’appuie sur des technologies (intelligence artificielle, machine learning, IoT…) et sur des techniques analytiques avancées, avec pour objectif de transformer ces données en « insights » exploitables. Le but est de faire émerger de nouvelles offres de produits et services et générer des sources supplémentaires de revenus pour l’entreprise.

De nombreuses entreprises innovent déjà selon ces principes. Peloton, par exemple, entreprise américaine de fitness connecté, exploite les interactions entre ses équipements et ses utilisateurs pour créer de nouveaux services digitaux personnalisés, en partenariat avec des acteurs B2B (coachs, nutritionnistes, marques de sport). Autre exemple : GE Aviation collecte en temps réel les données issues des interactions entre les pilotes et les moteurs et fournit des analyses visant à optimiser les trajectoires de vol, en livrant une offre monétisée, fondée sur la donnée. Enfin, dernier exemple, Caterpillar a généralisé l’usage de technologies connectées à l’ensemble de ses produits, proposant des solutions digitales globalement intégrées, via des plateformes comme CAT Connect, qui comprend des abonnements modulables selon les profils clients.

De nouvelles sources de données

Utiliser les données pour innover n’est évidemment pas nouveau. C’est ce que fait depuis des années le marketing qui s’appuyait traditionnellement sur des données sociodémographiques et des études de consommateurs pour identifier des besoins non encore pourvus par le marché. Ce qui a changé ces dernières années, c’est la nature des données mobilisées, en l’occurrence celles issues du big data. Elles se caractérisent par leur volume massif, leur vitesse de prolifération, et leur grande variété. Elles proviennent de la digitalisation croissante des usages.

S’équiper de systèmes digitaux est un préalable nécessaire qui n’est pas toujours rempli. Selon le baromètre américain des directeurs marketing, 40 % des départements marketing – dont les deux tiers en B2B – estiment ne pas disposer des outils adéquats pour capter et exploiter pleinement les insights nécessaires à l’innovation.

Le rôle majeur du département marketing

Nos recherches visent à répondre à ce manque, en démontrant comment les directions marketing peuvent contribuer à construire une véritable capacité d’innovation pilotée par les données dans les environnements B2B. Nous avons mené une série d’entretiens avec des cadres dirigeants impliqués dans le marketing, la data ou l’innovation, issus d’entreprises basées en France, aux États-Unis, en Allemagne et au Japon, actives dans des secteurs variés : automobile, cosmétique, tourisme, énergie, services numériques, semi-conducteurs.

Notre analyse révèle que le déploiement stratégique de la capacité d’innovation pilotée par les données confère au marketing un rôle majeur en B2B, à l’interface entre les données clients, les besoins du marché et la chaîne de valeur de l’innovation). Ainsi, comme le précise un directeur marketing dans le secteur de la mobilité :

« On fait appel au marketing – et c’est une très bonne chose –, nous sommes donc chargés de faire le lien entre le client, l’utilisateur et le développeur de la solution ultime, qu’il soit interne ou externe à l’entreprise. »

Xerfi Canal.

Une démarche en trois étapes

Le marketing structure cette capacité en trois phases activables progressivement, grâce à des ressources et compétences ciblées.

  • Idéation : il s’agit de capter des connaissances externes, en favorisant l’engagement client et la collaboration avec les partenaires. On les croise ensuite avec les données internes pour alimenter un écosystème d’informations ouvert, indispensable à l’innovation pilotée par les données.

  • Analyse : cette phase transforme les données collectées en « insights actionnables ». Pour cela, Les entreprises, quelle que soit leur taille, s’appuient sur des outils de data visualisation, de modélisation ou de cocréation externalisée.

  • Déploiement : dernière étape avant la mise sur le marché. On teste, on ajuste, on décide grâce aux données activées. L’entreprise conçoit en mode agile, portée par le marketing comme chef d’orchestre. Toutefois, cette phase reste sous-investie en B2B, signe d’une pratique en devenir.

Les priorités pour les directions marketing

L’innovation pilotée par les données peut devenir le moteur de l’innovation en marketing. Le modèle proposé aide les décideurs à passer à l’action, étape par étape.

Côté talents, il s’agit de recruter des profils hybrides, capables d’analyser la complexité des données pour les transformer en véritables leviers créatifs.

L’apprentissage continu des technologies émergentes (réalité augmentée, intelligence artificielle) couplé à celui des nouvelles pratiques de l’innovation est essentiel pour construire un portefeuille de savoir-faire durable.

Enfin, sans culture digitale, pas d’innovation pilotée par les données. Le marketing participe activement à cette transition « data-driven » en formant les équipes transverses.

The Conversation

Ludivine Ravat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment les directions marketing B2B peuvent devenir actrices de l’innovation pilotée par les données – https://theconversation.com/comment-les-directions-marketing-b2b-peuvent-devenir-actrices-de-linnovation-pilotee-par-les-donnees-256590

Quand les communautés de marque prennent le pouvoir à l’ère du Web 3.0 et du métavers

Source: The Conversation – France (in French) – By kaabachi souheila, Enseignant-Chercheur, EBS Paris

Le métavers et toutes les technologies qui y sont associées sont en train de changer à bas bruit les modes de consommation. La place du consommateur ne peut plus être la même avant qu’après. Comment les marques doivent-elles en tenir compte pour rester dans la compétition ?


L’essor du Web 3.0 et du métavers annonce une nouvelle ère d’innovation pour les entreprises, ouvrant ainsi la voie à la création de modèles d’affaires disruptifs où les consommateurs deviennent des acteurs clés, des cocréateurs actifs voire des copropriétaires des produits. Avec une architecture décentralisée du Web3.0, les utilisateurs auront la possibilité de créer, de posséder et d’échanger des objets virtuels en toute liberté avec une totale maîtrise sur leurs données.

Simultanément, nous assistons depuis quelques années à une multiplication d’environnements immersifs en 3D associant la réalité virtuelle et l’intelligence artificielle, appelés métavers. Dans ces nouveaux univers, les frontières entre les mondes physique et virtuel s’estompent pour proposer aux utilisateurs des expériences immersives avec les possibilités de naviguer d’une manière fluide entre les différents univers virtuels interconnectés.

Un changement majeur

Ces innovations devraient conduire à un changement majeur dans la conception des stratégies d’innovation des entreprises qui deviennent plus ouvertes et collaboratives. Dans ce contexte, les membres de la communauté deviennent des cocréateurs de valeur qui participent activement à toutes les étapes du processus d’innovation : du partage de l’information, à l’idéation en passant par le vote, le test des prototypes jusqu’à la conception.




À lire aussi :
Le marketing digital est-il en voie de disparition ?


Le métavers s’impose comme un levier stratégique pour des entreprises en quête de solutions innovantes, efficaces, et rapides. Par sa dimension immersive, Il permet à des individus d’horizons variés de se concerter virtuellement en vue de mutualiser leurs expertises et leurs connaissances pour dénouer de façon créative des problèmes complexes. Cet univers collaboratif devient un terrain dynamique où les idées se croisent et s’enrichissent pour stimuler l’intelligence collective et favoriser l’émergence de solutions innovantes.

L’exemple frappant de l’association Pencils of Promise proposant à ses collaborateurs et à ses membres bienfaiteurs une expérience immersive au sein d’une salle de classe au Ghana, à l’issue de laquelle les participants sont parvenus à mieux identifier les besoins réels et les défis de l’éducation dans cette région. Cette approche a ainsi facilité la conception de solutions pertinentes et ciblées, parfaitement adaptées aux réalités du terrain.

L’irruption de l’ethnographie immersive

Le succès d’une stratégie d’innovation réside dans la connaissance fine des attentes des consommateurs et de leurs comportements. Aujourd’hui, pour affiner les études de marché traditionnelles – telles que les groupes de discussion et les tests A/B, transposables dans des environnements virtuels –, l’ethnographie immersive s’impose plus en plus. Grâce à l’observation fine des expériences des utilisateurs, elle permet aux entreprises d’accéder et d’analyser, en temps réels, une multitude de données comportementales et émotionnelles. L’exploitation de ces informations permet de mieux saisir les motivations profondes des utilisateurs, d’identifier leurs besoins latents ainsi que leurs insatisfactions, rendant les stratégies d’innovations des entreprises proactives et agiles.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


La réussite d’un nouveau produit ne relève pas seulement de son originalité, Il dépend surtout de sa fiabilité et de sa capacité à répondre aux attentes des consommateurs. Dans ce contexte, la phase de test préalable au lancement ainsi que la participation active des consommateurs dans ce processus de validation deviennent des étapes clés. Traditionnellement, les tests de produit s’appuient sur des descriptions verbales, des dessins, des images ou même des listes de caractéristiques. Bien qu’utiles pour fournir les premières impressions des utilisateurs sur le produit, ces techniques restent informatives et peu pertinentes en raison de l’absence d’interactions réel avec le produit, les feedbacks des utilisateurs demeurent superficiels.

Jumeaux numériques

L’avènement des jumeaux numériques, des répliques virtuelles d’objets physiques modifient la donne avec une approche plus authentique et expérientielle à cette phase de test. En effet, grâce à des simulations immersives et interactives, les entreprises sont en mesure de tester virtuellement leurs prototypes par un grand nombre d’utilisateurs. L’observation en temps réel des réactions des utilisateurs lors de l’usage du produit, accompagnées de feedback riches et pertinents, oriente les entreprises bien en amont sur les dysfonctionnements, les pistes d’améliorations et les nouvelles opportunités de développement. Ces décisions proactives limitent considérablement le taux d’échec des nouveaux produits.

Copropriété numérique

Les innovations ne s’arrêtent pas là. Faire participer activement les membres de la communauté au développement des produits n’est pas une nouveauté en soi. En revanche, leur offrir une copropriété numérique, un pouvoir de décision et une maîtrise complète de leurs données est totalement disruptif.

Kiki World, une start-up du secteur de la beauté a réussi ce pari en bousculant les codes de l’industrie. Le business model de la marque repose sur deux innovations majeures : d’une part, faire participer la communauté à toutes les phases de conception du produit en l’invitant à voter pour les produits qu’elle souhaiterait voir naître puis contribuer à leur cocréation lors d’ateliers virtuels, des discussions communautaires et des séances de brainstorming en ligne.

Le business model participatif de Kiki World est en parfaite adéquation avec les attentes du marché puisqu’il a réussi à mobiliser une communauté comptant plus de 12 000 membres autour de la création de produits cosmétiques. Chaque nouveau lancement suscite l’enthousiasme de la communauté, confirmant l’attractivité d’une approche collaborative pour les consommateurs. Cet engouement communautaire s’est traduit par une levée de fond de 7 millions de dollars soutenu par des investisseurs de renom, dont a16z Crypto et New Incubation Ventures d’Estée Lauder.

D’autre part, l’innovation de la marque réside dans son système de récompense basé sur la blockchain. Les membres se voient attribuer pour chacune de leurs contributions des points échangeables contre des produits gratuits ainsi qu’un jeton numérique non transférable. Le jeton étroitement lié au profil permet au bénéficiaire d’acquérir la propriété numérique des produits qu’il crée. La marque possède l’une des plus grandes communautés, avec plus de 1500 détenteurs de jetons. Les membres les plus actifs créent des expériences décentralisées grâce à des objets de collection NFT spécifiques aux produits contribuant ainsi à la création de la valeur.

Xerfi Canal 2022.

Un obstacle éthique ?

Hyperconnectée et créative, la génération Z semble être la cible idéale pour s’engager dans des stratégies de cocréation avec des entreprises innovantes. Néanmoins, bien que technophile, cette génération affiche un réel scepticisme à l’égard de l’utilité et l’usage des technologies du web 3.0 et du métavers, souvent perçues comme abstraites et complexes. La méconnaissance conjuguée à un cadre juridique encore ambigu, soulèvent des questions éthiques cruciales touchant à la confidentialité, à la sécurité des données et aux droits de propriété, incertitudes qui entravent l’enthousiasme de collaborer avec les marques et accentuent la réticence à partager les données.

La démocratisation de l’IA générative ouvre la voie à de nouvelles stratégies d’innovation automatisée profondément dynamiques. En effet, disposant d’outils capables de générer des idées et des concepts et de les concrétiser en un temps record, de plus en plus de marques cèdent leur processus créatif à des plates-formes comme MidJourney. Ces nouvelles stratégies qui s’appuient sur des algorithmes réduisent drastiquement le temps, les coûts et les risques associés à l’innovation. Alors, des interrogations et des questions cruciales s’imposent d’elles-mêmes : sommes-nous sur le point de signer la fin de l’ère de la cocréation ? Les communautés de marque risquent-elles à terme de se faire détrôner par les algorithmes ?

The Conversation

kaabachi souheila ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les communautés de marque prennent le pouvoir à l’ère du Web 3.0 et du métavers – https://theconversation.com/quand-les-communautes-de-marque-prennent-le-pouvoir-a-lere-du-web-3-0-et-du-metavers-256604

Un manager qui veille plutôt qu’un chef qui surveille, ce qu’attendent les jeunes diplômés

Source: The Conversation – France (in French) – By Manuelle Malot, Directrice Carrières et NewGen Talent Centre, EDHEC Business School

Les jeunes diplômés redoutent le micro-management, véritable frein à leur engagement, et appellent à des pratiques managériales qui favorisent un environnement de travail bienveillant, responsabilisant où la confiance est un pré-requis. Fizkes/Shutterstock

Pourquoi certains jeunes diplômés s’épanouissent dès leur premier jour de travail, tandis que d’autres vivent difficilement leur insertion en entreprise ? La réponse tient souvent à une figure pivot : le manager.


Nous avons passé au crible près de 2 000 réponses d’anciens d’écoles de management et d’ingénieurs en début de carrière avec moins de six ans d’expérience professionnelle. Entre statistiques massives et verbatims sans filtre, un portrait-robot clair et moderne d’un « bon chef » se dessine.

Un bon chef veille ? Surveille ? Éveille ?

Rôle modèle

Premier enseignement : la nouvelle génération place la transparence et l’honnêteté tout en haut des attentes vis-à-vis de leurs supérieurs. Cela implique une clarté dans les objectifs :

« Un manager doit avoir les idées claires, savoir expliquer les attendus à l’équipe, créer une dynamique de travail et assurer une bonne circulation des informations »,

résume un des diplômés interrogés.

Facilitateur pour son équipe, le manager apporte la vision à grande échelle. Il doit être capable d’engager ses troupes dans le projet commun. Il assoit sa légitimité sur son exemplarité et ses compétences, autant techniques qu’humaines. Aujourd’hui, un manager dont l’autorité ne serait que statutaire a peu de chance de réussir.

Les attentes vis-à-vis des managers par les jeunes diplômés.
Fourni par l’auteur

En plus de toutes ces qualités, 40 % pensent qu’il est très important qu’un chef soit inspirant. Ce besoin de role model est plus prégnant auprès des jeunes diplômés d’écoles de management : 50 % d’entre eux considèrent très important d’avoir un manager inspirant alors que ce n’est le cas que pour 34 % des diplômés d’écoles d’ingénieurs. Un des répondants décrit le profil du manager parfait :

« Il doit être passé par mon poste, posséder une solide expertise technique et faire preuve d’une bonne communication sur les projets et le travail à accomplir, tout en veillant au bien-être de son équipe. »

Peur du micro-management

La relation de confiance est l’autre élément clé que les jeunes souhaitent fortement retrouver auprès de leurs managers : ils redoutent le micro-management, véritable frein à leur engagement et appellent à des pratiques managériales qui favorisent un environnement de travail bienveillant, responsabilisant où la confiance est un préalable. C’est un double défi pour les managers qui doivent à la fois déléguer avec sérénité et se montrer rassurants :

« Pour moi, le manager idéal accorde sa confiance, ne me micro-manage pas, me laisse être autonome tout en me donnant un cadre. »

La figure du manager qui veille plutôt que celui qui surveille fait consensus parmi ces jeunes diplômés. Ils sont relativement satisfaits de leur situation actuelle : près de 8 d’entre eux sur 10 déclarent bénéficier de cette transparence, et 9 sur 10 de la confiance, si importante à leurs yeux.

La moitié d’entre eux estiment aussi « très importante » la reconnaissance des managers vis-à-vis de leurs performances et des efforts qu’ils déploient dans leurs missions. Cette reconnaissance est plus souvent recherchée par les jeunes issus d’écoles de management (54 %) que ceux d’écoles d’ingénieurs (45 %).

C’est une génération qui a un fort désir d’évaluer leurs impacts non seulement au sein de l’entreprise, mais aussi plus largement dans la société. Le manager devient leur boussole du travail bien fait et de son utilité. Il doit être « franc autant sur les succès que les points à améliorer, reconnaissant du travail accompli », mentionne un des interviewés, « il doit donner une direction et un sens au travail de ses collaborateurs ».

« À notre écoute »

En parallèle, l’écoute est la qualité le plus souvent mentionnée dans les descriptions d’un manager idéal : 4 verbatims sur 10 mentionnent cette attitude. Elle est souvent associée à la capacité d’un supérieur hiérarchique à bien gérer la charge de travail en vue de « protéger ses collaborateurs du stress » et « prendre position vis-à-vis de demandes externes qui seraient trop exigeantes ». Ce rôle de protecteur et son aptitude à défendre les intérêts de l’équipe sont d’ailleurs jugés très importants par la moitié des répondants (49,4 %).




À lire aussi :
Managers, et si vous redécouvriez l’art de la débrouille ?


L’étude montre aussi que ces jeunes actifs rêvent d’un manager attentif à leurs aspirations de carrière et envies de progresser. Leur premier objectif professionnel est de continuer à acquérir des compétences et se développer personnellement. Conscients des évolutions très rapides des compétences recherchées sur le marché de l’emploi, ils espèrent pouvoir compter sur leur N+1 pour jouer le rôle de coach/mentor en étant « à leur écoute, en accompagnant leur montée en compétences et en les conseillant sur les possibilités d’évolution au sein de l’entreprise en matière de responsabilités et de salaire ».

Que ce soit pour évaluer leur performance ou pour progresser professionnellement, les jeunes d’aujourd’hui tablent beaucoup sur les feed-backs de leurs managers.

Ils sont un tiers à estimer que c’est un rôle très important de leur supérieur (86 % si on additionne les modalités « important » et « très important »). Un jeune nous explique que « le manager doit prendre le temps de revoir les travaux et donner des conseils pour s’améliorer ».

Pourtant, le feed-back ne semble toujours pas faire complètement partie des pratiques managériales : 43 % des interrogés n’en bénéficient pas de manière régulière, 36 % des jeunes actifs issus d’écoles de management vs 47 % de ceux issus d’écoles d’ingénieurs. Près de la moitié (47 %) ne reçoivent pas non plus d’aide de leur responsable d’équipe pour développer leur employabilité que ce soit par le partage de compétences ou de réseau.

« À la fois guide, mentor et protecteur »

Les jeunes actifs diplômés brossent aujourd’hui un portrait sans ambiguïté de ce qu’ils attendent de leur manager : un leader accessible, à l’écoute, qui inspire confiance, donne du sens au travail et donne « envie d’avoir envie » et de s’engager… Trop souvent, nous disent les jeunes collaborateurs, le manager se plaint d’être pris en étau entre ses objectifs fixés par sa hiérarchie et les états d’âme de ses équipes.

Finie donc l’époque du chef autoritaire et distant : place à un encadrant capable de conjuguer clarté des objectifs, reconnaissance des efforts et accompagnement dans le développement professionnel. Pour cette génération en quête de sens et d’impact, le manager idéal est à la fois guide, mentor et protecteur, capable de créer un cadre de travail stimulant et bienveillant.

Si de nombreux jeunes déclarent déjà bénéficier de relations managériales satisfaisantes, les marges de progression restent réelles, notamment en matière de feed-backs réguliers et de soutien à l’employabilité. Plus que jamais, la qualité du management s’impose comme un levier décisif d’engagement et de fidélisation pour les jeunes talents en entreprise.

Portrait type d’un manager idéal

« Une personne qui fait confiance et laisse toute autonomie dans les tâches du quotidien. Qui est consciente des points forts et points faibles et aide à s’améliorer et à progresser. Qui valorise le feed-back et en donne régulièrement. Qui manage par l’exemple, en instaurant elle-même une culture bienveillante, ambitieuse, intelligente. Qui joue un rôle de mentor, défend et représente son équipe. Qui est à l’écoute et présente quand on a besoin d’elle. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Un manager qui veille plutôt qu’un chef qui surveille, ce qu’attendent les jeunes diplômés – https://theconversation.com/un-manager-qui-veille-plutot-quun-chef-qui-surveille-ce-quattendent-les-jeunes-diplomes-261286