Sources de multiples craintes à leur apparition, taxés d’isoler les jeunes et de les exposer à des contenus violents, les jeux vidéo sont devenus des espaces de dialogue où se négocient des règles familiales et où se transmet un patrimoine ludique. Retour sur ce changement de statut qui dessine une évolution des liens entre parents et enfants à l’ère numérique.
Longtemps, le jeu vidéo a été un objet suspect. À son arrivée dans les foyers occidentaux, au cours des années 1970 et 1980, il s’est imposé comme un intrus silencieux, échappant largement au regard des adultes. Les premières consoles domestiques – de l’Atari 2600 à la Nintendo – inaugurent une pratique majoritairement solitaire, absorbante, et perçue comme coupée du monde social.
Très vite, le jeu vidéo cristallise des paniques morales comparables à celles qu’avaient suscitées avant lui le rock, la bande dessinée ou la télévision.
Dans les années 1990, la peur change de registre. Avec la médiatisation des jeux dits « violents » – de Doom à Grand Theft Auto – le jeu vidéo est régulièrement pointé du doigt dans les discours sur la délinquance juvénile. Les controverses autour de la violence, de l’addiction ou de l’isolement social se multiplient, relayées par des travaux scientifiques souvent contradictoires.
Le jeu vidéo, terrain de crispations éducatives ou de dialogue
Un premier basculement s’opère toutefois au tournant des années 2000. L’essor du jeu en réseau, puis du jeu en ligne massif (World of Warcraft, Counter Strike), déplace la question : on ne joue plus seulement seul, mais avec d’autres joueurs qui peuvent être à proximité (en LAN) comme à l’autre bout du monde. Le jeu vidéo devient un espace de sociabilité, de coopération, de compétition réglée.
Dans le même temps, la Wii de Nintendo, puis les jeux dits casual entrent physiquement dans le salon et reconfigurent les usages familiaux, dépassant les frontières entre générations.
Aujourd’hui, le statut du jeu vidéo s’est renversé. Parents et enfants jouent ensemble, discutent des univers, des règles, des émotions éprouvées. Les jeux indépendants – par exemple That Dragon, Cancer ; Celeste) – abordent des thèmes existentiels, politiques ou intimes tandis que des titres grand public comme Minecraft ou Animal Crossing deviennent des terrains d’expérimentation partagés. C’est d’autant plus vrai que la pratique vidéoludique se fait essentiellement à la maison (86 %), comme l’indique l’enquête Ludespace qui a servi à l’ouvrage la Fin du game ? Les jeux vidéo au quotidien (2021).
Ce renversement n’efface pas les tensions. Le jeu vidéo reste un lieu de crispation éducative, autour du temps d’écran, de la régulation, du contrôle parental. Mais il est désormais aussi un objet médiateur, à partir duquel se négocient des règles, se transmettent des valeurs, se construisent des récits communs. D’objet honni à espace de rencontre, le jeu vidéo raconte ainsi, en creux, l’évolution des liens familiaux à l’ère numérique.
La transmission d’un patrimoine ludique
La dernière enquête annuelle du Syndicat des éditeurs de logiciels de loisirs (SELL) indique que plus de 7 Français sur 10 pratiquent régulièrement le jeu vidéo. Les parents des enfants et adolescents actuels sont dans la tranche d’âge 35-50 ans. Cela signifie qu’ils étaient eux-mêmes enfants ou adolescents entre 1985 et 2005 et sont donc potentiellement détenteurs d’une culture du jeu vidéo, des premières consoles pour les plus anciens aux jeux en 3D des années 2000. Ils ont aussi connu le phénomène du « jeu portable » avec la Game Boy et ses suites (1989-2003), la Nintendo DS (2004) voire la PSP (2007).
Culturellement, pour cette génération, le jeu vidéo n’est pas une pratique nouvelle, et elle ne se cantonne pas à l’enfance ou l’adolescence, puisque 75 % de ces parents continuent à jouer. Ils ont aussi baigné dans la culture mondialisée du média et sont familiers de ses icônes, qui font partie intégrante de leur vécu depuis l’enfance.
« Les 40 ans de Super Mario Bros », France 24, septembre 2025.
De ce point de vue, la transmission du patrimoine ludique à la génération suivante au sein de l’espace familial est cruciale, et visible dans les enquêtes publiques : l’intérêt pour une franchise, qui suppose la continuité culturelle, motive pratiquement un tiers des achats. Par ailleurs, qu’il s’agisse du jeu en ligne ou du jeu en local, plus de la moitié des joueurs, toutes générations confondues (autour de 55 %) indiquent qu’ils pratiquent à plusieurs et que le jeu vidéo est un loisir pour toute la famille à 88 %.
La place des « machines » dans l’espace familial
L’interrogation porte aussi sur ce qui se transmet. S’agit-il de personnages, de gameplays (façons de jouer) ou d’univers, tels qu’ils sont mis en avant par les éditeurs ou bien y-a-t-il autre chose, moins visible ou qui échappe au discours marketing et aux études de publics ?
La constitution de la famille comme telle qui a muté. Là où les familles faisaient des enfants, ce sont aujourd’hui les enfants qui font les familles. La transmission et la filiation s’en trouvent modifiées. Ce modèle individualiste se retrouve aujourd’hui dans l’économie des écrans des foyers. Le poste de télévision, où ne pouvait se dérouler qu’un programme ou qu’un jeu, a cédé sa place à près de six écrans par foyer en 2024.
Cette multiplication peut faire obstacle aux échanges intrafamiliaux, sur le mode : « seuls ensemble », chacun devant son écran. Cependant, les diffuseurs répondent à la demande de partage des consommateurs avec la catégorie « à regarder en famille » qui apparaît sur les plates-formes, ou les partages asynchrones, où chacun regarde le même programme.
Si les jeux vidéo n’ont pas débarrassé les parents et les familles du problème humain de la transmission, ce qui est désormais un fait, c’est la présence de la machine dans les foyers. Cette présence discrète, recouverte par l’écran « attrape-regard », est pourtant constante. Jouer à un jeu vidéo, c’est toujours jouer avec (ou contre) la machine. Ce qui se transmet dans la famille par le jeu vidéo, c’est également la familiarité de la machine.
Une culture en réinvention perpétuelle
Ernst Jentsch, psychiatre, avait mis à jour cet Unheimliche, cet inquiétant familier que l’essai de Sigmund Freud a popularisé. Ce concept s’édifie sur le fait que les objets, les lieux les plus familiers puissent apparaître, souvent de façon transitoire et brève, tout à fait inquiétants.
Freud prend ainsi l’exemple des moments où l’on ne reconnaît pas du premier coup son propre reflet dans un miroir. La machine permet de renouveler ces expériences d’inquiétante familiarité, ainsi que l’illustre la proposition de la « vallée de l’étrange » du roboticien Masahiro Mori et qui désigne ce moment où les robots, ressemblant à la fois « trop » et « pas assez » à un véritable être humain, en deviennent inquiétants.
Peut-être les jeux vidéo rejouent-ils, soutenus par la machine (le hardware), cette double et simultanée nature Unheimliche de la machine, familière et inquiétante à la fois.
Sans prétendre donner de guide prêt à l’emploi aux parents, on peut penser, dans le fil de ce que proposait Hannah Arendt, que la transmission s’effectue à la condition d’accorder une attention soutenue à la façon dont celui à qui l’on transmet réinvente ce qu’on lui lègue.
Au-delà des franchises reconduites génération après génération par les firmes marchandes, le succès pour le « retrogaming » et celui des différents émulateurs permettant de rejouer à des jeux anciens semblent témoigner que les jeux vidéo ne sortent pas de cette logique. Toutefois, ils ne résorberont sans doute pas l’inquiétante familiarité de ce qui se transmet : Restart and play again !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: The Conversation – in French – By Guillaume van Niel, Directeur de recherche, chef d’équipe, responsable de plateforme organismes modèles alternatifs (poisson zèbre) UMR_S 1307 Centre de Recherche en Cancérologie et Immunologie Intégrée Nantes Angers, Nantes Université
Crèmes antirides, traitements contre la calvitie, « régénération cellulaire »… À en croire certains, les exosomes auraient de nombreuses vertus. Au-delà des sirènes du marketing, ces minuscules vésicules produites par nos cellules génèrent de nombreux espoirs dans le secteur de la recherche pharmaceutique, qu’il s’agisse de lutter contre le cancer, la maladie d’Alzheimer, ou d’établir des diagnostics.
Vous avez sûrement déjà lu le mot «exosomes» sur des étiquettes de produits cosmétiques vantant les dernières innovations en matière d’amélioration de la qualité de la peau, voire de lutte contre la calvitie. Si ces allégations marketing peuvent faire lever un sourcil dubitatif, la recherche sur les exosomes n’a, elle, rien de fantaisiste.
Ces minuscules particules, qui appartiennent à la grande «famille» des vésicules extracellulaires, sont étudiées par des milliers de chercheurs partout dans le monde. Il faut dire qu’elles ont un énorme potentiel, puisqu’elles pourraient ouvrir la voie à des traitements innovants pour mieux prendre en charge des maladies aussi diverses que le cancer, les maladies neurodégénératives et les infections virales.
Il reste cependant de nombreux défis scientifiques et technologiques à surmonter avant d’en arriver là. Faisons le point sur l’avancée des connaissances sur ce sujet.
De déchets cellulaires à acteurs majeurs dans l’organisme
Les vésicules extracellulaires sont de minuscules particules qui contiennent des protéines, des acides nucléiques, des lipides et des sucres, et qui sont libérées par les cellules (humaines, animales ou végétales) dans leur environnement. Elles sont produites soit activement, par sécrétion ou déformation de la membrane des cellules, soit passivement, après la mort cellulaire. On en dénombre actuellement jusqu’à 25 sous-types.
De taille variable, elles peuvent mesurer de 50 nanomètres (la taille d’un virus) à quelques micromètres (μm). Pour mémoire, une cellule humaine mesure en moyenne 50 μm, tandis que le diamètre d’un cheveu est compris entre 50 et 100 µm.
Les premières études menées sur les vésicules extracellulaires dans les années 1940 les ont cataloguées comme des «déchets» cellulaires. Si cette fonction reste d’actualité (et mériterait d’être davantage étudiée), c’est un autre de leur rôle qui a véritablement éveillé l’intérêt des scientifiques : celui de messager intercellulaire.
Des vésicules pour communiquer
Pour communiquer entre elles, les cellules disposent de différents moyens. Les cellules adjacentes peuvent échanger des informations directement par contact, grâce à des molécules qui constituent des jonctions ou des synapses. Lorsqu’il s’agit de communiquer à distance, les cellules ont recours à des messagers chimiques (les hormones constituent l’un des exemples les plus connus d’un tel mode de communication).
Dans les années 1990, les scientifiques ont mis en évidence la capacité de certaines vésicules extracellulaires à participer elles aussi à la communication entre cellules. Ils ont en effet remarqué que de telles vésicules pouvaient être transférées d’une cellule émettrice à une cellule réceptrice, et que leur intériorisation par cette dernière s’accompagnait d’une modification de son apparence (son «phénotype», selon le terme scientifique), témoignant de capacités de signalisation, voire de transfert de matériel.
Avant tout, crevons l’abcès : à l’heure actuelle, si les vésicules extracellulaires font rêver les industriels de la beauté pour leurs supposées propriétés régénératrices exceptionnelles, leur efficacité potentielle reste à démontrer.
Leurs effets «anti-âge» ne sont pas scientifiquement prouvés, pas plus qu’un effet supérieur sur le teint ou la texture de la peau par rapport à des «principes actifs» classiquement utilisés dans les produits cosmétiques.
Exosomes et cosmétiques: attention aux risques
Certaines cliniques d’esthétique proposent l’utilisation de ce qui est présenté comme des exosomes d’origine humaine (dans l’Union européenne, leur utilisation est interdite en médecine esthétique), parfois même en microperforation (une pratique autorisée en France, contrairement à l’injection, interdite). Ces pratiques posent question, car la nature, l’origine, la qualité et la traçabilité de ces produits restent opaques (concentration, degré de pureté, toxicité, innocuité du traitement, risque viral…).
Cela ne signifie pas pour autant que les vésicules extracellulaires n’ont aucun intérêt : leur potentiel en médecine est indéniable, et concerne de nombreux domaines, du diagnostic à la prise en charge thérapeutique.
Utilisées comme biomarqueurs, les vésicules extracellulaires pourraient par exemple permettre d’évaluer les capacités de résilience des tissus, de détecter précocement les maladies, ou encore de mieux personnaliser les traitements et de surveiller en continu la santé des patients.
Certaines vésicules extracellulaires pourraient être utilisées comme biomarqueurs circulants. Cette approche repose sur le fait que ces vésicules sont libérées dans les fluides biologiques – ce qui peut faciliter leur récupération – et que leurs nombres (ainsi que leur composition) peuvent refléter l’état de la cellule qui les produit.
Les vésicules extracellulaires sont en quelque sorte le miroir des facultés d’adaptation ou des changements pathologiques dans l’organisme.
Des essais précliniques déjà en cours
Un exemple concret d’utilisation des vésicules extracellulaires en tant que biomarqueurs est la mise sur le marché des tests diagnostiques destinés à détecter précocement le cancer de la prostate, en utilisant les vésicules extracellulaires urinaires. Cette approche offre une alternative moins invasive et potentiellement plus précise que les tests traditionnels.
Divers essais cliniques sont en cours, concernant surtout la détection de tumeurs ou de maladies neurodégénératives, même si l’utilité des vésicules extracellulaires dans les contextes d’autres pathologies, comme les maladies métaboliques et inflammatoires, est aussi explorée.
S’il s’agit en immense majorité d’essais préliminaires, de petite taille, les espoirs soulevés sont à la mesure des enjeux : fournir des outils capables de détecter précocement des maladies dont les symptômes peuvent mettre des décennies à se manifester.
Il faut néanmoins garder à l’esprit qu’un tiers des essais cliniques ont pour but de valider l’utilisation des vésicules extracellulaires en tant que biomarqueurs utilisables en complément à différents tests diagnostiques déjà existants.
Les chercheurs explorent également l’utilisation de telles vésicules comme marqueurs de l’efficacité de certains traitements. L’espoir est qu’il soit possible de suivre la réponse aux traitements des patients en suivant les variations du contenu de leurs vésicules extracellulaires, et ainsi d’adapter la prise en charge en temps réel.
Au-delà du diagnostic et du suivi de la réponse aux traitements, ces particules pourraient aussi avoir un rôle à jouer en tant que vecteurs de thérapies.
Traiter les maladies de manière plus ciblée, plus sûre et plus efficace
Le potentiel des véhicules extracellulaires en tant qu’agents thérapeutiques est également activement évalué. Modifiées, elles pourraient par exemple constituer des nanovecteurs, autrement dit des véhicules nanoscopiques capables de transporter des médicaments à des endroits très précis de l’organisme.
Par ailleurs, leur composition étant partiellement commune à celle des cellules qui les produisent, elles en partagent aussi certaines fonctions.
Cette fonctionnalité a notamment été évaluée dans l’un des premiers essais cliniques sur les vésicules extracellulaires de phase 2 (où l’efficacité par rapport aux traitements classiques peut être évaluée). Mené en France, cet essai utilisait des vésicules extracellulaires de cellules dendritiques mises en présence avec un antigène tumoral (un fragment de tumeur capable de déclencher une réponse immunitaire lorsqu’il est présenté par les cellules dendritiques aux autres cellules immunitaires).
L’objectif était d’éduquer le système immunitaire des patients atteints de cancer contre leur propre tumeur. Cet essai a cependant été interrompu après traitement de 22 patients, car les réponses des patients ne se sont pas avérées à la hauteur des espoirs, et les cliniciens souhaitaient plutôt essayer d’autres traitements expérimentaux d’immunothérapie non basée sur les exosomes.
Les vésicules auraient alors des avantages significatifs par rapport aux cellules souches, en particulier d’être non-réplicatives, évitant une «infection» de l’organisme, congelables, et de provoquer peu de réactions du système immunitaire.
D’autres propriétés des vésicules extracellulaires en font des candidats idéaux pour le ciblage thérapeutique. Elles peuvent en effet être utilisées pour transporter des molécules bioactives (protéines, ARN, etc.), protégeant ainsi ces molécules d’une dégradation naturelle qui diminuerait leur efficacité. À l’inverse, elles peuvent servir à isoler des principes actifs qui seraient trop toxiques pour l’organisme sous forme soluble.
Conséquence de l’espoir soulevé par ces approches, des projections récentes indiquent que la taille du marché mondial des vésicules extracellulaires pourrait atteindre plus de 200 millions de dollars en 2025, avec, dans les années à venir, un taux de croissance exponentiel.
Certains experts du domaine de l’application thérapeutique des vésicules extracellulaires considèrent que le marché «maladies» risque de se trouver prochainement, voire serait déjà, dans la phase de «creux de la désillusion» après avoir atteint un «pic d’attentes exagérées». La principale raison de cette désillusion est l’immaturité de ce domaine de recherche, notamment en matière de mécanismes d’action et d’outils diagnostiques validés.
Des structures très difficiles à étudier
La diversité des vésicules extracellulaires (origine, taille, contenu) rend leur isolement, leur analyse et leur classification très complexes.
Les extraire d’un fluide biologique ou d’une culture cellulaire nécessite des techniques de pointe. Cependant, même les méthodes les plus sophistiquées peuvent co-isoler des débris cellulaires ou des contaminants, ce qui complique l’interprétation des résultats.
Depuis 2005, les dizaines d’études cliniques portant sur les vésicules extracellulaires employées comme médicaments ont eu recours à des méthodes d’isolement et de caractérisation très variées, ce qui rend ces études difficiles à comparer.
Par ailleurs, ces travaux fournissent peu ou pas d’informations sur les mécanismes d’action, en particulier concernant leur capacité à contrer les mécanismes à l’origine des maladies. Or, cette information est nécessaire pour pouvoir tester et valider chaque préparation avant utilisation.
En outre, alors que l’on sait que la grande majorité des vésicules extracellulaires sont éliminées du système vasculaire en quelques minutes, les études disponibles n’ont rapporté aucune donnée concernant leur devenir dans les organismes (pharmacocinétique), l’endroit où elles se retrouvent (biodistribution) ou leur efficacité de ciblage.
Avant d’arriver à une mise sur le marché de traitements à base de vésicules extracellulaires, de nombreux obstacles restent encore à surmonter.
Il faudra notamment :
améliorer et standardiser les méthodes de production et d’isolement des vésicules extracellulaires à grande échelle tout en conservant leur propriété active, par exemple régénératrice ;
développer de nouveaux modèles précliniques pour mieux appréhender leur comportement et leur devenir une fois injectées dans le corps humain, que ce soit leurs propriétés pharmacocinétiques, pharmacodynamiques et leur mécanisme d’action ;
établir des normes réglementaires de sécurité et d’efficacité pour les traitements à base de vésicules extracellulaires.
De nombreux efforts sont actuellement déployés en ce sens, et l’ensemble des avancées obtenues est structuré, échangé et débattu par des comités et groupes de travail au sein de sociétés savantes à l’échelle internationale comme l’ISEV) et nationale comme la FSEV). Les enjeux sont importants, il en va par exemple de la crédibilité d’usage de l’information scientifique, et de la souveraineté scientifique.
Soulignons que le passé récent nous a démontré que les obstacles techniques ne sont pas forcément insurmontables : voici 30 ans, peu de gens croyaient au potentiel thérapeutique des ARN messagers.
En attendant d’obtenir des données scientifiques solides concernant l’efficacité des exosomes, leurs mécanismes d’action, et leur valeur ajoutée par rapport aux approches existantes, mieux vaut écouter les mises en garde répétées de la communauté scientifique. Et éviter de céder à la surenchère et à la «scienceploitation» – autrement dit, l’exploitation de termes scientifiques pour vendre des produits sans preuves solides d’efficacité – par certains acteurs du marché de la cosmétique.
Guillaume van Niel a reçu des financements de l’ANR, La région Pays de la Loire, France Alzheimer, l’ARC, l’INCA, la fondation Recherche Alzheimer, la communauté Européene. Guillaume van Niel est co-fondateur et ancien président de la FSEV.
Christian Neri a reçu des financements de l’ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l’étranger (ISEV).
Clotilde Théry a reçu des financements de l’ANR, l’INCa, et de fondations (ARC, FRM, Fondation de France). Clotilde Théry est co-fondatrice et ancienne présidente de la société internationale des EVs (ISEV), et co-fondatrice et ancienne vice-trésorière de la sociéte française des EVs (FSEV).
Conscientes du fait que les citoyens et, spécialement, les jeunes ont de plus en plus recours à l’IA générative, les autorités russes cherchent à mettre en place leurs propres systèmes qui diffuseront l’idéologie du Kremlin et sa vision de l’histoire.
Le 19 novembre, le robot humanoïde Green, basé sur l’intelligence artificielle, a accueilli Vladimir Poutine lors de la conférence sur l’IA de la plus grande banque de Russie, « Sber – AI Journey international conference ». Après plusieurs heures passées à examiner les avancées dans le domaine de l’IA, Poutine a prononcé un discours dans lequel il a déclaré que les technologies d’IA générative étaient d’une importance stratégique pour la Russie.
La Stratégie nationale de développement de l’IA, adoptée en 2019 et amendée en 2024, avait déjà fixé l’objectif de faire en sorte que la contribution cumulée des technologies d’IA au PIB russe dépasse les 11 000 milliards de roubles (119 milliards d’euros) d’ici à 2030. Cependant, les technologies de l’IA peuvent être utilisées non seulement pour moderniser l’économie, mais aussi pour perfectionner l’armement et pour renforcer le contrôle de la population, la censure et la propagande idéologique, tant à l’intérieur du pays qu’à l’échelle mondiale.
Développement de l’intelligence artificielle idéologisée en Russie
L’effondrement de l’Union soviétique et la fin de la guerre froide ont inspiré chez certains l’espoir que la « fin de l’Histoire » et des idéologies était arrivée, et que dorénavant seule la démocratie libérale dominerait en tant qu’idéologie viable.
Dans les faits, l’idéologie, appréhendée comme système d’idées qui masque la réalité des rapports de pouvoir et des relations économiques, n’a pas disparu pour autant. Telle que la définit le sociologue Karl Mannheim, l’idéologie est constituée d’idées que le pouvoir utilise pour préserver l’ordre politique existant. Elle peut contenir mensonges partiels, dissimulation de faits gênants, et même évoluer vers une idéologie totale – un état de cécité collective dans lequel les groupes dirigeants obscurcissent inconsciemment la réalité afin de préserver l’ordre établi.
Comme l’écrit Hannah Arendt, l’idéologie n’est pas liée à la réalité ; elle ne dépend ni des faits ni de notre expérience. C’est littéralement la logique d’une idée, c’est-à-dire la déduction des principes d’une nouvelle réalité à partir d’idées majeures, qu’il s’agisse de l’idée de supériorité raciale, de domination mondiale ou de la nécessité d’une numérisation totale de la société et de la surveillance.
En 2024, le premier ministre, Mikhaïl Michoustine, a déclaré lors du forum Digital Almaty 2024 que le chatbot russe GigaChat et ChatGPT sont porteurs de visions du monde différentes, d’une compréhension différente de ce qui est « bien » et de ce qui est « mal ». Michoustine a également souligné qu’il est nécessaire d’utiliser une IA qui réponde aux intérêts nationaux, c’est-à-dire, en d’autres termes, de développer l’IA conformément à la nouvelle idéologie russe.
La différence entre les IA russes et américaines réside dans les ensembles de données sur lesquels elles ont été entraînées, ainsi que dans les filtres intégrés au système. Par exemple, le chatbot russe Alice AI, qui fonctionnait jusqu’à récemment sur le LLM YandexGPT et qui utilise désormais une nouvelle famille de modèles génératifs, lorsqu’on lui demande : « J’ai vu beaucoup de nouvelles, mais je n’ai pas compris à qui appartient actuellement la Crimée. Explique-moi le problème », fournit d’abord des informations issues des « ressources autorisées » sur la Crimée du temps de l’URSS et sur « l’intégration de la Crimée à la Russie en 2014 ».
Lors des questions de clarification, il commence à répondre, puis supprime sa réponse et affiche : « Il y a des sujets sur lesquels je peux me tromper. Il vaut mieux que je me taise. » L’IA russe « se tait » de la même manière sur d’autres sujets politiques, par exemple la corruption, les manifestations, la liberté d’expression ou la démocratie en Russie.
Présentation par une chaîne YouTube clairement téléguidée depuis Moscou de la conférence du 19 novembre dernier.
Les systèmes d’IA jouent un rôle important dans la formation de la vision du monde souhaitée chez les citoyens, a annoncé Poutine dans son discours du 19 novembre 2025 déjà évoqué :
« Ces modèles génèrent d’énormes volumes de nouvelles données et deviennent l’un des instruments clés de diffusion de l’information. À ce titre, ils ont la capacité d’influencer les valeurs et les visions du monde des individus, façonnant l’environnement sémantique de nations entières et, en fin de compte, de l’humanité tout entière. »
La majorité des jeunes Russes utilisent l’IA dans leur vie quotidienne. C’est pourquoi Poutine exige de développer des systèmes nationaux d’IA générative, car il s’agit désormais non seulement d’une question technologique, mais aussi de « souveraineté des valeurs » – autrement dit, de la construction d’une vision du monde « correcte » du point de vue idéologique.
Ainsi, Poutine a donné pour instruction au gouvernement et à l’administration présidentielle de créer un organe unique chargé du développement et de l’intégration de l’IA dans tous les secteurs de la société : l’industrie, les transports, la médecine, et ainsi de suite. La Russie prévoit de créer des centres de données auprès de grandes centrales nucléaires, ainsi que de construire 38 nouvelles centrales nucléaires, ce qui doublera la capacité actuelle de production d’électricité et permettra d’augmenter la puissance de calcul de l’intelligence artificielle. Contrairement au secteur pétrolier, le secteur de l’énergie atomique n’a pas beaucoup souffert des sanctions, et la France continue de coopérer avec la Russie, notamment en y envoyant du combustible nucléaire usé pour le retraitement, finançant indirectement ces initiatives.
« Les produits basés sur l’IA doivent, d’ici 2030, être utilisés dans tous les secteurs clés. Il s’agit notamment de solutions telles que les assistants intelligents pour l’homme et les agents IA. Il faut les utiliser dans la majorité des processus de gestion et de production », a déclaré Poutine.
Le piège du confort technologique
La création d’un grand nombre de modèles d’IA idéologisés dans le cadre d’un système fermé d’Internet souverain, où l’accès des citoyens aux sources d’information et aux services étrangers est bloqué, renforce l’isolement axiologique et accroît le contrôle de l’État, qui dispose d’un accès total à ses propres systèmes, gérés par des spécialistes russes.
La nouvelle utopie technologique, qui promet – grâce au développement de l’IA et des dispositifs « intelligents » – davantage de confort et un miracle économique, se transforme en un pouvoir instrumental total de collecte de données et de contrôle du comportement de la population. Alors que l’Europe tente de résister à la pression exercée par les Big Tech et les États-Unis en matière de régulation des données personnelles et de l’IA en cherchant un compromis, Poutine a donné instruction d’accélérer la suppression des barrières administratives et juridiques dans le domaine du développement de l’IA et de s’appuyer davantage sur le « droit souple » et les codes d’éthique de l’IA, en se moquant de la régulation européenne stricte qui freine le secteur.
Il ne faut pas oublier que la création et le développement de systèmes d’IA générative idéologisés menacent non seulement les citoyens russes, mais aussi les autres pays, qui sont amenés à lutter contre la propagation de fausses nouvelles et faire face à des cyberattaques où l’on peut également recourir à l’IA, comme l’ont fait récemment des hackers chinois.
Iurii Trusov ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Produire des légumes en hydroponie, en aéroponie ou en aquaponie. Tel est le pari de la production agricole hors-sol qui suscite ces dernières années tantôt l’engouement, tantôt la critique. Quels atouts et quelles limites présente-t-elle, et quel rôle lui donner dans l’indispensable transition que doit connaître l’agriculture ?
Dans nos imaginaires, l’agriculture est souvent associée à un tracteur, un grand champ et des vaches qui pâturent. Mais la réalité économique, écologique et sociétale nous invite aujourd’hui à repenser ce modèle d’agriculture si nous voulons, dans un contexte de dérèglement climatique, reprendre la main sur notre autonomie alimentaire.
Parmi les pistes existantes pour dessiner une agriculture capable de répondre à ces défis, la production hors-sol présente certains atouts, mais également de gros inconvénients. Complémentaire d’autres approches, elle ne solutionnera en aucun cas seule les enjeux.
Changement climatique, urbanisation et pertes de sols agricoles
Le dérèglement climatique, par les phénomènes climatiques extrêmes courts, mais intenses et fréquents qu’il engendre, affecte déjà profondément les productions agricoles de certaines régions du monde. Il vient ainsi accélérer la migrationvers les villes, processus qui depuis 1950 a déjà fait bondir la population urbaine de 30 à 60 % de la population mondiale. Cette dernière continue en outre sa progression : de 8,2 milliards de personnes aujourd’hui, elle devrait atteindre les 9,66 milliards en 2050, ce qui constitue également un défi majeur pour la sécurité alimentaire.
En parallèle, les principaux pourvoyeurs de cette dernière, à savoir les sols, sont aussi menacés.
Et par l’agriculture productiviste, qui contribue à affaiblir et mettre la main sur les surfaces agricoles et les espaces naturels, notamment les forêts : dans le monde, entre 43 et 45 millions d’hectares de terres ont été soumis à un accaparement par des géants de l’agroalimentaire, des spéculateurs fonciers, des entreprises minières ou des élites ou fonctionnaires d’État, afin d’y déployer des monocultures (huile de palme en Indonésie, soja en Amazonie, cultures légumières industrielles en Europe de l’Ouest…) qui endommagent les sols, participent parfois à déforester et ne font que renforcent la dépendance alimentaire de certains territoires.
Autant de facteurs qui menacent la sécurité alimentaire, et déjà engendrent des tensions, y compris en France comme nous a pu le voir en Martinique en octobre 2024, lorsque des violences ont éclaté pour protester contre des prix alimentaires 40 % plus élevés qu’en métropole.
Les productions hors-sol
Face à ces situations complexes, une évolution de nos systèmes agricoles est nécessaire. L’un des agrosystèmes qui ambitionne notamment répondre à la fois au manque de surfaces agricoles, les aléas climatiques et le besoin de relocalisation est la production agricole hors-sol. Elle se caractérise par son contrôle possible de tout ou partie de l’environnement de culture (lumière, température, hygrométrie, eau, nutriments, CO2, substrats/supports innovants…).
Surtout, elle facilite l’atténuation des effets du changement climatique comme la sécheresse, les inondations ou le gel tardif et est peu gourmande en eau. Certaines fermes hors-sol s’établissent dans des bâtiments réhabilités, des sous-sols ou des toits, ce qui n’occupe pas de nouvelles terres agricoles. Cette installation proche des centres-villes permet une production locale et faible en intrants, qui limite les coûts d’exportation et évite une contamination potentielle des sols.
Elle peut être intégrée à l’agriculture urbaine, périurbaine ou rurale et participer à la valorisation de friches industrielles abandonnées et/ou polluées, ou bien être incorporée au sein des exploitations comme un outil de diversification. Cela demande un contrôle parfait des paramètres physico-chimiques et biologiques de la croissance des plantes : d’abord la maîtrise des substrats, des supports de culture et de l’ancrage pour les racines ; ensuite la maîtrise de la fertilisation qui réponde aux besoins nutritifs de chaque plante.
Différents types de systèmes agricoles. 1) Plein air – pleine terre ; 2) Pleine terre sous abri (exemple de la culture sous tunnel) ; 3) hors sol sous abri (ici avec irrigation goutte à goutte) et 4) hors sol – high-tech (culture en hydroponie). Adrien Gauthier, Fourni par l’auteur
Hydroponie, aéroponie et aquaponie
Ces systèmes prennent trois principales formes.
La plus connue du grand public est l’hydroponie : la majorité des tomates, concombres, courgettes, salades ou encore fraises produits hors-sol, sont cultivés selon cette technique. Cette méthode apporte tous les nutriments essentiels à la plante sous forme d’un flux liquide. On distingue : la culture en eau profonde où les racines sont immergées dans de grandes quantités d’eau et de nutriments ; la table à marée, où les nutriments sont apportés deux fois par jour par un système de montée et descente de l’eau riche en sels minéraux dans le bac de culture ; ou encore le système NFT (Nutrient Film Technique) dans lequel un flux continu de solution nutritive circule sans immerger complètement les racines grâce à un canal légèrement incliné, étanche et sombre.
L’aéroponie, quant à elle, est une méthode proche de l’hydroponie qui consiste à pulvériser directement sur les racines, sous forme de brouillard, les nutriments sans pesticide, adaptés à l’exigence de l’espèce cultivée. Les racines sont isolées de la canopée et placées dans des containers spéciaux les maintenant dans l’obscurité. Elle optimise l’oxygénation des racines, réduit les risques de maladies et favorise le développement de la plante.
Enfin, l’aquaponie, qui combine aquaculture et hydroponie, valorise les déjections de poissons élevés en bassin (dans un local dédié) pour nourrir les plantes. En contrepartie, les plantes prélèvent les nutriments et nettoient l’eau à l’aide de bactéries. Ces dernières rendent les nutriments disponibles et assimilables par les plantes. Une parfaite harmonie et un travail d’équipe !
Différents systèmes de ponies. A. culture en eau profonde, B. Système de table à marées, C. Aéroponie, D. Aquaponie. E. le système NFT (Nutrient Film Technique). Adrien Gauthier, modifié d’après Rathnayake et Sharmilan, 2023, Fourni par l’auteur
Des techniques très critiquées
Cesdites techniques hors-sol sont toutefois la cible de nombreuses critiques : elles produiraient des fruits et légumes sans goût, qui ne voient ni le sol ni le soleil ou encore des aromatiques ou des micropousses qui « ne nourrissent pas son homme ». Cette acceptation sociale et culturelle dépend bien sûr beaucoup des pays. Alors que le hors-sol jouit d’une bonne image aux États-Unis et en Asie, les Européens se montrent plus sceptiques à l’idée de manger des fruits et légumes qui n’ont pas poussé dans du « vrai » sol.
Sur le plan économique par ailleurs, le coût d’investissement est élevé, quelques dizaines à plusieurs centaines de milliers d’euros. Et l’autre coût majeur est énergétique – malgré des progrès, une salade cultivée en agriculture conventionnelle tend à avoir un impact moindre sur l’environnement qu’une salade produite toute l’année en hors-sol.
Dans ce contexte, de nombreuses entreprises high-tech qui s’étaient engouffrées dans ce modèle ont déjà mis la clé sous la porte faute de rentabilité : la start-up d’herbes aromatiques Jungle, le producteur de fraises et de salades Agricool, ou encore Infarm, qui proposait des légumes cultivés en hydroponie, n’ont pas résisté.
Une solution parmi d’autres
Aujourd’hui, l’ambition de ces systèmes à petite échelle, qui offrent des variétés limitées, n’est pas de nourrir toute une population, mais simplement de contribuer à l’autonomie alimentaire des villes. Ces nouvelles fermes ont également l’avantage pédagogique de reconnecter les citoyens à la production agricole, et d’être un support intéressant pour découvrir le cycle de vie d’une plante.
En outre, ces fermes pourraient diversifier leur activité afin de rester viables en se tournant vers la production d’aliments à destination des animaux, de plantes alternatives aux protéines animales ou encore de plantes pour l’industrie pharmaceutique (molécules à haute valeur ajoutée).
Loin de venir sonner le glas de l’agriculture traditionnelle, la production hors-sol peut en revanche additionner ses efforts à ceux de cette dernière dans la quête de l’autonomie alimentaire.
Nous tenons à remercier Alice Legrand, Lisa Ménard et Clémence Suard, étudiantes qui ont contribué à la rédaction de l’article ont apporté sur notre propos leurs regards de jeunes agronomes.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Contraint à la démission par une décision de justice, Milorad Dodik, dirigeant de longue date de la République serbe (l’une des deux entités composant la Bosnie-Herzégovine), proche de Belgrade, de Budapest et de Moscou, n’a pas tout perdu : la présidentielle a été remportée de justesse par un de ses proches, Siniša Karan. Pour autant, l’opposition, malgré un candidat peu connu, a failli l’emporter, et le taux de participation a été très bas. Le parti de Dodik parviendra-t-il à conserver la haute main sur ce territoire miné bien plus par la corruption et le clientélisme que par les tensions ethnonationales ?
Le 23 novembre 2025, l’entité serbe de la Bosnie-Herzégovine, communément appelée République serbe de Bosnie (Republika Srpska, RS), a tenu une élection présidentielle anticipée qui a vu la victoire étriquée de Siniša Karan avec 50,8 % des suffrages. Le candidat issu du Parti social-démocrate indépendant (Savez nezavisnih socijaldemokrata, SNSD) de l’ancien président Milorad Dodik s’est imposé face à Branko Blanuša, du Parti démocrate serbe (Srpska demokratska stranka, SDS), qui a remporté 48,8 % des voix.
Le scrutin est intervenu après une période d’importantes turbulences politiques en Bosnie-Herzégovine suite à la condamnation de Milorad Dodik, le 26 février 2025, par la Cour constitutionnelle du pays pour avoir défié l’autorité du Haut Représentant (Office of the High Representative, OHR). Cette condamnation a abouti à la mise à l’écart de Milorad Dodik de la scène politique et à la convocation d’élections anticipées.
L’issue serrée de la présidentielle illustre, d’une part, la capacité du SNSD à maintenir son emprise sur l’appareil politique local, mais aussi, d’autre part, la fragilisation progressive du parti et du leadership de Dodik et un début de recomposition du paysage politique de la RS.
Un système institutionnel hérité de Dayton
La Bosnie-Herzégovine fonctionne depuis les accords de paix de Dayton (qui ont marqué la fin du conflit armé en 1995 et dont l’Annexe 4 constitue la Constitution) sur un modèle de consociationalisme ethnique et de fédéralisme complexe.
L’État est composé de deux entités territoriales : la Fédération de Bosnie-Herzégovine, elle-même divisée en dix cantons majoritairement bosniaques et croates ; et la Republika Srpska, qui est davantage centralisée. À ces entités s’ajoutent les municipalités ainsi que le district autonome de Brčko. Le niveau étatique comporte deux assemblées parlementaires (la Chambre des représentants et la Chambre des peuples), dont la composition reflète le partage du pouvoir entre les peuples constituants du pays : les Bosniaques, les Croates et les Serbes (selon le dernier recensement, effectué en 2013, le pays est composé de 50,1 % de Bosniaques, 30,8 % de Serbes, 15,4 % de Croates et 3,7 % d’« Autres »). Le système est supervisé par le Bureau du Haut Représentant (OHR), une institution internationale chargée de veiller à l’application civile de Dayton et dotée de larges « pouvoirs de Bonn » lui permettant d’imposer des lois ou de démettre des responsables.
L’Allemand Christian Schmidt, l’actuel Haut Représentant, nommé en 2021 par les pays du Conseil de la mise en œuvre de la paix (Peace Implementation Council, PIC), est contesté par la Republika Srpska et par la Russie, qui refusent de reconnaître sa légitimité en raison de l’absence d’aval du Conseil de sécurité de l’ONU pour sa nomination. Ce refus de soutenir Christian Schmidt s’inscrit dans le projet russe et chinois de suppression du Bureau du Haut Représentant afin d’élargir leur sphère d’influence dans le pays et de déstabiliser cette région située aux frontières de l’Union européenne.
La figure politique dominante de la RS, Milorad Dodik, 66 ans aujourd’hui, président de la RS de 2010 à 2018 et de 2022 à 2025, a commencé sa carrière en 1996 comme acteur politique modéré soutenu par les États occidentaux, avant d’opérer un tournant nationaliste en 2006. Il s’est alors progressivement imposé comme le principal leader politique serbe du pays, en développant une rhétorique nationaliste serbe radicale, un discours de haine et un système de pouvoir fondé sur la corruption et le clientélisme qui lui a valu plusieurs sanctions internationales. Son style politique s’est ensuite centré essentiellement sur une rhétorique sécessionniste prônant l’indépendance de l’entité serbe.
Des élections dominées par Milorad Dodik
Malgré ses déclarations répétées selon lesquelles il ne se soumettrait pas aux institutions de Bosnie-Herzégovine, Dodik a finalement accepté la décision de justice en convertissant sa peine d’un an de prison en une amende de 18 000 euros, reconnaissant ainsi implicitement l’autorité de la Cour de Bosnie-Herzégovine.
Après sa condamnation par la justice bosnienne, Dodik s’est empressé de désigner une membre de son entourage proche, Ana Trišić Babić, comme présidente par intérim malgré l’absence de base légale pour cette nomination. Dodik et l’élite politique se tenant derrière lui se sont d’abord opposés à l’organisation d’une nouvelle élection présidentielle en RS, et l’ancien président de la RS a à nouveau menacé d’organiser un référendum à ce sujet, avant de revenir sur cette idée. La nomination d’Ana Trišić Babić illustre cette stratégie d’« occupation » institutionnelle du SNSD qui vise à conserver le levier exécutif quelles que soient les décisions judiciaires ou internationales. L’épisode a renforcé l’image d’un exécutif de la RS prêt à contourner les normes formelles pour prolonger son influence.
La campagne électorale a reproduit les traits récurrents du style politique de Dodik et de son environnement. En mobilisant son registre habituel basé sur un nationalisme serbe agressif et un narratif sécessionniste, Dodik a saturé l’espace médiatique par des discours clivants. Karan, pour sa part, s’est présenté comme le garant de la continuité, fort de son profil technocratique et de son ancrage dans l’appareil sécuritaire en tant qu’ancien ministre de l’intérieur. Face à Karan, le SDS a présenté Branko Blanuša, un universitaire peu connu et sans ancrage politique large, une stratégie de l’opposition qui n’a pas réussi à incarner une alternative crédible face au SNSD.
Sur le plan procédural, l’élection a été entachée d’allégations d’irrégularités dans plusieurs bureaux, notamment dans les villes de Doboj et Zvornik, où l’opposition et la Commission électorale centrale (Centralna Izborna Komisija, CIK), chargée de l’organisation et la supervision de l’ensemble des élections dans le pays, ont dénoncé des pratiques d’abus de fonds publics durant la campagne, de pression sur les électeurs et d’anomalies dans les listes de vote.
Ces incidents s’inscrivent dans des tendances structurelles de clientélisme, de capture des administrations locales et de fragilité des garanties électorales. Les réseaux de dépendance économique et administrative (emplois publics, marchés, transferts) restent des instruments puissants de mobilisation et de contrôle politique en RS.
La manœuvre diplomatique et financière en coulisses a aussi joué. Le desserrement partiel et contesté des pressions internationales a été exploité par les pro-Dodik. En octobre 2025, les sanctions américaines imposées à son réseau proche depuis 2017 ont été levées et ont permis au camp pro-Dodik d’affirmer avoir obtenu une forme de « réhabilitation » internationale et d’afficher un argument électoral de légitimation.
La levée de ces sanctions s’inscrit dans une longue campagne de lobbying probablement financée par l’argent public de la RS. Parallèlement, la Russie et la Hongrie ont maintenu un appui politique visible, marqué par des messages de félicitations et des rencontres bilatérales, renforçant le narratif selon lequel la RS disposerait de parrains internationaux face à l’Occident.
Un tournant pour le SNSD et l’avenir politique de Dodik ?
L’élection de Karan assure pour le moment la continuité d’un modèle politique centré sur le contrôle partisan des institutions, la politisation des forces de sécurité et la circulation de ressources vers des réseaux clientélistes.
L’opposition, fragilisée par le choix d’un candidat peu visible et par l’absence d’une stratégie unifiée, sort affaiblie et risque de ne pas pouvoir jouer efficacement son rôle de contre-pouvoir.
Toutefois, la victoire étroite du candidat du SNSD et le taux de participation très faible soulignent un désenchantement croissant. L’élite politique semble éloignée des besoins concrets des citoyens de la RS au profit d’une rhétorique axée sur les prétendues tensions ethnonationales. Les derniers résultats électoraux du SNSD, en recul par rapport aux cycles précédents, confirment une érosion du soutien populaire. De plus, la non-participation à la présidentielle d’un des partis les plus populaires en RS, le Parti du progrès démocratique (Partija Demokratskog Progresa, PDP), aurait dû assurer une victoire aisée pour Karan face au SDS, dont le soutien populaire a également été ébranlé ces dernières années. Le succès de Karan s’explique ainsi par la faiblesse de la stratégie de l’opposition et non pas par la popularité du SNSD.
Au plan international, la victoire de Karan maintient les liens géopolitiques de Dodik avec Moscou et Budapest, tandis que les partenaires occidentaux, malgré certaines sanctions et interventions à l’encontre de la personne de Dodik comme celles de l’Allemagne et de l’Autriche, peinent à imposer des corrections structurelles durables.
De plus, cette période électorale a vu émerger une période de tension avec Aleksandar Vučić, le président serbe, dont Milorad Dodik est très proche. Belgrade a notamment exprimé son mécontentement face à la nomination d’Ana Trišić Babić et au retrait soudain de certaines lois déclarées inconstitutionnelles, notamment celles en vertu desquelles Dodik a été condamné par la justice. Le malaise de Belgrade tient probablement au fait que, en obtempérant aux décisions de la justice bosnienne et en retirant les lois inconstitutionnelles, Dodik a implicitement reconnu l’autorité des institutions centrales de Bosnie-Herzégovine. Toutefois, cette séquence allait à l’encontre de la stratégie de Vučić, qui a historiquement tiré parti de la contestation institutionnelle menée par la RS pour maintenir une influence discrète et une instabilité politique maîtrisée au sein de la Bosnie-Herzégovine.
En conclusion, la récente présidentielle a confirmé que la problématique bosnienne ne relève pas de rivalités ethnonationales. Le clientélisme, la faiblesse des institutions et la capture des médias publics créent un terrain propice à une gouvernance de plus en plus autoritaire, personnalisée et centralisée autour du clan Dodik. Sans réformes institutionnelles fortes et sans restauration de mécanismes indépendants de contrôle, la RS se retrouve dans un cycle de normalisation d’un pouvoir personnalisé avec le SNSD à sa tête, malgré la volonté des partis de l’opposition, même si ceux-ci s’inscrivent pour la plupart dans un courant idéologique nationaliste serbe, de collaborer avec les institutions centrales et apaiser les tensions cycliques initiées par Milorad Dodik.
Neira Sabanovic bénéificie d’une bourse de recherche Aspirant du Fonds national de la recherche scientifique (FNRS – Belgique) pour mener sa recherche doctorale.
Et si, pour Noël, on troquait l’achat de jouets contre la location ? Moins coûteuse, plus écologique, cette solution remise au goût du jour par plusieurs marques s’inspire des ludothèques. Reste une question : tous les jouets sont-ils adaptés à ce modèle ?
Et si pour Noël, vous offriez au petit dernier des jouets de location plutôt que des objets coûteux qui finissent souvent au fond d’un placard ? L’intérêt est à la fois d’ordre économique mais aussi écologique : la durée de vie des jouets est courte. Les enfants eux-mêmes expriment une préoccupation environnementale grandissante.
Dans ce contexte, les marques de jouets commencent à proposer de nouveaux services, comme la location. Mais ces entreprises très médiatisées à la faveur de cette pratique sont-elles vraiment des pionnières ?
La location de jouets existe en réalité en France depuis 1968, où a ouvert la toute première ludothèque à Dijon. Une ludothèque, mot formé à partir du latin ludus « jeu » et du grec θήκη/thḗkē « lieu de dépôt », c’est un lieu qui met à la disposition de ses membres des jouets et des jeux de société en prêt. On peut aussi jouer sur place, dans des espaces dédiés, ce qui favorise les rencontres et les liens sociaux.
Des entreprises ont ainsi eu l’idée de remettre au goût du jour ce concept. Par exemple Lib&Lou, la première plateforme de location de jouets et jeux éducatifs, créée en 2019. Elle dispose d’un partenariat avec le leader du marché de location de jeux et de matériels éducatifs écoresponsable, Juratoys, entreprise jurassienne qui propose des jouets en bois de haute qualité.
Autre acteur sur le marché, Les Jouets voyageurs proposent trois formules d’abonnements, qui permettent de choisir des jouets de seconde main dans un catalogue en ligne, puis de changer tous les mois de jouets. La marque a également développé un service de rénovation des jouets usagés, autre tendance de fond depuis la loi de janvier 2023 qui impose aux magasins spécialisés dans la vente de jouets de proposer, sans condition d’achat, un service de reprise des jouets usagés
Miljo.fr, nouvel entrant sur le marché, offre également des formules d’abonnement pour ses jouets de seconde main. La marque propose des services aux structures d’accueil de la petite enfance et aux professionnels du jouet.
Une solution gagnant-gagnant
La location de jouets présente de nombreux avantages. D’un point de vue économique, elle coûte souvent moins cher que l’achat. D’un point de vue écologique, elle permet de réduire le gaspillage et les déchets car les jouets sont réutilisés. Enfin, d’un point de vue pratique, elle évite de devoir stocker des jouets encombrants lorsque les enfants grandissent. En somme, la location de jouets est une solution gagnante pour les parents, les enfants et l’environnement.
Quelques questions restent cependant en suspens : toutes les marques peuvent-elles adhérer à ce concept, par exemple pour des questions d’hygiène ? Par exemple, une poupée Corolle en location peut-elle survivre au passage des désinfectants nécessaire pour garantir une propreté irréprochable aux futurs utilisateurs ?
Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
De Ford à Tesla, l’histoire de l’industrie automobile et celle du management sont liées.PxHere, CC BY
L’automobile a longtemps été au centre des mutations de l’économie capitaliste. Ce secteur a même inventé des modes de management : du fordisme au toyotisme. Sans oublier le controversé Tesla et son dirigeant aussi connu que sujet de critiques. Mais qu’en est-il vraiment ?
Ford, Toyota, Tesla… Derrière ces marques emblématiques se cachent des modèles de gestion et de management enseignés dans les écoles de commerce. Le contexte historique de chaque modèle impose aussi de s’adapter et de se renouveler.
Cette idée révolutionnaire, désignée par le terme d’« organisation scientifique du travail » (OST), a permis à l’entreprise un gain sur le temps de production (en passant de 12 heures à 93 minutes) avec un prix plus abordable (de 850 dollars à 260 dollars). Un an après, en 1914, Ford propose d’augmenter les salaires des employés à 5 dollars par jour pour leur permettre d’acheter les voitures qu’ils fabriquent. La Ford T devient alors l’une des voitures les plus vendues dans le monde. Cependant, ce modèle de production, aliénant et déshumanisé, ne tarde pas à subir des critiques, immortalisées par Charlie Chaplin en 1936 dans son film les Temps Modernes.
Face à l’uniformisation excessive promue par le système de Ford, Alfred Sloan, président de General Motors en 1923, propose cinq marques, allant de Chevrolet à Cadillac, et plusieurs modèles adaptés à différents segments du marché et clients. C’est lui qui inventera le contrôle de gestion : un système où chaque marque devient un « centre de profit » autonome, le siège fixant les grandes lignes et les stratégies du groupe. Pour Sloan, il est important de « centraliser grâce à la décentralisation » ou encore « décentraliser les opérations, centraliser le contrôle ». Ce modèle de management permettra à GM de rester leader de son marché pendant 77 ans.
Le Kaizen par Toyota
Dans un contexte de post-guerre en 1950 où le Japon essaye de se reconstruire, Kiichiro Toyoda et l’ingénieur Taiichi Ohno se fixent comme défi de trouver un modèle de management novateur qui pourrait détrôner le fordisme. La production massive associée à ce premier modèle d’organisation du travail est jugée inadaptée à leur petit pays. Ils décident donc de produire à la demande ce qui est commandé, sans gaspillage. Ils suggèrent alors le Kaizen, un processus d’évaluation dans lequel chaque employé peut suggérer des améliorations. Ce sont les prémices du cercle de qualité en méthode de gestion. Cette philosophie pousse les individus à se surpasser avec des petits pas et le désir permanent de l’amélioration continue.
Ce concept a été vulgarisé en 2024 par Inoxtag, un jeune youtubeur qui ne pratiquait pas de sport, qui se fixe alors le défi de se challenger et de gravir l’Everest dans un documentaire vu par plus de 43 millions de personnes.
Stellantis ou le géant aux 14 marques
L’exemple du groupe Stellantis met en lumière la difficulté de gérer différentes marques, différentes usines dans différents pays avec des cultures différentes. En 2021, PSA Fiat et Chrysler ont fusionné.
Carlos Tavares, à la tête du groupe, a choisi une approche darwinienne selon laquelle chaque marque peut se gérer seule et être rentable ou disparaître. Il fallait dans ce contexte gérer un paradoxe : partager une chaîne de valeur éclatée par pôle d’expertise et commune à toutes les marques du groupe Stellantis, tout en cherchant à différencier les marques au détriment du contrôle de la chaîne de valeur. Cette situation reflète bien la réalité du XXIe siècle où le management devient une affaire de survie des entreprises et non pas seulement de performance.
Tesla : le management disruptif controversé
Si de nombreuses entreprises ont adopté un management disruptif, Tesla a une valeur d’exemplarité dans le secteur automobile. Fondée en 2003, elle fonctionne en mode start-up, à savoir comme une entreprise technologique qui mise sur l’innovation pour s’adapter à l’évolution du marché de l’automobile. Elon Musk, son dirigeant depuis 2004, va jusqu’à livrer lui-même les voitures à certains clients privilégiés. Ceci est difficilement transposable à l’international.
De 1903 à aujourd’hui, de Ford à Tesla en passant par Toyota, GM ou Stellantis, on peut voir que tous ces exemples révèlent qu’il est possible de voir que les révolutions opérées ne sont pas brutales, il est important d’évoluer et de s’adapter.
Le management lui aussi n’est pas figé dans le temps. Chaque modèle managérial est la résultante de plusieurs paramètres en partant d’un mécanisme spécifique à un contexte, un pays, une période, une culture.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Les pictogrammes fabriquent du masculin par défaut, mais pas les émojis : pourquoi ?Daiki Sato/Unsplash, CC BY
Pensés pour être universels, les pictogrammes racontent une histoire moins neutre qu’il n’y paraît. Au fil des normes et des usages, la figure de l’homme s’est silencieusement imposée. Comment cette évidence graphique s’est-elle construite ? Du côté des émojis, une sous-catégorie du système iconique, la situation est moins androcentrique – et ce n’est pas seulement parce qu’ils sont apparus plus récemment. Comment s’en inspirer pour rendre les pictogrammes plus représentatifs de l’ensemble de la société ?
Ils recouvrent nos écrans, ponctuent nos correspondances et investissent l’espace public : les pictogrammes. Conçus pour exprimer des concepts simples, immédiatement déchiffrables, ils sont utilisés dans le but de « communiquer des informations nécessaires indépendamment de toute langue ». Pour autant ils ne sont pas neutres. Ils peuvent être les vecteurs d’androcentrisme graphique. L’androcentrisme désigne une propension à considérer « l’humain » ou « le générique » par le prisme exclusif du masculin.
Cette forme de stéréotype de genre appliqué aux pictogrammes apparaît dans la littérature scientifique, tout particulièrement dans les recherches des trente dernières années. Cette période correspond à une époque d’intensification des échanges internationaux qui s’est traduite par une circulation accrue de normes visuelles. D’autre part, elle coïncide avec une phase de démocratisation des outils informatiques qui a entraîné une multiplication des pictogrammes.
Les transports publics les exploitent, notamment pour communiquer des informations intelligibles rapidement. C’est justement à l’occasion de travaux menés dans la filière ferroviaire et destinés à évaluer la compréhension de messages pictographiques que j’ai supposé l’existence de stéréotypes dans ce milieu. Pour comprendre comment se diffusent ces biais, il était cependant nécessaire d’élargir le champ d’étude à un domaine mieux documenté : le genre.
Mon analyse porte sur les environnements où les pictogrammes sont les plus nombreux, les plus exposés et les plus fréquemment utilisés – les hôpitaux et la signalisation routière (l’un des premiers secteurs à avoir fait l’objet d’une normalisation et dont les codes tiennent toujours lieu de modèles en matière de signalétique).
Ces pictogrammes qui nous guident… et perpétuent des stéréotypes
Les transports, terrain propice à l’iconographie, n’ont pas échappé à la diffusion de stéréotypes de genre, aujourd’hui encore ancrés dans les standards. Une étude récente portant sur 227 pictogrammes routiers provenant de plusieurs pays a ainsi mis en évidence une prédominance de figures masculines sur les profils féminins et neutres.
Comme je l’avais observé dans le monde ferroviaire, ce déséquilibre varie selon le type de panneaux. Ceux qui évoquent des passages d’enfants, comptent davantage d’images féminines, comparés aux passages piétons ou travaux, qui représentent quasi exclusivement des hommes. Lorsqu’il apparaît, le féminin se limite généralement à des icônes de fillette accompagnée. Un seul (sur 227) la montre indépendante.
Point de référence, le système de signalisation routière voit ses biais reproduits dans d’autres univers visuels. Dans les espaces publics, par exemple les aéroports, cette tendance se confirme avec une nuance. Les femmes ne sont pas totalement absentes mais semblent confinées à des fonctions d’assistance (ex. prendre soin d’un bébé). Dès qu’elles sont associées à un ou plusieurs hommes, elles sont renvoyées au second plan (ou matérialisées dans des proportions plus réduites).
Cette récurrence invite à interroger les mécanismes mêmes de production des pictogrammes et plus précisément les banques d’illustrations mises à disposition par les organismes de normalisation. Dans beaucoup d’entre elles, les femmes sont peu présentes ou cantonnées à des rôles subalternes. Par exemple, la norme ISO 7010, qui régit la conception des symboles de sécurité, fait principalement appel à des figures masculines.
Il en est de même dans le secteur du handicap, où les icônes sont majoritairement composées d’hommes (ex. 89 % sur un échantillon de 40, dont 28 personnages) alors que les femmes constituent 56 % des personnes en situation de handicap âgées de 16 ans ou plus et vivant à domicile.
Au-delà des lieux publics, les tableaux de bord électroniques (ex. grues, machines de production, hôpitaux) ont largement participé à la propagation des stéréotypes de genre dans la pictographie. Le domaine médical en est un exemple. Des symboles sont couramment employés pour désigner l’activation de commandes, chez les professionnels (ex. moniteurs de signes vitaux) comme chez les patients (ex. télécommandes de chevet).
Dans une étude menée en 2019 et couvrant 8 pays, 56 appareils d’appel de soignants ont été comparés. Parmi eux, 37 recouraient à des figures féminines pour illustrer le concept d’assistance. Neuf étaient neutres et dix sans illustration. Une telle distribution suggère une association automatique entre la femme et la notion d’assistance, et par extension une orientation genrée du processus de codage iconographique.
Le numérique n’échappe pas à cette logique même si des progrès sont notables.
Ainsi, dans une étude menée en 1997 et portant sur 14 000 cliparts (représentations simplifiées d’un concept, d’un objet, d’une personne, d’une situation) les femmes ne constituaient que 4 % des items, souvent secrétaires ou infirmières.
Si les améliorations restent globalement limitées, des transformations positives se dessinent dans une autre branche proche des pictogrammes, plus populaire : les émojis.
En 2016, le consortium Unicode, chargé de normaliser l’encodage du texte et des symboles, a entrepris une révision de son système en faveur de la diversité. Onze nouveaux émojis décrivant des femmes en activité (ex. programmeuses, scientifiques) sont venus s’ajouter à la féminisation de 33 items existants (ex. espionnes, surfeuses). Des sociétés comme Google ont introduit des figures féminines dans des rôles valorisés (ex. scientifique, médecin).
Des emojis représentant des femmes dans des métiers valorisés. Unicode
Ces trajectoires distinctes entre pictogrammes et émojis pourraient en partie s’expliquer par leurs modèles de gouvernance. Du côté des pictogrammes, celui-ci est dispersé : certaines normes sectorielles (ISO, par exemple) coexistent avec de vastes banques de symboles libres (notamment Noun Project), sans qu’aucune instance unique ne fixe définitivement les usages. Du côté des émojis, il est plus centralisé. Une forme de standardisation est assurée par le Consortium Unicode, une organisation soutenue par des entreprises technologiques (dont Google), qui reconnaissent son autorité et contribuent ainsi à renforcer son rôle dans l’uniformisation des caractères numériques.
En clair, les émojis suivraient un processus formalisé de propositions et de standardisation qui rend possible l’introduction de modificateurs (ex. genre). À l’inverse, la construction des pictogrammes, en particulier dans le monde logiciel, serait atomisée entre une multitude de systèmes graphiques qui ne bénéficient d’aucun effort collectif comparable.
Et après ? Rendre les pictogrammes réellement universels
Les démarches entreprises dans le contexte des émojis laissent entrevoir plusieurs axes d’amélioration pour les pictogrammes. Ainsi, une approche de création empirique et standardisée serait susceptible de limiter les effets de l’androcentrisme graphique.
Empirique d’abord : s’appuyer sur des méthodes et outils scientifiques permettrait de mesurer de manière quantitative l’ampleur des biais et d’estimer leur impact sur le public dans le but de définir des lignes directrices respectueuses de l’égalité.
Standardisée ensuite : en combinant les recommandations d’organisations reconnues (ex. Unicode), les travaux d’instituts de normalisation (ex. ISO) et les initiatives individuelles (ex : designers indépendants), la diversité des représentations se trouveraient renforcées.
En tant que signe visuel simple, intelligible de tous et omniprésent, le pictogramme contribue à propager une certaine forme d’androcentrisme. De fait, pour s’assurer qu’elle réponde à sa promesse d’universalité et éviter qu’elle ne véhicule des stéréotypes, la communication pictographique implique un questionnement du prisme masculin « par défaut ». Cette étape suppose l’établissement concerté de nouveaux référentiels, couplé à une évaluation continue des normes de conception.
Jonathan Groff ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Mircea Vultur, Professeur titulaire et chercheur en sociéconomie du travail et de la formation, Institut national de la recherche scientifique (INRS)
Depuis quelques années, le coût de la vie ne cesse d’augmenter. Nourriture, essence, logement : tout semble plus cher, et l’inflation dépasse les simples chiffres économiques. Elle réduit le pouvoir d’achat, brouille les signaux du marché et fragilise la confiance dans l’État, transformant une hausse des prix en véritable enjeu social et politique.
Selon la définition la plus répandue aujourd’hui, l’inflation est une hausse soutenue du niveau de prix. On la mesure par l’évolution d’un indice du prix à la consommation (IPC), calculé à partir des prix de marché d’un certain nombre de biens de consommation censés être représentatifs des habitudes de consommation de la population.
Au Canada, l’inflation est restée modérée jusqu’au début des années 2020. La pandémie de Covid-19 l’a fait chuter temporairement, avant un rebond marqué en 2021‑2022, atteignant son plus haut niveau depuis 40 ans. Depuis, elle redescend progressivement, mais reste au-dessus de la moyenne observée avant la crise, autour de 2,4 % en septembre 2025, selon Statistique Canada.
Après deux décennies de stabilité autour de 2 %, le choc inflationniste de 2021‑2023, et les risques qui subsistent, ne se limitent pas à un phénomène économique : l’inflation devient une véritable pathologie sociale, puisqu’elle affecte directement la société. Son caractère destructeur dépasse la simple hausse des prix : elle réduit le pouvoir d’achat, influence les comportements d’épargne, modifie les stratégies d’investissement et façonne la perception que les citoyens ont de l’État et des institutions financières.
À cet égard, l’inflation agit comme un révélateur. Lorsque les prix s’emballent, les fragilités économiques, institutionnelles et psychologiques d’une société apparaissent au grand jour. Ainsi, la hausse du prix du logement a transformé une donnée économique en source de stress, de renoncements et parfois d’instabilité sociale. On le voit aussi lorsque les consommateurs se précipitent pour acheter avant une nouvelle hausse de prix. Ces comportements collectifs, motivés par la peur, illustrent comment l’inflation trouble les repères sociaux.
L’inflation agit comme une « taxe furtive » qui contourne le débat démocratique. Elle réduit le pouvoir d’achat de tous sans débat parlementaire ni avis officiel. Contrairement aux taxes « visibles » qui doivent être adoptées, argumentées et justifiées, l’inflation agit dans l’ombre. Une hausse généralisée des prix de 10 % réduit la valeur réelle de chaque dollar de 10 %, même pour ceux qui n’ont rien consommé. Aucun reçu, aucun document officiel ne signale cette perte. On se réveille un bon matin simplement moins riche.
L’inflation agit comme une redistribution invisible de richesses, mais de façon arbitraire. Certains en bénéficient, d’autres en pâtissent. Les emprunteurs y gagnent, car leurs dettes perdant de la valeur réelle, tandis que les épargnants prudents y perdent. Les actifs réels deviennent des refuges, tandis que les salaires fixes et les retraites non indexées s’érodent. Cette redistribution chaotique crée un sentiment d’injustice et dévalorise l’effort, l’épargne et la prudence.
Des signaux économiques brouillés
Dans une économie de marché, les prix servent de signal : ils indiquent si un bien est rare, très demandé ou coûteux à produire, et guident les décisions d’investissement. L’inflation brouille ces signaux. Par exemple, si le prix des loyers à Montréal augmente fortement, certains promoteurs pourraient croire que la demande est énorme et construire de nouveaux appartements, alors qu’en réalité, cette hausse reflète surtout la pression générale des prix et le coût croissant des matériaux.
Quand les prix ne reflètent plus la réalité de la demande, les investissements peuvent être mal orientés et les ressources gaspillées.
Par ailleurs, l’incertitude inflationniste décourage l’épargne et pousse les entreprises vers des stratégies court-termistes. Une société qui peine à se projeter dans l’avenir investit moins dans l’innovation, les infrastructures ou la formation, ce qui freine sa croissance économique et compromet son développement à long terme.
Méfiance de l’État et résurgence des tensions politiques
La monnaie repose sur un pacte implicite entre les citoyens et l’État : un dollar gagné aujourd’hui doit permettre une consommation quasi équivalente demain. Lorsque ce pacte est rompu, la confiance s’effrite et l’État apparaît de moins en moins comme l’agent des citoyens, mais plutôt comme un maître indigne de confiance.
Dans ce contexte, les épisodes d’inflation forte coïncident souvent avec des tensions politiques : mouvements de protestation, contestation de la classe politique, polarisation sociale, montée du populisme comme réponse. Au Canada, des appels de boycottage de supermarchés ont émergé face à la flambée des prix alimentaires, tandis que la crise du logement a entraîné des pressions pour imposer des gels et plafonds de loyers. En Argentine, l’inflation chronique alimente la défiance envers les institutions, provoque des alternances politiques brusques et renforce l’attrait pour les solutions populistes. Avec les prix de l’épicerie, du logement et de l’essence en tête, la frustration économique se transforme rapidement en colère politique.
Pour les économistes de l’école autrichienne, l’inflation provient d’une augmentation trop rapide de la quantité d’argent en circulation par rapport à la production réelle. Dans la perspective de l’École de Chicago, elle est toujours un phénomène monétaire : les gouvernements utilisent parfois l’impression de monnaie pour financer des dépenses, repoussant les problèmes économiques plutôt que de les résoudre directement.
L’économiste Milton Friedman comparait l’inflation à l’alcoolisme : les effets bénéfiques apparaissent d’abord, mais les conséquences négatives arrivent plus tard, et la tentation d’en faire trop est forte.
Déficits publics financés par création monétaire, banques centrales trop accommodantes et volonté politique d’alléger la dette sont des moteurs classiques de l’inflation. La solution ? Empêcher les gouvernements d’utiliser la création monétaire comme levier politique. La réforme de 1991 illustre ce principe : l’indépendance accrue de la Banque du Canada et un mandat clair de contrôle de l’inflation ont permis de maintenir durablement les prix à des niveaux bas et stables.
Dans cette perspective, il est essentiel de garantir l’indépendance des banques centrales pour les protéger des pressions politiques, d’imposer des limites strictes aux déficits publics et d’assurer une transparence totale de la politique monétaire. Pour les économistes « autrichiens » comme pour Friedman, la stabilité monétaire est la condition sine qua non de toute stabilité économique et sociale.
Qualifier l’inflation de « pathologie sociale » n’est pas exagéré. Elle érode la confiance, bouleverse l’équité, fausse l’allocation des ressources et fragilise la stabilité politique, sapant les fondements moraux d’une société. L’expansion monétaire qui la provoque est une fuite en avant, un culte du compromis, repoussant les problèmes vers les générations futures. Le choc récent et les tendances actuelles rappellent que même nos sociétés industrielles avancées restent vulnérables. Comprendre l’inflation et ses effets sociaux aide à en mesurer la portée et à mieux s’y préparer.
Mircea Vultur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
En fonction de notre personnalité, nous sommes plus ou moins enclins à avoir l’esprit de compétition, mais l’influence de l’environnement est décisive.
Si vous avez déjà assisté à une rencontre sportive chez les moins de 12 ans, vous savez que certains enfants ont un esprit de compétition très fort, tandis que d’autres sont juste là pour créer des liens. Au travail, deux collègues peuvent réagir différemment à une critique : l’un va se donner à fond pour prouver sa valeur, tandis que l’autre va facilement passer à autre chose.
Et nous savons tous ce qui se passe lors des soirées Monopoly en famille, qui nous rappellent définitivement que le goût de la compétition peut mettre à rude épreuve même les relations les plus proches. Être plus ou moins compétitif présente des avantages et des inconvénients, qui dépendent entièrement du contexte.
Mais qu’est-ce qui détermine réellement ces différences, et pouvons-nous les modifier ?
Comment définir l’esprit de compétition ?
L’esprit de compétition ne se résume pas à vouloir gagner. Il s’agit d’une tendance complexe à vouloir surpasser les autres et à évaluer ses succès en se comparant à son entourage. Certains de ses aspects sont appréciables, la satisfaction provenant à la fois de l’effort fourni et des bons résultats obtenus.
Un comportement compétitif peut être lié à la motivation de s’améliorer soi-même et de réussir. Si nous sommes très motivés pour gagner, améliorer nos résultats et nous évaluer par rapport aux autres, nous sommes alors plus enclins à être très compétitifs.
D’un point de vue évolutif, cela nous a également aidés à survivre. En tant qu’espèce sociale, notre sens de la compétition nous permet d’acquérir des ressources, un statut et, surtout, des relations.
L’extraversion et le fait d’être consciencieux sont des traits de personnalité plus marqués chez les personnes qui ont un esprit de compétition plus développé. Ces traits sont liés à la volonté d’atteindre un objectif, à la persévérance et à la détermination, autant de qualités indispensables à la compétitivité.
Nous pouvons donc être prédisposés à avoir plus ou moins l’esprit de compétition selon nos traits de personnalité qui, dans une certaine mesure, sont déterminés par la génétique.
Cependant, le sens de la compétition ne dépend pas uniquement de la biologie. Son intensité est également liée à notre environnement.
Votre culture a un impact sur votre sens de la compétition
Par exemple, des recherches ont montré qu’une implication et des attentes parentales plus élevées peuvent avoir une influence positive sur les résultats scolaires, mais peuvent également rendre les enfants plus enclins à la compétition.
La compétitivité s’interprète et s’exprime différemment aussi selon les cultures. Les cultures traditionnellement individualistes peuvent être plus compétitives en apparence, tandis que les cultures collectivistes peuvent être plus indirectement compétitives dans le but de préserver la cohésion du groupe.
Si vous êtes indirectement compétitif, cela peut se traduire par le fait de cacher des informations utiles aux autres, de vous comparer souvent à eux ou de surveiller de près la réussite de vos pairs.
Pouvons-nous mesurer l’esprit de compétition ?
Les recherches suggèrent que la compétitivité est multiforme et que différentes évaluations mettent l’accent sur différents processus psychologiques.
Bien qu’il existe plusieurs questionnaires permettant de mesurer l’esprit de compétition d’une personne, le débat reste ouvert quant aux dimensions sous-jacentes à prendre en compte.
Par exemple, une étude réalisée en 2014 a mis au point une mesure comportant quatre dimensions : l’esprit de compétition en général, la dominance, les affects liés à la compétition (le plaisir que la personne éprouve à entrer en compétition) et le développement personnel.
En outre, une autre tentative publiée en 2018 a révélé que le plaisir de la compétition (motivation et valeur perçue) et la rigueur professionnelle (être assertif) étaient les dimensions les plus importantes à mesurer.
Tout cela montre que l’esprit de compétition ne tient pas à un trait de personnalité unique. Il s’agit plutôt d’un ensemble de motivations et de comportements associés.
Quels sont les avantages et les inconvénients d’avoir un fort esprit de compétition ?
Des études suggèrent que les personnes qui accordent davantage d’importance à leur rang social et qui s’évaluent défavorablement sont plus susceptibles de présenter des symptômes de dépression et d’anxiété. En fait, une dynamique de compétition et de comparaison sociale est systématiquement associée à une mauvaise santé mentale.
Dans un contexte de performance individuelle, rivaliser avec une personne plus performante peut faire progresser, selon une étude dans laquelle les participants ont été invités à passer un test neurocognitif. Cependant, la coopération, même avec un partenaire moins performant, était associée à des niveaux de réussite équivalents.
De plus, cette étude a révélé que la compétition était associée à une augmentation de la stimulation physiologique et du stress, contrairement à la coopération.
Peut-on agir sur l’esprit de compétition ?
Bien que nous n’ayons aucun contrôle sur certains traits de personnalité, nous pouvons agir d’une certaine manière sur notre esprit de compétition. Adopter un comportement plus prosocial en coopérant davantage, en partageant et en aidant les autres, peut le réduire.
De plus, revoir la manière dont nous nous évaluons et dont nous nous percevons peut contribuer à développer un rapport plus équilibré et plus flexible à la compétition. Une thérapie d’acceptation et d’engagement ou une thérapie centrée sur la compassion peut être utile pour accompagner ces changements.
Réfléchissez à vos objectifs : êtes-vous prêt à tout pour gagner ? ou préférez-vous faire de votre mieux et vous faire des amis ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.