La série *Bluey* connaît un succès mondial, devenant même en 2024 le programme le plus streamé aux États-Unis.Ludo Studios
Derrière ses histoires pleines d’humour et de tendresse, la série australienne Bluey cache des références culturelles et philosophiques bien plus profondes qu’il n’y paraît. En s’inspirant de récits bouddhistes, chrétiens ou taoïstes, certains épisodes proposent aux enfants – et à leurs parents – une manière accessible de réfléchir à la souffrance, à l’attente, à la perte ou à l’acceptation.
Bluey est une série intelligente qui puise dans toutes sortes d’inspirations pour ses histoires pleines de charme, y compris religieuses. Ma recherche récemment publiée examine ce que la série dit de la religion, et de la religion du jeu, qui sert de principe directeur à leur vie (NDLT : Bluey raconte la vie d’une famille de chiens anthropomorphes qui explorent le monde par le jeu.)
Trois épisodes en particulier montrent la diversité des religions dans l’Australie contemporaine et nous aident à réfléchir à la diversité et à la profondeur de la culture de ce pays.
Ces épisodes transmettent, de manière accessible et réfléchie, aux enfants et aux parents des leçons concises issues de religions bien réelles. Ils récompensent la curiosité et un regard réflexif sur les histoires, en encourageant les parents à s’investir plus profondément dans les programmes préférés de leurs enfants.
Voici donc ce que trois épisodes de Bluey disent de la religion, et les leçons qu’ils offrent aux enfants de toutes les religions, comme à ceux qui n’en ont aucune.
La parabole bouddhiste
L’épisode « Bumpy et le vieux lévrier sage » est une reprise à peine voilée de la parabole bouddhiste de Kisa Gotami et des graines de moutarde (mais avec les fameuses graines de moutarde remplacées par des sous-vêtements violets !).
Dans l’épisode, Bluey et Bandit réalisent une vidéo racontant une histoire pour remonter le moral de Bingo, hospitalisée. Dans cette histoire, une femme (Barnicus) a un chiot appelé Bumpy, qui tombe gravement malade. Elle l’emmène voir le vieux lévrier sage pour demander de l’aide. Celui-ci est représenté assis en position du lotus, vêtu d’une robe faite de serviettes et coiffé d’une couronne de fleurs.
Le vieux lévrier sage lui demande une paire de sous-vêtements violets provenant de quelqu’un qui n’a jamais été malade. Comme Barnicus ne trouve personne qui n’ait jamais été malade, elle comprend que le sage cherchait à lui apprendre que tout le monde tombe malade un jour ou l’autre. La maladie fait simplement partie de la vie, et Bingo se sent réconfortée de ne pas être seule.
Dans la parabole originale des graines de moutarde, qui remonte au Ve siècle avant notre ère, Kisa Gotami est une mère dont le fils unique meurt. Lorsqu’elle se tourne vers le Bouddha pour obtenir de l’aide, celui-ci lui demande de récupérer des graines de moutarde auprès de familles où il n’y a jamais eu de décès. En cherchant à accomplir cette tâche impossible, Kisa Gotami comprend que la mort et la souffrance sont inévitables.
En réinterprétant ce récit religieux avec une touche d’humour et des enjeux atténués, l’épisode permet aux enfants d’apprendre un enseignement fondamental du bouddhisme. La maladie et la souffrance sont terribles, mais le fait de savoir que tout le monde y est confronté un jour peut nous réconforter et nous aider à relâcher notre attachement, ou notre besoin d’un bonheur et d’un bien-être permanents.
Pâques chrétiennes
L’épisode « Pâques » fait écho à certains thèmes du récit chrétien associé à cette fête. Bluey et Bingo craignent que le lapin de Pâques les ait oubliées. Chilli et Bandit leur rappellent la promesse de ce dernier : il reviendra à coup sûr le dimanche de Pâques.
Mais ne trouvant pas les œufs en chocolat, elles s’inquiètent, en particulier quand le jeu exige du courage ou une forme de souffrance (mettre les pieds dans les toilettes de Papa). Elles se demandent alors si elles ne risquent pas d’être oubliées.
Les Trois Marie au tombeau, de William Bouguereau, 1890 ; et l’épisode « Pâques » de Bluey. Ludo Studios/Wikimedia
On peut y voir un parallèle avec la manière dont la Bible donne à voir la crainte des disciples de Jésus au lendemain de sa mort, pensant que Dieu les avait oubliés malgré la promesse qu’il leur avait déjà faite de revenir après trois jours. Cet enseignement reflète l’inquiétude que beaucoup de personnes ressentent : celle d’être peut-être trop insignifiantes ou trop pécheresses pour que Dieu se soucie d’elles.
L’épisode se termine lorsque Bluey et Bingo font rouler un ballon de gymnastique (la pierre) pour dégager une cavité sous le bureau (le tombeau) et découvrent que le lapin de Pâques ne les a pas oubliées : il a pensé à elles, s’est soucié de leur sort et est bien revenu pour leur offrir de beaux œufs en chocolat (la vie éternelle).
À travers cette relecture décalée d’un récit religieux, les enfants sont encouragés à penser qu’ils sont aimés et à faire confiance aux promesses qui leur sont faites, même lorsqu’ils ont l’impression d’être petits, oubliables ou désobéissants.
La fable taoïste
Dans « Le panneau », la maîtresse de Bluey, Calypso, lit une fable issue à l’origine du texte taoïste Huainanzi, datant du IIe siècle avant notre ère. En français, cette fable est souvent appelée « Le paysan et le cheval blanc ».
Le récit enchaîne une série d’événements qui arrivent à un vieil homme, et, après chacun d’eux, ses voisins commentent les faits, estimant qu’il s’agit de chance ou de malchance. Le vieil homme répond toujours « On verra », dans l’attitude du wú wéi.). Dans la conception taoïste du wú wéi appliquée à la fortune, toutes choses se valent, et ce n’est que le jugement humain (ou, en l’occurrence, canin) qui qualifie un événement de bon ou de mauvais. Ainsi, la seule réponse appropriée face à un événement marquant est le « non-agir » ou la sérénité, jusqu’à ce que le passage du temps en révèle le véritable sens.
Au départ, Bluey comprend mal le message et pense que Calypso veut dire que tout finira forcément par s’arranger. Mais à la fin de l’épisode, elle apprend à adopter l’attitude du wú wéi de manière positive. Elle reste calme, voire sereine, face à la perspective de quitter son quartier bien-aimé.
À travers ce récit religieux, les enfants apprennent qu’une approche douce et fluide de la vie, qui n’impose pas ses propres désirs au monde, permet d’éviter des souffrances inutiles et de trouver la paix et l’acceptation.
Sarah Lawson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Jusqu’à présent, il était difficile de distinguer des mitochondries individuelles, et encore plus délicat de voir à l’intérieur : ici, ce sont des agrégats de mitochondries que l’on distingue en doré.Torsten Wittmann, University of California, San Francisco, CC BY
Explorer l’intérieur de nos cellules et leurs compartiments, tout en identifiant chaque protéine pour les cartographier, préciser leurs interactions et déchiffrer de nouveaux mécanismes biologiques… c’est désormais à notre portée grâce au développement de microscopes de super-résolution. Grâce à ces nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.
Les mitochondries sont principalement connues pour être les centrales énergétiques de nos cellules, car elles y sont responsables de la production d’énergie et de chaleur. Elles participent également à la synthèse de nombreuses molécules et assurent un contrôle crucial sur la vie et la mort des cellules. Récemment, des microscopes ultrasophistiqués ont permis de mettre à jour l’incroyable vie active des mitochondries, qui se déplacent, fusionnent entre elles et se séparent.
Ces progrès sont cruciaux car les mitochondries sont impliquées dans de nombreuses atteintes neurodégénératives, maladies cardio-vasculaires et cancers. Comprendre comment les mitochondries endommagées contribuent au processus d’une maladie est essentiel pour le développement de traitements.
Les mitochondries, un réseau en reconfiguration perpétuelle
Dans la plupart des cellules et des tissus, les mitochondries ont la forme de tubes, plus ou moins longs. Les mitochondries s’adaptent à la taille et aux besoins énergétiques des cellules, ainsi dans les larges cellules énergivores, il peut y avoir plus de 200 000 mitochondries par cellules tandis que dans d’autres cellules, il y aurait moins de 100 mitochondries. En fonction de l’organe d’origine de la cellule, les mitochondries se répartissent dans la cellule et forment de grands réseaux. Elles changent également sans cesse de formes et leurs attachements avec les autres structures de la cellule.
Dès les années 1950, les données de microscopies électroniques ont révélé la structure de ces petits tubes et précisé leur organisation membranaire. Leur membrane externe est doublée d’une membrane interne, qui s’invagine et forme des poches à l’intérieur des mitochondries. Ces poches sont appelées crêtes et sont le lieu de la synthèse d’énergie.
Pour bien comprendre la fonction des mitochondries, il faut donc s’intéresser à leur structure, leur dynamique et leur distribution. Un axe important de travaux scientifiques porte sur cette relation structure-fonction afin de découvrir de nouveaux moyens de protéger la morphologie mitochondriale et de développer des stratégies thérapeutiques pour lutter contre les maladies mitochondriales ou les atteintes neurodégénératives.
La microscopie de fluorescence, la clé pour le suivi des mitochondries en temps réel
Si la microscopie électronique permet d’obtenir des vues extrêmement détaillées des mitochondries, son utilisation ne permet pas de rendre compte de la complexité de leur organisation au sein des cellules, ni de leur nature dynamique. En effet, ce type de microscopie se limite à des images cellulaires figées dans le temps. C’est ici qu’intervient la microscopie de fluorescence, un domaine en pleine effervescence qui permet de capturer des images ou des vidéos.
La microscopie de fluorescence repose sur le principe d’excitation et d’émission contrôlées de photons, particules composant la lumière, par des molécules présentes dans les cellules. Contrairement aux microscopes à fond clair, qui sont les microscopes les plus simples, comme ceux utilisés en cours de sciences, et où l’image est générée à partir des signaux collectés après le passage de la lumière à travers l’échantillon, les microscopes à fluorescence collectent les signaux lumineux qui proviennent de l’objet biologique lui-même, comme des petites ampoules que l’on allumerait au cœur de la cellule.
Le développement de l’informatique et des capteurs de caméra sensibles et rapides ont également rendu possible le suivi des signaux dans le temps, et la quantification des mouvements de chaque compartiment des mitochondries.
Visualisation des membranes internes des mitochondries de cellules fibroblastiques en culture par super-résolution STED. La barre d’échelle représente 500 nanomètres. CECAD imaging facility, Université de Cologne, Allemagne ; et S. Plouzennec, Mitolab, Université Angers, Fourni par l’auteur
La super-résolution, quand la science éclaire l’invisible
Pour aller plus loin que ces observations déjà fascinantes de réseaux de mitochondries, la microscopie de fluorescence ne suffit pas. En effet, en microscopie optique, les objets plus petits qu’une certaine taille, environ 200-300 nanomètres radialement et 500-700 nanomètres axialement, ne peuvent pas être distingués. En effet, selon un principe physique, la diffraction de la lumière, soit la déviation des rayons lumineux, fait qu’un émetteur unique apparaît comme une tache sur la caméra – on parle de figure de diffraction, et plus précisément ici de « fonction d’étalement du point ».
Cette limitation entrave l’observation précise de structures complexes telles que les mitochondries du fait de leur taille qui est similaire à la limite de diffraction.
La microscopie de fluorescence à super-résolution (microSR) a changé la donne dans le domaine de la recherche biologique depuis les années 2000. Grâce à cette technologie, les scientifiques peuvent pénétrer dans le monde nanoscopique et observer en temps réel les structures complexes et les interactions des composants cellulaires. La microscopie de fluorescence à super-résolution englobe quatre techniques principales, dont l’une a été récompensée par le prix Nobel de chimie en 2014.
Chacune de ces techniques s’attaque à la limite de diffraction d’une manière unique, permettant de séparer des points situés à moins de 200 nanomètres. Cette avancée permet aux chercheurs d’atteindre des résolutions spatiales de quelques nanomètres, dévoilant ainsi les détails les plus fins des structures cellulaires comme jamais auparavant. Restreints il y a encore peu de temps à quelques laboratoires prestigieux dans le monde, ces équipements se démocratisent et se déploient dans les plates-formes de microscopie.
La mitochondrie sous un nouveau jour, dévoilée à l’échelle nanométrique
Avec un autre type de microscopie de fluorescence à super-résolution, nous avons visualisé le contour des crêtes, retrouvant ainsi le visuel connu d’une image de microscopie électronique… à ceci près qu’aucun traitement chimique liée à la fixation de l’échantillon n’est venu perturber l’organisation de ces fines membranes et fragiles petites poches. Ceci permet de découvrir la complexité interne des mitochondries et l’hétérogénéité de ses structures, afin de corréler la morphologie des mitochondries à leur activité ou à la présence de défaut génétique.
Ces images donnent accès à deux échelles de temps, c’est-à-dire deux niveaux de cinétique. D’une part, sur quelques minutes durant lesquelles nous pouvons observer, nous voyons que les mitochondries se déplacent, changent de forme, fusionnent entre elles ou se séparent.
D’autre part, toujours avec la microscopie de super résolution, nous pouvons observer sur quelques secondes, toute l’ondulation et le remodelage des structures internes des mitochondries nécessaires à la production d’énergie.
Visualisation de la dynamique des membranes internes des mitochondries de cellules en culture par super-résolution STED sur quelques minutes (Leica Microsystems, Wetzlar, Germany) en collaboration avec PRIMACEN ; MONT-SAINT-AIGNAN ; C. Laigle (A. Chevrollier Mitolab, Université Angers). Source : Université Angers.
Ainsi, on découvre que les mitochondries ne sont pas de simples centrales énergétiques cellulaires mais des organites dynamiques possédant de nombreuses particularités nanoscopiques. La microscopie de super résolution permet d’envisager une meilleure compréhension de comment les mitochondries endommagées contribuent au processus de nombreuses maladies, ce qui est essentiel pour le développement de traitements.
Arnaud Chevrollier a reçu des financements de l’Université d’Angers, AFM-téléthon
Pauline Teixeira et Solenn Plouzennec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Longtemps présenté comme un exemple spectaculaire d’adaptation rapide à l’urbanisation, le « moustique du métro de Londres » n’est en réalité pas né dans les tunnels londoniens, comme on le pensait jusqu’ici. Une nouvelle étude retrace ses origines et montre qu’elles sont bien plus anciennes que ce que l’on imaginait. Elles remonteraient à plus de mille ans, en lien avec le développement des sociétés agricoles.
Et si le « moustique du métro de Londres », surtout connu pour ses piqûres sur les populations réfugiées à Londres dans les sous-sols de la ville pendant la Seconde Guerre mondiale, n’était en réalité pas né dans les tunnels londoniens ? C’est ce que révèle une étude que nous avons récemment publiée avec des collègues.
Des réfugiés s’abritant dans le métro de Londres pendant le Blitz de Londres, en novembre 1940.
Nos résultats montrent que les caractéristiques « urbaines » de ce moustique, que l’on pensait s’être adapté à la vie souterraine il y a un peu plus d’un siècle, remontent en fait à plus de mille ans.
Le moustiqueCulex pipiens molestus, qui diffère de son cousin Culex pipiens pipiens dans la mesure où le premier pique surtout des humains, et le second surtout des oiseaux, est probablement né dans la vallée du Nil ou au Moyen-Orient, en lien avec le développement des premières sociétés agricoles humaines.
Le « moustique du métro de Londres » n’est pas né dans le métro
Cette découverte jette une lumière nouvelle sur l’évolution des moustiques. Depuis plusieurs décennies, une hypothèse présentait en effet le moustique commun (Culex pipiens) comme un exemple spectaculaire d’adaptation rapide à l’urbanisation.
Selon cette théorie, une forme particulière de ce moustique, appelée Culex pipiens molestus, se serait adaptée à la vie urbaine en un peu plus de cent ans seulement, à partir de sa forme jumelle Culex pipiens pipiens. Là où celle-ci préfère piquer les oiseaux, s’accoupler dans des espaces ouverts et « hiberner » pendant l’hiver, la forme molestus aurait évolué en une forme quasi distincte, capable de vivre dans les souterrains et de piquer l’humain et d’autres mammifères, de s’accoupler dans des souterrains et de rester actif toute l’année.
Cette adaptation spectaculaire du « moustique du métro de Londres » était devenue un cas d’école, figurant dans de nombreux manuels d’écologie et d’évolution. L’idée sous-jacente était que l’urbanisation des villes pouvait sélectionner à grande vitesse de nouvelles espèces et en quelque sorte « accélérer » l’évolution.
Mais notre étude vient montre que cette belle histoire, aussi séduisante soit-elle, est fausse.
Un moustique urbain… né bien avant les villes modernes
Notre consortium international de chercheurs PipPop a ainsi publié dans la revue Science une étude qui démystifie cette hypothèse. En séquençant le génome de plus de 350 moustiques, contemporains et historiques, issus de 77 populations d’Europe, d’Afrique du Nord et d’Asie occidentale, nous avons reconstitué leur histoire évolutive.
En définitive, les caractéristiques qui font de Culex pipiens molestus un moustique si adapté à la vie urbaine ne sont pas apparues dans le métro londonien, mais bien plus tôt, il y a plus de mille ans, vraisemblablement dans la vallée du Nil ou au Moyen-Orient. Ce résultat remet en question ce qui était considéré comme un exemple clé de l’évolution urbaine rapide. Au final, il s’agirait d’une adaptation plus lente, associée au développement de sociétés humaines anciennes.
Autrement dit, ce moustique était déjà « urbain » (au sens : étroitement associé aux humains) bien avant l’ère industrielle. Les premières sociétés agricoles, avec leurs villages denses, leurs systèmes d’irrigation et leurs réserves d’eau, lui ont offert un terrain de jeu idéal pour son adaptation.
Le moustique Culex pipiens n’est pas juste une curiosité scientifique : il joue un rôle majeur dans la transmission de virus comme ceux du Nil occidental ou d’Usutu. Ces derniers circulent surtout chez les oiseaux mais peuvent aussi être transmis aux humains et aux mammifères.
La forme Culex pipiens pipiens, qui pique les oiseaux, est principalement responsable de la transmission du virus dans l’avifaune, tandis que Culex pipiens molestus est vu comme responsable de la transmission aux humains et aux mammifères.
Lorsque les deux se croisent et s’hybrident, ils pourraient donner naissance à des moustiques au régime mixte, capables de « faire le pont » entre oiseaux et humains et de nous transmettre des virus dits zoonotiques.
De fait, nos analyses confirment que les deux formes s’hybrident davantage dans les villes densément peuplées, augmentant le risque de transmission de ces virus. Autrement dit la densité humaine augmente les occasions de rencontre entre les deux formes de moustiques – et potentiellement la probabilité de produire des moustiques capables de piquer à la fois les oiseaux et les humains.
Comprendre quand et où ces deux formes se croisent et comment leurs gènes se mélangent est donc crucial pour anticiper les risques d’épidémie.
Repenser l’adaptation urbaine
L’histoire du « moustique du métro de Londres » a eu un immense succès parce qu’elle incarne en une image frappante tout ce que l’on redoute et admire dans l’adaptation rapide des espèces à nos environnements. Par exemple, une adaptation très rapide face à l’augmentation de la pollution et de l’artificialisation des habitats, souvent mobilisée dans les imaginaires, de science-fiction en particulier.
Mais la réalité est tout autre : les moustiques de nos villes modernes ne sont pas une nouveauté née dans le métro londonien. En revanche, le développement urbain a offert une nouvelle scène à un acteur déjà préparé par des millénaires de cohabitation avec les humains dans les premières sociétés agricoles du Moyen-Orient et de la Méditerranée. Le fruit de cette évolution a ensuite pu être « recyclé » dans les villes contemporaines.
On parle alors d’ « exaptation », c’est-à-dire qu’un trait préexistant dans un contexte donné (ici les premières villes du Moyen-Orient) devient avantageux dans un autre contexte (les villes du nord de l’Europe). Les circuits sensoriels et métaboliques qui pilotent la recherche d’hôtes à piquer, la prise de repas sanguin et la reproduction avaient déjà été remodelés par l’histoire ancienne des sociétés agricoles de la Méditerranée et du Moyen-Orient, avant d’être « réutilisés » dans le contexte urbain moderne au nord de l’Europe.
Nos systèmes d’irrigation antiques, nos premières villes et nos habitudes de stockage de l’eau ont donc posé les bases génétiques qui permettent aujourd’hui à certains moustiques de prospérer dans les galeries de métro ou les sous-sols d’immeubles de nos grandes villes.
Cette découverte change la donne. En retraçant l’histoire de la forme urbaine du moustique commun Culex pipiens, l’étude invite à changer de regard sur l’évolution urbaine : ce n’est pas seulement une adaptation rapide déclenchée par l’urbanisation intensive des villes, mais un long processus qui relie notre développement technique et social et celle des autres espèces.
Comprendre ces dynamiques est crucial : non seulement pour la science, mais aussi pour anticiper les risques sanitaires et mieux cohabiter avec les autres espèces. Et vous, saviez-vous que le moustique qui vous pique la nuit avait une histoire évolutive aussi ancienne ?
Haoues Alout a reçu des financements de l’ANR et de l’ANSES ainsi que de l’Union Européenne.
On ne peut progresser sans se tromper. Comment dès lors inviter les étudiants à ne plus craindre l’erreur mais à la voir comme une opportunité d’acquérir de nouvelles compétences ? Exemple à travers un dispositif d’apprentissage par l’action.
Dans un système classique de cours magistraux, l’enseignant est considéré comme dépositaire d’un savoir à transmettre, et le résultat de cette transmission est évalué par des contrôles de connaissances réguliers. L’erreur y est encore souvent appréhendée par les élèves comme un échec plutôt que comme un tremplin vers l’apprentissage.
Nous avons pu observer la mise en œuvre de ce type de démarche dans un dispositif pédagogique expérientiel à l’EM Strasbourg, au sein de l’Université de Strasbourg, au fil de 4 promotions successives. Au total, 40 étudiants s’y sont engagés durant leurs trois années de bachelor en conduisant des projets entrepreneuriaux ou des missions pour des organisations.
C’est en se retrouvant ainsi mis en situation, sur le terrain, qu’ils se rendent compte de leur manque de compétences et vont lire, rencontrer des experts et partager leurs apprentissages avec d’autres étudiants pour être capables de surmonter les défis qui se présentent à eux.
Les compétences ainsi développées leur permettent d’alimenter le portfolio nécessaire à leur diplomation sans suivre de cours et en apprenant de leurs actions. Cette pédagogie « Team Academy » a été créée il y a plus de vingt-cinq ans à l’Université des sciences appliquées de Jyväskylä en Finlande.
Apprendre à prendre ses responsabilités
Tout au long de leur formation, les apprenants sont encadrés par une équipe d’enseignants coachs formés à cette pédagogie et chargés de garantir un cadre bienveillant et sécurisant. Les étudiants sont invités à vivre ainsi dans une boucle d’apprentissage où alternent l’action et la réflexivité permettant de lier les actions, les lectures et les rencontres d’experts.
Dans cette dynamique, nier sa responsabilité au moment d’expliquer une erreur, en invoquant des causes externes ou non contrôlables (comme « C’est la faute des autres » ou « L’environnement n’est pas favorable »), peut engendrer des comportements indésirables, alors que reconnaître sa responsabilité favorise des postures permettant d’atteindre un résultat concret et d’apprendre. C’est ce que nous avons constaté : lorsque les étudiants parlent de leurs erreurs, ils le font en disant « je » ou « nous » : s’attribuer une part de la responsabilité apparaît comme un préalable pour apprendre.
Cependant, les étudiants relèvent le caractère douloureux de l’erreur qui « fait mal au cœur » et « peut rapidement faire peur ». Une fois comprise et acceptée, celle-ci semble prendre une coloration plus « positive » et constructive. Ils la perçoivent comme un « challenge » à relever. Le concept d’erreur devient à leurs yeux inhérent à l’action, à mesure que les trois ans de formation se déroulent.
Ainsi, plongés dans une culture de valorisation de l’erreur, les étudiants relatent :
« Il n’y a pas eu d’erreurs, il n’y a eu que des apprentissages [et des] occasions de progresser. »
En partant de leurs erreurs, les étudiants considèrent avoir acquis des compétences tant au niveau des « soft skills » (persévérance pour mener à bien un projet entrepreneurial ; régulation des émotions (pour « passer outre et avancer ») que des « hard skills » (meilleure maîtrise de « la gestion de projet »).
La culture de l’erreur apprenante vécue dans leur formation les conduit aussi à revisiter leur conception de la réussite entrepreneuriale de façon plus réaliste :
« Un entrepreneur qui réussit aujourd’hui dans son business, c’est un entrepreneur qui a osé se planter, qui a osé arrêter […] pour moi, c’est vraiment inspirant […] [de] savoir quelles sont les erreurs qu’ils ont faites, pour ne pas les refaire. »
Déconstruire la culture de la performance
Pour leur emploi après leur formation, certains étudiants rêvent d’un environnement de travail valorisant une culture similaire, mais ils s’interrogent sur le décalage possible entre leur univers d’études et le monde professionnel : « Ce n’est pas la réalité. On est tellement dans une bulle. On est dans notre monde… l’erreur est acceptée. Dans d’autres boîtes, l’erreur… Il faut quand même faire attention. »
Les étudiants se sont appuyés sur les deux rôles qu’un apprenant engagé dans un dispositif d’apprentissage par l’expérience peut investir :
dans leur rôle d’apprenants, ils choisissent d’interpréter l’erreur comme une opportunité d’apprendre. Les étudiants cherchent à développer des compétences personnelles en dédramatisant l’objectif de réussite du projet ;
dans leur rôle d’acteurs, ils parviennent à interpréter l’erreur comme un défi à relever.
Ces deux stratégies permettent de diminuer l’intensité émotionnelle associée aux erreurs pour, dans le premier rôle, se focaliser sur l’acquisition de compétences nouvelles et, dans le second, rechercher des solutions au problème.
Cette forme d’apprentissage par l’erreur exige un travail de déconstruction de la culture de la réussite et de la performance, dont le résultat est en grande partie dépendant de l’intensité des efforts consentis par les étudiants.
Pour les pédagogues souhaitant introduire un apprentissage par l’erreur, notre recherche met en lumière la nécessité d’organiser un espace résolument bienveillant pour partager les questionnements, les difficultés et les erreurs, et de l’inscrire dans un temps suffisamment long pour modifier les représentations et les comportements.
Olga Bourachnikova, chercheuse et entrepreneuse, a participé à la rédaction de cet article avec Odile Paulus, maîtresse de conférences en gestion à l’EM Strasbourg, Sonia Boussaguet, professeure associée à la Neoma Business School, Julien de Freyman, professeur associé à la South Champagne Business School et Caroline Merdinger-Rumpler, maîtresse de conférences en management des organisations de santé à l’EM Strasbourg.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: The Conversation – France in French (3) – By Alexandre Hassanin, Maître de Conférences (HDR) à Sorbonne Université, ISYEB – Institut de Systématique, Evolution, Biodiversité (CNRS, MNHN, SU, EPHE, UA), Muséum national d’histoire naturelle (MNHN)
Certaines espèces d’écureuils arboricoles appartenant au genre <em>Funisciurus</em> hébergent le virus mpox, responsable de la maladie parfois appelée « variole du singe ».Wikimedia Commons/Oddfeel, CC BY-SA
Le mpox (parfois encore appelé « variole du singe ») est une zoonose, autrement dit une maladie se transmettant de l’animal à l’humain, et inversement. Après un minutieux travail d’enquête, les scientifiques ont identifié les principaux suspects soupçonnés d’abriter le virus. Une découverte qui permet non seulement de mieux comprendre l’émergence de la maladie, mais aussi l’évolution du virus.
Ces dernières années, la maladie due au virus mpox (anciennement appelée « monkeypox », ou « variole du singe » en français) a beaucoup fait parler d’elle. Elle a en effet été à l’origine d’une émergence mondiale en 2022 qui avait alors touché 75 pays. En 2024, plusieurs pays d’Afrique centrale ont connu une recrudescence du nombre de cas ainsi que l’émergence d’une nouvelle souche virale. À ces deux occasions, l’Organisation mondiale de la santé (OMS) avait déclaré que la maladie était une « urgence de santé publique de portée internationale ». Si la maladie ne constitue plus, à l’heure actuelle, une telle urgence (l’OMS a levé sa dernière alerte en septembre 2025), elle continue à circuler, en particulier dans les zones où elle est endémique.
Depuis plusieurs années, les scientifiques mènent des investigations pour y trouver son réservoir naturel, autrement dit l’animal qui abrite le virus sans tomber gravement malade, et à partir duquel d’autres espèces peuvent se contaminer. La maladie à mpox est en effet une zoonose, autrement dit une maladie infectieuse qui passe de l’animal à l’être humain.
Certains suspects ont particulièrement retenu leur attention : les écureuils arboricoles appartenant au genre Funisciurus. Mais lesquels, exactement ? Pour le savoir, les spécialistes de la classification animale (aussi appelée « systématique ») ont croisé études du phénotype (l’apparence des animaux) et analyses de leur ADN. Ce qu’ils ont découvert éclaire non seulement l’histoire de ces écureuils, mais aussi celle du virus.
Une maladie qui inquiète l’Organisation mondiale de la santé
Le virus à l’origine de la maladie monkeypox (mpox) (littéralement « variole du singe », autre appellation de cette pathologie) tient son nom de sa découverte en 1958 chez des macaques de laboratoire originaires d’Asie. Toutefois, dans les années 1970, les scientifiques ont compris que ce virus n’avait en réalité aucun lien avec l’Asie. C’est en effet à cette époque que sont décrits les premiers cas humains dans des villages des forêts d’Afrique centrale (bassin du Congo) et d’Afrique de l’Ouest (forêts de Haute et de Basse Guinée).
Les scientifiques cherchent le réservoir animal du virus mpox (visible en rose – fausses couleurs – sur cette micrographie électronique à transmission). NIAID/NIH
Les symptômes associés à la maladie incluent fièvre, céphalées (maux de tête), lymphadénopathies (augmentation de taille des ganglions lymphatiques) et douleurs musculaires. Ils s’accompagnent d’une éruption cutanée plus ou moins étendue sous forme de macules (taches sur la peau), de papules (lésions dermatologiques), qui évoluent en vésicules et pustules.
Une deuxième épidémie majeure sévit actuellement en Afrique. Elle s’est déclarée en 2023 au Sud-Kivu à l’est de la République démocratique du Congo (RDC) et s’est ensuite répandue dans d’autres pays voisins, cette fois-ci principalement par transmission hétérosexuelle. On comptait jusqu’à des centaines de cas par semaine, le taux de létalité (globalement estimé à 4 %) pouvant atteindre jusqu’à 11 % chez les enfants de moins de 5 ans.
Diverses espèces de mammifères susceptibles à l’infection
La transmission interhumaine du virus monkeypox se fait essentiellement par contact cutané avec des lésions contenant du liquide infecté par des particules virales. Des contacts avec des muqueuses peuvent aussi être infectants. Toutefois, l’être humain n’est pas le seul à être infecté par le virus monkeypox : celui-ci a été trouvé également chez plusieurs autres espèces de mammifères, principalement des primates et des rongeurs.
L’origine animale des cas index (le cas index est le premier cas humain d’une chaîne de transmission ou d’une épidémie) reste néanmoins peu documentée. Il est toutefois acquis que des mammifères sauvages des forêts tropicales humides sont en cause dans le passage du virus à l’être humain.
Que sait-on au juste des hôtes qui servent de réservoir au mpox, autrement dit des mammifères chez lesquels le virus évolue, se diversifie et à partir desquels une transmission peut se faire à d’autres mammifères dont l’être humain ?
Un virus qui se cacherait dans un écureuil
Il est très probable que, dans la nature, la transmission entre espèces animales se fasse aussi par contact cutané avec des lésions infectées de l’hôte réservoir (autrement dit l’animal qui héberge le virus, mais ne tombe que peu ou pas malade) vers les hôtes receveurs. Chez l’être humain, ce cas de figure pourrait survenir par exemple lors de la chasse, au cours du portage ou du dépeçage des animaux, etc.
Depuis les années 1980, les écureuils arboricoles du genre Funisciurus sont régulièrement cités dans la littérature scientifique en tant que réservoir du virus monkeypox. Ce genre d’écureuils inclut une dizaine d’espèces, dont la plupart vivent exclusivement dans les forêts tropicales humides d’Afrique.
Mesurant de 15 à 20 centimètres, (hors queue, dont la longueur est équivalente à celle de leur corps), ces petits écureuils arboricoles tirent leur nom usuel – « écureuil à cordes », ou « rope squirrels » en anglais – de leur agilité à grimper le long de branches et de lianes aussi fines que des cordes. Leur autre appellation, « écureuils rayés africains » (« African stripe squirrels ») fait référence aux rayures présentes sur leurs flancs.
Omnivores, ils se nourrissent principalement de fruits et de graines, mais leur régime alimentaire comprend aussi des tiges et des pousses ainsi que des insectes. Diurnes, ils dorment dans des nids sphériques similaires à ceux de l’écureuil européen, le plus souvent construits avec des feuilles, des fibres et des brindilles dans les fourches des branches, ou parfois dans les trous des arbres, au sol ou dans des terriers.
Comme beaucoup d’autres mammifères des forêts, ils sont chassés par les êtres humains, essentiellement par les enfants. Cela pourrait expliquer le fait que de nombreux cas index soient de jeunes garçons qui grimpent dans les arbres pour les piéger.
Tous ces éléments suggèrent que l’espèce F. anerythrus est le principal hôte réservoir du virus monkeypox en Afrique centrale.
Ne pas se tromper d’écureuil
Très récemment, une étude a révélé qu’une autre espèce appartenant au genre Funisciurus était à l’origine d’une épidémie de monkeypox qui s’est propagée au sein d’une colonie de singes verts mangabeys (Cercocebus atys), en Côte d’Ivoire. Selon les auteurs qui ont décrit ce cas dans la littérature scientifique, les primates auraient été contaminés à la suite d’un contact avec des écureuils de l’espèce Funisciurus pyrropus, la seule du genre Funisciurus actuellement décrite dans les forêts ivoiriennes et dans celles des pays avoisinants. Selon certaines observations, ces écureuils feraient partie, au moins occasionnellement, du régime alimentaire des mangabeys.
Lors d’une précédente étude, nous avions en effet comparé la niche écologique (l’habitat préférentiel) du virus mpox à celle de chacun des mammifères qui potentiellement pouvaient constituer son réservoir (pour lesquels le virus ou des anticorps dirigés contre ce virus avaient été mentionnés dans la littérature). Ces comparaisons nous ont permis de fournir un classement des réservoirs les plus probables.
Les quatre premiers de ce classement étaient tous des rongeurs arboricoles et deux d’entre appartenaient au genre Funisciurus : le premier étant Funisciurus anerythrus et le troisième étant Funisciurus pyrropus. Nos analyses des niches écologiques ont aussi révélé que les distributions géographiques de ces deux espèces fournies par l’Union internationale pour la conservation de la nature (IUCN) étaient erronées. Cela nous a amenés à entreprendre une étude plus approfondie sur la systématique de ces écureuils.
Une réponse dans les collections muséales
En étudiant les spécimens naturalisés de Funisciurus conservés dans différents muséums d’histoire naturelle, dont le Musée royal d’Afrique centrale de Tervuren (Belgique), le Muséum national d’histoire naturelle de Paris (France) et le Field Museum de Chicago (États-Unis d’Amérique), nous avons fait une découverte intéressante.
L’examen des pelages des spécimens de collection a révélé que les deux groupes de F. pyrropus (présents en Afrique centrale et en Afrique de l’Ouest) ont une coloration de pelage distincte. Ceux d’Afrique centrale ont les flancs contrastés avec un dos gris foncé/brun et un ventre blanc pur. Les spécimens d’Afrique de l’Ouest ont quant à eux un dos gris foncé/brun séparé du ventre blanc par une large bande rougeâtre/orange, qui se prolonge sur les membres antérieurs et postérieurs.
Ce constat nous a conduits à émettre l’hypothèse que les écureuils Funisciurus vivant en Côte d’Ivoire n’appartenaient pas à l’espèce F. pyrropus, mais à une autre espèce.
Pour confirmer ces observations, nous avons analysé les séquences ADN correspondant aux différents spécimens présents dans les collections des muséums. Les résultats ont révélé que, en Afrique de l’Ouest (notamment au Bénin, en Côte d’Ivoire, au Ghana, au Liberia et en Guinée), les écureuils appartenaient bien à une autre espèce que F. pyrropus, précédemment nommée Funisciurus leucostigma par le zoologiste néerlandais Coenraad Jacob Temminck en 1853. Cette dernière espèce est endémique à l’Afrique de l’Ouest, ce qui signifie qu’elle ne vit que dans cette région. En revanche, les deux espèces F. anerythrus et F. pyrropus sont uniquement présentes en Afrique centrale (notamment en RDC, au Gabon et au Burundi).
Comme nous allons le voir, cette distinction a des implications en matière de compréhension de la façon dont le virus mpox a coévolué avec ses réservoirs écureuils.
Écureuils différents, virus différents
Ces résultats de systématique animale peuvent sembler, de prime abord, anodins. Ils permettent pourtant de mieux comprendre l’évolution du virus monkeypox.
On sait en effet qu’il existe deux groupes distincts de virus mpox (on parle de « clade viral ») : les virus appartenant au clade I (lui-même subdivisé en sous-clades Ia et Ib) et les virus du clade II (subdivisé en sous-clades IIa et IIb, ce dernier ayant été à l’origine de la flambée mondiale de 2022).
Selon l’OMS, le clade I semble avoir un taux de létalité plus important que le clade II). Toutefois, la mortalité dépend également de divers autres facteurs tels que la qualité de la prise en charge, l’état de santé du patient et son âge (elle est particulièrement élevée chez les enfants âgés de moins de 5 ans dans les régions d’endémie).
Ces deux groupes sont présents dans deux régions distinctes, de part et d’autre du fleuve Sanaga au Cameroun : les virus du clade I circulent en Afrique centrale (des cas index de la maladie ont été détectés en RDC, en République du Congo, en République centrafricaine, au Gabon et au sud du Cameroun), tandis que les virus du clade II sont présents en Afrique de l’Ouest (on a répertorié des cas index en Côte d’Ivoire, au Liberia, en Sierra Leone, au Nigeria et à l’ouest du Cameroun).
Il semblerait que le fleuve Sanaga, en tant que barrière géographique empêchant la dispersion des écureuils, ait joué un rôle clé dans l’émergence de deux clades viraux. Pour le comprendre, il faut s’intéresser aux écureuils : nos analyses ont non seulement démontré que F. anerythrus et F. leucostigma sont des espèces sœurs, mais aussi que la distribution des virus du clade I en Afrique centrale correspond à celle de la niche écologique de l’espèce F. anerythrus et que la distribution des virus du clade II en Afrique de l’Ouest correspond quant à elle à la niche écologique de l’espèce F. leucostigma.
Nos résultats suggèrent que les populations ancestrales des deux espèces d’écureuil se sont retrouvées isolées de chaque côté du fleuve Sanaga voici plusieurs centaines de milliers d’années, ce qui a conduit à leur divergence génétique et phénotypique, menant ainsi à la naissance de deux espèces distinctes, F. anerythrus et F. leucostigma.
On peut raisonnablement envisager que le franchissement du fleuve a pu être favorisé par son niveau plus bas lors d’une période glaciaire du pléistocène, ou bien que la Sanaga a été contournée à une époque où des forêts denses recouvraient les savanes au nord-est du fleuve.
Cette séparation des écureuils a mené à l’isolement de deux souches virales, l’une incluant l’ancêtre du clade I et ses descendants en Afrique centrale et l’autre regroupant l’ancêtre du clade II et ses descendants en Afrique de l’Ouest.
Autrement dit, la séparation des clades viraux I et II est concomitante de l’événement de spéciation ayant conduit à l’isolement des espèces F. anerythrus et F. leucostigma de part et d’autre du fleuve Sanaga.
Il s’agit là d’un bel exemple suggérant une coévolution entre le virus et son hôte réservoir. L’évolution naturelle des virus étant dépendante de leur hôte réservoir, elle est limitée géographiquement par la capacité de dispersion des animaux qui les hébergent.
Évidemment, cette règle n’est pas immuable. Lorsque la barrière d’espèce est franchie, notamment lorsqu’un virus passe à l’être humain, ce dernier peut, à plus ou moins long terme, devenir lui-même hôte réservoir. Cela peut entraîner des changements importants dans la dynamique évolutive du virus.
Les fleuves ne constituent plus, depuis longtemps, des barrières aux déplacements de notre espèce, lesquels peuvent donner aux virus de nombreuses opportunités de se diffuser bien au-delà de leurs territoires initiaux…
Alexandre Hassanin a reçu des financements de l’Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d’entreprise SCOR pour la Science et de l’Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).
Antoine Gessain a reçu des financements de l’Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d’entreprise SCOR pour la Science et de l’Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).
Source: The Conversation – (in Spanish) – By Carlos Gutiérrez Hita, Profesor titular de Universidad. Economía industrial (transporte, energía, telecomunicaciones), Universidad Miguel Hernández
Estos son los hechos: un moderno convoy de la empresa Iryo colisionó con una unidad de Renfe a las 19.45 de la tarde del domingo 18 de enero en la aguja (desvío) de entrada a la estación de Adamuz, en Córdoba. El tren Iryo 6189, procedente de Málaga y con destino Madrid, se había inscrito en el cambio de vía, pero la información actual es que, literalmente, los tres últimos coches saltaron por encima de la aguja desviada que da acceso a la vía que colinda con el andén, dejando la principal expédita. El resultado es que descarrilaron e impactaron con el servicio Alvia 2384 de Renfe –que hacía el trayecto entre Madrid y Huelva en sentido contrario– en un violento choque, sumando sus velocidades, aún desconocidas.
La apertura a la competencia
Aunque el mercado español de transporte ferroviario de personas se abrió a nuevos competidores en mayo de 2021, hasta principios de 2023 los únicos trenes que podían circular por el corredor Andalucía-Madrid eran los de la empresa estatal Renfe. La razón es que en esas vías no estaba actualizado el sistema de bloqueo y seguridad.
Tras la presión de los nuevos operadores OUIGO (de la empresa estatal francesa SNCF) e Iryo (propiedad de Trenitalia y sus socios españoles AirNostrum y Globalia), que ya estaban presentes en los corredores Madrid-Barcelona y Madrid-Levante, el corredor andaluz se abrió a la competencia. Esto incrementó la frecuencia de paso y amplió la capacidad de elección de los usuarios.
La línea de alta velocidad de Madrid a Andalucía es la más antigua de España (1992). Pese a que se ha mejorado y actualizado en varios puntos, sus sistemas de seguridad necesitan una renovación inmediata.
En los casi 227 000 km de red ferroviaria de la UE conviven mas de 25 lenguajes ferroviarios diferentes y no operables entre sí. Estos sistemas (el LZB aleman, el Crocodrile francés, el BACC italiano, el Asra español, etc.) son los que controlan y hacen posible la circulación segura de los trenes.
En el corredor ferroviario Andalucía-Madrid permanece en activo el sistema alemán de bloqueo LZB, Linienzugbeeinflussung, instalado para la línea de alta velocidad. Aunque eficiente, este sistema es superado por el ERTMS, European Rail Traffic Management System, el método europeo de gestión del tráfico ferroviario que ya está instalado en las líneas más modernas.
Las especificaciones del ERTMS provienen de la Directiva del Consejo de la Unión Europea 96/48/EC. El objetivo es que este sistema transeuropeo sustituya por completo a los sistemas nacionales y que esté plenamente desplegado en todo el territorio de la UE en 2050. El objetivo intermedio es que en 2030 se utilice en los 51 000 km de los nueve corredores principales de la red básica de transporte ferroviario de Europa.
En la actualidad, en España coexiste el nuevo sistema ERTMS con el antiguo sistema LZB, que los trenes modernos leen con una trampa técnica, mediante el uso de módulos STM (Specific Transmission Module).
Posibles causas del accidente
Las causas del accidente aún no están claras, pero es poco probable que sea un fallo del convoy por varias razones: los trenes siniestrados son modernos y nuevos, con poco desgaste, y la última inspección técnica del tren Iryo 6189 se había realizado 4 días antes. Entre otras muchas cosas, se revisa el estado de las pestañas de las ruedas, posibles roturas por estrés, los distintos tipos de freno, etc.
Hasta donde sabemos, también es nueva la infraestructura en ese punto, por lo que la geometría de la vía (curvas, rectas, pendientes, rampas) debe estar en perfectas condiciones. Queda entonces la posibilidad de que la aguja del desvío no haya hecho bien su función.
En todas las estaciones intermedias que no son de gran capacidad (esto excluye a estaciones como Albacete-Los Llanos, que es intermedia pero de gran capacidad, con muchas vías de estacionamiento y múltiples cambios de vía) existen vías de sobrepaso o apartaderos para que los trenes se estacionen y dejen pasar a otros que puedan venir por detrás y sin parada en esa estación.
La unidad de tren Iryo estaba cambiando de vía para estacionarse. Una hipótesis abierta es que el mecanismo de desvío actuó bien en un principio por la señal que manda el sistema STM de lectura del LZB, pero que, por alguna razón, la aguja del desvío se movió a posición “recta” antes de tiempo. Esto habría hecho chocar la rueda derecha de la unidad Iryo, saltando por encima hacia la vía contigua por la fuerza centrífuga y la velocidad, en dirección contraria al desvío, hacia la unidad de Renfe. La unidad Alvia se desplazaba en sentido contrario, siendo arroyada desde la cabina y hasta un número indeterminado de coches, como se puede ver en las imágenes difundidas.
Otra posibilidad es que hubiese un objeto en la vía, pero entonces el tren habría descarrilado desde el principio.
Una insignia de fiabilidad y puntualidad en entredicho
Lo cierto es que la alta velocidad en España es un estandarte de fiabilidad, modernidad y visión de futuro que se ha ido deteriorando poco a poco. Los retrasos han pasado de ser inexistentes a ser de muchos minutos, lo que ha llevado a Renfe a retirar el compromiso de tiempo y devolución del coste del billete.
Los continuos incidentes en la infraestructura gestionada por la empresa estatal ADIF con las catenarias, frenos y enganches (como en el túnel que une Atocha con Chamartín) han menoscabado la confianza del usuario.
Por último, los vaivenes políticos han impedido el desarrollo de un plan de viabilidad, modernización y estructura de la red único y consensuado, que proporcione un medio de transporte seguro y acorde con la creciente demanda de servicios ferroviarios, en detrimento del avión para distancias de hasta 800-1 000 kilómetros.
Carlos Gutiérrez Hita recibe fondos del Ministerio de Ciencia, Innovación y Universidades y de la Conselleria de Educación, Cultura, Universidades y Empleo de la Generalitat Valenciana.
Source: The Conversation – USA – By Mahesh Nepal, Ph.D. Student in Electrical Engineering, Binghamton University, State University of New York
Tiny insulating layers inside electronics help store charge so computers can run smoothly. bee32/iStock via Getty Images
When your winter jacket slows heat escaping your body or the cardboard sleeve on your coffee keeps heat from reaching your hand, you’re seeing insulation in action. In both cases, the idea is the same: keep heat from flowing where you don’t want it. But this physics principle isn’t limited to heat.
Electronics use it too, but with electricity. An electrical insulator stops current from flowing where it shouldn’t. That’s why power cords are wrapped in plastic. The plastic keeps electricity in the wire, not in your hand.
Inside electronics, insulators do more than keep the user safe. They also help devices store charge in a controlled way. In that role, engineers often call them dielectrics. These insulating layers sit at the heart of capacitors and transistors. A capacitor is a charge-storing component – think of it as a tiny battery, albeit one that fills up and empties much faster than a battery. A transistor is a tiny electrical switch. It can turn current on or off, or control how much current flows.
Together, capacitors and transistors make modern electronics work. They help phones store information, and they help computers process it. They help today’s AI hardware move huge amounts of data at high speed.
What surprises most people is how thin these insulating, current-quelling dielectrics are. In modern microchips, key dielectric layers can be only a few nanometers thick. That’s tens of thousands of times thinner than a human hair. A modern phone can contain billions of transistors, so at that scale, slimming them down by even 1 nanometer can make a difference.
As an electrical and material scientist, I work with my adviser, Tara P. Dhakal, at Binghamton University to understand how to make these insulating layers as thin as possible while preserving their reliability.
Thinner dielectrics don’t just shrink devices. They can also help store more charge. But at such scale, electronics get finicky. Sometimes what looks like a breakthrough isn’t quite what it seems. That’s why our focus is not just making dielectrics thin. It’s making them both thin and trustworthy.
What makes one dielectric better than another?
In both capacitors and transistors, the basic structure is simple: They contain two conductors separated by a thin insulator. If you bring the conductors closer, more charge can build up. It’s like two strong magnets with a sheet between them – the thinner the sheet, the stronger the pull.
But thinning has a limit. In transistors, the classic insulator silicon dioxide loses its ability to insulate at about 1.2 nanometers. At that scale, electrons can sneak through a shortcut called quantum tunneling. Enough charge leaks through that the device is no longer practical.
When materials are so thin that they start to leak, engineers have another lever. They can switch to an insulator that stores more charge without being made extremely thin. That ability is described by a metric called the dielectric constant, written as k. Higher-k materials can achieve that storage with a thicker layer, which makes it much harder for electrons to slip through.
For example, silicon dioxide has k of about 3.9, and aluminum oxide has k of about 8, twice as high. If a 1.2-nanometer silicon dioxide layer leaks too much, you can switch to a 2.4-nanometer aluminum oxide layer and get roughly the same charge storage. Because the film is physically thicker, it won’t leak as much.
The breakthrough that wasn’t
In 2010, a team of researchers at Argonne National Laboratory reported something that sounded almost impossible: They’d made an ultrathin coating that apparently had a giant dielectric constant, near 1,000. The material wasn’t a single new compound. It was a nanolaminate – a microscopic layer cake. In nanolaminates, you stack two materials in repeating A-B-A-B layers, hoping their interfaces create properties neither material has on its own.
In that work, the stack alternated aluminum oxide, with a k of about 8, and titanium oxide, with a k of about 40. The researchers built the stack by growing one molecular layer at a time, which is ideal for building and controlling the nanometer-scale layers in a nanolaminate.
When the team made each sublayer less than a nanometer, it found that the entire material was able to hold an incredible amount of charge – thus, the giant k.
In our study, the nanolaminate wasn’t acting like a clean insulator, and it was leaking enough to inflate the k value. Think of a bucket with a hairline crack: You keep pouring, and it seems like the bucket holds a lot, even though the water won’t stay inside.
Once we figured that a leak was behind the giant k result, we set out to solve the larger puzzle. We wanted to know what makes the nanolaminate leak, and what process change could make it truly insulating.
The culprit
We first looked for an obvious culprit: a visible defect. If a film stack leaks, you expect pinholes or cracks. But the nanolaminate looked smooth and continuous under the microscope. So why would a stack that looks solid fail?
The answer wasn’t in the shape, it was in the chemistry. The earliest aluminum oxide sublayers didn’t contain enough aluminum. That meant the film looked continuous, yet was still incomplete at the atomic scale. Electrons could find connected paths and escape through it. It was physically continuous but electrically leaky.
Our process to create these films, called atomic layer deposition, uses tiny, repeatable cycles. You add in two chemicals, one after the other. Each pair is one cycle. For aluminum oxide, the pair is often trimethylaluminium (TMA), which is the aluminum source, and water, which is the oxygen source. Together, they create the aluminum oxide, and one cycle adds roughly a single layer of material – about one-tenth of a nanometer. By repeating the cycles, you can grow the film to the thickness you need: about 10 cycles for 1 nanometer, 25 cycles for 2.5 nanometers, and so on.
But there’s a catch. When you deposit aluminum oxide on top of titanium oxide, the first chemical for aluminum oxide – TMA – can steal oxygen from the titanium oxide layer below. This issue removes some of the sites the aluminum source normally reacts with on the layer’s surface. So, the first aluminum oxide layer doesn’t grow evenly and ends up with less aluminum than it should have.
That problem leaves tiny weak spots where electrons can slip through and cause leakage. Once the aluminum oxide becomes thick enough – around 2 nanometers – it forms a more complete barrier, and those leakage paths are effectively sealed off.
One small change flipped the outcome. We kept the same aluminum source, TMA, but swapped the oxygen source. Instead of water, we used ozone. Ozone is a stronger oxygen source, so it can replace oxygen that gets pulled out during the TMA step. That shut down leakage paths. The aluminum oxide then behaved like a real barrier, even when it was thinner than a nanometer. With the ozone fix, the nanolaminate acted like a true insulator.
The takeaway is simple: When you’re down to a few atomic layers, chemistry can matter as much as thickness. The types of chemical compounds you use can decide whether those early layers become a real barrier or leave behind leakage paths.
Mahesh Nepal does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Are there thunderstorms on Mars? – Cade, age 7, Houston, Texas
Mars is a very dry planet with very little water in its atmosphere and hardly any clouds, so you might not expect it to have storms. Yet, there is lightning and thunder on Mars – although not with rain, nor with the same gusto as weather on Earth.
More than 10 years ago, my planetary science colleagues and I found the first evidence for lightning strikes on Mars. In the following decade, other researchers have continued to study what lightning might be like on the red planet. In November 2025, a Mars rover first captured the spectacular sounds of lightning sparking on the Martian surface.
Mars dust storms are many times larger and taller than this large terrestrial dust devil photographed in a valley near Las Vegas. Fernando Saca, University of Michigan
When smaller dust particles and larger sand particles collide with each other while being whipped around by these storms, they pick up a static charge. Smaller dust particles take on a positive charge, while larger sand particles become negative. The smaller dust particles are lighter and will float higher, while the heavier sand tends to fall closer to the ground.
Because oppositely charged particles don’t like to be apart, eventually the energy building between the negative charges higher up in the dust storm and the positive charges closer to the ground becomes too great and is released as electricity – similar to lightning.
Nobody has seen a flash of lightning on Mars, but we suspect it’s more like the glow from a neon light rather than a powerful lightning bolt. The atmosphere near the surface of Mars is about 100 times less dense than on Earth: It’s much more similar to the air inside neon lights.
The dust devil shown creates a dark track as it lifts the small and brighter dust particles. Mars Global Surveyor/NASA/JPL/Malin Space Science Systems
Releasing radio waves
Besides shock waves and visible light, lightning also produces other types of waves that the human eye can’t see: X-ray and radio waves. The ground and the top of the atmosphere both conduct electricity well, so they guide these radio waves and cause them to produce signals with specific radio frequencies. It’s kind of like how you might tune into specific radio channels for news or music, but instead of different channels, scientists can identify the radio waves coming from lightning.
While nobody has ever seen visible light from Martian lightning, we have heard something similar to the radio waves created by lightning on Earth. That’s the noise that the Perseverance rover reported at the end of 2025. They sound like electric sparks do on Earth. The rover recorded these signals on a microphone as small, sandy tornadoes passed by.
When my colleagues and I went hunting for lightning on Mars a decade ago, we knew the red planet emitted more radio waves during dust storm seasons. So, we searched for modest increases in radio signals from Mars using the large radio dishes that NASA uses to talk to its spacecraft. The dishes function like big ears that listen for faint radio signals from spacecraft far from Earth.
We spent from five to eight hours every day listening to Mars for three weeks. Eventually, we found the signals we were looking for: radio bursts with frequencies that matched up with the radio waves that lightning on Earth can create.
Artistic impression of a glowing dust devil on Mars. Instead of lightning, electric discharges on Mars dust storms are expected to produce a glow-like discharge like that illustrated in the bottom of this dust devil. Nilton Renno, University of Michigan
To find the particular source of these lightning-like signals, we searched for dust storms in pictures taken by spacecraft orbiting Mars. We matched a dust storm nearly 25 miles (40 kilometers) tall to the time when we’d heard the radio signals.
Learning about lightning on Mars helps scientists understand whether the planet could have once hosted extraterrestrial life. Lightning may have helped create life on Earth by converting molecules of nitrogen and carbon dioxide in the atmosphere into amino acids. Amino acids make up proteins, tens of thousands of which are found in a human body.
So, Mars does have storms, but they’re far drier and dustier than the thunderstorms on Earth. Scientists are continually studying lightning on Mars to better understand the geology of the red planet and its potential to host living organisms.
Hello, curious kids! Do you have a question you’d like an expert to answer? Ask an adult to send your question to CuriousKidsUS@theconversation.com. Please tell us your name, age and the city where you live.
And since curiosity has no age limit – adults, let us know what you’re wondering, too. We won’t be able to answer every question, but we will do our best.
Nilton O. Rennó receives funding from NASA, JPL, DARPA, and IARPA.
Now that the 2026 midterm elections are less than a year away, public interest in where things stand is on the rise. Of course, in a democracy no one knows the outcome of an election before it takes place, despite what the pollsters may predict.
Measured against that pattern, the odds that the Republicans will hold their slim House majority in 2026 are small. Another factor makes them smaller. When the sitting president is “underwater” – below 50% – in job approval polls, the likelihood of a bad midterm election result becomes a certainty. All the presidents since Harry S. Truman whose job approval was below 50% in the month before a midterm election lost seats in the House. All of them.
Even popular presidents – Dwight D. Eisenhower, in both of his terms; John F. Kennedy; Richard Nixon; Gerald Ford; Ronald Reagan in 1986; and George H. W. Bush – lost seats in midterm elections.
The list of unpopular presidents who lost House seats is even longer – Truman in 1946 and 1950, Lyndon B. Johnson in 1966, Jimmy Carter in 1978, Reagan in 1982, Bill Clinton in 1994, George W. Bush in 2006, Barack Obama in both 2010 and 2014, Donald Trump in 2018 and Joe Biden in 2022.
Exceptions are rare
There are only two cases in the past 80 years where the party of a sitting president won midterm seats in the House. Both involved special circumstances.
In 1998, Clinton was in the sixth year of his presidency and had good numbers for economic growth, declining interest rates and low unemployment. His average approval rating, according to Gallup, in his second term was 60.6%, the highest average achieved by any second-term president from Truman to Biden.
Moreover, the 1998 midterm elections took place in the midst of Clinton’s impeachment, when most Americans were simultaneously critical of the president’s personal behavior and convinced that that behavior did not merit removal from office. Good economic metrics and widespread concern that Republican impeachers were going too far led to modest gains for the Democrats in the 1998 midterm elections. The Democrats picked up five House seats.
Those were the rare cases when a popular sitting president got positive House results in a midterm election. And the positive results were small.
The final – and close – tally of the House of Representatives’ vote on President Donald Trump’s tax bill on July 3, 2025. Alex Wroblewski / AFP via Getty Images
Midterms matter
In the 20 midterm elections between 1946 and 2022, small changes in the House – a shift of less than 10 seats – occurred six times. Modest changes – between 11 and 39 seats – took place seven times. Big changes, so-called “wave elections” involving more than 40 seats, have happened seven times.
In every midterm election since 1946, at least five seats flipped from one party to the other. If the net result of the midterm elections in 2026 moved five seats from Republicans to Democrats, that would be enough to make Democrats the majority in the House.
In an era of close elections and narrow margins on Capitol Hill, midterms make a difference. The past five presidents – Clinton, Bush, Obama, Trump and Biden – entered office with their party in control of both houses of Congress. All five lost their party majority in the House or the Senate in their first two years in office.
Unexpected events, or good performance in office, could move Trump’s job approval numbers above 50%. Republicans would still be likely to lose House seats in the 2026 midterms, but a popular president would raise the chances that they could hold their narrow majority.
And there are other possibilities. Perhaps 2026 will involve issues like those in recent presidential elections.
The forthcoming midterms may not be like anything seen in recent congressional election cycles.
Democracy is never easy, and elections matter more than ever. Examining long-established patterns in midterm party performance makes citizens clear-eyed about what is likely to happen in the 2026 congressional elections. Thinking ahead about unusual challenges that might arise in close and consequential contests makes everyone better prepared for the hard work of maintaining a healthy democratic republic.
Robert A. Strong does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
The Nigerian Senate confirmed the appointment of the immediate past chairman of the Independent National Electoral Commission (INEC) as an ambassador in December 2025. This has resurfaced concerns about electoral integrity in the country.
Mahmood Yakubu stepped down as head of the electoral commission just three months prior to the ambassadorial appointment.
As a political scientist with published research on the electoral commission and electoral integrity in Nigeria, I argue that even though the president has a right to make the appointment under Section 171 of the constitution, it is still troubling. There are a number of reasons.
Firstly, it raises questions about institutional neutrality and public trust. It looks like a reward for the way elections were administered.
Yakubu’s tenure as chairman included the controversial 2023 general elections. Questions were raised about the commission’s credibility following logistical failures, technological breakdowns and delayed transmission of results. Though the courts ultimately upheld the declared outcomes, the election’s legitimacy remains hotly debated among citizens, civil society and scholars.
The same electoral umpire has been appointed to a prestigious diplomatic role less than three years after conducting an election that returned the appointing authority to power.
Secondly, it undermines public confidence at a time of rising political disengagement. Nigeria’s democracy is facing a legitimacy challenge driven by civic disillusionment, youth disengagement, and declining trust in institutions. Voter turnout in the 2023 presidential election, roughly 26% of registered voters, was one of the lowest in the country’s democratic history.
Thirdly, it reflects a weakening of institutional checks and legislative oversight. Despite widespread objections, the Senate approved the nomination with minimal dissent. A weak or compliant legislature reduces the institutional safeguards that protect elections from political capture.
Nigeria must strengthen electoral governance. This should include cooling off periods for electoral commission officials, stronger Senate oversight, protected institutional autonomy, and sustained civic re-engagement.
Impartiality and the perception of political reward
Electoral commissions thrive on perceived impartiality as much as on legal independence.
In a region where democratic norms are weakening as seen in Mali, Niger, Burkina Faso, Guinea and others, the perception that electoral officials may receive political rewards, especially if they manipulate the electoral institution to favour a candidate, can further erode trust. It sends a signal, intended or not, that electoral umpires can swiftly take on political roles.
This may influence future behaviour within the electoral commission. It becomes harder to preserve the principle of neutrality.
Ebbing trust in elections
Many Nigerians already believe that the electoral umpire is compromised. A 2023 report revealed that some senior electoral officials were politically affiliated with the ruling party.
A 2023 Afrobarometer report showed that 76% of Nigerians expressed a lack of trust in the commission.
In a recent paper, my colleague and I identified constraints on the commission. These included corruption, lack of adherence to its rules, and lack of independence.
Yakubu’s appointment risks deepening cynicism and feeding narratives of elite collusion.
For a democracy already struggling with fractured trust, where young people question whether voting makes a difference, this symbolic gesture may accelerate disengagement. When citizens lose faith in elections, they may turn to protest or apathy. Worse, they might support anti-democratic alternatives such as military intervention. It’s a trend already visible in Mali, Burkina Faso, Guinea and Niger.
Weakening checks and balances
The Senate’s role in the affair raises equally troubling concerns.
Rather than exercising its constitutional role as a check on executive appointments, the Senate appeared to align seamlessly with the president’s preferences. Most of the nominees were only asked by the Senate to bow and go.
This pattern of legislative passivity, common in Nigeria across all tiers of government, mirrors broader regional trends. Parliaments, whether in Togo, Benin or Senegal, have gradually ceded oversight functions to executives.
When political institutions become less independent, electoral oversight becomes more fragile.
A weak or compliant legislature reduces the institutional safeguards that protect elections from political capture.
In the US and Australia, revolving door laws exist to prevent former senior officials who occupied critical positions of trust from using their positions for political gains. They typically observe a cooling-off period before moving into a role that may risk a conflict of interest.
This norm exists to insulate institutional decisions from the prospect of political favour.
Nigeria currently lacks such a safeguard. Introducing a four- to six-year interval before former electoral commission chairs and commissioners could accept political or diplomatic appointments would bring Nigeria in line with international best practice.
Secondly, politically affiliated individuals must not be appointed to any position in the commission. This reform would protect both the individuals and the institution from allegations of political alignment.
Third, the Senate must reassert its constitutional role. It must subject sensitive appointments to genuine debate, ethical screening, and public interest review.
A credible, independent review, focusing on election logistics, technological failures, communication lapses and institutional pressures, would demonstrate a commitment to learning from past shortcomings. Transparency is the antidote to suspicion.
Preserving electoral integrity requires not only laws but also norms, perceptions and trust.
Across west African states, contested electoral processes and the fear that election administrators may align with political incumbents are increasingly widespread.
Onyedikachi Madueke does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.