Pourquoi la musique sonne-t-elle juste ou faux ?

Source: – By Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d’ondes acoustiques et de la physique des instruments de musique, Le Mans Université

Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.


S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.

Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.

Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.

La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La musique, une affaire de physiciens ?

À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).

Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.

Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.

Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.

Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.

Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.

Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s’explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.

Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.

Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.

Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !

The Conversation

Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi la musique sonne-t-elle juste ou faux ? – https://theconversation.com/pourquoi-la-musique-sonne-t-elle-juste-ou-faux-259170

IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions

Source: – By Mônica Macedo-Rouet, Professeure des universités en psychologie de l’éducation, CY Cergy Paris Université

Utiliser l’IA pour ses études, mais intelligemment. Franco Alva/Unsplash, CC BY

La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.

Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.


Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.

En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.

Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.

Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.

D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?

Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA

L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.

Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.

Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.

Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.

L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle

Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.

À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.

Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.




À lire aussi :
Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.

Ne pas citer ses sources (correctement) est passible de sanctions

Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 :

« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »

Cependant, la même réponse précise que :

« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »

Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.

En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.

Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.

Une première piste : améliorer la détection des textes produits par l’IA

Une première piste serait d’améliorer la détection des textes produits par l’IA.

Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.




À lire aussi :
Peut-on détecter automatiquement les deepfakes ?


C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.

Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.

Former – toujours former ! – à l’évaluation des sources d’information

Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.

L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.

Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.

The Conversation

Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions – https://theconversation.com/ia-et-etudiants-savoir-citer-ses-sources-est-indispensable-a-la-formation-intellectuelle-et-ne-pas-le-faire-est-passible-de-sanctions-259397

Mais pourquoi certains requins « freezent » lorsqu’on les retourne ?

Source: – By Jodie L. Rummer, Professor of Marine Biology, James Cook University

Lorsqu’on retourne certains requins, ils se figent totalement. Rachel Moore

Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.

Mais que se passe-t-il quand un requin agit ainsi ?

Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.

Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?

Le mystère du « requin figé »

Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.

Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.

Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.

Alors, pourquoi certains requins se figent-ils ?

Des requins et d’autres poissons nagent au-dessus d’un récif corallien
Chez les requins, l’immobilité tonique est déclenchée lorsqu’on les retourne sur le dos.
Rachel Moore

Trois hypothèses principales

Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :

  1. Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.

  2. Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.

  3. Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.

Mais nos résultats ne confirment aucune de ces explications.

Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.

Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.

Une affaire de bagage évolutif

Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.

En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?

Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.

Que faut-il en conclure ?

Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.

Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.

Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.

The Conversation

Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.

Joel Gayford reçoit des financements du Northcote Trust.

ref. Mais pourquoi certains requins « freezent » lorsqu’on les retourne ? – https://theconversation.com/mais-pourquoi-certains-requins-freezent-lorsquon-les-retourne-259916

L’avenir des véhicules électriques selon les experts du secteur de l’énergie

Source: – By Anne-Lorène Vernay, Chargée de cours en stratégie, Grenoble École de Management (GEM)

Renault Zoé est actuellement le véhicule électrique le plus vendu au sein de l’Union européenne (15% de parts de marché) et leader en France (avec 70% de parts de marché). Wikimedia Commons, CC BY

Depuis que Tesla a commercialisé son premier véhicule électrique (VE) au milieu des années 2000, plusieurs constructeurs automobiles tels que le Chinois BYD, Renault-Nissan ou BMW se sont positionnés clairement sur ce marché. Les VE promettent d’améliorer la qualité de vie en milieu urbain grâce à la réduction de la pollution de l’air et des nuisances sonores. L’augmentation significative de la part des VE devrait également réduire les émissions de gaz à effet de serre, notamment si l’électricité utilisée pour la recharge des batteries provient de sources décarbonées.

Selon le dernier rapport global sur les VE de l’Agence internationale de l’énergie, en 2016, le chiffre record de 750 000 véhicules électriques vendus a été atteint, dont plus de la moitié en Chine. Le marché des VE devrait continuer sa croissance dans les années à venir et d’ici à 2020, entre 9 et 20 millions de VE sont attendus sur les routes. À noter également qu’en 2016, les infrastructures de stations de recharge publiques ont crû sur un rythme annuel de 72%.

Pour soutenir le développement des VE, plusieurs pays proposent des réductions de prix aux acheteurs. En France, cette aide peut s’élever à 6 000 euros (plus une prime additionnelle de 2 500 euros si un véhicule diesel de plus de 16 ans est mis à la casse). En 2017, près de 31 000 véhicules électriques ont été immatriculés en France. Ce chiffre correspond à une part de marché de 1,2%, ce qui reste bien en dessous du pays champion du VE, la Norvège, où 17% des ventes sont électriques. En Allemagne pour la même période, les ventes sont un peu moindres mais se situent dans une fourchette assez similaire à la France.

En lien avec ces développements, l’édition hiver 2017-2018 du Baromètre du marché de l’énergie de Grenoble École de Management et du Zentrum für Europäische Wirtschaftsforschung (Centre pour la recherche économique européenne) questionne les perceptions des experts du secteur de l’énergie sur le développement du véhicule électrique en France et en Allemagne.

Adaptation majeure des réseaux de distribution

Experts français et allemands s’accordent pour dire qu’aucun changement majeur ne sera requis au niveau de la production d’électricité et du réseau de transport. Selon une grande majorité des spécialistes de notre échantillon français, une part de 10% de véhicules électriques en France d’ici 2025, soit environ 4 millions de voitures, ne nécessite pas de tels changements.

En revanche, les experts des deux pays pensent que si la part des VE atteint 10%, cela nécessitera de larges investissements dans le réseau de distribution, c’est-à-dire au niveau des transformateurs et des câbles dont la puissance devra être augmentée.

À titre d’exemple, recharger un VE pourrait doubler la demande électrique d’un foyer. Les réseaux de distribution existants pourraient ne pas être en mesure de supporter la charge supplémentaire si les véhicules sont chargés en parallèle des usages conventionnels. Les niveaux d’investissements sont incertains mais une étude récente d’Artelys montre que pour la France, la facture pourrait s’élever à 150 millions d’euros par an et ce jusqu’en 2030. À défaut, le système électrique risque de ne pas pouvoir faire face.

Domination des distributeurs d’électricité

Pour réduire le stress que les VE pourraient imposer au réseau d’électricité et aux capacités de production, un pilotage de la charge peut être mis en œuvre afin de recharger les véhicules électriques en dehors des périodes de pointe et lorsque beaucoup d’électricité renouvelable est injectée dans le réseau. Ainsi, le pilotage des batteries et la charge des VE peut apporter un réel service au système électrique et à son équilibrage. Beaucoup d’incertitudes demeurent sur qui pourrait profiter de ce marché émergent, et l’opinion des spécialistes est assez divisée.

Les experts des deux côtés du Rhin s’attendent à ce que les distributeurs d’électricité jouent un rôle important, quitte à développer des nouvelles compétences (sur la gestion des données par exemple). Cependant, ils ont des opinions assez divergentes en ce qui concerne le rôle des constructeurs automobiles, traders (négociants), start-ups, ou fournisseurs historiques d’électricité, et les experts allemands envisagent un rôle plus prononcé pour ces deux derniers.

Ces divergences peuvent refléter des potentiels différents dans chacun des deux pays et sont révélatrices de l’intérêt exprimé par des acteurs très divers pour ce marché porteur.

Des prix élevés et une faible autonomie

Interrogés sur les freins à l’achat de véhicules électriques, les experts se montrent assez pessimistes et voient de nombreuses barrières à surmonter avant que les VE puissent véritablement concurrencer les voitures thermiques. Ils s’accordent autour du besoin d’améliorer considérablement la performance technologique des VE afin de diminuer leur prix et d’augmenter leur autonomie. Environ 38% des Français et 52% des Allemands pensent que les prix d’achats élevés sont une barrière très importante. Actuellement, les coûts d’achat d’un VE sont de 15 à 25% plus élevés que pour un véhicule traditionnel.

Dans un futur proche, l’augmentation des volumes de production de voitures électriques devrait permettre de réduire les coûts, et notamment le prix des batteries. Les constructeurs automobiles eux-mêmes ne manquent pas d’annoncer la sortie de véhicules électriques à bas coût, comme Tesla et son modèle 3 (vendu à partir de 35 000 dollars) ou Renault qui ambitionne de commercialiser une version électrique de la Renault Kwid pour 7 à 8 000 dollars dès 2019 en Chine.

De même, les VE ont des coûts de fonctionnement plus limités tant en carburant qu’en entretien du fait d’une mécanique simplifiée (pas de vidange, pas besoin de changer les bougies, etc.). Cependant, l’autonomie reste limitée à environ 250 kilomètres pour la plupart des modèles (c’est environ le double pour la Tesla Model S). Ainsi, il n’est pas étonnant de constater que 44% des experts français et 64% des experts allemands voient la faible autonomie des VE comme un frein très important.

Le développement des infrastructures de recharge est également souligné. Ainsi, 61% des Français et 47% des Allemands considèrent le manque de stations de recharge comme une barrière importante – et respectivement 29% et 45% comme très importante. Le fait que la France dispose d’un faible taux de densité de station à 0,1 site pour 1 000 voitures immatriculées (comparé à 3 pour le Land de Baden-Württemberg en Allemagne par exemple) peut expliquer ce résultat.

Les temps de charge trop longs sont aussi considérés comme des barrières importantes par 60% des Français et 56% des Allemands. Vraisemblablement, des temps de charge de batteries jusqu’à 12 heures expliquent ces résultats, même si des sites de charge rapide de 30 minutes existent. Cela devrait s’améliorer dans les années à venir. Ainsi, l’Ademe soutient financièrement l’installation de 13 200 bornes de recharges et plusieurs énergéticiens investissent dans le développement de bornes de recharges (EDF, Engie ou Total notamment).

Il est à noter que les spécialistes allemands s’affichent comme plus pessimistes que leurs collègues français, les barrières à la diffusion du véhicule électrique étant plus importantes selon eux. Cela peut refléter une baisse de confiance dans les annonces faites par l’industrie automobile à propos des performances technologiques des véhicules après le scandale Volkswagen.

Interdiction des véhicules thermiques d’ici 25 ans

En présentant le volet mobilité de son « Plan Climat », le ministre de la Transition écologique et solidaire, Nicolas Hulot, a annoncé l’objectif d’arrêter les ventes de véhicules diesel et essence d’ici 2040 en France. D’autres pays, comme la Norvège, les Pays-Bas et le Royaume-Uni ont des plans pour interdire la mise en circulation de véhicules à moteur thermique dans les vingt prochaines années. Ces interdictions faciliteront la réduction de la pollution en ville, où les concentration d’oxydes d’azote (NOx) posent des problèmes de santé publique importants.

Les experts ont pu exprimer leur opinion sur la possibilité d’une interdiction des voitures diesel et à essence dans les 20-25 prochaines années. À ce sujet, spécialistes français et allemands semblent en désaccord. Alors que la majorité des Français (près de 65%) pensent que les véhicules thermiques seront interdits dans certaines villes en France, peu d’Allemands (13%) pensent que ce sera le cas outre-Rhin. Et si cela arrivait, l’interdiction serait mise en place au niveau national et non local. Signalons aussi que 60% des experts allemands ne pensent pas qu’un ban aura lieu ou jugent la question complètement ouverte – contre environ 14% seulement des experts français.

On peut présumer que les résultats pour la France reflètent l’impact de l’annonce faite par la ville de Paris d’interdire les véhicules diesel et à essence. Il est à noter également que plusieurs villes en régions (comme Grenoble, Lille, Lyon ou Toulouse) ont pris des décisions en ce sens en instaurant des restrictions de circulation (certificat Crit’air) lors des pics de pollution.

L’analyse globale des résultats de ce nouveau Baromètre du marché de l’énergie confirme que la route vers un changement de modèle dominant de la mobilité est encore longue. Si quelques signaux sont favorables et encourageants pour une transition bas carbone, l’adaptation du réseau, la compétitivité des offres et l’origine renouvelable de l’électricité resteront trois défis majeurs pour la décennie à venir.


Le Baromètre du marché de l’énergie mené fin 2017 (en novembre pour l’Allemagne, en décembre pour la France) interroge 250 spécialistes français et allemands qualifiés dans le secteur de l’énergie et opérant dans l’industrie, la science et l’administration publique sur les défis de la mobilité électrique (e-mobilité) pour le secteur de l’électricité. L’intégralité de l’étude pour la France est à retrouver ici et pour l’Allemagne ici.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Nikolas Wölfing is working at ZEW, a research institute which takes funds from third parties for research and consulting work. He moreover received the “EEX Excellence Award”, a research prize of the European Energy Exchange which is awarded for “outstanding research in the field of energy and exchange trading”.

Olivier Cateura a reçu entre 2003 et 2006 des financements publics de l’ANRT (Association Nationale Recherche Technologie) et privés de Electrabel (Engie) dans le cadre d’une Convention CIFRE (Thèse de doctorat) . Par ailleurs, il est membre-auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale).

Anne-Lorène Vernay, Joachim Schleich, Swaroop Rao et Wolfgang Habla ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’avenir des véhicules électriques selon les experts du secteur de l’énergie – https://theconversation.com/lavenir-des-vehicules-electriques-selon-les-experts-du-secteur-de-lenergie-91048

Un étudiant, combien ça coûte ? Des inégalités dans l’enseignement supérieur

Source: – By François Métivier, Géophysicien, Dynamique des fluides géologiques , Institut de physique du globe de Paris (IPGP)

Les épreuves écrites du concours 2016 de l’Ecole polytechnique. © École polytechnique – J.Barande, CC BY-SA

Nous présentons ici une data visualisation tirée de notre travail, Inégalités de traitement des étudiants suivant les filières en France publié en 2015 dans le cadre de Sciences en marche. Les données existantes montrent sans ambiguïté que le financement par l’État des étudiants à l’université est largement inférieur à celui consenti aux élèves des CPGE (classes préparatoires aux grandes écoles) et des écoles d’ingénieurs. Cette analyse confirme les résultats obtenus il y a plus de dix ans par S. Zuber. Il faut de plus mettre ces inégalités de financement en regard des inégalités sociales : près de 50 % des étudiants des filières sélectives sont issus de milieux socialement favorisés et un étudiant issu des milieux favorisés a 20 fois plus de chance d’intégrer une grande école qu’un étudiant issu de milieux populaires. En conclusion, l’État finance bien mieux les études des plus aisés, et les politiques universitaires poursuivies depuis des années n’ont en rien résolu ces inégalités sociales.

Cette infographie repose sur trois sources de données.

  • Pour les universités, le nombre d’étudiants provient des données mises en ligne par le Ministère de l’Enseignement supérieur et de la Recherche (MESR).

  • En ce qui concerne le budget, en l’absence de données disponibles sur le site du MESR, nous avons utilisé les dotations 2014 publiées par l’Étudiant. Nous avons dû chercher sur Internet et pour chaque université son budget consolidé. L’essentiel des données provient des rapports du HCERES. Suivant l’université, l’année pour laquelle nous avons trouvé un chiffre « officiel » varie entre 2011 et 2015 (budgets prévisionnels). Ces budgets varient de façon relativement marginale d’une année sur l’autre. Étant donné que les effectifs étudiants sont en croissance rapide, la dépense par étudiant à l’université est probablement inférieure à ce que nous rapportons. Enfin, la dépense par étudiant calculée ici est une valeur maximale car une part du budget, qui peut être importante pour certaines universités scientifiques, est consacrée au financement d’activités de recherche. Le budget rapporté au nombre d’étudiants des l’université est aujourd’hui très probablement inférieur à ce que nous rapportons.

  • Enfin, pour les écoles, les chiffres proviennent du classement 2013 de l’Usine Nouvelle et représentent un échantillon de 126 écoles d’ingénieurs dans lequel nous n’avons conservé que les écoles de statut public ou possédant un contrat quadriennal ou quinquennal avec l’État.

En conclusion de cette note méthodologique, les chiffres indiqués ne sont donc pas à prendre au pied de la lettre et encore moins à l’euro prêt. La situation de certaines écoles ou universités a pu évoluer, leur place aussi. Ils constituent néanmoins une estimation viable de l’état des dépenses par étudiants dans un ensemble significatif d’établissements du supérieur financés par l’État. Ils traduisent enfin une situation étonnamment stable alors que des réformes profondes de l’enseignement supérieur et de la recherche se succèdent depuis plus de dix ans.

La datavisualisation de cet article a été réalisée par Raphaël da Silva.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Un étudiant, combien ça coûte ? Des inégalités dans l’enseignement supérieur – https://theconversation.com/un-etudiant-combien-ca-coute-des-inegalites-dans-lenseignement-superieur-91502

Salaires des sportifs français : le podium des inégalités

Source: – By Pierre Rondeau, Professeur d’économie, Sports Management School

Le média spécialisé L’Équipe, via son magazine hebdomadaire, a publié samedi 24 février le classement des 50 sportifs français les mieux payés (salaires, revenus sponsoring et marketing). Traditionnel top 50 dévoilé tous les ans depuis maintenant une quinzaine d’années, cette hiérarchie permet de dévoiler l’état de l’économie des sportifs hexagonaux et des évolutions structurelles et conjoncturelles.

Que dégagent les investigations de L’Équipe ? Que disent-elles sur le niveau de redistribution et de répartition des rémunérations ? Quels sont les critères qui déterminent le poids des salaires ?

Les sports collectifs sur-représentés

Au total, les 50 sportifs français les mieux payés se partagent 430,2 millions d’euros par an. Le premier est le joueur de football de Manchester United, Paul Pogba, avec 22,2 millions de salaire annuel. Il est suivi par le basketteur Tony Parker, avec 19,7 millions d’euros, puis par l’attaquant de l’équipe de France Antoine Griezmann, à 19,1 millions d’euros.

À noter que les sports collectifs sont sur-représentés puisqu’on ne trouve que deux représentants des sports individuels : le champion de rallye Stéphane Ogier, à la 15e place, émargeant à 9,5 millions d’euros par an, et le double champion olympique de judo Teddy Riner, 37e avec 5,5 millions d’euros.

En théorie, la science économique suppose pourtant que les sports individuels sont plus rentables : on y récompense directement l’utilité de l’agent, alors que dans les sports collectifs, c’est la moyenne des utilités individuelles qui compte (à la fois celles des opportunistes et des agents maximisateurs).

Le sport individuel valorise plus les performances personnelles tandis que dans le sport collectif, les résultats sont basés à la fois sur l’individu et l’équipe, sur le groupe dans son intégralité. Et les rémunérations s’en trouvent alors influencées : un très bon joueur dans une mauvaise équipe n’arrivera jamais à être aussi bien payé qu’un très bon joueur dans un sport individuel, qui ne gagne que grâce à ses performances propres.

Par exemple, en 2015, le classement Forbes des 100 sportifs les mieux payés de l’année avait mis aux deux premières places les boxeurs Floyd Mayweather et Manny Pacquiao, avec respectivement 300 millions et 160 millions de dollars de gains. Le premier représentant des sports collectifs, le footballeur Cristiano Ronaldo, gagnait alors moitié moins que le Philippin Pacquiao, avec 79,6 millions.

Où sont les femmes ?

Au-delà de la comparaison « sport individuel, sport collectif », ce qui interpelle lorsqu’on regarde le classement, c’est l’absence unilatérale de sportives. Aucune femme n’apparaît dans le top 50. D’après L’Équipe, cette absence est malheureusement courante puisque, en 13 ans, la gent féminine n’y a été représentée que 9 fois

Cet état de fait n’est pas propre au cas français. Quand on regarde le classement mondial des sportifs en 2017, sur les 100 premières places, on ne trouve qu’une seule femme, la tenniswoman Serena Williams… à la 51e place (avec 27 millions de dollars engrangés dans l’année).

Comment expliquer cette malheureuse absence ? Comment expliquer cette inégalité sociétale généralisée et internationalisée ?

Le premier élément est économique et médiatique. Sur le marché, le sport féminin ferait, par hypothèse, moins d’argent et moins d’audience que le sport masculin. Résultat : la Ligue de football professionnel française coûte, en droits de retransmission télévisée, 748,5 millions d’euros par an, contre un peu plus d’un million d’euros pour la première division féminine.

Et qui dit moins de valeur économique dit moins de médiatisation, moins de sponsors, moins de partenariats marketing et merchandising. En 2012, 81 % des montants investis par les 100 premiers sponsors concernaient le sport masculin, et seuls 3 % le sport féminin.

Seulement, dans les faits, rien ne justifie ces inégalités économiques. Lorsqu’on se penche sur les audiences télévisuelles, on se rend compte que le sport féminin, notamment le football, fait autant voire plus d’audience que le sport masculin.

Un match de Ligue 1 diffusé sur Canal+ ou beIN Sports enregistre, en moyenne, 1 million de téléspectateurs cumulés contre parfois plus de 2 millions pour des matchs de la Coupe du monde féminine et certains matchs du Championnat de France, en clair.

De plus, d’après une étude publiée par Havas Sports & Entertainment en 2013, 70 % des Français trouvent le sport féminin aussi intéressant que le sport masculin. La différence salariale n’a donc pas lieu d’être.

Tous logés à la même enseigne ?

En étudiant en profondeur le classement, on constate une répartition et une distribution inégalitaire.

Paul Pogba, le sportif le mieux payé, gagne 17,2 millions d’euros de plus que le défenseur du Barça Samuel Umtiti, dernier du top 50, à 5 millions d’euros par an. Le salaire moyen (entre les 50 sportifs) s’affiche à 8,6 millions d’euros alors que la médiane (qui coupe en deux parties égales l’effectif des sportifs) n’est qu’à 6,9 millions d’euros.

En statistiques, on admet que le groupe étudié est inégalitaire lorsque la moyenne n’est pas égale à la médiane. Et si cette dernière est inférieure à la moyenne, les inégalités se situent en haut de l’échelle. Autrement dit, les très très riches gagneraient énormément, et les « moins » riches se partageraient équitablement leurs gains.

En utilisant des outils d’analyse plus pointus, le coefficient de Gini (meilleur indicateur de mesure des inégalités) apparaît à 0,36 contre 0,29 dans le reste de la société française. Dans une situation d’égalité parfaite, cet indice est égal à 0.

La répartition des salaires des 50 sportifs français les plus riches est donc plus inégalitaire que dans la société elle-même. Par comparaison, ce niveau de 0,36 se retrouve dans les sociétés britannique et états-unienne. Même chez les riches, il y a des écarts importants.

Comment expliquer ces rémunérations ?

Reste maintenant à expliquer et à comprendre ces salaires aussi élevés. Au-delà de la question de l’inflation, la hausse des salaires est multifactorielle.

Premièrement, la mondialisation et l’internationalisation du sport ont provoqué une augmentation considérable de la valeur des droits télévisés : 1 milliard d’euros en moyenne dans le foot européen, 2,1 milliards d’euros pour la NBA (le championnat de basket nord-américain), 1,5 milliard pour les Jeux olympiques, etc.

Ensuite, cette inflation des droits a attiré de nouveaux investisseurs étrangers, les « sugar daddies ». Ces derniers, russes, chinois, qataris, émiratis, etc., ont injecté énormément d’argent (d’abord dans un but symbolique avant lucratif) et soutenu les budgets du sport.

Puis, toujours à travers la mondialisation, le nombre de fans a augmenté, ce qui a permis une hausse considérable des recettes. Plus de fans à travers le monde, ce sont plus de ventes de maillots, de goodies, de places, de billets… donc plus d’argent à dépenser et à redistribuer aux acteurs.

D’ailleurs, dans un sens très marxiste, le sportif est à la fois un « bourgeois » et un « prolétaire ». Il est le propriétaire des moyens de production et de sa force de travail. C’est lui, et lui seul, qui crée le spectacle et attire les foules de consommateurs. Il n’y a pas d’intermédiaire ou de donneur d’ordres.

La rémunération se base sur la capacité de production du sportif, dont le salaire correspond parfaitement au fruit des ventes. Ainsi, puisque le salaire est négocié en fonction du niveau réel, ceux qui gagnent le plus présentent une productivité marginale supérieure à la moyenne et, par le jeu de la concurrence, poussent continuellement leur contrat à la hausse.

Karl Marx, père du communisme et de la lutte des classes, justifie ici le niveau des rémunérations des sportifs. C’est parce qu’ils rapportent et qu’ils sont bons qu’ils sont bien payés : « De chacun selon ses moyens, à chacun selon ses besoins. »


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Pierre Rondeau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Salaires des sportifs français : le podium des inégalités – https://theconversation.com/salaires-des-sportifs-francais-le-podium-des-inegalites-92944

La blockchain aux portes de l’entreprise

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

La progression forte de la notoriété de ces technologies auprès des responsables financiers devrait leur assurer un avenir radieux. Bergadder/Pixabay, CC BY

Grenoble École de Management et l’association des Directeurs financiers et des contrôleurs de gestion (DFCG) recueillent chaque trimestre l’avis des responsables financiers français. Les résultats sont agrégés au niveau mondial par un réseau d’universités coordonnées par Duke University aux États-Unis. Pour le premier trimestre 2018, l’enquête s’est déroulée du 13 février au 2 mars 2018.


Ce trimestre, nous avons interrogé les entreprises au sujet de l’émergence des nouvelles technologies telles que la blockchain, les contrats intelligents, l’intelligence artificielle ou encore le machine learning. Il est frappant de constater à la lecture des résultats à quel point ces technologies sont désormais connues du plus grand nombre.

Ainsi, grâce à la médiatisation du bitcoin et de ses soubresauts, 84 % des responsables financiers européens nous disent avoir une connaissance au moins partielle de la blockchain sur laquelle s’appuie le protocole de gestion du bitcoin. Il y a exactement deux ans, à cette même question, 57 % des répondants nous disaient n’en avoir jamais entendu parler. De même, les contrats intelligents gagnent du terrain, du moins en notoriété : un directeur financier sur deux serait désormais capable d’en définir les grands principes, contre moins d’un sur trois en 2016. Il y a fort à parier que la diffusion importante des concepts clés de ces technologies permettra leur adoption rapide par les entreprises.

En revanche, les crypto-actifs comme le bitcoin et l’ethereum n’ont pas la côte auprès des responsables financiers : moins de 10 % d’entre eux estiment que ces instruments pourraient avoir un impact éventuel sur leurs activités dans l’avenir. À titre de comparaison, 43 % pensent que l’intelligence artificielle aura un impact sur leur fonction et jusqu’à 66 % pour le big data. La compréhension de ces enjeux et de leurs impacts potentiels semble identique, quelle que soit la taille des entreprises observées. En revanche, le secteur d’activité est un facteur clairement différenciant : les responsables financiers des secteurs du conseil et de la banque semblent en avance sur leurs pairs dans la compréhension de ces mécanismes.

Vers une réduction des effectifs ?

Ces nouvelles technologies devraient bientôt permettre de réduire les coûts de traitement des données, notamment par la réduction des erreurs et la hausse de la productivité. Doit-on s’attendre à une révolution en entreprise ? En Europe, un peu moins de la moitié des entreprises ont déjà réduit ou s’attendent à réduire les effectifs de la fonction finance d’ici à cinq ans. Mais si ces nouvelles technologies pouvaient avoir un impact à moyen terme, c’est essentiellement l’émergence de nouveaux modes de fonctionnement (du type centre de services partagés ou centres d’expertise, par exemple) qui justifie ou a justifié ces réorganisations dans l’immédiat.

Aux États-Unis, le phénomène est comparable – même si ces nouveaux modes d’organisation semblent moins répandus qu’en Europe. Ainsi, moins de 35 % des directeurs administratifs et financiers américains disent bien connaître les centres de services partagés ou centres d’expertise, alors que ce chiffre est supérieur à 50 % en Europe. En conséquence, moins de 30 % des entreprises américaines ont déjà connu ou envisagent des réductions d’effectifs dans la fonction finance.

La blockchain et l’intelligence artificielle n’ont donc pas encore pris le dessus mais sont aux portes des entreprises. La progression forte de la notoriété de ces technologies auprès des responsables financiers devrait leur assurer un avenir radieux et relancer une vague de réorganisation à moyen terme.

Climat des affaires au beau fixe

Notre indicateur de climat des affaires enregistre de nouveaux points hauts ce trimestre en Europe. Il s’établit à 67 au premier trimestre 2018 contre 66,9 au quatrième trimestre 2017 sur une échelle de zéro à cent. Ce niveau est compatible avec une croissance soutenue de l’économie, et ce d’autant plus que l’ensemble des pays pour lesquels nous avons des données dépasse le niveau de 55 – à l’exception de la Grèce. La France et l’Allemagne sont les moteurs principaux de cette performance. L’Hexagone enregistre une nouvelle amélioration qui porte l’indicateur de climat des affaires à 70,1 contre 64,5 au trimestre précédent. Outre-Rhin, le niveau de confiance reste élevé, même s’il s’affiche un recul à 76,8 contre 78,6 précédemment.

Signe d’un climat des affaires très favorable à la croissance, la hausse de la confiance est désormais visible sur l’ensemble des entreprises. En particulier, les entreprises de taille intermédiaire (ETI) et les PME semblent désormais avoir rattrapé leur retard. Le regain d’activité, d’abord enregistré par les plus grandes entreprises portées par la reprise mondiale, se diffuse maintenant dans l’ensemble de l’économie.

Aux États-Unis, la tempête boursière qui a secoué Wall Street début février ne semble pas avoir eu d’incidence sur la confiance des responsables financiers. Le climat des affaires ressort ainsi à 71,2 ce trimestre, contre 68,6 au précédent. L’adoption de la réforme fiscale du président Trump par le Congrès, courant décembre, est le moteur principal de ce regain d’optimisme. En particulier, les entreprises nous disent penser que la réforme aura probablement un impact favorable sur l’emploi, les salaires et les investissements dans les années à venir.

Elle pourrait notamment rendre les États-Unis plus attractifs en termes d’investissements pour les entreprises étrangères. Ainsi, 50 % des entreprises asiatiques percevraient le pays de l’Oncle Sam comme une destination plus attractive pour leurs investissements suite à la réforme fiscale. Enfin, dans le contexte actuel de difficulté à trouver et retenir les talents, 44 % des entreprises américaines envisagent, selon nos données, une augmentation des salaires grâce aux ressources dégagées par la réforme fiscale.

Si le climat des affaires reste élevé partout dans le monde, nous notons néanmoins pour ce trimestre une chute significative en Asie : l’indicateur recule à 61 contre 66,3 au trimestre précédent. Le risque sur les devises est mis en avant par les entreprises interrogées comme un frein à l’activité dans la zone. En Amérique latine, le climat des affaires continue de rebondir pour atteindre 70 au Mexique, 69 au Chili et 62 au Brésil. Ce rebond est frappant puisque ces trois pays ont enregistré des niveaux inférieurs à 50 au cours des deux années précédentes.

Enfin, en Afrique, le climat des affaires enregistre un rebond soudain, entraîné notamment pas l’Afrique du Sud, où la démission du président Zuma semble faire souffler un vent d’optimisme, portant le climat des affaires à 59 contre 42 au trimestre précédent.


L’enquête Duke University–Grenoble École de Management mesure chaque trimestre depuis plus de 20 ans le climat des affaires tel que perçu par les responsables financiers des entreprises à travers le monde. L’enquête est courte (environ 10 questions). Elle recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La blockchain aux portes de l’entreprise – https://theconversation.com/la-blockchain-aux-portes-de-lentreprise-93405

Réforme constitutionnelle : le macronisme, horizontal en campagne et vertical au pouvoir

Source: – By Luc Rouban, Directeur de recherche CNRS, Sciences Po

La réforme constitutionnelle proposée par le gouvernement a pour objet de rationaliser, une fois de plus, le fonctionnement de la Ve République en se focalisant uniquement sur le Parlement. C’est donc bien la démocratie représentative dans sa fonction législative et délibérative qui est jugée malade.

On en connaît les principaux ressorts : réduction du nombre de parlementaires, interdiction de cumuler plus de trois mandats dans le temps, simplification de la procédure législative pouvant aller jusqu’à restreindre le droit d’amendement en fonction de la taille des groupes politique, introduction d’une dose – pour l’instant indéterminée – de proportionnelle afin d’équilibrer la représentation des diverses sensibilités politiques, notamment celle du FN, dont la candidate (Marine Le Pen) a obtenu plus de 10 millions de voix au second tour de l’élection présidentielle et qui se retrouve avec 7 députés seulement.

Au-delà du flou des propositions dont le contour exact n’est toujours pas déterminé et fait l’objet de négociations musclées avec le président du Sénat, cette réforme s’inscrit dans un renforcement sans précédent de la fonction présidentielle. Le seul contrepoids à cette évolution est de supposer que la réduction du nombre de parlementaires et l’augmentation de leurs moyens techniques devraient permettre un meilleur contrôle des politiques publiques – ce qui reste à prouver. Comme il reste à prouver que le contrôle a posteriori peut remplacer la fonction délibérative a priori.

On assiste donc à un véritable retournement du macronisme. Ce dernier, dans une posture presque gaullienne, s’était construit en 2016 contre les oligarchies partisanes sur la base de réseaux militants pratiquant avec fierté la participation high-tech. Il s’agissait d’inventer une nouvelle façon de faire de la politique, une méthode réticulaire regroupant tous les « Marcheurs » de bonne volonté suffisamment diplômés pour utiliser les réseaux sociaux et s’engageant dans des délibérations permettant de faire remonter les demandes du terrain.

Deux ans plus tard, ce même macronisme produit une série de réformes peu ou pas négociées avec les partenaires sociaux, notamment celle de la SNCF, et une réforme constitutionnelle devant réduire la part de parlementarisme au sein de la Ve République.

Pour comprendre ce qui se joue dans la vie politique française, on peut faire l’hypothèse qu’un nouveau clivage est né, opposant les tenants du pouvoir vertical aux partisans du pouvoir horizontal.

Les deux représentations du pouvoir

L’aspiration à la délibération et à la participation citoyenne a sans doute été l’un des marqueurs de l’élection présidentielle de 2017. Elle s’est exprimée, bien que de manière malheureuse et caricaturale, dans l’organisation des primaires à gauche comme à droite, mais aussi dans les programmes de la plupart des candidats, à la notable exception de celui de François Fillon.

Il est indéniable qu’une transformation du paysage politique français s’est opérée depuis quelques années, sous l’influence notamment d’expériences participatives locales ou de tentatives de relancer la démocratie directe en créant de nouveaux lieux de rencontres où la parole politique puisse se construire et se libérer, comme l’a illustré l’aventure de Nuit debout.

La vague 9 du Baromètre de la confiance politique du Cevipof, dont le terrain a été réalisé en décembre 2017, nous apprend que la confiance dans les institutions politiques, loin de s’améliorer avec l’arrivée au pouvoir d’Emmanuel Macron, s’est au contraire tassée de manière spectaculaire : la confiance dans la plupart des catégories d’élus, y compris les élus locaux, a perdu environ une dizaine de points par rapport aux résultats engrangés une année avant, alors que François Hollande faisait l’objet de toutes les réprobations.

Comme le macronisme s’est (aussi) présenté en tant que mouvement réformateur ne voulant plus s’embarrasser de tergiversations ou de débats, on s’est interrogé sur ce qui faisait aux yeux des enquêtés un « bon » responsable politique au début de l’année 2018. S’agit-il de quelqu’un qui sait s’entourer d’experts compétents, prendre ses décisions sans tenir compte des critiques (indicateurs de pouvoir vertical) ou bien de quelqu’un qui prend l’avis du plus grand nombre avant de décider et qui sait passer des compromis pour éviter les conflits (indicateurs de pouvoir horizontal) ?

Le macronisme : libéralisme culturel, tolérance sociétale et pratique verticale du pouvoir

Ces caractéristiques ont été présentées sous la forme de deux questions permettant aux enquêtés de dire ce qu’ils plaçaient en première et seconde position. Le regroupement des réponses, en tenant compte de la priorité donnée à chaque item, montre que les enquêtés se répartissent en deux groupes égaux puisque 50 % choisissent le pouvoir vertical, 47 % le pouvoir horizontal et 3 % ne savent pas.

L’analyse montre, tout d’abord, que les partisans du pouvoir vertical se rencontrent surtout chez les électeurs d’Emmanuel Macron (64 %) et de François Fillon (68 %) au premier tour de l’élection présidentielle. En revanche, ceux de Benoît Hamon sont bien plus partagés (54 %), alors que ceux de Jean‑Luc Mélenchon le rejettent (38 %), comme ceux de Marine Le Pen (34 %). Dans l’esprit de ses électeurs, et non pas de ses militants, le macronisme n’est donc pas assimilé à un pouvoir participatif horizontal mais bien à une volonté d’appliquer de manière assez unilatérale le programme de réformes.

Le second résultat contre-intuitif de l’enquête est de montrer que si les catégories supérieures et diplômées se caractérisent par un haut niveau de libéralisme culturel et de tolérance sociétale, elles se distinguent également par leur défense du pouvoir vertical. Comme quoi le libéralisme culturel ne préjuge pas du type de pouvoir ou de démocratie que les enquêtés défendent.

C’est ainsi que 38 % de ceux ayant un niveau CAP-BEP défendent la vision verticale contre 47 % de ceux ayant le niveau du bac et 58 % ayant au moins une licence. Le niveau de libéralisme culturel (tel qu’on peut le mesurer sur la base de questions portant sur le rétablissement de la peine de mort, le nombre jugé excessif ou non d’immigrés et la suppression de la loi autorisant le mariage homosexuel) et la représentation du « bon élu » sont donc relativement déconnectés.

On est ici au cœur de l’ambivalence du managérialisme qui renforce le pouvoir hiérarchique en le couvrant d’un masque de libre communication et de culture soixante-huitarde. Cela montre aussi que les électeurs (et non pas les militants) des mouvements « populistes » qui sont, en l’espèce, défenseurs du pouvoir horizontal, ne sont pas nécessairement à la recherche d’un modèle autoritaire, et ne sont pas nécessairement caractérisés par une « personnalité autoritaire ». L’autoritarisme a peut-être pris d’autres chemins aujourd’hui.

Pouvoir vertical et libéralisme économique sont associés

En revanche, la défense du pouvoir vertical s’intensifie avec le degré de libéralisme économique. On a créé un indice sur la base de trois questions (il faut réduire le nombre de fonctionnaires, faire confiance aux entreprises pour sortir de la crise économique, ne pas prendre aux riches pour donner aux pauvres afin d’assurer la justice sociale) et allant donc de 0 à 3 en fonction du nombre de réponses positives. On voit alors que les enquêtés au niveau 0 du libéralisme économique choisissent le pouvoir vertical à concurrence de 32 % contre 42 % de ceux qui se situent au niveau 1 puis 54 % de ceux qui sont au niveau 2 et 67 % de ceux de niveau 3. La proportion de ceux qui préfèrent le pouvoir horizontal varie de manière inverse.

On peut mesurer ici le fait que la dimension « managériale » du macronisme ne signifie nullement une perspective de pouvoir horizontal ou participatif, comme pourraient le laisser croire les métaphores entrepreneuriales utilisées lors de la campagne. De fait, 22 % des électeurs d’Emmanuel Macron se situent au niveau 3 de l’indice de libéralisme économique contre il est vrai 62 % de ceux de François Fillon mais 15 % de ceux de Marine Le Pen, 4 % de ceux de Jean‑Luc Mélenchon et 3 % de ceux de Benoît Hamon.

Cette association entre les représentations de la démocratie et le niveau de libéralisme économique renvoie à l’appartenance sociale des enquêtés. Les deux représentations de la démocratie se retrouvent dans la distribution en grandes classes sociales, construites sur la base des occupations professionnelles selon la grille de lecture retenue pour les travaux précédents.

Le sens de la révision constitutionnelle

Le clivage entre pouvoir vertical et pouvoir horizontal détermine le niveau de la confiance placée dans les institutions. Les enquêtés préférant le pouvoir horizontal ont moins confiance dans les institutions politiques, nationales ou locales, que ceux qui préfèrent le pouvoir vertical.

Tous derrière et lui devant : le Président Macron, lors des cérémonies du 14 juillet 2017.

De la même façon, la critique des élus est plus forte chez les partisans du pouvoir horizontal : 74 % d’entre eux contre 52 % des tenants du pouvoir vertical estiment que la plupart des responsables politiques ne se soucient que des riches et des puissants et 63 % des premiers contre 37 % des seconds pensent que c’est le peuple et non les responsables politiques qui devrait prendre les décisions les plus importantes.

La révision constitutionnelle actuelle s’appuie donc sur la dénonciation assez générale des élus (ils sont trop nombreux, plutôt corrompus et ne travaillent pas beaucoup) développée chez les partisans du pouvoir horizontal pour renforcer le pouvoir vertical associé au macronisme.

Au-delà de son élitisme, confirmé par le profil des nouveaux députés de la République en Marche, le macronisme se présente comme un moment politique où se joue une confrontation non seulement entre deux visions de la démocratie mais aussi entre deux anthropologies du pouvoir. La réforme constitutionnelle en cours doit venir séparer encore un peu plus le personnel politique national et le personnel politique local.

Une attente de proximité

L’agrandissement mécanique des circonscriptions lié à la réduction du nombre d’élus va rendre plus difficile le contact avec les électeurs. Or c’est bien la proximité physique et sociale des électeurs et des élus qui reste au sein de la relation de confiance politique, qui est elle-même au cœur de la démocratie représentative. Et c’est bien cette attente de proximité qui nourrit la vision d’un pouvoir horizontal participatif.

La révision constitutionnelle, telle qu’elle est actuellement proposée, entend dissocier le national du local et rendre le national encore plus lointain et abstrait en laissant le local se confronter aux difficultés quotidiennes. Comment peut-on penser que cette réforme puisse améliorer la confiance politique dans les institutions ?

De plus, l’instauration d’une dose de proportionnelle va contribuer à relancer les manœuvres au sein des partis politiques, comme on le voit déjà lors des élections régionales. La plupart des réformes nées d’une ingénierie institutionnelle hasardeuse comme le quinquennat ou les primaires n’ont fait qu’aggraver les problèmes.

La révision constitutionnelle actuelle, tout comme les conflits sociaux qui secouent le secteur public, partagent des structures communes dans le sens où l’on voit s’affronter dans chaque cas une revendication de terrain – soucieuse de la réalité vécue par les élus et les agents – à une norme juridique ou financière devant décliner un modèle de pouvoir désincarné et impalpable.

À travers l’opposition entre pouvoir vertical et pouvoir horizontal se joue donc une opposition entre deux modes d’interaction politique, l’un virtuel et numérique, l’autre physique et humain.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réforme constitutionnelle : le macronisme, horizontal en campagne et vertical au pouvoir – https://theconversation.com/reforme-constitutionnelle-le-macronisme-horizontal-en-campagne-et-vertical-au-pouvoir-93593

Comment comprendre ce qu’il se passe à l’intérieur du Soleil ?

Source: – By Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège

Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?


Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.

Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).

Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.

Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La crise des modèles solaires

Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).

Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.

Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.

La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.

L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.

L’importance de la physique fondamentale en physique solaire

Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.

Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.

Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.

Le Soleil comme laboratoire de physique

Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.

La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.

Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.

Z Pulsed Power Facility : l’installation des Sandia National Laboratories qui effectuent des mesures d’opacité en conditions solaires.
Sandia National Laboratories

Du Soleil aux étoiles

L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.

Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.

Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.

The Conversation

Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).

ref. Comment comprendre ce qu’il se passe à l’intérieur du Soleil ? – https://theconversation.com/comment-comprendre-ce-quil-se-passe-a-linterieur-du-soleil-258649

Peut-on laisser un chargeur branché en permanence ?

Source: – By Glen Farivar, Lecturer in Power Electronics, The University of Melbourne

Un chargeur qui reste branché consomme en continu une petite quantité d’énergie dont une partie se perd sous forme de chaleur. YG PhotoArtWorks/Shutterstock

Pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé, les Québécois ont un joli terme : l’« énergie vampire » ou « énergie fantôme ». Cette énergie est-elle un mythe ? Peut-on laisser les chargeurs branchés ? Y a-t-il d’autres risques – du vieillissement accéléré à la surchauffe, voire au départ de feu ?


Combien de chargeurs possédez-vous ? Nous sommes entourés d’appareils électroniques rechargeables : téléphones mobiles, ordinateurs portables, montres intelligentes, écouteurs, vélos électriques, etc.

Il y a peut-être un chargeur de téléphone branché à côté de votre lit, que vous ne prenez jamais la peine de le débrancher quand vous ne l’utilisez pas. Et un autre, d’ordinateur portable, près de votre bureau ?

Mais est-ce risqué ? Y a-t-il des coûts cachés liés au fait de laisser les chargeurs branchés en permanence ?

Que contient un chargeur ?

Bien sûr, tous les chargeurs sont différents. En fonction de leur application et de la puissance requise, leur structure interne peut varier et être très simple… ou très complexe.

Toutefois, un chargeur classique reçoit le courant alternatif (AC) de la prise murale et le convertit en courant continu (DC) à basse tension, qui est adapté à la batterie de votre appareil.

Pour comprendre la différence entre courant continu et alternatif, il faut considérer le flux d’électrons dans un fil. Dans un circuit à courant continu, les électrons se déplacent dans une seule direction et continuent de tourner dans le circuit. Dans un circuit à courant alternatif, les électrons ne circulent pas et se bougent successivement dans un sens puis dans l’autre.

La raison pour laquelle nous utilisons les deux types de courant remonte à l’époque où les inventeurs Thomas Edison et Nicola Tesla débattaient de savoir quel type de courant deviendrait la norme. In fine, aucun n’a vraiment eu le dessus, et aujourd’hui, nous sommes toujours coincés entre les deux. L’électricité est traditionnellement générée sous forme de courant alternatif (quand on utilise des bobines d’alternateurs), mais les appareils modernes et les batteries requièrent un courant continu. C’est pourquoi presque tous les appareils électriques sont équipés d’un convertisseur AC-DC.

Pour effectuer la conversion du courant alternatif en courant continu, un chargeur a besoin de plusieurs composants électriques : un transformateur, un circuit pour effectuer la conversion proprement dite, des éléments de filtrage pour améliorer la qualité de la tension continue de sortie, et un circuit de contrôle pour la régulation et la protection.

Un chargeur partiellement cassé avec deux broches et les puces internes exposées
Les chargeurs ont plusieurs composants électriques pour convertir le courant alternatif en courant continu que la batterie peut utiliser.
PeterRoziSnaps/Shutterstock

Les chargeurs consomment de l’énergie même lorsqu’ils ne chargent rien

L’« énergie vampire », ou « énergie fantôme » – le terme utilisé par les Québécois pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé – est bien réelle.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Si vous le laissez branché, un chargeur consommera continuellement une petite quantité d’énergie. Une partie de cette énergie est utilisée pour faire fonctionner les circuits de contrôle et de protection, tandis que le reste est perdu sous forme de chaleur.

Si l’on considère un petit chargeur individuel, l’énergie vampire – également connue sous le nom d’énergie de veille – est négligeable. Toutefois, si vous additionnez la consommation des chargeurs de tous les appareils de la maison, le gaspillage d’énergie peut devenir important au fil du temps. De plus, l’énergie de veille n’est pas l’apanage des chargeurs : d’autres appareils électroniques, comme les téléviseurs, consomment également un peu d’énergie lorsqu’ils sont en veille.

Selon le nombre d’appareils laissés branchés, cela peut représenter plusieurs kilowattheures au cours d’une année.

Ceci étant, les chargeurs modernes sont conçus pour minimiser la consommation d’énergie vampire, avec des composants de gestion de l’énergie intelligents, qui les maintiennent en veille jusqu’à ce qu’un appareil externe tente de tirer de l’énergie.

Vue sous un bureau avec de nombreux appareils branchés sur une multiprise
Le fait d’avoir de nombreux chargeurs branchés dans votre maison peut entraîner une consommation d’énergie vampire considérable.
Kit/Unsplash

Les autres risques des chargeurs laissés branchés

Les chargeurs s’usent au fil du temps lorsqu’ils sont traversés par un courant électrique, en particulier lorsque la tension du réseau électrique dépasse temporairement sa valeur nominale. Le réseau électrique est un environnement chaotique et diverses hausses de tension se produisent de temps à autre.

Exposer un chargeur à ce type d’événements peut raccourcir sa durée de vie. Si ce n’est pas vraiment un problème pour les appareils modernes, grâce aux améliorations sur leur conception et leur contrôle, il est particulièrement préoccupant pour les chargeurs bon marché et non certifiés. Ceux-ci ne présentent souvent pas les niveaux de protection appropriés aux surtensions, et peuvent constituer un risque d’incendie.

Comment dois-je traiter mes chargeurs ?

Bien que les chargeurs modernes soient généralement très sûrs et qu’ils ne consomment qu’un minimum d’énergie vampire, il n’est pas inutile de les débrancher de toute façon – quand c’est pratique.

En revanche, si un chargeur chauffe plus que d’habitude, fait du bruit, ou est endommagé d’une manière ou d’une autre, il est temps de le remplacer. Et il ne faut surtout pas le laisser branché.

The Conversation

Glen Farivar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Peut-on laisser un chargeur branché en permanence ? – https://theconversation.com/peut-on-laisser-un-chargeur-branche-en-permanence-258019