Fragilidad y discapacidad en la vejez: dos caras de la misma moneda

Source: The Conversation – (in Spanish) – By Jaime Barrio Cortes, Médico de familia e investigador senior en Fundación para la Investigación e Innovación Biosanitaria en Atención Primaria (FIIBAP). Director del Máster en Salud Escolar y docente en Facultad de Salud, Universidad Camilo José Cela

PeopleImages.com – Yuri A/Shutterstock

El mundo está envejeciendo a un ritmo sin precedentes. Según la Organización Mundial de la Salud, en 2030 una de cada seis personas tendrá más de 60 años, y en 2050 este grupo alcanzará los 2 100 millones.

Llegar a edades más avanzadas es un logro de la sociedad moderna, pero no siempre va acompañado de buena salud. Se calcula que entre el 10 % y el 50 % de los mayores de 65 años presentan fragilidad, especialmente a partir de los 80, mientras que la discapacidad afecta a 1 300 millones de personas en todo el mundo (es decir, al 16 % de la población). Mantener la autonomía y la calidad de vida de los mayores es, por tanto, una prioridad de salud pública global.

Aunque vivimos más años que nunca, no siempre lo hacemos con la salud que desearíamos. La fragilidad es habitual y silenciosa: pasa desapercibida hasta que se producen caídas, hospitalizaciones o pérdida de independencia. Sin embargo, lejos de ser un destino inevitable, puede detectarse a tiempo y, con intervenciones sencillas, prevenirse o incluso revertirse.

Qué significa ser “frágil”

La fragilidad es un síndrome multidimensional que no equivale simplemente a envejecer. Muchas personas de 80 o 90 años mantienen plena independencia, mientras que otras experimentan pérdida de fuerza y energía en edades más tempranas. Entonces, el organismo dispone de menos reservas fisiológicas y responde con mayor dificultad a situaciones de estrés como una infección, una caída o una cirugía.

Los signos más característicos son la debilidad muscular, la fatiga persistente, la lentitud al caminar y la pérdida de peso no intencionada. Una persona frágil todavía puede realizar sus actividades diarias, pero lo hace con menor eficacia y mayor riesgo de complicaciones. Sin un abordaje temprano, esta vulnerabilidad puede progresar hacia la discapacidad, es decir, la dificultad para vestirse, bañarse, cocinar o moverse de forma autónoma.

Cómo se relacionan la fragilidad y la discapacidad

Aunque estrechamente ligadas, la fragilidad y la discapacidad no suponen lo mismo. La primera se puede revertir, mientras que la segunda tiende a ser más estable e irreversible. Sin embargo, ambas condiciones suelen coexistir y se retroalimentan: la fragilidad aumenta el riesgo de discapacidad, y la discapacidad acelera el deterioro físico y psicológico.

Además, tanto una como otra no solo afectan a la salud individual, sino también al entorno familiar y social. Cuando una persona mayor desarrolla fragilidad o discapacidad, aumenta la carga de cuidados que deben asumir sus allegados y el sistema sociosanitario, con consecuencias emocionales, económicas y laborales.

Cómo detectar la fragilidad a tiempo

El gran reto es que la fragilidad no siempre resulta evidente. Por eso los expertos recomiendan realizar cribados periódicos a partir de los 70 años en consultas de atención primaria. Existen pruebas sencillas como medir la fuerza de agarre con la mano o la velocidad al caminar unos metros y realizar cuestionarios breves que ayudan a identificar a las personas en riesgo.




Leer más:
¿Cuánto puede aguantar sobre una pierna? El sencillo test que evalúa nuestro envejecimiento neuromuscular


Reconocer este estado de forma precoz es crucial, ya que en ese momento las intervenciones tienen mayor impacto. Además, la educación sanitaria juega un papel fundamental: si la población y las familias saben reconocer signos como la fatiga crónica, la reducción de actividad o la pérdida de peso, será más fácil pedir ayuda a tiempo.

Estrategias de prevención

La buena noticia es que la fragilidad no es inevitable. Numerosos estudios muestran que adoptar ciertos hábitos puede retrasar o incluso prevenir su aparición.

  • Actividad física regular: el ejercicio es la intervención más efectiva. Programas que combinan fuerza, resistencia, equilibrio y flexibilidad –como caminar, hacer ejercicios con bandas elásticas y practicar yoga o taichí– reducen el riesgo de caídas, mejoran la movilidad y refuerzan la masa muscular. Es importante que sea adaptado a las capacidades de cada persona y que resulte agradable y sostenible en el tiempo.

  • Nutrición adecuada: una alimentación equilibrada, con suficiente proteína diaria (carne, pescado, legumbres, lácteos), es clave para preservar músculo y energía. También son fundamentales la vitamina D, el calcio y la vitamina B12, nutrientes que suelen escasear en mayores y que influyen en huesos, músculos y sistema nervioso. Mantener una buena hidratación resulta igualmente esencial.

  • Cuidado de la mente y el ánimo: el deterioro cognitivo y la depresión a menudo se asocian a la fragilidad. Participar en actividades intelectuales (leer, aprender cosas nuevas, resolver juegos), mantener vínculos sociales y pedir apoyo psicológico cuando es necesario ayuda a conservar la motivación y la autoestima.

  • Redes sociales y comunitarias: el aislamiento es un gran enemigo del envejecimiento saludable. Contar con amistades, familia, asociaciones o centros comunitarios no solo aporta compañía, sino que también favorece la adherencia a rutinas saludables y proporciona ayuda en momentos de necesidad.

  • Revisiones médicas y manejo de la medicación: controlar enfermedades crónicas como hipertensión, diabetes, fibrilación auricular o insuficiencia cardíaca evita complicaciones que precipitan la fragilidad. Además, la polimedicación (tomar muchos fármacos a la vez) puede aumentar riesgos como mareos o caídas; por eso es recomendable revisar periódicamente los tratamientos con un profesional de salud.

Una mirada social y colectiva

La prevención de la fragilidad no depende solo de las decisiones individuales. También influyen el entorno y las políticas públicas. Ciudades amigables con las personas mayores, con calles accesibles, transporte adaptado, espacios verdes y servicios comunitarios, favorecen un envejecimiento activo y seguro.

Además, invertir en programas comunitarios de ejercicio, nutrición y apoyo a cuidadores reduce la carga sobre hospitales y residencias, a la vez que mejora la calidad de vida de las personas mayores.

La fragilidad y la discapacidad no deben asumirse como un destino inevitable de la vejez. Detectar la fragilidad temprano y actuar con medidas sencillas –ejercicio, buena alimentación, vínculos sociales y revisiones médicas– permite conservar la independencia y retrasar el deterioro.

En definitiva, se trata de cambiar la mirada sobre el envejecimiento: en lugar de esperar a que aparezcan las complicaciones, adoptar un enfoque preventivo y activo que favorezca una vejez más saludable, autónoma y plena.

The Conversation

Jaime Barrio Cortes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Fragilidad y discapacidad en la vejez: dos caras de la misma moneda – https://theconversation.com/fragilidad-y-discapacidad-en-la-vejez-dos-caras-de-la-misma-moneda-264426

Jimmy Kimmel no es primer cómico censurado en Estados Unidos

Source: The Conversation – (in Spanish) – By Doina Repede, Profesora de Lengua española, Universidad de Granada

Jimmy Kimmel con el actor Billy Crystal en un programa de _Jimmy Kimmel Live!_ de 2024. Jimmy Kimmel Live!

A lo largo de la historia, la comedia ha sido una de las mejores formas de cuestionar el poder y burlarse de él. Ya en la antigua Grecia, dramaturgos como Aristófanes se reían de los líderes y mostraban sus abusos. En la Edad Media, los bufones podían decirle al rey lo que nadie más se atrevía.

También hoy en día los cómicos ridiculizan el poder, señalan sus errores y los critican. Por eso, la risa, muchas veces, más que entretenimiento, funciona como una herramienta para mantener la democracia viva y la sociedad alerta.

De la crítica y sátira política a la censura

Caricatura en la que el rey Jorge III recibe un puñetazo en la nariz del presidente estadounidense James Madison durante la Guerra de 1812.
En esta caricatura de William Charles, el rey Jorge III recibe un puñetazo en la nariz del presidente estadounidense James Madison durante la Guerra de 1812.
Librería del Congreso de los Estados Unidos.

Por ejemplo, en Estados Unidos, la crítica y la sátira política tienen una historia larga. En el siglo XVIII, los colonos ya se burlaban del gobierno británico con caricaturas y escritos. Benjamin Franklin usaba la sátira para cuestionar a los británicos durante la independencia. En el siglo XIX, escritores como Mark Twain recurrían a ella y a la ironía para criticar la esclavitud y el racismo presente en el país.

En los siglos XX y XXI la tradición no se detuvo. La sátira encontró en los presidentes su blanco favorito. Así, hubo risas a costa de Richard Nixon, Ronald Reagan, Bill Clinton, George Bush, Barack Obama y… Donald Trump.

Pero cuando uno ya no se siente libre para opinar, criticar, reírse del poder, la democracia empieza a tambalearse. Y no hay señal más peligrosa para una democracia que cuando el poder intenta callar a quienes lo cuestionan, ya sea con amenazas, persecuciones o censura.

La situación actual

Es el caso reciente de Jimmy Kimmel y su programa Jimmy Kimmel Live! (ABC), que se canceló de forma repentina poco después de un comentario que aludía al movimiento MAGA (siglas de Make America Great Again), tras el asesinato de Charlie Kirk.

La Casa Blanca negó haber ejercido presiones, pero lo cierto es que Donald Trump celebró públicamente la cancelación. Además, Brendan Carr, presidente de la Comisión Federal de Comunicaciones (FCC) nombrado por Trump, llegó a pedir directamente que se despidiera a Kimmel, asegurando que había que tomar medidas “por las buenas o por las malas”. Y la petición –o, mejor dicho, la amenaza– se cumplió.

Nueve días después, tras días de titulares y un fuerte respaldo por parte de la población, el programa volvió a emitirse en Estados Unidos. Kimmel regresó con un monólogo cargado de emoción, ironías y un contundente desafio: “No hay nada más antiestadounidense que cancelar a un cómico”. El desafío no gustó, evidentemente.

El monólogo de regreso de Jimmy Kimmel duró más de lo normal y aprovechó para tratar el tema de su cancelación y la libertad de expresión.

El presentador Stephen Colbert sí que parece que tendrá ese destino, ya que CBS no renovará su late night en 2026. La emisora afirma que el motivo es económico, pero se sospecha que la cancelación tiene que ver con las críticas que el presentador hizo a un acuerdo al que la cadena llegó con Trump. Parece que para el poder no existe la regla más sabia de todas las reglas: no hagas a los demás lo que no quieres que te hagan a ti.

Lo ocurrido con Kimmel y Colbert no es un caso aislado en Estados Unidos. En el pasado, otros cómicos corrieron –con mayor o menor fortuna– la misma suerte por atreverse a ridiculizar el poder.

El humor como contrapoder

Mort Sahl (1927-2021) fue uno de los primeros comediantes en Estados Unidos en usar la comedia para hablar de política y actualidad. Su estilo era directo, irónico y muy cercano al público. Subía al escenario con notas en la mano y comentaba noticias y decisiones de los líderes con humor y crítica. Su éxito empezó a decaer tras el asesinato de John F. Kennedy en 1963. Su interés por los detalles del caso, su cuestionamiento de la versión oficial y su humor más oscuro hicieron que las cadenas de televisión se distanciaran de él y muchos de sus shows fueran cancelados. Aunque no fue prohibido oficialmente, su carrera en la televisión se vio afectada.

Durante los años 50, Lenny Bruce, uno de los comediantes más importantes de Estados Unidos, también fue vetado en televisión. Su humor no era solo para hacer reír: era para abrir los ojos. Hablaba de todo lo que la sociedad de aquel entonces prefería callar: política, religión, racismo, sexualidad… y lo hacía sin tapujos. No le importaba incomodar. Su objetivo era cuestionar las normas y mostrar las contradicciones de la sociedad. Y por su humor “obsceno” fue arrestado y juzgado varias veces.

Por su parte, Dick Gregory cambió por completo la forma de hacer humor afroamericano. Tenía un estilo sofisticado, satírico y evitaba los estereotipos y los chistes manidos. Fue el primer afroamericano en aparecer como invitado en el Tonight Show de la NBC, un logro histórico para la época. Pero a medida que su activismo político crecía, su presencia en televisión comenzó a disminuir. A finales de los años 60 muchas cadenas y programas evitaban invitarlo, mostrando cómo el humor podía incomodar.

De los Smothers Brothers a Howard Stern

Artículo en el que se anuncia la cancelación del programa de los Smothers Brothers.
Artículo en el que se anuncia la cancelación del programa de los Smothers Brothers.
The Calgary Herald, 3 de abril de 1969.

Quizás uno de los actos de censura política hacia cómicos más claros en una democracia fue el que sufrieron los hermanos Smothers. Tom y Dick Smothers tenían su show de comedia y variedades, The Smothers Brothers Comedy Hour, en la CBS. El programa era un éxito en horario de máxima audiencia, combinando música, comedia y activismo político.
Pero CBS empezó a recortar partes “molestas” del programa para ajustarse a los censores de la cadena, hasta que canceló el programa repentinamente en 1969. Bromas sobre Lyndon B. Johnson y Richard Nixon, críticas a la guerra de Vietnam e invitados molestos hicieron que las presiones políticas y el miedo a perder dinero de los anunciantes terminaran con el programa prematuramente.

Los Smothers Brothers demandaron y ganaron el juicio a CBS, pero el daño ya estaba hecho.

A Kathy Griffin su humor irónico y a veces ofensivo le causó serios problemas. En 2017 posó con una cabeza ensangrentada del presidente Donald Trump. La broma fue considerada de muy mal gusto. Perdió su trabajo en CNN, varios de sus shows fueron cancelados e incluso fue investigada e interrogada por el Servicio Secreto.

La censura llegó también a la radio. Howard Stern, una de las figuras más icónicas de las ondas en Estados Unidos, era famoso por su estilo provocador. Su forma directa y a veces escandalosa de hablar le generó tanto críticas como un público fiel, convirtiéndolo en un referente de lo denominado “shock jock”, es decir, la utilización de bromas o melodramatismos exagerados para entretener a la audiencia –aunque alienando a una parte de ella–. A lo largo de su carrera, Stern se enfrentó a la censura y las multas de la Comisión Federal de Comunicaciones (FCC), lo que le convirtió en un símbolo de los debates sobre libertad de expresión en los medios.

A la vista está que la risa puede incomodar, ofender o irritar, pero mantiene viva la democracia. Y cuando se intenta silenciarla, lo que se apaga no es solo una broma, es la posibilidad misma de cuestionar el poder.

The Conversation

Doina Repede no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Jimmy Kimmel no es primer cómico censurado en Estados Unidos – https://theconversation.com/jimmy-kimmel-no-es-primer-comico-censurado-en-estados-unidos-265722

La taxe Zucman au défi des contraintes économiques et juridiques

Source: The Conversation – in French – By Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School

Taxer les très hauts patrimoines pour assurer une meilleure équité de l’effort fiscal, tout le monde devrait être pour. Mais ce n’est pas parce qu’une mesure semble juste, qu’elle sera aussi efficace.


Pour réduire le déficit budgétaire du pays, le plus élevé de la zone euro, mais surtout lutter contre les inégalités de patrimoine en France, l’Assemblée nationale a adopté, le 20 février 2025, un impôt minimal annuel de 2 % sur le patrimoine global (y compris les biens professionnels) des quelque 3 800 « centimillionnaires », ces foyers fiscaux possédant plus de 100 millions d’euros. Les députés favorables au texte ont sans doute été encouragés en cela par un écrasant soutien des électeurs, qui plébiscitent la mesure à plus de 86 %.

Accroissement des inégalités patrimoniales

Cette taxe, aujourd’hui bloquée, car rejetée par le Sénat le 12 juin dernier, a été imaginée par l’économiste franco-américain Gabriel Zucman à partir de ses travaux sur l’évolution des patrimoines aboutissant à un constat incontestable : les inégalités de patrimoine s’accroissent dans les pays riches mais aussi en France.

En outre, les inégalités de patrimoine sont – et ont toujours été – plus fortes que celles des revenus puisque les 10 % les plus riches détiennent 54 % de la richesse contre 25 % des revenus.

La nature de la taxe Zucman

Concrètement, l’Assemblée nationale a adopté la création d’un impôt plancher sur la fortune (IPF), dès le 1er janvier 2026, de 2 % par an sur le patrimoine des foyers fiscaux (au sens de l’ISF, donc hors enfants majeurs) dont le patrimoine net de certaines dettes est supérieur à 100 millions d’euros, soit les 0,01 % des foyers les plus riches, ou environ 3 800 ménages, alors que l’impôt sur la fortune immobilière (IFI) concernait 186 000 ménages en 2024.




À lire aussi :
Les alternatives à l’impôt sur la fortune


La taxe Zucman reprend une bonne partie des principes de l’impôt de solidarité sur la fortune, l’ISF, qui était lui-même aligné sur les règles applicables aux droits de succession, mais s’en écarte par trois nouveautés cruciales. En premier lieu, la base taxable est considérablement élargie à l’ensemble des actifs, y compris les biens professionnels. En second lieu, cet impôt sur le patrimoine ne prévoit aucun plafonnement en fonction du revenu du contribuable. Enfin, il est assorti d’une exit tax puisqu’il continuera à être perçu pendant les cinq années qui suivent une expatriation de l’assujetti.

Une taxe rentable ?

Les soutiens de la taxe Zucman et de la loi qui en découle attendent un rendement de l’ordre de 15 à 25 milliards d’euros par an, calculé sur le montant total global des fortunes concernées. Bien entendu, cette estimation ne prend pas en compte le risque d’une expatriation des contribuables que M. Zucman estime marginal.

La proposition de loi a d’ores et déjà provoqué une levée de boucliers, notamment des entrepreneurs de la French Tech, qui seraient bien incapables de payer 2 % sur la valorisation de leurs start-ups. Ce mouvement rappelle celui des « pigeons », ces entrepreneurs qui avaient protesté avec véhémence contre la loi de finances pour 2013 décidée par François Hollande, lors de son accession à l’Élysée en 2012, et qui alourdissait fortement l’imposition des plus-values. L’ampleur de la contestation avait finalement abouti à une modification substantielle et rétroactive de la réforme. Signalons la tribune – très minoritaire – signée par trois entrepreneurs favorables à cette taxe ou, encore, la position tout en équilibre d’Arthur Mensch, le fondateur et dirigeant de Mistral, qui semble critiquer le mécanisme prévu de la taxe Zucman, tout en reconnaissant qu’une solution doit être trouvée pour remettre un peu d’égalité entre les citoyens.

La taxe Zucman fait également l’objet de vifs débats chez les économistes. Si ses partisans soulignent la nécessaire réduction des inégalités et un surcroît de recettes fiscales bienvenu aujourd’hui, ses détracteurs s’inquiètent d’une baisse des investissements et in fine d’un appauvrissement du pays.

Dans un article publié dans la Revue de droit fiscal, du 5 avril 2007,, j’avais analysé les conséquences économiques de l’ISF.

À partir de données officielles publiées par Bercy, j’avais constaté, sans avoir été sérieusement contesté, une baisse du rendement de l’ISF qui ne pouvait s’expliquer que par une vague d’expatriation. Depuis, il existe un consensus des chercheurs sur l’existence de ces départs, mais un débat des plus vifs sur son ampleur. Une étude récente du conseil d’analyse économique tend à minorer le phénomène d’expatriation et son impact budgétaire et économique. Le champ de cette dernière étude est circonscrit aux années 2012-2017 et, surtout, ses auteurs ont mesuré les départs des plus hauts revenus du patrimoine, et non les départs des plus riches (ils n’auraient donc pas pu intégrer les dirigeants des start-ups fortement valorisées, par exemple).

Pour ma part, j’évaluais la fuite légale des capitaux à l’étranger depuis la création de l’ISF, en 1989, à environ 200 milliards d’euros et estimais que le manque à gagner en recettes fiscales était d’environ 7 milliards d’euros par an, soit près du double de son rapport. En conclusion, dans un monde ouvert, l’ISF appauvrissait le pays et entraînait même un transfert de la charge fiscale des riches assujettis, qui quittent la France vers tous les autres contribuables à l’exact opposé de la justice fiscale. Ces estimations ont depuis été corroborées et même amplifiées par une étude de l’institut Rexecode, parue en 2017, qui estimait que le PIB avait perdu, du fait des expatriations, 45 milliards d’euros en 2017, soit une perte de prélèvements obligatoires de 20 milliards par an.

Le naufrage de la taxe sur les mégayachts

Encore faut-il préciser que ces études ne concernaient que les quelque 360 000 assujettis à l’ISF d’avant sa suppression en 2018, c’est-à-dire un type de contribuables fondamentalement différents des 1 800 ultrariches concernés par la taxe Zucman qui peuvent envisager beaucoup plus efficacement un départ à l’étranger.

C’est pourquoi il est intéressant d’étudier le rendement de la taxe sur les mégayachts instituée par la loi de finances pour 2018. Cette taxe était censée rapporter dix millions d’euros par an. Elle n’a collecté finalement que 135 000 euros en 2023 et 60 000 euros en 2024. Aux dernières nouvelles, seuls cinq mégayachts sont éligibles à la taxe…

Regain de concurrence fiscale entre les pays

Tout comme l’impôt sur la fortune, qui a progressivement disparu des systèmes fiscaux européens des pays riches et dont Gabriel Zucman a l’honnêteté de reconnaître que « dans l’ensemble, ces impôts avaient été un échec », les pays qui ont récemment durci l’imposition des ultrariches font face à un flux de départs. C’est le cas de la Norvège, un des rares États à avoir conservé un impôt sur la fortune et qui l’avait augmenté à 1,1 %, tout en relevant l’imposition des dividendes en 2022.

La mesure, qui devait rapporter 141 millions d’euros, s’est traduite par une perte de 433 millions d’euros et par la fuite des capitaux, principalement en Suisse, estimée à 52 milliards d’euros. À tel point que ses voisins suédois et finlandais – un temps intéressés – en ont abandonné l’idée. Plus près de nous, le Royaume-Uni a supprimé, le 6 avril 2025, le régime de « non-domiciled » (ou, « non dom »), qui datait de George III (1799) et qui imposait forfaitairement les revenus des étrangers installés sur l’île, entraînant dès son annonce un fort mouvement de départ des ultrariches, comme l’industriel Lakshmi Mittal, vers Dubai, Monaco et Milan.

Au moment où la France envisage de durcir la taxation des centimillionnaires, des pays européens attractifs leur font les yeux doux. C’est le cas de l’Italie qui offre aux nouveaux résidents un forfait annuel tous impôts confondus de 200 000 euros (plus 25 000 euros par membre supplémentaire du foyer, conjoint compris) pendant quinze ans, ce qui avait déclenché les foudres de l’encore premier ministre François Bayrou contre Mme Meloni.

Le Figaro, 2025.

On notera d’ailleurs que Portugal, Italie, Grèce et Espagne ont tous cherché, à l’occasion de leur plan de redressement des finances publiques lancé en 2011, à attirer les grandes fortunes par des avantages fiscaux exorbitants du droit commun. La palme revient à la Grèce qui, moyennant un investissement minimal de 500 000 euros, offre pendant quinze ans aux nouveaux résidents qui s’acquittent d’un forfait annuel de 100 000 euros, une exonération de tous leurs revenus étrangers et des droits de succession de leur patrimoine situé hors du pays.

Un obstacle constitutionnel majeur

À supposer que la taxe Zucman, qui n’a été votée que par 116 voix des 577 députés, passe l’épreuve du Sénat et soit définitivement adoptée, ce qui est très loin d’être acquis, elle devra encore passer sous les fourches caudines du Conseil constitutionnel qui sera bien sûr saisi par ses opposants. Or, sa jurisprudence récente n’est pas du tout favorable à la taxe.

En effet, dans sa décision du 9 août 2012 relative à la loi de finances rectificative pour 2012, il précise que le législateur ne saurait établir un barème de l’impôt de solidarité sur la fortune sans l’assortir d’un dispositif de plafonnement, ou produisant des effets équivalents destinés à éviter une rupture caractérisée de l’égalité devant les charges publiques. Enfin, dans sa décision du 29 décembre 2012 relative à la loi de finances pour 2013, le Conseil a précisé que le plafonnement ne peut prendre en compte que les revenus réalisés et disponibles, une solution toujours confirmée jusqu’à présent.

Compte tenu de ces obstacles politiques, économiques et juridiques, il est hautement improbable que la taxe Zucman voie le jour en France sans un accord mondial – encore plus improbable – dans les prochaines années. Pour répondre à la demande croissante de réduction des inégalités tant patrimoniales que de revenus, un gouvernement minoritaire peut être tenté de rétablir le symbole fort qu’est l’ISF, mais cela ne résoudra en rien les deux défis les plus urgents de Bercy : la réduction du déficit et de la dette publique.

The Conversation

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La taxe Zucman au défi des contraintes économiques et juridiques – https://theconversation.com/la-taxe-zucman-au-defi-des-contraintes-economiques-et-juridiques-266071

Quand la Deutsche Bahn déraille, faut-il craindre pour le rail français ?

Source: The Conversation – in French – By Mathis Navard, Docteur en Sciences de l’information et communication (ISI), Université de Poitiers, Université de Poitiers

Longtemps réputée pour sa fiabilité, la compagnie ferroviaire allemande Deustche Bahn connaît une crise historique : infrastructures obsolètes, ponctualité en chute libre, trains supprimés… Jamais nos voisins germaniques n’avaient connu une telle situation. La France doit elle aussi faire face à des défis similaires. Sommes-nous en train d’emprunter la même voie ?

Cet été, peut-être avez-vous pris le train en Allemagne pour vos vacances. Ou peut-être empruntez-vous le TGV reliant Paris à Strasbourg, qui accuse parfois jusqu’à 6 heures de retard ? Dans ces cas, il est probable que vous ayez subi des perturbations durant votre voyage sur le réseau de la Deutsche Bahn (DB), l’équivalent germanique de la SNCF.

L’Allemagne a beau disposer du plus important réseau européen avec 34 000 kilomètres de voies ferrées, la situation n’en est pas moins alarmante. « La Deutsche Bahn traverse sa plus grande crise depuis 30 ans », reconnaît sans détour le PDG de l’entreprise, Richard Lutz. L’homme est le premier à faire les frais de cette dégradation de service. Le 14 août, le ministre des Transports a fait connaître son intention de le limoger avant la fin de son contrat, évoquant une “situation dramatique”.

En effet, entre l’arrivée de M. Lutz en 2017 et son départ, la Deutsche Bahn a connu certaines de ses pires performances : la ponctualité des trains longue distance est tombée de 78,5 % à seulement 62,5 % en 2024, son plus bas niveau depuis la réforme ferroviaire qui a suivi la réunification. Le ministre allemand des Transports a annoncé, le lundi 22 septembre 2025, la nomination de Evelyn Palla pour le remplacer.

Que se passe-t-il chez nos voisins germaniques ? Pour le comprendre, il faut remonter trois décennies en arrière, dans le contexte de la réunification des deux Allemagnes.

La réunification des deux Allemagne, racine de la crise actuelle

À l’Est, le réseau est alors vétuste. À l’Ouest, il est surendetté. La réforme ferroviaire du rail allemand de 1994 assainit la situation financière – l’État fédéral éponge la dette colossale accumulée jusque-là (plus de 30 milliards d’euros de dettes) – et créée la DB. Son capital est détenu à 100 % par l’État. Il s’agit donc d’une entreprise publique dont le fonctionnement est calqué sur celui du secteur privé.

Mais quête de rentabilité et service public ne vont pas forcément de pair. D’un côté, les infrastructures ferroviaires ont été modernisées et le taux de ponctualité atteint 90 % dans les années 2000. Mais de l’autre, 5 400 kilomètres de ligne ont été fermés – soit un sixième du réseau – et une sombre histoire d’espionnage de salariés a fait couler beaucoup d’encre.

Parallèlement à cela, la réduction des coûts de maintenance et de personnel provoque des problèmes en cascade : les pannes se multiplient, au même titre que les retards et les annulations de trains.

L’État prévoyait de se désengager progressivement de la DB avec la privatisation au moins partielle comme objectif. Mais la crise financière de 2008 est venue interrompre ce processus. Pour ne rien arranger, les problèmes techniques s’accumulent. En 2009, la moitié des trains est supprimée en raison de leur vétusté. La DB doit verser des indemnités à l’État. Au même moment, Rüdiger Grube — ancien président du conseil d’administration du groupe aéronautique et spatial EADS — est nommé PDG de l’entreprise.

Infrastructures vétustes et ponctualité en chute libre

Cette crise n’est donc pas nouvelle, mais elle ne cesse de s’aggraver. En 2015, le plan Avenir du rail promettait déjà d’assainir la situation. Il n’aura pas été suffisant.

L’Allemagne, jadis réputée pour sa ponctualité, n’a eu que 62,5 % de ses trains longue distance à l’heure en 2024, soit une baisse de 1,5 % par rapport à 2023. Et c’est sans compter sur les nombreuses annulations et pannes, en forte hausse en raison de l’absence d’actions préventives et de solutions de remplacement. Pour améliorer les statistiques, il est d’ailleurs devenu plus commode de supprimer certaines circulations que de les déclarer en retard.

Le ministre fédéral des transports Patrick Schnieder (CDU) a fixé des objectifs forts en matière de ponctualité pour le trafic longue distance. D’ici fin 2029, elle devra atteindre au moins 70 %. L’objectif précédent prévoyait déjà ce taux pour 2026.

Trains supprimés en gare de Kassel-Wilhelmshöhe
Trains supprimés en gare de Kassel-Wilhelmshöhe (Hesse).
Fabian318, CC BY-SA

La direction de la DB met en avant la vétusté des infrastructures ferroviaires pour expliquer ces aléas. Cela n’est pas sans conséquence sur les pays voisins. Outre les difficultés rencontrées par les voyageurs du TGV Paris-Strasbourg, les chemins de fer fédéraux (CFF) suisses refusent désormais dans leurs gares tous les trains allemands ayant plus de 15 minutes de retard afin de maintenir leur légendaire ponctualité. Un système de navette géré par les CFF est alors mis en place.

Aide du fédéral et cure d’austérité

Sans surprise, les comptes de la DB ne sont pas bons. En 2024, l’entreprise a enregistré une perte de 1,8 milliard d’euros. Une amélioration d’un milliard d’euros par rapport à 2023 qui vient tout de même alimenter une conséquente dette de 32,6 milliards d’euros.

Seule note d’espoir, la fréquentation – principale source de revenus de la compagnie – a augmenté de 5,9 % l’an passé sur les trains régionaux. Cela s’explique en partie par le succès du Deutschlandticket qui permet de voyager en illimité sur ce réseau pour 58€ par mois. Le fret, quant à lui, recule de 3,2 %.

Face à l’ampleur du problème, la planche de salut ne peut venir que de l’État fédéral. Cela tombe bien. Un plan d’investissement national pour les transports de 500 milliards d’euros sur 12 ans vient d’être adopté par le parlement allemand.

D’ici à 2027, 45 milliards d’euros seront dédiés aux infrastructures ferroviaires, via un fonds notamment alimenté par une taxe sur les poids lourds. Nous restons cependant encore loin des 150 milliards d’investissements nécessaires estimés par l’actuel PDG de la DB.

L’entreprise a elle aussi décidé de faire sa part. Tout d’abord en recentrant ses activités sur le ferroviaire. En septembre dernier, elle a cédé pour 14,3 milliards d’euros le géant de la logistique Schenker. Il en a été de même pour l’entreprise européenne de transport public DB Arriva, marquant ainsi un coup d’arrêt à son internalisation.

En interne, 10 000 postes — essentiellement administratifs — devraient être supprimés d’ici 3 ans. Une filiale non lucrative intitulée DB InfraGO a également vu le jour pour moderniser le réseau ferroviaire et les gares. En 2024, durant sa première année de fonctionnement, 18,2 milliards d’euros ont été investis. Pour la première fois, le vieillissement des installations a pu être arrêté.

Une modernisation à marche forcée

Le bond est spectaculaire. L’Allemagne est passée de 115 euros par habitant dépensés en 2023 pour l’investissement dans le ferroviaire à 198 euros en 2024. Dans le même temps, la France a progressé de 51 euros par habitant à… 65 euros.

Et cela n’est sans doute qu’un début. Il y a quelques mois, la DB a adopté un vaste plan de rénovation des rails, des gares et des ponts. Il faut dire que le défi est immense, à une époque où le train doit lui aussi faire face aux conséquences de plus en plus importantes du changement climatique.

L’accident mortel survenu le 27 juillet dernier sur une petite ligne régionale du Bade-Wurtemberg, causé par un glissement de terrain, l’a tragiquement rappelé.

La France, prochaine sur la liste ?

La situation du ferroviaire allemand fait réagir dans de nombreux pays européens. À commencer par notre pays. Le PDG de la SNCF Jean-Pierre Farandou a d’ailleurs déclaré que la France pourrait suivre la même trajectoire si aucun moyen financier supplémentaire n’était alloué.

Certains indicateurs tricolores sont particulièrement inquiétants. C’est le cas par exemple de l’âge moyen de notre réseau ferré qui est âgé de 30 ans, contre 17 ans chez nos voisins germaniques. Cette situation est le fruit de choix politiques court-termistes qui ont conduit à prioriser le tout-TGV au détriment des lignes dites de “desserte fine du territoire”.

Des petites lignes qui – aujourd’hui encore – continuent de fermer, à rebours des injonctions climatiques à accélérer le report modal vers le ferroviaire et les autres solutions de mobilité bas carbone. Le 31 août dernier et après cent quarante-trois ans d’activité, la gare de Felletin accueillait son dernier TER en raison de la « suspension » de la ligne qui reliait la commune creusoise à son chef-lieu, Guéret. Une décision aussi forte que symbolique qui illustre concrètement le recul des services publics en milieu rural, nourrissant un sentiment d’abandon auprès de la population locale.

Parviendrons-nous à mettre fin à cette dynamique mortifère pour notre réseau ferré et notre territoire ? Avec un bénéfice record de 1,6 milliard d’euros en 2024 et une fréquentation en hausse pour la SNCF, il est encore temps d’agir. La réponse dépendra grandement des orientations décidées par la puissance publique.

Dans ses conclusions, la conférence de financement sur l’avenir des mobilités « Ambition France Transports » indique prévoir d’ajouter annuellement 1,5 milliard d’euros à compter de 2028 en faveur du ferroviaire. Un premier pas vers la bonne direction, mais qui doit en appeler d’autres si nous voulons éviter un scénario à l’allemande.

The Conversation

Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la Deutsche Bahn déraille, faut-il craindre pour le rail français ? – https://theconversation.com/quand-la-deutsche-bahn-deraille-faut-il-craindre-pour-le-rail-francais-264703

La vengeance, de la Grèce Antique à Gaza : un levier pour construire une paix juste ?

Source: The Conversation – France in French (3) – By Marie Robin, Maitresse de conférences à l’Institute of security and global affairs (ISGA), Université de Leiden, Leiden University; Université Paris-Panthéon-Assas

_La Justice et la Vengeance divine poursuivant le Crime_ (1808), du peinte français Pierre Prudon, dit Pierre-Paul Prud’hon (1758-1823). Pierre-Paul Prud’hon/WikiArt

Puissances étatiques, membres de groupes ethniques ayant été décimés, fanatiques religieux, mouvements terroristes… autant d’acteurs variés qui, tout au long de l’histoire, ont invoqué la vengeance pour expliquer leurs actes violents – des actes qui, à leurs yeux, en portant rétribution des torts qui leur avaient été infligés, devaient permettre, au final, d’aboutir à une paix juste. Dans la Vengeance et la Paix, qui vient de paraître aux éditions du CNRS, Marie Robin, maîtresse de conférences à l’Institute of security and global affairs (ISGA) à l’Université de Leiden (Pays-Bas) et chercheuse associée au Centre Thucydide (Paris II), explore, à travers plusieurs épisodes marquants de l’histoire mondiale, les liens complexes tissés entre le motif de la vengeance et l’établissement de la paix.


Mytilène en 428 av. J.-C.

Alors que la guerre du Péloponnèse fait rage, la ville de Mytilène sur l’île grecque de Lesbos craint d’avoir attiré la convoitise des Athéniens. Redoutant une attaque, les principaux dignitaires de la ville décident de rassembler quelques troupes parmi la population pour contrer l’assaut potentiel. Mais, par une forme de prophétie auto-réalisatrice et face au risque perçu de soulèvement représenté par la levée de troupes, Athènes répond par un blocus naval de l’île, assiégeant la ville. Acculés, les habitants de Mytilène se rendent rapidement aux Athéniens. L’Assemblée des Athéniens doit alors déterminer le sort des habitants de la ville défaite.

Le jour même du soulèvement, les membres de l’Assemblée athénienne prennent la décision de massacrer l’ensemble des hommes de Mytilène et de réduire les femmes et les enfants en esclavage. L’ordre d’exécuter la décision est transmis.

Le jour suivant, cependant, l’Assemblée est prise de remords. Elle s’interroge sur l’équanimité d’un jugement visant à condamner toute une île pour les péchés de quelques-uns de ses habitants. Le débat, restitué par l’historien grec Thucydide, oppose alors Cléon, homme politique athénien, qui demande à l’Assemblée de poursuivre avec le jugement initial, à Diodote, citoyen athénien, qui lui conseille plutôt d’agir avec prudence et de punir uniquement les coupables sans se venger des autres habitants.

Un vote final a lieu : l’Assemblée suit finalement Diodote en décidant d’éliminer seulement les mille dirigeants de la révolte et d’épargner le reste de l’île, posant une limite et un cadre à la vengeance des Athéniens.

Washington, le 2 mai 2011

Le 2 mai 2011, le président américain Barack Obama s’exprime devant les télévisions américaines et du monde entier pour annoncer l’élimination, la nuit précédente, de l’ancien dirigeant d’Al-Qaida Oussama Ben Laden par une équipe américaine des Navy SEALs à Abbottabad, au Pakistan.

Annonçant que, désormais, la « justice a été rendue » (Justice has been delivered), le président américain rappelle dans son discours les nombreuses victimes ayant péri des suites des actions d’Oussama Ben Laden, « un terroriste responsable du meurtre de milliers d’innocents », le 11 septembre 2001 notamment.

Le président Obama déclare par exemple :

« Il y a près de dix ans, une belle journée de septembre a été assombrie par le pire attentat de notre histoire contre le peuple américain. Les images du 11 Septembre sont gravées dans notre mémoire nationale : des avions détournés traversant un ciel de septembre sans nuages, les tours jumelles s’effondrant sur le sol, la fumée noire s’élevant du Pentagone, l’épave du vol 93 à Shanksville, en Pennsylvanie, où l’action de citoyens héroïques a permis d’épargner encore plus de chagrin et de destruction […]. Le 11 septembre 2001, en cette période de deuil, le peuple américain s’est uni […]. Nous étions également unis dans notre détermination à protéger notre nation et à traduire en justice les auteurs de cette attaque odieuse. »

Le lendemain, le quotidien New York Post titre sur l’élimination de l’ancien dirigeant : « Osama bin Laden Dead : Got Him, Vengeance at Last ! The U.S. Nails the Bastard (Traduction : « Oussama Ben Laden est mort : la vengeance enfin ! Les États-Unis épinglent le bâtard. »). »

Paris, le 7 janvier 2015

Le 7 janvier 2015, dans le XIe arrondissement de Paris, deux frères, Chérif et Saïd Kouachi, pénètrent dans les locaux du journal satirique Charlie Hebdo et y assassinent douze personnes, dessinateurs, journalistes, membres de la rédaction et policiers, en blessant aussi quatre autres.

Anciens de la filière dite des Buttes-Chaumont et adeptes des cours de Farid Benyettou, jeune prédicateur incitant des jeunes à partir en Irak, les deux frères se seraient radicalisés au contact de l’islamiste Djamel Beghal, rencontré par Chérif Kouachi au centre pénitentiaire de Fleury Mérogis, où Beghal était incarcéré pour avoir fomenté un projet d’attentat contre l’ambassade des États-Unis à Paris en juillet 2001.

En janvier 2015, alors que Saïd et Chérif Kouachi sortent des locaux du journal après leur attaque, ils prennent le risque de s’exposer à une arrestation plutôt que de fuir immédiatement les lieux, pour crier dans les rues de la capitale : « On a vengé le Prophète ! »

Gaza, le 7 octobre 2023

Le 7 octobre 2023, l’organisation palestinienne Hamas mène une attaque surprise en Israël, tuant plus de 1 200 personnes et prenant plusieurs centaines d’otages. Le même jour, le premier ministre conservateur israélien Benyamin Nétanyahou déclare lors d’une conférence de presse qu’Israël « prendra une puissante vengeance », annonçant :

« Nous les paralyserons sans pitié et nous vengerons ce jour noir qu’ils ont infligé à Israël et à ses citoyens. »

Au moment d’écrire ces lignes, le bilan établi par l’Unicef fait état d’au moins 1 200 morts, dont 37 enfants, et de plus de 7 500 blessés en Israël ; 59 personnes sont encore retenues en otage. Dans la bande de Gaza, 51 266 personnes, dont plus de 15 600 enfants, seraient décédées. 116 991 personnes y auraient été blessées, dont 34 000 enfants. Les femmes et les enfants représenteraient, toujours selon l’Unicef, 70 % des victimes de la riposte israélienne. Les habitants de Gaza sont privés d’eau, de nourriture et d’électricité. Plus de 11 200 personnes sont en outre portées disparues et se trouveraient probablement sous les décombres.

Au Liban, les opérations menées par Israël dans ce qu’il a qualifié de vengeance contre le Hezbollah auraient causé la mort de 3 500 personnes et fait 15 000 blessés, en particulier depuis la mi-septembre 2024. Au Liban, 878 000 personnes ont en outre été déplacées par les violences.


Que nous apprennent les quatre épisodes ici présentés ? D’une part, que la vengeance, le sujet de ce livre, a été et continue d’être mobilisée dans les offensives d’acteurs internationaux quels qu’ils soient, en tant que moteur de leur violence. Les modalités, cadres d’expression et d’application de la violence sur la scène internationale restent déterminés, au moins partiellement, par la vengeance.

Mais ce n’est pas là la seule leçon. D’autre part en effet, la vengeance semble être revendiquée publiquement par les acteurs eux-mêmes, non seulement pour expliquer mais aussi pour légitimer les actions qu’ils mènent : terrorisme mais aussi contre-terrorisme, conflit armé, violence en retour. La vengeance est alors présentée comme un droit, voire comme un devoir, par certains des acteurs qui la mettent en œuvre. Réponse à l’offense, elle est exhibée comme un comportement nécessaire pour le maintien d’une réputation, d’un statut privé, voire pour la stabilité de l’ordre international.

Cette deuxième observation peut surprendre, car elle entre en tension avec la disqualification normative dont la vengeance fait l’objet dans la modernité. Souvent décrite comme une passion archaïque, triste et barbare, la vengeance est traditionnellement rejetée en raison de l’escalade de violence qu’elle nourrit, pour son caractère passionnel et incontrôlable, pour l’entrave à la paix qu’elle constitue. Un paradoxe émerge donc : pourquoi, alors même qu’elle semble souffrir d’une connotation négative, la vengeance est-elle revendiquée et vue comme une justification légitime de leurs actions internationales par certains acteurs, y compris par des acteurs se réclamant de valeurs libérales ?

Ce paradoxe révèle une ambivalence plus profonde : celle de la vengeance comme obstacle à la paix, mais aussi comme ressort possible d’une paix juste. Paul Ricœur voit ainsi dans la vengeance un obstacle à la « paix sociale » qui devrait être remplacée par la justice institutionnelle, c’est à-dire par la confiscation de la « prétention de l’individu à se faire justice lui-même ». Mais à l’inverse, la vengeance serait utile à une paix juste, puisque, selon Aristote, « rendre la pareille est juste ». La vengeance devient ainsi « le fait d’une vertu », car elle vise une forme de rééquilibrage moral : « Il faut rendre à chacun ce qui lui appartient. »

C’est cette ambivalence – celle d’un comportement disqualifié mais malgré tout revendiqué par des acteurs y compris légitimes ; celle d’un obstacle à la paix mais néanmoins essentiel à l’établissement d’une paix juste – qui rend la vengeance particulièrement utile pour penser la paix en relations internationales. Suivant l’anthropologue Raymond Verdier, la vengeance est peut-être à la fois « une vertu, quand elle défend la dignité de la personne, et un vice, quand elle devient passion de détruire ». La vengeance peut donc jouer un rôle dans le recours à la violence, générant escalades et maintien des conflits, mais elle peut aussi être, dans certaines circonstances, appréhendée comme un mécanisme revendiqué comme légitime, y compris pour la paix.

Dès lors, quel rôle joue la vengeance dans l’établissement de la paix entendue dans le sens de paix positive, comme absence de violence structurelle issue de la violence de la société ? Est-il possible, dans nos conflits contemporains notamment, de mieux appréhender la vengeance pour en faire un ressort de la paix ?

In fine, peut-on véritablement et simplement évacuer la vengeance pour parvenir à la paix ? Ce livre interroge donc, à la lumière de conflits contemporains (Gaza, Ukraine, Soudan, djihadisme), le lien entre vengeance et construction de la paix.

L’enjeu est important : les discours et mécanismes de résolution des conflits tendent en effet à réduire la vengeance à sa dimension de vice, comme un mécanisme illégitime qu’il faut nécessairement évacuer pour promouvoir la paix. Ce faisant, ils en font un tabou, un interdit, largement exclu des réflexions et dialogues sur la réconciliation, alors même que les acteurs eux-mêmes, sur le terrain, la revendiquent parfois comme une démarche moralement et politiquement fondée.

L’hypothèse que nous défendons est donc la suivante : reléguer la vengeance au rang de simple vice est probablement contreproductif pour la paix. Pour sortir durablement de la violence, il est nécessaire de comprendre quand, comment et par qui la vengeance est présentée comme légitime. Si les actes de vengeance doivent êtres empêchés pour permettre la paix, les revendications de vengeance, elles, méritent d’être entendues et analysées. Elles constituent un matériau essentiel pour penser la justice, la réparation, et in fine, la paix.

The Conversation

Marie Robin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La vengeance, de la Grèce Antique à Gaza : un levier pour construire une paix juste ? – https://theconversation.com/la-vengeance-de-la-grece-antique-a-gaza-un-levier-pour-construire-une-paix-juste-265432

Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ?

Source: The Conversation – France in French (3) – By Jean-Pierre Darnis, Full professor at the University of Côte d’Azur, director of the master’s programme in “France-Italy Relations”. Associate fellow at the Foundation for Strategic Research (FRS, Paris) and adjunct professor at LUISS University (Rome), Université Côte d’Azur

La stabilité politique et économique de l’Italie depuis l’arrivée au pouvoir en 2022 de Giorgia Meloni incite certains observateurs français à affirmer que sa gouvernance démontre la capacité d’un parti de droite radicale à gérer correctement un grand État d’Europe – ce qui devrait rassurer tous ceux qui redoutent une éventuelle victoire du Rassemblement national en France. Pourtant, quand on y regarde de plus près, les cas de Fratelli d’Italia et du RN sont très dissemblables, le parti italien ayant déjà eu, avant que sa cheffe n’accède aux plus hautes responsabilités, une longue habitude de participer à des coalitions gouvernementales. Et sa politique ne se place pas vraiment en rupture avec celles des gouvernements précédents. En réalité, s’il y a des leçons à tirer du cas italien, elles ont trait moins à l’action de Giorgia Meloni qu’à certaines spécificités d’un système parlementaire pourtant longtemps décrié de ce côté-ci des Alpes.


La crise politique française suscite des comparaisons fréquentes avec le cas italien. Alors que la France est entrée depuis 2024 dans un profond cycle d’instabilité politique, l’Italie, par contraste, semble remarquablement stable.

Le 18 septembre dernier, pour la première fois, le taux d’intérêt exigé par les investisseurs pour détenir de la dette publique italienne s’est établi au même niveau que celui requis pour la dette publique française – une convergence qui traduit l’appréciation que font les marchés de la situation budgétaire et politique italienne par rapport au cas français.

La mise en perspective des deux pays conduit certains analystes à exprimer des jugements favorables à l’égard du gouvernement Meloni, présenté comme un garant de stabilité.

Tout d’abord il s’agit de vanter la stabilité politique et budgétaire italienne par rapport à l’instabilité française et à la tendance de la France à accumuler les déficits. Ensuite, le cas italien sert de prétexte à une légitimation de l’extrême droite dans son exercice du pouvoir : le succès de Giorgia Meloni démontrerait qu’un parti extrémiste pouvait évoluer et se transformer en force efficace de gouvernement.

Meloni, héritière d’une longue lignée de coalitions entre centre droit et droite radicale

Ces deux analyses apparaissent à bien des égards relever de projections des visions françaises sur la réalité italienne, plutôt que de véritables prises en compte des dynamiques à l’œuvre dans la péninsule.

Si nous nous intéressons à la trajectoire de la famille politique de Giorgia Meloni, on observe que c’est en janvier 1995 que le Movimento Sociale Italiano (MSI-DN), créé en 1946 sur une ligne clairement post-fasciste, prend un virage modéré et gouvernemental avec sa transformation en Alleanza Nazionale.

Ce tournant intervient dans un contexte où des coalitions de droite mises en place à partir de 1994 voient s’associer le parti de centre droit créé par Silvio Berlusconi, Forza Italia, avec les autonomistes septentrionaux de la Lega d’Umberto Bossi et la droite nationaliste réformée dirigée par Gianfranco Fini.

Pendant les trente années suivantes, on verra la droite italienne solidifier ses réflexes de coalition tripartite mais aussi se mouler dans le jeu institutionnel et parlementaire : Giorgia Meloni est à la fois l’héritière de Silvio Berlusconi lorsqu’elle récupère le leadership sur ce camp lors des élections de 2022, mais aussi le produit d’une culture parlementaire et gouvernementale, car elle a été ministre de 2008 à 2011.

Elle est donc la nouvelle leader d’un camp qui a été façonné par les neuf années de pouvoir exercé sous la direction de Silvio Berlusconi. Certes, son discours conserve des accents nationalistes et conservateurs, en particulier lors de la campagne électorale de 2022, mais la continuité du substrat institutionnel de sa famille politique est un élément fondamental, largement sous-évalué par les commentateurs.

L’accession au pouvoir de Giorgia Meloni représente un renouvellement au sein de la droite italienne car elle conquiert en 2022 le sceptre d’un Silvio Berlusconi diminué (il décédera quelques mois plus tard), mais ne constitue pas une rupture extrémiste.




À lire aussi :
Italie : Silvio Berlusconi, ou la « révolution libérale » qui n’a jamais eu lieu


La coalition tripartite qu’elle met en place en 2022 est la même que celle qui avait été inventée par Silvio Berlusconi en 1994. Ainsi ne faut-il pas s’étonner des éléments de continuité que l’on constate dans la pratique gouvernementale de la droite italienne depuis Berlusconi jusqu’à Meloni.

Quant à l’affirmation selon laquelle la droite italienne aurait récemment vécu une sorte de déradicalisation, elle doit être fortement nuancée : on a assisté depuis 2013 à un durcissement de la Lega de Matteo Salvini, qui a redéveloppé un discours à la fois hostile à l’immigration et pro-russe. Il y a donc des effets de vases communicants à la fois en ce qui concerne les électorats et l’idéologie des différents partis de droite en Italie.

La continuité dans les actions de gouvernement constitue également la toile de fond d’une politique budgétaire prudente. Ici encore, il ne s’agit pas d’une nouveauté, car la politique de sérieux budgétaire est relativement traditionnelle en Italie. Elle avait déjà été observée sous le gouvernement précédent, celui de Mario Draghi.

En matière budgétaire, il convient de relever que l’un des principaux points noirs de la finance publique italienne a été la politique dite du « superbonus » pour les rénovations immobilières, un système de subventions créé par le gouvernement Conte II en 2020, qui a coûté plus de 127 milliards d’euros.

L’efficacité économique de cette dépense concentrée dans l’immobilier est largement critiquée et l’une des actions les plus remarquables du gouvernement Meloni a été d’arrêter l’hémorragie que la procrastination des mesures entraînait pour les finances publiques en modifiant la réglementation de l’allocation de subventions. Mais, dans le même temps, le gouvernement italien peine à dépenser les budgets obtenus dans le cadre du plan de relance européen (PNRR) – un indicateur négatif en matière d’efficacité qui est bien loin de représenter un « miracle ».

Enfin il faut relever que les finances publiques italiennes bénéficient de l’inflation, qui provoque une hausse des revenus et, donc, un effet seuil d’augmentation des recettes fiscales par le jeu du dépassement des tranches d’imposition.

En Italie, une habitude bien ancrée de création de coalitions

Les institutions italiennes sont caractérisées par leurs capacités d’adaptation – un facteur qui différencie profondément l’Italie de la France.

En 2018, les élections législatives italiennes n’ont pas permis de dégager une majorité, l’électorat s’étant réparti de façon relativement équilibrée entre la droite, la gauche et le Mouvement 5 étoiles. Après des semaines de tractations et d’errements, c’est finalement un accord original entre le Mouvement 5 étoiles et la Lega qui allait permettre la naissance de l’exécutif dirigé par Giuseppe Conte. Cette formule mettait en place un exécutif populiste qui s’est rapidement distingué par des mesures de dépenses (mise en place d’un revenu de citoyenneté), une position virulente en matière d’immigration mais aussi par une politique internationale marquée par les réflexes pro-russes et pro-chinois, ainsi que par une crise des rapports bilatéraux avec la France.

Face à cette poussée populiste, le jeu parlementaire d’une part et la fonction de garant exercée par le président de la Republique Sergio Mattarella de l’autre ont contribué non seulement à mitiger la portée des actions extrémistes, mais aussi à contribuer en 2019 à la mutation de la coalition de soutien du gouvernement Conte 2, qui associera le Mouvement 5 étoiles à la gauche classique en excluant la Lega, ce qui relancera une dimension bipolaire gauche/droite.

Cet exemple récent montre comment dans un système comme celui de l’Italie, caractérisé par l’absence de figure comparable à celle d’un président de la République française, se définit un jeu politique ouvert qui passe par la recherche de coalitions qui font des partis les acteurs centraux du jeu politique.

Certes, le président italien joue un rôle crucial lors des crises politiques, mais il apparaît comme un arbitre et non pas comme le chef d’un camp, ce qui lui permet d’exercer un rôle de médiation mais aussi de ne pas confondre ses missions avec celle du président du conseil des ministres, chef de l’exécutif.

La présidence de la République est une institution qui a repris en Italie certains traits de la monarchie constitutionnelle précédente, avec un rôle « au-dessus des partis » d’un président qui évite soigneusement de descendre dans la mêlée.

Les institutions de la république italienne, dont la Constitution a été adoptée en 1947, ne sont pas sans rappeler celles de la IVe république française. La comparaison entre l’Italie et la France permet de pointer du doigt le phénomène d’hyper-présidentialisation à l’œuvre en France, en particulier depuis la réforme constitutionnelle de 2000, une caractéristique qui apparaît comme un blocage dans un Parlement qui n’est plus bipolaire.

Pas de modèle Meloni, mais un modèle italien ?

L’exemple italien n’est pas celui d’une modération miraculeuse et récente d’une droite extrémiste sous l’effet d’une supposée « méthode Meloni ». Silvio Berlusconi a écrit l’histoire d’une droite italienne qui est d’abord passée par une hégémonie sur le centre avant d’arriver à un repositionnement des différentes forces politiques, un parcours dont Giorgia Meloni est l’héritière. Il ne s’agit donc pas d’un scénario que l’on puisse plaquer sur la trajectoire du Rassemblement national français.

En revanche, l’observation des institutions italiennes est riche d’enseignements, en faisant voir la possibilité d’un système sans président de la République à la française – une caractéristique qui est d’ailleurs commune à la majorité des pays membres de l’Union européenne. Ici encore, ce n’est probablement pas l’analyse de ceux qui à Paris voudraient voir dans Giorgia Meloni l’exemple d’un césarisme triomphant. Mais c’est la véritable leçon, parlementaire et démocratique, que l’Italie peut enseigner.

The Conversation

Jean-Pierre Darnis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ? – https://theconversation.com/face-a-sa-crise-politique-la-france-a-t-elle-des-lecons-a-tirer-de-litalie-265831

De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ?

Source: The Conversation – France (in French) – By Eric Bruillard, Enseignant-chercheur, Université Paris Cité

Comme Wikipédia auparavant, les outils d’intelligence artificielle générative sont sujets à une méconnaissance et à des préjugés chez les élèves et les étudiants, voire chez les enseignants. Comment les aider à mieux comprendre le fonctionnement de ces outils numériques et éviter l’anthropomorphisme ? L’usage de métaphores serait-il une piste fructueuse ?


Beaucoup de discours actuels sur l’utilisation des intelligences artificielles génératives (IAG) en éducation sont similaires à ceux qui ont longtemps accompagné l’utilisation de Wikipédia.

D’abord, le manque de confiance que l’on peut leur accorder, accompagné d’un recensement d’erreurs que l’on a pu trouver ici et là. Ensuite, une accusation de paresse à l’encontre d’utilisateurs en faisant une utilisation abusive sans réécriture ni vérification. Enfin, un dénigrement diversement fondé sur leur qualité et une volonté initiale d’interdire leur utilisation, reposant en fait sur le problème, pas toujours bien énoncé, que leur utilisation remet en question les travaux et évaluations demandés aux élèves.




À lire aussi :
L’IA peut-elle nous dispenser de l’effort d’apprendre ?


Les similarités énoncées cachent cependant des différences importantes entre Wikipédia et les IAG, notamment dans la compréhension ou l’incompréhension de leur fonctionnement et des implications de cette méconnaissance. Pourtant, la circulation de métaphores, tant pour Wikipédia que pour les IAG, peut faciliter des utilisations plus diversifiées et plus intéressantes.

Wikipédia : des étudiants très ignorants de son fonctionnement

J’interroge depuis une vingtaine d’années les étudiants de master sur leurs connaissances de Wikipédia et leurs utilisations. Pour la plupart d’entre eux, les principes fondateurs du projet, pourtant seulement au nombre de cinq – encyclopédisme, neutralité de point de vue, licence libre, savoir-vivre communautaire et souplesse des règles – sont totalement inconnus. Pire, les possibilités visibles dans l’interface standard, comme langues, historique, discussion, n’ont jamais été repérées.

Utilisateurs pourtant réguliers, ils n’ont pas eu la curiosité d’aller explorer ce que pouvait leur offrir Wikipédia. Ils croient comprendre globalement comment cela marche, ce qui ne leur permet pas de développer des utilisations approfondies d’un projet encyclopédique multilingue qui donne à voir son processus collectif de rédaction.

Ils souscrivent à une sorte de maxime simpliste : « Tout le monde peut intervenir dans un article (sous-entendu n’importe qui, des personnes incultes ou malintentionnées), DONC cela ne peut pas être de bonne qualité. »

Comment réfuter une telle affirmation ? D’un point de vue théorique, elle est vraie, les contenus (enfin presque tous) peuvent être sans arrêt modifiés. Mais d’un point de vue pratique, rares sont les personnes qui adoptent un comportement destructeur, l’organisation de Wikipédia permettant de détecter rapidement les interventions « déplacées » (avec des systèmes d’alerte automatiques, des robots, etc.). Les articles sont en grande majorité stables et de bonne qualité. D’ailleurs, dès 2004, des études ont révélé que le taux d’erreur dans les articles de Wikipédia n’était pas plus élevé que dans les grandes encyclopédies.

Cette mauvaise connaissance a des conséquences dont veut se prémunir Wikipédia. Dans les avertissements généraux, elle précise qu’elle « ne garantit pas la validité, l’exactitude, l’exhaustivité, ni la pertinence des informations contenues sur son site ». Cela débouche sur une sorte de lieu commun pour l’utilisation : « Wikipédia doit être un point de départ pour la recherche, et non une destination, et il est conseillé de confirmer de manière indépendante tout fait présenté ». Sage conseil. Mais quand on demande aux étudiants s’ils le suivent, la réponse est… non.

IA génératives : un fonctionnement opaque et des hallucinations

Concernant l’intelligence artificielle, on est passé de l’IA comme champ scientifique aux IA, entités aux contours mal définis, susceptibles de produire rapidement des textes, images, vidéos, etc. Outils de productivité personnelle ou collective, leurs limites et préjudices sont connus et partagés :

  • Des biais constitutifs et des hallucinations : des documents du passé, des discriminations, des hallucinations (voir les fameuses mains à 6 doigts ou l’invention de fausses références), caractéristiques inhérentes à leur fonctionnement…

  • Une absence de compréhension : bien exprimée par la métaphore du perroquet stochastique, une illusion de compréhension renforcée par un discours dans un registre anthropomorphe, pas de contrôle global, défaut d’explicabilité (bien que cela s’améliore)…

  • Une qualité de réponses très variable qui peut dépendre du coût payé par l’utilisateur, ce qui interroge sur ce qui va se passer dans le futur, avec la nécessité de générer suffisamment d’énergie (problème écologique).

Apprendre à les utiliser est un objectif que l’école se doit d’assumer. Mais, comment ? Pour certains, il s’agit de montrer leur fonctionnement interne. Cela a été rarement fait pour Wikipédia, les utilisateurs croyant le savoir. C’est proposé pour les IAG. Toutefois, l’écart entre les descriptions internes, tentant d’expliquer comment un grand modèle de langage génère des séries de tokens, et les réalisations auxquelles les utilisateurs sont confrontés sont tellement éloignées que cela ne semble pas être une bonne solution.

Des métaphores pour interroger les usages numériques

Proposer des séries de métaphores permet de mieux saisir aussi bien certains principes de fonctionnement que les modalités d’utilisation des intelligences artificielles génératives. Cela peut aider aussi à résister à des processus d’anthropomorphisation qui peuvent s’avérer dangereux. Parler de « couteaux suisses », « perroquets stochastiques », « stagiaires ivres » ou « seigneurs suprêmes » conduit à des compréhensions différentes de l’interaction avec les IAG.

Concernant Wikipédia, on constate l’absence de métaphores répandues, sauf des références un peu générales comme « une cathédrale en perpétuelle construction ». Demander à ChatGPT quelles images il proposerait permet d’en trouver d’autres comme le « palimpseste numérique », « la plus grande encyclopédie du monde… écrite au crayon » ou « un canari dans la mine de charbon pour la confiance numérique ! » Certaines avec des explications qui rendent compte du fonctionnement de Wikipédia :

« Le génome vivant de la culture mondiale : une encyclopédie comme organisme vivant, évolutif et sensible à l’environnement.
Le théâtre d’ombres de la neutralité : critique subtile de la neutralité éditoriale, jamais parfaitement atteinte. »

Toutes ces métaphores aident à construire une vision plus intéressante et plus critique de Wikipédia. C’est aussi le cas pour les IAG. Ainsi, à l’invite d’illustrer par des métaphores des cas d’hallucination des IA génératives, ChatGPT, fait preuve d’une certaine poésie. Il évoque :

« un ornithologue qui confond des oiseaux rares avec des créatures mythologiques » ;

« un conteur qui invente des détails pour rendre son histoire plus captivante » ;

« un chirurgien qui opère avec des instruments mal calibrés, produisant des résultats inattendus ».

Notons toutefois que ChatGPT se décrit toujours comme un humain, qui a des intentions. Difficile d’échapper à l’anthropomorphisation ! Avec le même prompt, Claude.ia a généré une présentation sur Internet, synthèse non anthropomorphe et plus intéressante. Décaler l’interrogation des IAG peut permettre de mieux comprendre leur fonctionnement.

The Conversation

Eric Bruillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ? – https://theconversation.com/de-wikipedia-aux-ia-comment-aider-les-eleves-a-comprendre-le-fonctionnement-des-outils-numeriques-265222

La science-fiction « déprimée » du cinéma américain

Source: The Conversation – France (in French) – By Samuel Saint-Pé, Docteur en études cinématographiques, Université Grenoble Alpes (UGA)

Plan tiré de _2001 : l’Odyssée de l’espace_, de Stanley Kubrick, 1968.

La science-fiction est un genre particulièrement poreux aux angoisses et aux conflits d’une époque, digérant certains faits sociaux, même de manière minime ou inconsciente. À ce titre, le cinéma de SF américain des années 2010 déploie un imaginaire particulièrement sombre.


L’humeur déprimée des films de science-fiction américains des années 2010 s’illustre par un rythme apathique, des décors brutalistes, des couleurs ternes et, plus généralement, un sentiment de flottement évanescent. Dans le sens psychiatrique du terme, cette déprime renvoie à un état général de découragement, de perte de dynamisme, se traduisant dans l’esthétique de certains films. Ce mouvement s’oppose à une science-fiction plus loquace, portée sur l’action et l’humour, à l’instar des films Marvel.

La filmographie de SF de Denis Villeneuve est la figure de proue de ces films moins expressifs (Premier Contact en 2016, Blade Runner 2049 en 2017, la saga Dune en 2021 et 2024), proposant une forme hybride de blockbuster « auteurisant ». Ce divertissement esthétisé se permet un ton plus grave, des mouvements de caméra plus lents, un montage moins cadencé, des couleurs moins vives ou encore une musique parfois minimale.

L’esthétique désenchantée de Dune.
Allociné

À la même période, d’autres films adoptent un ton similaire : parmi eux, Oblivion (Joseph Kosinski, 2013), Ad Astra (James Gray, 2019), ou plus récemment Spaceman (Johan Renck, 2024). Si la SF est perçue comme le miroir grossissant d’une époque, on peut se questionner sur les causes historiques de cette déprime cinématographique.

Le double « effet 2001 »

On peut voir dans cette forme apathique les conséquences d’un double « effet 2001 ». Le premier « effet 2001 », énoncé par le chercheur en études du son et du cinéma Michel Chion dans les Films de science-fiction (2009), décrit le bouleversement opéré par 2001 : l’Odyssée de l’espace (Stanley Kubrick, 1968) sur l’ensemble du genre.

Chion qualifie de « science-fiction implicite » une œuvre dont les éléments futuristes perçus à l’écran (technologie, environnement urbain et sauvage, géopolitique…) ne sont pas explicités par les dialogues. Cela demande ainsi au spectateur de faire appel à son interprétation du fonctionnement du futur, à l’opposé d’un cinéma plus explicatif – celui de Steven Spielberg et George Lucas, par exemple.

Les années suivantes, d’autres classiques du cinéma émergent, alignés sur cette « science-fiction implicite », comme Alien (1979) et Blade Runner (1982) de Ridley Scott. Si 2001 est considéré comme un jalon fondateur de la SF au cinéma, c’est entre autres parce qu’il ouvre la voie à des thématiques jugées plus « adultes », chose auparavant réservée à la littérature.

Les films de Villeneuve, s’ils ne peuvent pas vraiment être qualifiés d’implicites tant ils demeurent assez explicatifs, empruntent à 2001 ce minimalisme figuratif.

Premier Contact, par exemple, disserte longuement sur les éléments linguistiques utilisés afin de traduire un langage extraterrestre, à travers les exposés de la linguiste Louise Banks (Amy Adams) ou la voix off du physicien Ian Donnelly (Jeremy Renner). Mais cet aspect didactique est connecté à une esthétique « déprimée ». Elle représente d’une part une sensation de flottement, à travers les motifs de la brume et de l’encre dans lesquelles évoluent les aliens. D’autre part, elle invoque une impression de lourdeur grâce aux différentes matières brutes dans les décors (la pierre noire des vaisseaux spatiaux) et aux couleurs désaturées de l’image. Cela reflète en un sens la personnalité peu expressive de Louise, le film débutant sur un drame personnel, la perte de sa fille.

Dans Premier Contact, une atmosphère sombre et brumeuse.
Allociné

Ajoutons un second « effet 2001 » renvoyant aux attentats du 11 septembre 2001 sur le sol états-unien. Qualifiés de « « mère » des événements » par Jean Baudrillard, ils sont à l’origine d’un bouleversement politique, social mais aussi culturel. Fragilisés dans leur hégémonie, les États-Unis développent un imaginaire désenchanté, s’inspirant de l’avalanche d’images médiatiques témoins du désastre : films catastrophe (le Jour d’après, Roland Emmerich, 2004 ; la Guerre des mondes, Steven Spielberg, 2005 ; Cloverfield, Matt Reeves, 2008), films de survie (les Fils de l’homme, Alfonso Cuarón, 2006 ; Je suis une légende, Francis Lawrence, 2007 ; la Route, John Hillcoat, 2009).

Désenchantement du cinéma états-unien

Ce désenchantement s’exprime aussi indirectement, renvoyant moins aux images de désolation qu’à la déchéance des institutions américaines (gouvernementales, religieuses), auxquelles les citoyens ont du mal à se raccrocher suite aux attentats. Cela conduit de plus en plus à pointer l’humain du doigt comme responsable de problématiques écologiques, guerrières et sociales, y compris dans des blockbusters comme Avatar (James Cameron, 2009) – une critique relativement peu courante aux États-Unis avant les années 2000.

Christopher Nolan, d’un autre côté, met en avant la recherche d’un effet de « réalisme » scientifique, censé retranscrire une perte de naïveté : sa trilogie Batman (entre 2005 et 2012) s’approche d’une réalité concrète, loin de la fantaisie des comic books ; et Interstellar (2014), une odyssée de l’espace mettant en scène un drame familial et une humanité proche de l’extinction, communiquait sur sa supposée vraisemblance scientifique.

Le succès de ces films appuie notamment le fait que, dans la décennie 2010, il existe peu de space operas au cinéma, c’est-à-dire d’univers de science-fiction épiques partant à la conquête de l’espace et de planètes extraterrestres, pour le plaisir de jouer avec un monde futuriste alternatif. Hormis la réactivation de licences reconnues comme Star Wars, Star Trek ou Dune, on ne peut citer guère plus que la trilogie les Gardiens de la Galaxie (2014, 2017, 2023), par James Gunn, qui est aussi à l’origine du dernier Superman (2025). Étonnamment, le cinéaste se démarque dans la science-fiction à gros budget, où le recours à des couleurs saturées et à un humour potache, tout en proposant un divertissement épique, semble être un acte radical. L’imaginaire états-unien est-il enlisé dans la dystopie et le pessimisme ?

Le « solarpunk » au cinéma ?

Pourrait-on assister à un nouveau cycle dans l’histoire du cinéma de science-fiction ? Un moyen de l’anticiper est d’observer son évolution littéraire. Le cinéma de science-fiction a en effet la particularité d’être toujours en retard sur sa littérature quant aux thématiques abordées. Des auteurs, tels qu’Isaac Asimov, Robert Heinlein ou Philip K. Dick, abordaient des thèmes complexes sur la robotique ou les mondes simulés dès l’après-guerre – vingt ans avant 2001 de Kubrick, alors que le cinéma en était à ressasser la peur de l’autre, des aliens et autres animaux géants.

En matière de littérature de SF, la décennie 2010 se caractérise par l’émergence du sous-genre « solarpunk », un mouvement artistique pensé en regard des fictions dystopiques surreprésentées. Ses ambitions ont une part éthique : diversifier l’imaginaire collectif, donner à penser à une humanité durable en termes de technologies, d’écologie, de progrès social. Becky Chambers est devenue un grand nom de la science-fiction féministe (avec sa série de livres les Voyageurs, 2012 à 2021) et du solarpunk, notamment en publiant Histoires de moine et de robot (2018-2022). Celui-ci prend place dans un monde postapocalyptique où les humains ont pu recréer un environnement vivable et durable, dans une forme d’harmonie avec la nature. Ainsi, la dystopie et le solarpunk ont deux fonctions différentes, complémentaires : l’un alerte sur les dérives autoritaires quand l’autre donne à voir de quoi stimuler la découverte de potentielles solutions.

À l’heure actuelle, les rares œuvres états-uniennes grand public pouvant être assimilées au solarpunk sont surtout identifiées pour la jeunesse : par exemple, Wall-E (Andrew Stanton, 2008) ou le Robot sauvage (Chris Sanders, 2024).

Comme si ces questions mêlant écologie et progrès technique n’étaient encore qu’une sorte de rêve infantile, une affaire de bons sentiments et de naïveté. Toutefois, considérant le délai existant entre la littérature et le cinéma, il est permis d’espérer voir émerger des films solarpunk, où le sujet serait pris à bras le corps. Nous n’en sommes pas encore là : le Superman, de James Gunn, malgré la réhabilitation de l’optimisme propre au personnage, ne peut véritablement être assimilé au solarpunk. Il a toutefois le mérite de proposer un ton plus léger, une esthétique plus expressive, en rupture avec la SF actuelle. Gageons qu’il s’agit d’une forme de renouveau, d’une petite impulsion ouvrant la voie à un imaginaire alternatif du futur.

The Conversation

Samuel Saint-Pé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La science-fiction « déprimée » du cinéma américain – https://theconversation.com/la-science-fiction-deprimee-du-cinema-americain-265087

Et si votre prochain collègue était un agent IA ?

Source: The Conversation – France in French (2) – By Stéphanie Gauttier, Professeur Associée en Systèmes d’Information, Responsable de l’équipe de recherche ‘Systèmes d’Information pour la société’ Chaire Digital Organization & Society, Grenoble École de Management (GEM)

Les agents d’IA sont capables d’effectuer différentes tâches de façon plus ou moins autonome. À mesure qu’ils sont intégrés à nos outils et à nos échanges personnels et professionnels, c’est toute la société qui doit décider ce qu’elle souhaite déléguer… et ce qu’elle préfère préserver.


En arrivant au bureau, un mail vous attend. Votre client voulait une mise à jour sur sa commande. Mais un agent IA a déjà consulté les données de livraison et envoyé un message de suivi. Vous n’avez rien eu à faire.

Ce n’est pas de la science-fiction. Les agents IA sont sur le point de transformer en profondeur nos façons de travailler. L’entreprise américaine de conseil Gartner estime que 15 % des décisions professionnelles quotidiennes seront prises par des agents IA d’ici 2028, et 33 % des entreprises utiliseront des agents IA (contre 1 % en 2024). Ces agents ne sont pas de simples assistants mais des entités capables d’agir, décider et parfois collaborer entre elles. Leur émergence pose des questions fondamentales sur le rôle des humains au travail.

Que sont les agents IA ?

Un agent IA est un logiciel (semi)-autonome qui utilise des techniques d’intelligence artificielle pour percevoir, prendre des décisions, accomplir des tâches et atteindre des objectifs prédéterminés, dans des environnements physiques ou numériques. Un agent IA peut agir pour le compte d’un utilisateur ou d’un autre système, par exemple un autre agent logiciel, en concevant son processus de travail et utilisant les outils disponibles.

Certains agents suivent une logique strictement scriptée, tandis que d’autres sont dotés d’une plus grande autonomie : ils déterminent eux-mêmes le bon moment pour agir en fonction du contexte, des objectifs et des informations disponibles. C’est cette autonomie qui caractérise l’« IA agentique ». Cette forme particulièrement autonome d’agent IA, qui ouvre de nouvelles possibilités mais soulève également des enjeux inédits en matière de conception, de contrôle et d’usage. Tous les agents IA ne forment pas une IA agentique, bien que la tendance aille en ce sens.

Par exemple, un « agent IA agentique » pourrait envoyer de lui-même un message aux clients de manière proactive si un message de retard du fournisseur est arrivé. Dans le contexte européen, une telle autonomie n’est pas interdite, mais elle relève des obligations de supervision humaine et de transparence imposées par l’AI Act (2024). Dans ce cadre, supervision ne signifie pas validation systématique de chaque action, mais capacité à tracer, contrôler et reprendre la main à tout moment.

Le marché mondial des agents IA, agentiques ou non, devrait représenter 47,1 milliards de dollars en 2030, 1,896 milliard de dollars en France en 2030.

Les agents IA s’appuient sur différentes briques d’intelligence artificielle : compréhension de requêtes, recherche d’informations, planification, action dans les systèmes, génération de texte. Parmi ces briques, les grands modèles de langage (LLM) jouent un rôle central, mais sont désormais utilisés par les agents IA de manière autonome, sans intervention humaine.

Les agents IA : vers une hyper automatisation du travail ?

Les agents IA fonctionnent en continu, sans fatigue ni pause. Ils permettent aux organisations d’étendre considérablement leur capacité d’action. À ce titre, ils incarnent la promesse d’une productivité accrue et d’une réduction des coûts.




À lire aussi :
Les robots collaboratifs, des collègues de travail comme les autres ?


Mais cette automatisation radicale réactive des craintes anciennes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. Ainsi, 75 % des citoyens français pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent aujourd’hui de se former à ces outils selon le Labo Société Numérique 2024. Aux États-Unis, seuls 23 % des adultes pensent que l’IA améliorera leur façon de travailler, contre 73 % des experts de l’IA.

La rupture est donc aussi sociale que technologique.

Les agents d’IA permettront-ils d’innover davantage ?

Automatiser les processus peut figer une manière de faire, plutôt que d’innover. Selon Eril Brynjolfsson, le véritable potentiel de l’IA réside dans son pouvoir d’augmenter les capacités humaines pour faire de nouvelles choses, pas de les remplacer.

Ainsi, plutôt que de remplacer les humains, les agents IA pourraient élargir leur champ d’action créatif, en leur suggérant des idées nouvelles, en automatisant l’exploration de variantes ou en testant rapidement des pistes qu’un humain seul n’aurait pas le temps d’examiner… par exemple pour ouvrir la voie à des avancées majeures, notamment dans le domaine de la biomédecine.

Mais pour cela, il faut qu’ils soient dignes de confiance. Le fait que 93 % des employés de bureau doutent encore de la fiabilité des résultats produits par l’IA ne relève pas seulement d’un problème d’adoption : cette méfiance renvoie à des failles concrètes des systèmes actuels, qu’il s’agisse d’erreurs, de biais, ou d’un manque de traçabilité et d’explicabilité.

Quelle responsabilité pour les agents d’IA ?

Face à des systèmes capables d’agir de manière autonome tout en faisant des erreurs, qu’il s’agisse de biais, de décisions inadaptées ou d’hallucinations, une question demeure : qui est responsable du résultat ?

Les agents, par nature, ne peuvent ressentir ni assumer la responsabilité de leurs actes. Pourtant, leur rôle peut rester invisible aux yeux des utilisateurs : les employés peuvent ignorer qu’un agent a pris une décision à leur place, ou se retrouver démunis face à un raisonnement biaisé qu’ils ne comprennent pas. Un autre risque tient à l’imprécision des consignes données par l’utilisateur, ou à la manière dont l’agent les comprend. Une interprétation erronée peut amener ce dernier à sélectionner un outil inadéquat ou à en faire un usage détourné, avec des effets indésirables. Ce type de dérive est parfois qualifié d’ « hallucination d’appel de fonction ». Enfin, une étude publiée dans Nature montre que les agents IA sont plus enclins que les humains à suivre des instructions manifestement non éthiques, ce qui demande la mise en place de garde-fous prohibitifs. Lorsque les agents travaillent en mode agentique, en toute autonomie et auto-orchestration, ces questions ont d’autant plus de poids.

Ce sont donc les organisations qui doivent prendre l’initiative de mettre en place des mécanismes de gouvernance robustes, pour assurer à la fois la conformité éthique des usages et le bien-être des salariés exposés à ces systèmes. Les actions des agents IA peuvent aussi des conséquences imprévues, dont les organisations restent responsables, ce qui impose de se doter d’un cadre de gouvernance adéquat. Cela suppose des actions concrètes : une gouvernance robuste de l’IA dans l’entreprise, un niveau suffisant de transparence, et des cadres réglementaires établis.

En pratique, il est essentiel de définir explicitement les responsabilités respectives des humains et des machines, et de former les employés — notamment à la littératie algorithmique — pour leur permettre d’agir en connaissance de cause. Il faut également permettre une collaboration contradictoire, avec un agent IA qui interroge et affine les recommandations de l’agent humain.

D’un point de vue technique, le recours à des audits indépendants et la mise en place de dispositifs d’alerte en cas de dysfonctionnement constituent des garanties indispensables pour un contrôle pertinent des agents IA.

Collaborer… sans humains ? Les limites d’un avenir de systèmes multiagents

Certaines entreprises envisagent de faire collaborer plusieurs agents IA spécialisés pour atteindre des objectifs communs : ce sont les systèmes multiagents. Par exemple, des agents IA pourraient travailler ensemble pour suivre votre réclamation client sur votre dernière commande en ligne, faire des recommandations, remonter la solution, et ajuster votre facture.

Pour y arriver, il reviendra à l’entreprise de bien orchestrer la collaboration entre les agents IA. Elle peut créer un réseau centralisé, avec un serveur qui contrôle les actions et informations des agents et qui peut prendre la main sur le système ; ou alternativement, un réseau décentralisé où les agents IA contrôlent leurs interactions entre eux. Outre les risques d’échec de coordination, l’organisation peut être confrontée à des conflits informationnels entre agents IA et des collusions, et des risques de sécurité.

Plus l’autonomie des agents est élevée, plus il devient essentiel de maintenir une forme de contrôle sur les tâches accomplies. Le règlement européen sur l’intelligence artificielle insiste sur l’importance qu’un humain dans la boucle puisse intervenir pour corriger, interrompre ou valider les actions de l’IA.

Mais le marché de l’agentique propose une autre solution. Des agents gardiens qui peuvent surveiller, guider, et intervenir dans le comportement des autres agents lorsque nécessaire. Ces agents-gardiens, ou contremaîtres, représenteraient 10 à 15 % du marché de l’IA agentique.

Faut-il alors imaginer un futur où les humains deviendraient les contrôleurs des contrôleurs ? Or, ce rôle de supervision sans implication directe dans l’action est loin d’être satisfaisant : il est souvent associé à une baisse de l’engagement et de l’épanouissement professionnel. Pire encore, plus nous déléguons les tâches formatrices à des systèmes automatisés, plus il devient difficile pour les humains d’intervenir efficacement lorsque l’IA échoue, faute d’entraînement ou de compréhension fine de la tâche.

La prochaine fois que vous engagerez une nouvelle tâche… prenez un instant pour vous demander : est-ce vous qui l’accomplirez encore d’ici peu, ou un agent IA à votre place ? Et surtout, en quoi cela changerait-il le sens que vous tirerez de votre travail ? À mesure que les agents IA s’installent dans nos outils et nos échanges, c’est toute la société qui doit décider de ce qu’elle souhaite déléguer… et de ce qu’elle préfère préserver.

The Conversation

Stéphanie Gauttier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si votre prochain collègue était un agent IA ? – https://theconversation.com/et-si-votre-prochain-collegue-etait-un-agent-ia-262160

La guerre cognitive, sans bombes ni balles : une zone grise juridique et stratégique

Source: The Conversation – France in French (3) – By David Gisselsson Nord, Professor, Division of Clinical Genetics, Faculty of Medicine, Lund University

La Russie a perfectionné depuis des décennies l’art du « contrôle réflexif », une forme de guerre cognitive qui consiste à façonner les perceptions d’un adversaire à son propre avantage, sans que ce dernier comprenne qu’il a été manipulé. Master1305/Shutterstock

On parle de « guerre cognitive » lorsque de fausses informations sont utilisées pour déstabiliser des populations. La Russie – entres autres – l’utilise massivement. Pourtant, cette forme d’action hostile, qui se renforce, n’est pas encadrée par le droit de la guerre. Quelle réponse envisager ?


Imaginez : vous réveillez en écoutant la nouvelle qu’une souche mortelle de grippe est apparue dans votre ville. Les autorités sanitaires minimisent la situation, mais les réseaux sociaux sont inondés d’affirmations contradictoires de la part d’« experts médicaux » débattant de son origine et de sa gravité.

Les hôpitaux sont débordés de patients présentant des symptômes grippaux, empêchant d’autres patients d’accéder aux soins, ce qui conduit à des décès. Il apparaît peu à peu qu’un adversaire étranger a orchestré cette panique en diffusant de fausses informations – comme le fait que la souche aurait un taux de mortalité très élevé. Pourtant, malgré les pertes humaines, aucune règle légale ne qualifie cette situation comme un acte de guerre.

Voici ce qu’on appelle guerre cognitive, ou « cog war » en abrégé, lorsque le domaine cognitif est utilisé sur les champs de bataille ou dans des attaques hostiles en dehors des conflits déclarés.

Un exemple classique de guerre cognitive est appelé « contrôle réflexif » – un art que la Russie a perfectionné depuis des décennies. Il s’agit de façonner les perceptions d’un adversaire à son propre avantage sans qu’il ne se rende compte qu’il a été manipulé.

Dans le cadre du conflit en Ukraine, cela inclut des récits sur des revendications historiques de la Russie sur des territoires ukrainiens ou la représentation de l’Occident comme moralement corrompu.

La guerre cognitive vise à prendre l’avantage sur un adversaire en ciblant les attitudes et comportements au niveau individuel, collectif ou de toute la population. Elle est conçue pour modifier les perceptions de la réalité, faisant de « la manipulation de la cognition humaine » un domaine crucial de la guerre. C’est donc une arme dans une bataille géopolitique qui se joue par interactions entre les esprits plutôt qu’entre les corps.

Parce qu’elle peut être menée sans les dommages physiques régulés par les lois de la guerre actuellement en vigueur, la guerre cognitive évolue dans un vide juridique. Cela ne signifie pas qu’elle ne peut pas conduire à de la violence sur la base de fausses informations, ou provoquer des blessures et des décès par effets secondaires.

Bataille des esprits, corps blessés

L’idée que la guerre est avant tout une confrontation mentale, où la manipulation cognitive est centrale, remonte au stratège Sun Tzu (Ve siècle avant notre ère), auteur de l’Art de la guerre. Aujourd’hui, le domaine numérique est l’arène principale de ce type d’opérations.

La révolution numérique permet un contenu de plus en plus personnalisé, exploitant les biais repérés à travers notre empreinte numérique : c’est ce qu’on appelle le « micro-ciblage ». L’intelligence artificielle peut même nous proposer du contenu ciblé sans prendre une seule photo ou sans enregistrer une vidéo. Il suffit d’une requête bien formulée par une IA pour soutenir un récit et des objectifs définis par des acteurs malveillants, tout en trompant discrètement le public.

Ces campagnes de désinformation s’étendent de plus en plus au domaine physique du corps humain. Dans la guerre en Ukraine, on observe encore des récits de guerre cognitive, comme des accusations selon lesquelles les autorités ukrainiennes auraient dissimulé ou provoqué des épidémies de choléra. D’autres allégations sur des laboratoires d’armes biologiques soutenus par les États-Unis ont également été utilisées comme justifications fallacieuses pour l’invasion à grande échelle par la Russie.

Pendant la pandémie de Covid-19, de fausses informations ont causé des décès, certaines personnes refusant les mesures de protection ou ayant recours à des remèdes dangereux pour se soigner. Certains récits liés à la pandémie s’inscrivaient dans une lutte géopolitique. Tandis que les États-Unis menaient des opérations d’information secrètes, des acteurs étatiques russes et chinois coordonnaient des campagnes utilisant des avatars générés par IA et du micro-ciblage pour influencer l’opinion au niveau des communautés et des individus.

La capacité de micro-ciblage pourrait évoluer rapidement grâce à des méthodes de couplage cerveau-machine permettront de collecter des données sur les schémas cognitifs. Ces interfaces entre les machines et le cerveau humain vont de simples électrodes posées sur le cuir chevelu à des casques de réalité virtuelle avec stimulation sensorielle immersive.

Le programme Next-Generation Nonsurgical Neurotechnology (dit, N3) de l’agence chargée de la recherche et du développement de nouvelles technologies à usage militaire aux États-Unis (la DARPA) illustre la façon dont ces dispositifs pourraient « lire» et « écrire » en plusieurs endroits du cerveau simultanément. Cependant, ces outils pourraient également être piratés ou alimentés par des données corrompues dans le cadre de futures stratégies de manipulation de l’information ou de perturbation psychologique. Relier directement le cerveau au monde numérique de cette manière effacera la frontière entre le corps humain et le domaine de l’information de manière inédite.

Un vide juridique

Les lois traditionnelles de la guerre considèrent l’usage de la force physique – bombes et balles – comme le principal sujet de préoccupation, laissant la guerre cognitive dans une zone grise. La manipulation psychologique est-elle une « attaque armée » justifiant la légitime défense au titre de la Charte des Nations unies ? À ce jour, il n’existe aucune réponse claire. Un acteur étatique pourrait potentiellement utiliser de la désinformation sanitaire pour provoquer des pertes massives dans un autre pays sans déclarer la guerre.

Des lacunes similaires existent même lorsque la guerre traditionnelle est déjà en cours. Dans ce contexte, la guerre cognitive brouille la ligne entre la tromperie militaire autorisée (ruses de guerre) et la perfidie interdite.

Imaginez un programme de vaccination humanitaire collectant secrètement de l’ADN, utilisé ensuite par des forces militaires pour cartographier des réseaux d’insurgés fondés sur des clans. Cette exploitation de données médicales constituerait une perfidie au regard du droit humanitaire — mais seulement si l’on considère que de telles tactiques comme parties intégrantes de la guerre.

Vers une réglementation

Que faire pour nous protéger de cette nouvelle réalité ? Tout d’abord, nous devons repenser la notion de « menace » dans les conflits modernes. La Charte des Nations unies interdit déjà les « menaces de recours à la force » contre d’autres États, mais cela nous enferme dans une conception physique de la menace.

Quand une puissance étrangère inonde vos médias de fausses alertes sanitaires pour semer la panique, cela ne menace-t-il pas votre pays tout autant qu’un blocus militaire ?

Cette problématique a été reconnue dès 2017 par les groupes d’experts à l’origine du Manuel de Tallinn sur la cyberguerre (Règle 70), mais nos normes juridiques n’ont pas suivi.

Ensuite, il faut reconnaître que le préjudice psychologique est un vrai préjudice. Lorsqu’on pense aux blessures de guerre, on imagine des blessures physiques. Pourtant, le stress post-traumatique est reconnu depuis longtemps comme une blessure de guerre légitime — alors pourquoi pas les effets mentaux des opérations cognitives ciblées ?

Finalement, les lois traditionnelles de la guerre pourraient ne pas suffire — il faudrait se tourner vers les règles relatives aux droits humains pour trouver des solutions. Ceux-ci incluent déjà des protections de la liberté de pensée et de la liberté d’opinion mais aussi des interdictions contre la propagande de guerre. Ces dernières pourraient servir de protection des civils contre les attaques cognitives. Les États ont l’obligation de faire respecter ces droits à l’intérieur comme à l’extérieur de leurs frontières.

L’utilisation de tactiques et de technologies de plus en plus sophistiquées pour manipuler la pensée et les émotions constitue l’une des menaces actuelles les plus insidieuses contre la liberté humaine. Ce n’est qu’en adaptant nos cadres juridiques à ce défi que nous pourrons renforcer la résilience de nos sociétés en permettant aux générations futures de faire face aux crises et conflits de demain.

The Conversation

David Gisselsson Nord bénéficie d’un financement du Conseil suédois de la recherche, de la Société suédoise du cancer et de la Fondation suédoise contre le cancer chez les enfants. Il a également reçu une bourse de voyage du ministère américain de la Défense.

Alberto Rinaldi a reçu un financement de la chaire invitée Raoul Wallenberg en droits de l’homme et droit humanitaire et du Conseil suédois de la recherche.

ref. La guerre cognitive, sans bombes ni balles : une zone grise juridique et stratégique – https://theconversation.com/la-guerre-cognitive-sans-bombes-ni-balles-une-zone-grise-juridique-et-strategique-261741