What the world can learn from Uruguay as the global housing crisis deepens

Source: The Conversation – USA (2) – By Jennifer Duyne Barenstein, Senior Lecturer of Social Anthropology, Swiss Federal Institute of Technology Zurich

Located in the Peñarol neighborhood of Montevideo, COVIMT 1 was the city’s first mutual aid housing cooperative. It was founded by textile workers, who completed construction of the complex in 1972. Bé Estudio, CC BY-SA

More than 1.8 billion people lack access to adequate and affordable housing. Yet too few countries have taken meaningful steps to ensure dignified housing for their most vulnerable citizens.

We research how cooperative housing can serve as one solution to the affordable housing crisis. There are a variety of cooperative housing models. But they generally involve residents collectively owning and managing their apartment complexes, sharing responsibilities, costs and decision-making through a democratic process.

Some countries have embraced cooperatives. In Zurich, Switzerland, almost one-fifth of the city’s total housing stock is cooperative housing.

Other countries, such as El Salvador and Colombia, have struggled to integrate housing cooperatives into their countries’ preexisting housing policies. In fact, although Latin America has a long-standing tradition of community-driven and mutual aid housing, housing cooperatives haven’t taken root in many places, largely due to weak political and institutional backing.

Uruguay is an exception.

With a population of just 3.4 million, the small Latin American nation has a robust network of housing cooperatives, which give access to permanent, affordable housing to citizens at a range of income levels.

An experiment becomes law

Housing cooperatives in Uruguay emerged in the 1960s during a time of deep economic turmoil.

The first few pilot projects delivered outstanding results. Financed through a mix of government funds, loans from the Inter-American Development Bank and member contributions, they were more cost-effective, faster to build and higher in quality than conventional housing.

These early successes played a key role in the passage of Uruguay’s National Housing Law in 1968. This law formally recognized housing cooperatives and introduced a legal framework that supported different models. The most common models to emerge roughly translate to “savings cooperatives” and “mutual aid cooperatives.”

In the savings model, members pool their savings to contribute around 15% of the capital investment. This gives them access to a government-subsidized mortgage to finance the construction. The cooperative then determines how repayment responsibilities are distributed among its members. Typically, members purchase “social shares” in the cooperative, equivalent to the cost of the assigned housing unit. If a member decides to leave the cooperative, their social shares are reimbursed. These shares are also inheritable, allowing them to be passed on to heirs.

In contrast, the mutual aid model enables households without savings to participate by contributing 21 hours per week toward construction efforts. Tasks are assigned to individuals according to their abilities. They can range from manual labor to administrative tasks, such as the ordering of construction materials.

Adults of all ages work together on the construction of a home.
By contributing their labor, Uruguayans without savings can still participate in cooperative housing.
Federación Uruguaya de Cooperativas de Vivienda por Ayuda Mutua, CC BY

Despite their differences, both models share a fundamental principle: The land and housing units are held collectively and are permanently removed from the private market.

Typically, once cooperatives are established, each household must contribute a monthly fee that covers the repayment of the state’s loan and maintenance costs. In exchange, members have an unlimited and inheritable contract of “use and enjoyment” of a quality apartment. If a member decides to leave, they are partially reimbursed for the contributions they’ve made over time, typically with a 10% deduction that the cooperative keeps.

This ensures that cooperative housing provides long-term security and remains affordable, especially for those at the lowest rungs of the income ladder.

State support and public buy-in

Today, Uruguay has 2,197 housing cooperatives, supplying homes to approximately 5% of the country’s households. Around half of them are located in the nation’s capital, Montevideo, where 1,008 cooperatives operate. Cooperatives can have as few as 12 homes or as many as 700 apartments.

This growth has been possible thanks to state support, federations of cooperatives and nonprofit groups.

The state recognized that the success of housing cooperatives depended on sustained public support. The National Housing Law defined the rights and responsibilities of cooperatives. It also outlined the state’s obligations: overseeing operations, setting criteria for financial assistance and providing access to land.

Housing cooperative federations have also played a key role. FECOVI, the federation of the savings cooperatives, represents over 100 cooperatives, serving roughly 5,000 households. FUCVAM, the federation of mutual aid cooperatives, is much larger and more politically active, representing over 35,000 households across 730 cooperatives.

Beyond organizing and advocating for the right to housing – and human rights more broadly – FUCVAM offers its member cooperatives a wide range of support services, including training to strengthen cooperative management, legal counseling and conflict mediation.

Finally, a vital pillar of this model are the Technical Assistance Institutes, which were also recognized by the National Housing Law. These are independent, nonprofit organizations that advise cooperatives.

Their role is crucial: The construction of large-scale housing projects is complicated. The vast majority of citizens have no prior experience in construction or project management. The success of Uruguay’s cooperative model would be unthinkable without their support.

From the outskirts to the city center

Uruguay’s housing cooperatives have not only expanded, but have also evolved in response to changing needs and challenges.

In their early years, most cooperatives built low-density housing on the outskirts of cities. This approach was largely influenced by the ideals of the Garden City movement, a planning philosophy of the late 19th century that prioritized low-density housing and a balance between development and green spaces. In Uruguay, there was also a cultural preference for single-family homes. And land was more expensive in city centers.

These early cooperatives, however, contributed to urban sprawl, which has a number of drawbacks. Infrastructure has to be built out. It’s harder to reach jobs and schools. There’s more traffic. And single-family homes aren’t an efficient use of land.

Meanwhile, in the 1970s Montevideo’s historic city center started experiencing abandonment and decay. During this period, the country’s shifting socioeconomic landscape created a set of new challenges. More people relied on irregular incomes from informal work, while more single women became heads of households.

In response, housing cooperatives have shown a remarkable ability to adapt.

For women, by women

As urban sprawl pushed development outward, Montevideo’s historic center, Ciudad Vieja, was hemorrhaging residents. Its historic buildings were falling apart.

Seeking to revitalize the area without displacing its remaining low-income residents, the city saw housing cooperatives as a solution.

This spurred the creation of 13 mutual aid cooperatives in Ciudad Vieja, which now account for approximately 6% of all housing units in the area.

One of the pioneers of this effort was Mujeres Jefas de Familia, which translates to Women Heads of Household. Known by the acronym MUJEFA, it was founded in 1995 by low-income, single mothers. MUJEFA introduced a new approach to cooperative housing: homes designed, built and governed with the unique needs of women in mind.

Architect Charna Furman spearheaded the initiative. She wanted to overcome the structural inequalities that prevent women from finding secure housing: financial dependence on men, being primary caregivers, and the absence of housing policies that account for single women’s limited access to economic resources.

Remaining in Ciudad Vieja was important to members of MUJEFA. Its central location allowed them to be close to their jobs, their kids’ schools, health clinics and a close-knit community of friends and family.

However, the project faced major hurdles. The crumbling structure the group acquired in 1991 – an abandoned, heritage-listed building – needed to be transformed into 12 safe, functional apartments.

The cooperative model had to adapt. Municipal authorities temporarily relaxed certain regulations to allow older buildings to be rehabbed as cooperatives. There was also the challenge of organizing vulnerable people – often long-time residents at risk of eviction, who were employed as domestic workers or street vendors – into groups that could actively participate in the renovation process. And they had to be taught how to retrofit an older building.

Today, 12 women with their children live in the MUJEFA cooperative. It’s a compelling example of how cooperative housing can go beyond simply putting a roof over families’ heads. Instead, it can be a vehicle for social transformation. Women traditionally excluded from urban planning were able to design and construct their own homes, creating a secure future for themselves and their children.

Building up, not out

COVIVEMA 5, completed in 2015, was the first high-rise, mutual aid cooperative in a central Montevideo neighborhood. Home to around 300 residents, it’s made up of 55 units distributed across two buildings.

Members participated in the building process with guidance from the Centro Cooperativista Uruguayo, one of the oldest and most respected Technical Assistance Institutes. Architects had to adapt their designs to make it easier for regular people with little experience in construction to complete a high-rise building. Cooperative members received specialized training in vertical construction and safety protocols. While members contributed to the construction, skilled labor would be brought in when necessary.

Members of the cooperative also designed and built Plaza Luisa Cuesta, a public square that created open space in an otherwise dense neighborhood for residents to gather and socialize.

Housing cooperatives are neither public nor private. They might be thought of as an efficient and effective “third way” to provide housing, one that gives residents a stake in their homes and provides long-term security. But their success depends upon institutional, technical and financial support.

This article is part of a series centered on envisioning ways to deal with the housing crisis.

The Conversation

Jennifer Duyne Barenstein receives funding from The Swiss National Science Foundation. She is affiliated with the Centre for Research on Architecture, Society and the Built Environment, Department of Architecture, ETH Zurich

Daniela Sanjinés receives funding from the Swiss National Science Foundation. She is affiliated with the Centre for Research on Architecture, Society and the Built Environment, Department of Architecture, ETH Zurich.

ref. What the world can learn from Uruguay as the global housing crisis deepens – https://theconversation.com/what-the-world-can-learn-from-uruguay-as-the-global-housing-crisis-deepens-258342

Loup sinistre, souris laineuse et moa : tenter de déséteindre des espèces dans un environnement économique instable est très risqué

Source: The Conversation – in French – By Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

L’entreprise Colossal Biosciences a annoncé vouloir redonner vie aux moas, des oiseaux proches des autruches actuelles. John Megahan/Wikipédia, CC BY

Ils comptaient déjà faire revivre le mammouth laineux et le loup sinistre, voilà que l’entreprise états-unienne Colossal Biosciences se lance dans un nouveau projet de « désextinction » avec un oiseau géant, le moa, disparu il y a environ six cents ans. Ces projets posent de très nombreuses questions.


Dans un contexte où l’innovation biotechnologique et les politiques économiques semblent suivre des trajectoires divergentes, les États-Unis se trouvent à un tournant. Ces dernières semaines ont révélé un contraste marquant entre l’annonce de la mise au monde d’un jumeau génétique d’une espèce disparue et la volonté de remettre au monde un oiseau géant disparu depuis des siècles, la création d’une espèce inventée (une chimère) dans la perspective de déséteindre le mammouth et une instabilité financière importante, perpétuellement renouvelée par les discours et orientations économiques controversées de l’administration Trump.

Cette concomitance met en exergue des questions fondamentales sur l’éthique de l’innovation et sa viabilité dans un environnement économique rendu volontairement imprévisible.

La « résurrection » du loup sinistre dans une économie instable

Colossal Biosciences a attiré l’attention, il y a peu, en mettant au monde une créature ayant une structure génétique similaire à celle du loup sinistre (Canis dirus), prédateur géant disparu il y a 13 000 ans. Le processus mobilise extraction et reconstruction d’ADN ancien, puis édition génomique d’embryons actuels de loups, perpétuant l’élan donné par le séquençage du premier génome d’espèce éteinte en 2008.

Parallèlement, l’économie américaine traverse une période de turbulences sans précédent, rappelant les politiques mercantilistes où la richesse se mesurait à l’accumulation de métaux précieux et au protectionnisme. Les dernières semaines ont été marquées par le vote d’un texte qui met dette et déficits américains sur des trajectoires inquiétantes, une succession d’aller-retours vertigineux sur les droits de douane suspendus et réduits le 10 avril à 10 % pour 90 jours face à l’affolement des marchés financiers, mais pour finalement être – s’agissant de certains produits – réinstaurés le 4 juin et pour d’autres, reportés au 1er juillet et, enfin dernièrement, au 1er août.

Cette instabilité s’est amplifiée avec la dégradation historique de la note de la dette américaine par Moody’s de Aaa à Aa1 le 16 mai, la dernière agence à retirer son triple A au pays, justifiant sa décision par une dette de près de 36 000 milliards de dollars et la nécessité à très court terme de refinancer plus de 9 200 milliards de dollars. Même si les doutes sur la réalité de la mise en place de ces droits de douane prohibitifs ont calmé le jeu, la moindre étincelle relance le processus : les indicateurs de volatilité témoignent encore de cette nervosité extrême : l’indice VIX qui mesure la « peur » des marchés financiers face à une conjoncture donnée, a dépassé 60 points en avril 2025 avant de redescendre, la plus forte volatilité enregistrée depuis la pandémie de 2020, avec des pics à 45,30 points en « zone de panique » selon les analystes.

Aussi, les pratiques actuelles de renégociation commerciale et de menaces tarifaires réactivent une vision que la théorie économique moderne considère comme obsolète depuis Ricardo, pénalisant notamment les entreprises biotechnologiques, fortement dépendantes d’investissements à long terme et de financements stables.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Des défis éthiques et économiques

Un premier enjeu est l’impact de l’incertitude économique sur l’innovation biotechnologique. Les projets comme celui du loup sinistre ou du moa sont vulnérables : qu’adviendrait-il si les financements s’arrêtaient brusquement ? Contrairement aux essais cliniques, il n’existe pas de protocoles de gestion pour l’arrêt prématuré d’un projet de désextinction : euthanasie, vente douteuse, voire lâcher incontrôlé ne relèvent pas de la science-fiction, d’autant plus lorsque des espèces n’ayant pas d’existence historique sont concernées.

Les implications écologiques sont incalculables, l’ADN seul ne garantissant ni comportement ni adaptation harmonieuse d’un prédateur disparu depuis des millénaires à des écosystèmes profondément modifiés.

Pour une éthique des espèces chimériques ?

Au-delà des questions de viabilité économique, la stratégie adoptée pour ressusciter le loup sinistre ou le mammouth laineux soulève des interrogations éthiques inédites. Le processus implique nécessairement la création d’organismes intermédiaires : des « espèces tests » n’ayant jamais existé dans l’histoire du vivant à l’image de la souris laineuse récemment dévoilée.

Ces créatures chimériques, fruits d’une ingénierie génétique expérimentale, posent la question fondamentale de notre droit à créer des formes de vie inédites dans le seul but d’en parfaire d’autres. L’instabilité scientifique actuelle aux États-Unis – véritable « guerre contre la science » – aggrave cette problématique : la pression exercée sur les chercheurs pour obtenir des résultats rapides et spectaculaires, combinée à l’incertitude des financements, pourrait conduire à multiplier ces expérimentations sur des « organismes prototypes » sans garantie de leur bien-être ni de leur devenir à long terme.

Dans un environnement où les projets peuvent être brutalement interrompus pour des raisons politiques ou économiques, que devient la responsabilité morale envers ces êtres créés uniquement comme étapes vers un objectif hypothétique ? Cette dérive instrumentalise le vivant au service d’une promesse technologique, dont la réalisation demeure incertaine, soulevant des questions déontologiques qui dépassent largement le cadre de la recherche scientifique traditionnelle.

Une deuxième question touche à notre rapport à la biodiversité. La désextinction, réponse séduisante à la crise écologique actuelle, pourrait créer un « biais d’optimisme technologique » et détourner des efforts classiques de préservation des espèces et des habitats. De plus, les choix d’espèces à ressusciter paraissent guidés par une sorte de « prestige culturel » de candidats considérés (mammouth, loup sinistre, moa) plutôt que par des critères écosystémiques, interrogeant sur la finalité réelle de ces projets : restauration écologique ou satisfaction de l’ego ou de la curiosité humaine ?

Enfin, la question de la compatibilité entre innovation de rupture et instabilité institutionnelle se pose. Schumpeter, qui voyait dans la « destruction créatrice » un moteur de changement, insistait aussi sur la nécessité d’un socle institutionnel solide. Or, la volatilité politique et économique aux États-Unis fragilise ce socle. Les avancées biotechnologiques exigent des régulations prévisibles, un système fiable de propriété intellectuelle, des financements pérennes et une capacité à identifier des marchés, conditions aujourd’hui menacées outre-Atlantique. Les entreprises du secteur des biotechnologies doivent alors adapter leurs stratégies au détriment de la continuité scientifique.

Vers un nouveau foyer de l’innovation biotech ?

Dans ce contexte, l’Union européenne se profile comme une alternative solide, avec un marché unique, un cadre réglementaire stable, et des politiques de financement intégrées autour de l’excellence scientifique et de l’impact sociétal (cf. Horizon Europe). L’engagement politique en faveur de la biodiversité y représente un atout, de même que le recours actif au principe de précaution et le soutien public « à la recherche et à l’innovation responsables (RRI) ». Cela permet une anticipation des impacts sociaux et environnementaux et une implication des acteurs concernés, particulièrement crucial pour les technologies controversées.

La réglementation européenne, récemment renforcée sur la biosécurité, ménage une voie prudente, entre le laisser-faire américain et des interdictions pures et simples, et s’appuie sur un dialogue entre science, politique et société civile, propice à l’élaboration de normes éthiques partagées. L’écosystème du financement, mêlant fonds publics, capital-risque et crowdfunding, réduit la vulnérabilité aux cycles économiques et favorise la viabilité à long terme des innovations.

Dans ce contexte, le récent vote de la loi Duplomb en France semble constituer un message incompréhensible et une erreur économique qui recrée l’instabilité institutionnelle là où elle avait disparu. En réintroduisant des pesticides interdits depuis 2018 et en assouplissant les garde-fous environnementaux, cette législation génère une volatilité réglementaire préjudiciable aux biotechnologies. Les secteurs innovants perçoivent ces revirements comme des signaux d’imprévisibilité institutionnelle compromettant l’attractivité des territoires concernés.

Cette incohérence normative menace l’image de la France comme territoire d’accueil stable pour les innovations technologiques, particulièrement dans l’agriculture de précision où la cohérence réglementaire conditionne les investissements R&D. L’adoption controversée de ce texte, contre tous les avis scientifiques, illustre la façon dont l’incohérence politique pourrait transformer un avantage concurrentiel européen en handicap économique.

La coexistence inquiétante du loup sinistre « ressuscité » et d’une économie américaine déstabilisée par ses propres choix illustre bien nombre de dilemmes contemporains. Dans ce contexte, l’innovation biotechnologique se distingue, car elle ne requiert pas seulement des prouesses techniques, mais aussi un environnement stable et un cadre éthique rigoureux.

Les technologies de désextinction, fascinantes mais problématiques, posent des questions essentielles sur notre rapport à la nature, sur la responsabilité intergénérationnelle et sur l’orientation du progrès.

Alors que les États-Unis semblent s’éloigner d’une innovation responsable, l’Europe pourrait s’imposer comme le nouveau berceau de ces avancées, si tant est que les pays membres ne sombrent pas eux-mêmes dans l’incohérence réglementaire. Mais où que se développe l’innovation, le débat éthique que suscite la désextinction nécessite une réflexion collective et transnationale, dépassant les logiques de marché et les frontières géopolitiques.

The Conversation

Caroline Gans Combe a reçu des financements de l’Union européenne dans le cadre des projets DEFORM et ProRes.

ref. Loup sinistre, souris laineuse et moa : tenter de déséteindre des espèces dans un environnement économique instable est très risqué – https://theconversation.com/loup-sinistre-souris-laineuse-et-moa-tenter-de-deseteindre-des-especes-dans-un-environnement-economique-instable-est-tres-risque-255661

Ces cellules du cerveau qui pourraient aider à lutter contre l’obésité

Source: The Conversation – in French – By Enrica Montalban, Post-doctorante, Inrae

Les astrocytes, ici en vert, au milieu des neurones en rouge, sont un type de cellules présentes dans le cerveau. Dchordpdx/Wikipedia, CC BY

Bien que leur rôle soit moins connu que celui des neurones, les astrocytes sont des cellules essentielles au fonctionnement du cerveau. Une nouvelle étude, chez la souris, parue dans la revue Nature communications révèle le rôle des astrocytes du striatum, une structure du circuit de la récompense, dans le contexte de l’obésité induite par une alimentation enrichie en graisses et en sucres. Ces cellules pourraient représenter une cible intéressante pour le traitement des maladies métaboliques.


Le cerveau est constitué de milliards de neurones. Ce sont des cellules excitables, c’est-à-dire qu’elles peuvent générer des potentiels d’actions et transmettre des informations aux autres neurones sous forme de courant électrique. Cependant, les neurones ne constituent que la moitié des cellules du cerveau, l’autre moitié étant constitué de cellules gliales, parmi lesquelles on trouve les astrocytes. Ces derniers sont impliqués dans de nombreuses pathologies du cerveau telles que les maladies neurodégénératives (la maladie d’Alzheimer ou de Parkinson), les troubles psychiatriques ou l’épilepsie.

Contrairement aux neurones, les astrocytes ne peuvent pas générer de courants électriques, mais présentent des variations de leur concentration en calcium intracellulaire. Le calcium intracellulaire est impliqué dans de nombreux processus liés au fonctionnement des cellules et aurait un rôle indispensable pour la physiologie des astrocytes. Le fait que les astrocytes soient silencieux pour les méthodes classiques d’enregistrement de l’activité cérébrale telles que l’électroencéphalogramme (ECG) a rendu leur étude beaucoup plus lente et difficile. Par conséquent, leur rôle a été largement sous-estimé et nous sommes encore loin d’avoir élucidé la manière dont ils communiquent avec les neurones.

C’est avec le développement d’outils d’imagerie ciblant des acteurs cellulaires spécifiques que leur rôle dans les processus cérébraux peut enfin être élucidé. Les résultats que nous avons obtenus permettent de mettre en évidence plusieurs caractéristiques de l’activité astrocytaire dans le contexte de l’obésité induite par l’alimentation enrichie en graisse et en sucre.

Quand le corps n’équilibre plus la balance énergétique

L’obésité est un problème majeur de santé publique, affectant 17 % de la population française et accroissant le risque relatif d’un ensemble de pathologies : par exemple, les maladies cardiaques, l’hypertension, le diabète de type 2, des maladies du foie et certaines formes de cancer. Cette pathologie est complexe et implique différents facteurs dont la contribution au développement de l’obésité varie considérablement d’un individu à l’autre : ces facteurs sont génétiques, environnementaux (comme le stress ou la qualité du sommeil) ou liés aux habitudes alimentaires. Une alimentation enrichie en graisses et en sucres est définitivement une coupable identifiée.

Notre corps maintient un état d’équilibre appelé homéostasie, grâce à un mécanisme de régulation précis qui équilibre les apports nutritionnels et les dépenses énergétiques. Cet équilibre de la balance énergétique est réalisé grâce à des circuits cérébraux bien identifiés, impliquant notamment l’hypothalamus. Toutefois, un autre moteur puissant de l’alimentation est l’aspect hédonique de la nourriture, c’est-à-dire le plaisir que nous trouvons à consommer des aliments appétissants, au-delà des besoins énergétiques du corps. Cette motivation à manger pour le plaisir repose notamment sur la libération de dopamine au niveau d’une région cérébrale appelée striatum.

Il a été démontré que l’obésité induite par l’alimentation était associée à des altérations de la transmission de la dopamine, à des dérèglements alimentaires de type addictif/compulsif ainsi qu’à une altération de la flexibilité cognitive, c’est-à-dire la capacité à s’adapter facilement à de nouvelles situations.

Les astrocytes, des cellules protectrices des neurones

Si l’implication des neurones (qui libèrent ou répondent à la dopamine) a été beaucoup étudiée dans le cadre de ces processus physiologiques et physiopathologiques, le rôle des astrocytes a longtemps été négligé.

L’excès de nutriments favorise des mécanismes inflammatoires dans le cerveau qui s’accompagnent de la libération de substances susceptibles de modifier le fonctionnement des neurones et des astrocytes. Or les astrocytes occupent une place stratégique dans le cerveau, à l’interface entre les vaisseaux sanguins et les neurones, ces cellules pivots permettraient de contrôler aussi bien l’information neuronale que l’apport énergétique. En condition d’excès nutritionnel dans la circulation, elles pourraient constituer un premier rempart qui protégerait les neurones des altérations induites par les éléments circulant dans le sang.

Coupe de cerveaux de souris montrant les astrocytes (en vert) au niveau du striatum. L’obésité modifie la forme des astrocytes qui deviennent réactifs, un signe d’inflammation cérébrale.
Montalban et al./Nature Communication, Fourni par l’auteur

Dans notre travail, réalisé chez la souris, nous montrons tout d’abord que les régimes gras affectent la structure et la fonction des astrocytes du striatum.

Nous avions déjà caractérisé de telles modifications dans l’hypothalamus, la région impliquée dans l’initiation de la prise alimentaire et qui est en contact étroit avec le compartiment sanguin, mais elles étaient très peu caractérisées dans le striatum. Nous montrons, d’une part, une réactivité des astrocytes, qui s’exprime par des modifications morphologiques, et, d’autre part, des changements dans la dynamique des flux calciques, susceptibles d’altérer leur communication avec les neurones de la structure.

Un impact sur la flexibilité cognitive et le métabolisme énergétique

Cette observation faite, nous avons décidé de manipuler directement les astrocytes par une approche permettant de forcer une cascade de signalisation dans les cellules en insérant spécifiquement dans les astrocytes un récepteur synthétique jouant le rôle d’interrupteur. Cette approche permet en particulier d’induire une vague de calcium (un second messager clé au niveau intracellulaire) afin d’en observer les conséquences.

Que se passe-t-il si l’on augmente artificiellement la quantité de calcium et que l’on « active » les astrocytes ? Est-ce que cela a un impact sur l’activité neuronale et le comportement des souris ?

L’activation de cet interrupteur moléculaire et l’afflux de calcium cohérent dans la population d’astrocytes ciblée a effectivement eu pour conséquence de modifier la cinétique et la réponse des neurones avoisinants démontrant ainsi, pour la première fois, que la manipulation des astrocytes pouvait interférer avec les réseaux neuronaux.

Nous avons appliqué cette technique en comparant des souris nourries avec un régime standard avec des souris rendues obèses par un régime enrichi en graisses et en sucres. Les souris sous régime enrichi présentent des défauts cognitifs qui s’expriment par une difficulté à s’adapter à une nouvelle situation. Dans notre cas, les souris devaient apprendre qu’une récompense était située dans le bras gauche d’un labyrinthe, puis nous avons examiné comment elles s’adaptaient si nous changions le bras récompensé.

Dans ce contexte, les souris nourries avec un régime enrichi avaient du mal à s’adapter, or l’activation forcée des astrocytes du striatum dorsal a permis aux animaux de réapprendre facilement la tâche, et ce, en absence de perte de poids. La manipulation des astrocytes du striatum a ainsi permis de corriger l’altération cognitive induite par le régime riche.

Si le striatum est bien connu pour son rôle dans les processus cognitifs et motivationnels, cette structure cérébrale n’est pas traditionnellement associée à la régulation du métabolisme corporel. Notre étude apporte un élément supplémentaire dans ce sens. En effet, nous montrons que la manipulation in vivo des astrocytes dans le striatum exerce un contrôle sur le métabolisme énergétique de l’animal en affectant particulièrement le choix des substrats métabolique (lipides ou sucres) utilisés par la souris pour assurer son métabolisme. Après activation des astrocytes, elles utilisent plus de lipides.

Ce travail révèle un rôle nouveau pour les astrocytes dans les circuits de la récompense. Ils participent en effet au contrôle des fonctions cognitives et nos résultats illustrent pour la première fois leur capacité à restaurer une fonction cognitive dans un contexte obésogène. D’autre part, ce travail établit un lien direct entre les astrocytes du striatum et le contrôle du métabolisme énergétique global de l’animal.

Une approche prometteuse consisterait à développer des stratégies thérapeutiques ciblant spécifiquement les astrocytes, plutôt que les neurones, au sein du système de la récompense, dans le traitement de l’obésité et, plus largement, des pathologies métaboliques.

The Conversation

Serge Luquet a reçu des financements de l’Agence Nationale de la Recherche (ANR) ANR-19-CE37-0020-02, ANR-20-CE14-0020, and ANR-20-CE14-0025-01, la Fondation pour la Recherche Médicale (FRM) FRM Project #EQU202003010155.

Claire Martin et Enrica Montalban ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Ces cellules du cerveau qui pourraient aider à lutter contre l’obésité – https://theconversation.com/ces-cellules-du-cerveau-qui-pourraient-aider-a-lutter-contre-lobesite-261213

South Africa’s police serve the ANC insiders, not the people: here’s how it happened

Source: The Conversation – Africa (2) – By Ivor Chipkin, Professional Professor, GIBS, University of Pretoria

After South Africa’s first democratic elections in 1994, there was significant optimism about police reform in the country. Impressive steps were taken to bring the South African Police Service under civilian control and to create a service responsive to calls for assistance from the public.

During the apartheid period, South Africa’s police worked to preserve the political order and pursue political opponents. It did not focus on dealing with crime. This is why the achievements of the 1990s are so important. For the first time, black South Africans could call upon officers to respond to personal emergencies. This period also saw a drop in crime levels.

However, this promising early transformation was interrupted. The appointment of Jackie Selebi as national police commissioner in 2000 heralded a new era. Selebi was an African National Congress (ANC) insider. The ANC originated as a liberation movement and has governed the country since 1994.

Selebi had served as the head of the ANC’s Youth League in the 1980s, when it was banned. In 1987 he was appointed to the organisation’s national executive committee, its highest decision-making organ.

His appointment as police commissioner was the start of significant change in the purpose of policing. It marked the end of the focus on civilian control of the police force and prosecuting authorities. As an ANC insider, Selebi led efforts to establish party control over the police.

This politicisation gained momentum over the next two decades. In the early years it was exemplified by the suspension of the head of the National Prosecuting Authority, Advocate Vusi Pikoli,, by then president Thabo Mbeki, amid corruption allegations against Selebi himself.

Other telling developments ensued. The Scorpions were disbanded in 2009 by acting president Kgalema Motlanthe. The unit’s job was to pursue high-profile cases against senior ANC politicians (among others).

The police became increasingly entangled in the ANC’s internal political conflicts. At the same time the office of the national police commissioner experienced high turnover due to intense political manoeuvring. Between 2009 and 2022, there were seven national commissioners.

Recent developments have once again brought the intermingling of police work and power battles in the ANC to the fore. In early July 2025, Lieutenant General Nhlanhla Mkhwanazi, the commissioner of police in the province of KwaZulu-Natal, made some startling claims. He called a press conference and, wearing camouflage uniform, he implicated the minister of police, Senzo Mchunu, together with the deputy national commissioner for crime detection, in a scheme to close down investigations into political assassinations in the province.

President Cyril Ramaphosa rushed back from a meeting of the Brics countries in Brazil to attend to the matter. He announced that the police minister had been placed on leave with immediate effect. He also announced a judicial inquiry into the allegations.

I have conducted research into South Africa’s security apparatus over the last decade. Based on this work, and new research forthcoming in the Journal of Southern African Studies done with Jelena Vidojevic, co-founder of the New South Institute, it is clear that elite contestation in the ANC is intensifying.

In other words, the ability of internal party structures to manage gatekeeping is declining. Many of the people involved are indifferent or even hostile to South Africa’s democratic and constitutional order.

As the ability of some political elites to access state resources through the party declines, some are linked with organised criminal networks. Organised crime has been on the edges of South African politics. It now risks taking a more central role.

In this environment, the police service will often be the thin (blue) line between multiparty contestation according to constitutional rules and the criminalisation of politics in South Africa.

The shift

Large organisational changes within the police vividly illustrate this shift away from its core function.

The Visible Policing programme was meant to meant to deter crime through patrols, checkpoints and roadblocks. But, instead, there was a steady decline in resource allocation. Employee numbers dropped between 2015 and 2021.

Detective services and crime intelligence also experienced such declines.

Conversely, employee numbers in the Protection and Security Services programme, responsible for providing bodyguards to politicians, increased sharply between 2014 and 2016.

Evidence heard by the commission of inquiry into state capture suggested that some officers and budgets in the service were even used to supply President Jacob Zuma and other politicians with what amounted to a private militia.

This reorientation of resources coincided with a rise in crime across the country, a decline in arrests by 24.5%, and a drop in the police’s efficacy in solving crimes.

Furthermore, a politicised police leadership effectively stopped policing various categories of crime. This was particularly true of offences like fraud, corruption, and certain types of theft, and particularly when politically connected persons were involved.

The state capture commission heard extensive evidence about the failure of the police to pursue politically sensitive investigations. Investigations into senior officials were frequently frustrated or impeded, and cases at state-owned enterprises were abandoned.

This shows how police resources were actively redirected as weapons of elite competition, pursuing political enemies and protecting allies within the ruling party.

Mkhwanazi’s claims, if substantiated, suggest that this political policing remains entrenched.

What now?

Ramaphosa has announced the appointment of Firoz Cachalia as the acting minister of police. Cachalia, a well regarded legal academic, served as ANC minister for community safety. Between 2019 and 2022 he was part of the ANC’s national executive committee.

His appointment raises serious questions.

If the core problem with the police is that it has become embroiled in ANC internal politics, having an ANC insider head the ministry of police (even if only on an acting basis) threatens only to compound the problem.

Moreover, South Africans have already witnessed a long and expensive judicial inquiry into state capture. And despite extensive evidence of police failure to pursue politically sensitive investigations, nothing concrete has come of it.

How likely is it that this new initiative will be any different, especially if those investigating it and presiding over key institutions are themselves ANC insiders?

To depoliticise the police service and redirect its attention and activities towards crime and emergencies, a crucial first step is to reconsider the appointment processes for the national police commissioner and other top managers.

Under the current system the president has sole discretion. This bakes party-political considerations into the decision-making process.

Without structural changes, genuine democratic policing will remain an elusive ideal.

In 2024/25 the murder rate in South Africa stood at 42 per 100,000, among the highest in the world and close to levels not seen since the early 2000s.

At the very least, the minister of police must not be an ANC insider. Democratic renewal in South Africa requires bringing the police firmly under parliamentary control.

The Conversation

Ivor Chipkin teaches public policy at the Gordon Institute of Business Science (GIBS) at the University of Pretoria. He is the director of the New South Institute.

ref. South Africa’s police serve the ANC insiders, not the people: here’s how it happened – https://theconversation.com/south-africas-police-serve-the-anc-insiders-not-the-people-heres-how-it-happened-261301

Le mode privé vous garantit-il l’anonymat sur Internet ?

Source: The Conversation – France in French (2) – By Sabrine Mallek, Professeure Assistante en Transformation Digitale, ICN Business School

La plupart des navigateurs proposent une « navigation privée », souvent perçue comme un moyen de surfer anonymement. Pourtant, ce mode ne garantit pas l’anonymat en ligne, et de nombreux internautes surestiment sa portée.


La navigation privée permet d’éviter que quelqu’un d’autre ayant accès à votre ordinateur voie vos activités en ligne a posteriori. C’est utile, par exemple, sur un ordinateur public ou partagé, pour ne pas laisser d’identifiants enregistrés ni d’historique compromettant.

Cependant, il est important de comprendre que cette confidentialité est avant tout locale (sur votre appareil). Le mode privé n’implique pas de naviguer de façon anonyme sur le réseau Internet lui-même. Il ne s’agit pas d’un « bouclier d’invisibilité » vis-à-vis des sites web visités, de votre fournisseur d’accès à Internet (FAI), ou de votre employeur.

Comme l’indique la Commission nationale de l’informatique et des libertés (CNIL), même en mode privé, les sites peuvent collecter des informations via des cookies (des petits fichiers qui enregistrent vos préférences et activités en ligne) ou des techniques de fingerprinting, qui permettent d’identifier un utilisateur de façon unique en analysant les caractéristiques techniques de son navigateur.

Le mode privé présente de nombreuses limites

Des études confirment les limites techniques du mode privé. Des traces subsistent malgré la fermeture de la session, en contradiction avec ce qu’affirme la documentation du navigateur. Une analyse sur Android a révélé que la mémoire vive conserve des données sensibles : mots-clés, identifiants, cookies, récupérables même après redémarrage.

Le mode privé ne bloque pas les cookies publicitaires, il les supprime simplement en fin de session. Lorsqu’on revient sur un site dans une nouvelle session privée, celui-ci ne « se souvient » pas des choix précédents : il faut donc souvent redéfinir ses préférences (accepter ou refuser les cookies). Les bannières de consentement aux cookies, bien connues des internautes européens depuis l’entrée en vigueur du Règlement général sur la protection des données (RGPD) et de la directive ePrivacy, réapparaissent donc systématiquement. La fatigue du consentement pousse de nombreux internautes à tout accepter sans lire.

En France, 65 % des internautes acceptent systématiquement les cookies, malgré une meilleure information sur le sujet ces dernières années. Pourtant, les internautes sont conscients des risques liés à leur vie privée en ligne, mais n’agissent pas systématiquement, souvent par manque de connaissances ou de confiance dans les outils disponibles. Certains sites dissimulent même l’option « Refuser » pour vous influencer : un panneau bien conçu peut réduire de moitié les acceptations.

Quelles alternatives pour se protéger réellement ?

Le mode privé ne suffit pas à garantir l’anonymat en ligne. Pour mieux protéger sa vie privée, il faut combiner plusieurs outils.

Un VPN (virtual private network ou réseau privé virtuel, en français) crée un tunnel sécurisé entre votre appareil et Internet, permettant de naviguer de façon plus confidentielle en chiffrant vos données et en masquant votre adresse IP. En 2024, 19 % des utilisateurs de VPN français souhaitent avant tout cacher leur activité, et 15 % protéger leurs communications.

Un navigateur comme Tor va plus loin : il rebondit vos requêtes via plusieurs relais pour masquer totalement votre identité. C’est l’outil préféré des journalistes ou militants, mais sa lenteur peut décourager un usage quotidien. Des alternatives comme Brave ou Firefox Focus proposent des modes renforcés contre les traqueurs, tandis que des extensions comme uBlock Origin ou Privacy Badger bloquent efficacement pubs et trackers. Ces extensions sont compatibles avec les principaux navigateurs comme Chrome, Firefox, Edge, Opera et Brave.

Il est aussi essentiel d’adopter une hygiène numérique : gérer les cookies, limiter les autorisations, préférer des moteurs comme DuckDuckGo, qui ne stockent pas vos recherches, ne vous profile pas et bloque automatiquement de nombreux traqueurs, et éviter de centraliser ses données sur un seul compte. En ligne, la vraie confidentialité repose sur une approche globale, proactive et éclairée.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le mode privé vous garantit-il l’anonymat sur Internet ? – https://theconversation.com/le-mode-prive-vous-garantit-il-lanonymat-sur-internet-258648

Échecs : quand un professeur de statistiques enquête sur des allégations de tricherie au plus haut niveau

Source: The Conversation – France in French (2) – By Jeffrey S. Rosenthal, Professor of Statistics, University of Toronto

Lorsque l’ancien champion du monde d’échecs Vladimir Kramnik a laissé entendre qu’Hikaru Nakamura, l’un des meilleurs joueurs du monde actuellement, trichait sur la plateforme en ligne Chess.com, un statisticien a été appelé pour enquêter.


En tant que professeur de statistiques, il n’est pas fréquent que je sois contacté directement par le PDG d’une entreprise valant plusieurs millions de dollars, et encore moins au sujet d’une histoire d’allégations de tricherie et de malversations impliquant des champions du monde d’échecs.

C’est pourtant ce qui s’est passé l’été dernier. Erik Allebest, PDG du plus grand site d’échecs en ligne au monde, Chess.com, m’a demandé d’enquêter sur les allégations de l’ancien champion du monde d’échecs Vladimir Kramnik concernant les longues séries de victoires d’un des meilleurs joueurs du monde, l’Américain Hikaru Nakura.

Kramnik a déclaré que ces séries avaient une très faible probabilité de se produire et qu’elles étaient donc très suspectes. Il n’a pas formellement accusé Hikaru de tricherie, mais le sous-entendu était clair. Sur Internet, les esprits se sont vite échauffés : les partisans de Kramnik postant des commentaires virulents (souvent en russe) sur cette présumée tricherie, tandis que de nombreux joueurs de Chess.com et partisans d’Hikaru rejetaient les accusations.

Qui a raison ? Qui a tort ? Est-il possible de trancher ?

Erik Allebest m’a demandé de réaliser une analyse statistique indépendante et impartiale pour déterminer le degré d’improbabilité de ces séries de victoires.

Le calcul de probabilités

Pour résoudre ce problème, j’ai d’abord dû calculer la probabilité que chaque joueur gagne ou fasse match nul dans chaque partie. Les joueurs peuvent avoir des niveaux de jeu très différents. Les meilleurs ont évidemment plus de chances de vaincre des adversaires moins expérimentés. Mais à quel point ?

Chess.com attribue un classement à chaque joueur qui varie après chaque partie, et ces notes m’ont été communiquées. Mon analyse a suggéré qu’un modèle mathématique pouvait fournir une estimation précise des probabilités de victoire, de défaite ou de nulle pour chaque partie.

En outre, les écarts par rapport à cette probabilité dans les résultats de parties successives étaient approximativement indépendants, de sorte que l’influence d’une partie sur la suivante pouvait être ignorée en toute sécurité. J’ai ainsi obtenu une probabilité claire que chaque joueur gagne (ou perde) chaque partie.

Je pouvais alors analyser ces séries de victoires qui avaient provoqué tant de débats enflammés. Il s’est avéré qu’Hikaru Nakamura, contrairement à la plupart des autres joueurs de haut niveau, avait joué de nombreuses parties contre des joueurs beaucoup plus faibles. Cela lui donnait donc une très grande probabilité de gagner chaque partie. Mais malgré cela, est-il normal d’observer de si longues séries de victoires, parfois plus de 100 parties d’affilée ?

Tester le caractère aléatoire

Pour le vérifier, j’ai effectué ce que l’on appelle des simulations de Monte Carlo, qui répètent une expérience en intégrant des variations aléatoires.

J’ai codé des programmes informatiques pour attribuer au hasard des victoires, des défaites et des nuls à chaque partie d’Hikaru Nakamura, selon les probabilités de mon modèle. J’ai demandé à l’ordinateur de mesurer à chaque fois les séries de victoires les plus surprenantes (les moins probables). Cela m’a permis de mesurer comment les séries réelles d’Hikaru pouvaient se comparer aux prédictions.

J’ai constaté que dans de nombreuses simulations, les résultats simulés comprenaient des séries tout aussi « improbables » que les séries réelles.

Cela démontre que les résultats d’Hikaru aux échecs étaient à peu près conformes à ce que l’on pouvait attendre. Il avait une telle probabilité de gagner chaque partie, et avait joué tellement de parties sur Chess.com, que des séries de victoires aussi longues étaient susceptibles d’émerger selon les règles des probabilités.

Les réponses à mes découvertes

J’ai rédigé un bref rapport à propos de mes recherches et l’ai envoyé à Chess.com.

Le site a publié un article, qui a suscité de nombreux commentaires, pour la plupart favorables.

Nakamura a ensuite publié son propre commentaire en vidéo, soutenant également mon analyse. Pendant ce temps, Kramnik a publié une vidéo de 29 minutes critiquant mes recherches.

Ce dernier ayant soulevé quelques points importants, j’ai rédigé un addendum à mon rapport pour répondre à ses préoccupations et montrer qu’elles n’avaient pas d’incidence sur la conclusion. J’ai également converti mon rapport en un article scientifique que j’ai soumis à une revue de recherche.

Puis je me suis ensuite consacré à mes tâches d’enseignant et j’ai laissé de côté les controverses sur les échecs jusqu’à ce que je reçoive une réponse de plus de six pages en décembre dernier. Il s’agissait de trois rapports d’arbitres et de commentaires d’éditeurs de la revue dans laquelle j’avais soumis mon article scientifique.

J’ai également découvert que Kramnik avait posté une deuxième vidéo de 59 minutes critiquant mon addendum et soulevant d’autres points.

J’ai tenu compte des points supplémentaires soulevés par Kramnik et par les arbitres tout en révisant mon article en vue de sa publication. Il a finalement été publié dans Harvard Data Science Review.

J’étais heureux de voir mes résultats publiés dans une prestigieuse revue de statistiques, ce qui leur conférait un sceau d’approbation officiel. Et peut-être, enfin, de régler cette controverse sur les échecs au plus haut niveau.

The Conversation

Jeffrey S. Rosenthal reçoit des fonds de recherche du CRSNG du Canada, mais n’a reçu aucune compensation de Chess.com ou de qui que ce soit d’autre pour ce travail.

ref. Échecs : quand un professeur de statistiques enquête sur des allégations de tricherie au plus haut niveau – https://theconversation.com/echecs-quand-un-professeur-de-statistiques-enquete-sur-des-allegations-de-tricherie-au-plus-haut-niveau-260884

Emil Bove’s appeals court nomination echoes earlier controversies, but with a key difference

Source: The Conversation – USA – By Paul M. Collins Jr., Professor of Legal Studies and Political Science, UMass Amherst

Emil Bove, Donald Trump’s nominee to serve as a federal appeals judge for the 3rd Circuit, is sworn in during a confirmation hearing in Washington, D.C., on June 25, 2025. Bill Clark/CQ-Roll Call, Inc, via Getty Images

President Donald Trump’s nomination of his former criminal defense attorney, Emil Bove, to be a judge on the United States Court of Appeals for the 3rd Circuit, has been mired in controversy.

On June 24, 2025, Erez Reuveni, a former Department of Justice attorney who worked with Bove, released an extensive, 27-page whistleblower report. Reuveni claimed that Bove, as the Trump administration’s acting deputy attorney general, said “that it might become necessary to tell a court ‘fuck you’” and ignore court orders related to the administration’s immigration policies. Bove’s acting role ended on March 6 when he resumed his current position of principal associate deputy attorney general.

When asked about this statement at his June 25 Senate confirmation hearing, Bove said, “I don’t recall.”

And on July 15, 80 former federal and state judges signed a letter opposing Bove’s nomination. The letter argued that “Mr. Bove’s egregious record of mistreating law enforcement officers, abusing power, and disregarding the law itself disqualifies him for this position.”

A day later, more than 900 former Department of Justice attorneys submitted their own letter opposing Bove’s confirmation. The attorneys argued that “Few actions could undermine the rule of law more than a senior executive branch official flouting another branch’s authority. But that is exactly what Mr. Bove allegedly did through his involvement in DOJ’s defiance of court orders.”

On July 17, Democrats walked out of the Senate Judiciary Committee vote, in protest of the refusal by Chairman Chuck Grassley, a Republican from Iowa, to allow further investigation and debate on the nomination. Republicans on the committee then unanimously voted to move the nomination forward for a full Senate vote.

As a scholar of the courts, I know that most federal court appointments are not as controversial as Bove’s nomination. But highly contentious nominations do arise from time to time.

Here’s how three controversial nominations turned out – and how Bove’s nomination is different in a crucial way.

A man smiles and looks toward a microphone with people sitting behind him. All of them are dressed formally.
Robert Bork testifies before the Senate Judiciary Committee for his confirmation as associate justice of the Supreme Court in September 1987.
Mark Reinstein/Corbis via Getty Images

Robert Bork

Bork is the only federal court nominee whose name became a verb.

“Borking” is “to attack or defeat (a nominee or candidate for public office) unfairly through an organized campaign of harsh public criticism or vilification,” according to Merriam-Webster.

This refers to Republican President Ronald Reagan’s 1987 appointment of Bork to the Supreme Court.

Reagan called Bork “one of the finest judges in America’s history.” Democrats viewed Bork, a federal appeals court judge, as an ideologically extreme conservative, with their opposition based largely on his extensive scholarly work and opinions on the U.S. Court of Appeals for the District of Columbia Circuit.

In opposing the Bork nomination, Sen. Ted Kennedy of Massachusetts took the Senate floor and gave a fiery speech: “Robert Bork’s America is a land in which women would be forced into back-alley abortions, blacks would sit at segregated lunch counters, rogue police could break down citizens’ doors in midnight raids, schoolchildren could not be taught about evolution, writers and artists could be censored at the whim of government, and the doors of the federal courts would be shut on the fingers of millions of citizens for whom the judiciary is often the only protector of the individual rights that are the heart of our democracy.”

Ultimately, Bork’s nomination failed by a 58-42 vote in the Senate, with 52 Democrats and six Republicans rejecting the nomination.

Ronnie White

In 1997, Democratic President Bill Clinton nominated White to the United States District Court for the Eastern District of Missouri. White was the first Black judge on the Missouri Supreme Court.

Republican Sen. John Ashcroft, from White’s home state of Missouri, led the fight against the nomination. Ashcroft alleged that White’s confirmation would “push the law in a pro-criminal direction.” Ashcroft based this claim on White’s comparatively liberal record in death penalty cases as a judge on the Missouri Supreme Court.

However, there was limited evidence to support this assertion. This led some to believe that Ashcroft’s attack on the nomination was motivated by stereotypes that African Americans, like White, are soft on crime.

Even Clinton implied that race may be a factor in the attacks on White: “By voting down the first African-American judge to serve on the Missouri Supreme Court, the Republicans have deprived both the judiciary and the people of Missouri of an excellent, fair, and impartial Federal judge.”

White’s nomination was defeated in the Senate by a 54-45 party-line vote. In 2014, White was renominated to the same judgeship by President Barack Obama and confirmed by largely party-line 53-44 vote, garnering the support of a single Republican, Susan Collins of Maine.

A man with brown skin and a black suit places a hand on a leather chair and stands alongside people dressed formally.
Ronnie White, a former justice for the Missouri Supreme Court, testifies during an attorney general confirmation hearing in Washington in January 2001.
Alex Wong/Newsmakers

Miguel Estrada

Republican President George W. Bush nominated Estrada to the Court of Appeals for the District of Columbia Circuit in 2001.

Estrada, who had earned a unanimous “well-qualified” rating from the American Bar Association, faced deep opposition from Senate Democrats, who believed he was a conservative ideologue. They also worried that, if confirmed, he would later be appointed to the Supreme Court.

A dark-haired man in a suit, standing while swearing an oath.
Miguel Estrada, President George Bush’s nominee to the U.S. Court of Appeals for the District of Columbia, is sworn in during his hearing before Senate Judiciary on Sept. 26, 2002.
Scott J. Ferrell/Congressional Quarterly/Getty Images

However, unlike Bork – who had an extensive paper trail as an academic and judge – Estrada’s written record was very thin.

Democrats sought to use his confirmation hearing to probe his beliefs. But they didn’t get very far, as Estrada dodged many of the senators’ questions, including ones about Supreme Court cases he disagreed with and judges he admired.

Democrats were particularly troubled by allegations that Estrada, when he was screening candidates for Justice Anthony Kennedy, disqualified applicants for Supreme Court clerkships based on their ideology.

According to one attorney: “Miguel told me his job was to prevent liberal clerks from being hired. He told me he was screening out liberals because a liberal clerk had influenced Justice Kennedy to side with the majority and write a pro-gay-rights decision in a case known as Romer v. Evans, which struck down a Colorado statute that discriminated against gays and lesbians.”

When asked about this at his confirmation hearing, Estrada initially denied it but later backpedaled. Estrada said, “There is a set of circumstances in which I would consider ideology if I think that the person has some extreme view that he would not be willing to set aside in service to Justice Kennedy.”

Unlike the Bork nomination, Democrats didn’t have the numbers to vote Estrada’s nomination down. Instead, they successfully filibustered the nomination, knowing that Republicans couldn’t muster the required 60 votes to end the filibuster. This marked the first time in Senate history that a court of appeals nomination was filibustered. Estrada would never serve as a judge.

Bove stands out

As the examples of Bork, Estrada and White make clear, contentious nominations to the federal courts often involve ideological concerns.

This is also true for Bove, who is opposed in part because of the perception that he is a conservative ideologue.

But the main concerns about Bove are related to a belief that he is a Trump loyalist who shows little respect for the rule of law or the judicial branch.

This makes Bove stand out among contentious federal court nominations.

The Conversation

Paul M. Collins Jr. does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Emil Bove’s appeals court nomination echoes earlier controversies, but with a key difference – https://theconversation.com/emil-boves-appeals-court-nomination-echoes-earlier-controversies-but-with-a-key-difference-261347

La trampa de los grandes modelos de lenguaje: ver conciencia donde solo hay palabras

Source: The Conversation – (in Spanish) – By Ramón López de Mántaras, Profesor de investigación del CSIC, Instituto de Investigación en Inteligencia Artificial (IIIA – CSIC)

SeventyFour/Shutterstock

La irrupción de los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como ChatGPT, ha desatado un debate apasionado en torno a su posible naturaleza consciente.

No son pocos los usuarios –entre ellos personas con formación científica o humanística– que aseguran haber percibido signos de vida interior, emociones e incluso voluntad en estos sistemas. Sostienen que ciertos intercambios verbales revelan emociones complejas, empatía, autoconciencia e incluso sufrimiento.

Esta ilusión ha sido descrita por el científico y filósofo estadounidense Douglas Richard Hofstadter como una peligrosa confusión entre el uso sofisticado del lenguaje y la vivencia subjetiva de una conciencia real. Su crítica apunta a la forma en que muchos entusiastas interpretan la complejidad verbal como una señal de interioridad, sin reparar en la diferencia crucial entre generar lenguaje y tener experiencias. Es precisamente esta distinción –entre producción textual y subjetividad vivida– la que permite cuestionar la idea de que un sistema lingüístico pueda, por sí solo, alcanzar conciencia.

La ilusión de conciencia y el efecto ELIZA

Este fenómeno no es nuevo. En 1966, el científico informático Joseph Weizenbaum desarrolló Eliza, un sencillo programa que imitaba a un terapeuta. A pesar de su simplicidad, muchos usuarios llegaron a creer que el sistema los comprendía. Esta reacción preocupó profundamente al creador del programa, quien advirtió en su influyente libro Computer Power and Human Reason (1976) de los riesgos éticos y epistemológicos de atribuir vida mental a un software.

Los modelos de lenguaje como ChatGpt no comprenden

Hoy, sesenta años más tarde, con la capacidad verbal de los LLM, el efecto Eliza ha regresado amplificado. Los sistemas actuales no solo reformulan preguntas, sino que generan textos con coherencia narrativa, referencias filosóficas, giros estilísticos e incluso formas de humor. Sin embargo, esta competencia verbal no implica interioridad ni comprensión.

Los LLM no comprenden los conceptos que enuncian ni tienen experiencia de aquello que describen. El efecto Eliza consiste en proyectar conciencia allí donde solo hay estructuras lingüísticas generadas estadísticamente. Es fruto de sofisticadas técnicas que maximizan la probabilidad de la siguiente palabra en función de patrones extraídos de enormes corpus lingüísticos.

La fluidez de los modelos de lenguaje

Una de las grandes trampas epistémicas de los LLM es su fluidez. Su capacidad para construir discursos con cohesión y elegancia gramatical los vuelve extremadamente persuasivos. El científico y filósofo estadounidense Douglas Hofstadter (2007) ha llamado a esta habilidad “fluidez superficial”. Es decir, la capacidad de combinar términos y frases sin que ello implique reflexión o conciencia real. Lo que parece pensamiento profundo es, en realidad, un sofisticado espejismo verbal.

Se trata, en términos del filósofo Luciano Floridi (2019), de una “inteligencia artificial sin semántica”. O, en términos del filósofo de la ciencia Daniel Dennett (2018), de “habilidades sin comprensión”.

¿Cómo es ser un murciélago?

Para comprender por qué la fluidez verbal no equivale a conciencia, conviene volver a la filosofía. El filósofo Thomas Nagel, en su célebre ensayo What Is It Like to Be a Bat? (1974) (¿Cómo es ser un murciélago?), sostiene que la conciencia implica un punto de vista subjetivo, una cualidad fenomenológica que escapa a la descripción objetiva.

Esta opacidad de la experiencia subjetiva –llamada qualia– define para Nagel la conciencia como algo radicalmente distinto de cualquier simulación computacional. Por más que comprendamos el funcionamiento del cerebro de un murciélago, nunca sabremos qué se siente al ser uno.

Los modelos de lenguaje no tienen experiencias internas. Generan frases que “hablan” del amor, el miedo o la muerte, pero no sienten amor, miedo ni saben lo que significa morir. Carecen de lo que el filósofo Thomas Metzinger (2003) llama “modelos de sí mismos con acceso consciente”. Son máquinas sin punto de vista.

Un sistema sin cuerpo

Para profundizar en esta distinción, la fenomenología del filósofo francés Maurice Merleau-Ponty resulta especialmente reveladora. Merleau-Ponty argumenta que la conciencia no es un mero proceso mental ni un conjunto de datos simbólicos, sino que está inseparablemente ligada al cuerpo y a la experiencia encarnada del mundo. En su Fenomenología de la percepción (1945), describe la conciencia como una experiencia donde el cuerpo no es solo un objeto, sino el sujeto primordial a través del cual se percibe y se habita el mundo.

Pretender que un sistema sin cuerpo, sin mundo vivido y sin temporalidad interna pueda experimentar conciencia equivale a despojarla de sus condiciones esenciales.

Los LLM pueden articular frases sobre el sufrimiento o la belleza, pero no pueden habitarlas, ya que carecen totalmente de las experiencias sensorio-motoras que según Merleau-Ponty son condición sine qua non para la conciencia genuina.

La habitación china

En una línea similar, el filósofo John Searle (1980) ilustra esta ausencia de comprensión mediante su experimento mental de la habitación china. Una persona sin conocimientos de chino puede perfectamente responder a preguntas en ese idioma si dispone de un manual con reglas sintácticas precisas. A los ojos de un observador externo, parecería que comprende. Pero no hay comprensión real, solo manipulación sintáctica.

Así funcionan, para Searle, los sistemas computacionales: pueden simular comprensión, pero no poseen intencionalidad ni experiencia consciente. Esta analogía aplica directamente a los LLM: producen textos verosímiles sin comprensión semántica ni intención comunicativa.

La crítica del filósofo Hubert Dreyfus complementa esta perspectiva. En What Computers Can’t Do (Lo que los ordenadores no pueden hacer, 1972), insiste en que la inteligencia humana emerge de una relación práctica y encarnada con el mundo, una habilidad para navegar contextos complejos que los algoritmos no poseen. Así, aunque los LLM puedan generar textos coherentes y sofisticados, carecen de la comprensión experiencial y situacional que fundamenta la conciencia y la inteligencia humana.

La ilusión de conciencia en los LLM es un espejismo que nace de proyectar experiencias humanas en máquinas que carecen de cuerpo y experiencia.

La trampa del espejo

La clave del problema no reside en las máquinas, sino en los humanos. Lo que ocurre en muchos casos es que proyectamos sobre las máquinas nuestros propios esquemas cognitivos. Es lo que Hofstadter llama “la trampa del espejo”: creemos ver una mente donde solo hay palabras. Vemos conciencia porque queremos verla, porque en el fondo anhelamos encontrar un reflejo de nuestra interioridad. Como explica la socióloga Sherry Turkle (2011), no buscamos máquinas conscientes, sino relaciones significativas –aunque sean ilusorias– con entidades que nos devuelvan “la mirada”.

Esta proyección puede tener consecuencias importantes. A nivel afectivo, corremos el riesgo de desarrollar vínculos con entes que no pueden corresponderlos. A nivel epistemológico, confundimos apariencia con realidad. A nivel social, podríamos legitimar decisiones automatizadas que simulan empatía sin tenerla y ello podría debilitar nuestra comprensión de lo humano al confundir simulación con experiencia. A nivel legal podría incluso conducir a otorgar derechos y responsabilidades a sistemas que no pueden experimentarlos.

Si no aprendemos a distinguir entre lenguaje y experiencia, entre forma y fondo, entre simulacro y sujeto, corremos el riesgo de caer en una nueva forma de animismo tecnocientífico.

Antes de proclamar que las máquinas han despertado, quizá deberíamos despertar nosotros de nuestra fascinación por sus reflejos.

The Conversation

Ramón López de Mántaras no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La trampa de los grandes modelos de lenguaje: ver conciencia donde solo hay palabras – https://theconversation.com/la-trampa-de-los-grandes-modelos-de-lenguaje-ver-conciencia-donde-solo-hay-palabras-261278

Qué deberíamos recordar de Jane Birkin más allá del bolso que lleva su nombre

Source: The Conversation – (in Spanish) – By Ana María Iglesias Botrán, Profesora del Departamento de Filología Francesa en la Facultad de Filosofía y Letras. Doctora especialista en estudios culturales franceses y Análisis del Discurso, Universidad de Valladolid

Jane Birkin en la Mostra de Venecia en 2009. Nicolas Genin/Wikimedia Commons, CC BY-SA

La noticia corrió como la pólvora: el bolso más caro de la historia –de la marca Hermès– había sido vendido en una subasta por ocho millones y medio de euros. Su nombre: Birkin, el apellido de la actriz y cantante inglesa, icono de los años sesenta y setenta.

Pero el bolso es, en realidad, una anécdota; sólo por ser la musa que inspiró este objeto de culto una puede imaginarse la magnitud de la leyenda de Jane Birkin.

Sus primeras películas

Nacida en Londres en 1946, su padre era capitán de fragata y su madre, actriz. Se casó a los 19 años con el compositor John Barry, del que se divorció tres años después.

Con 20 años participó con un pequeño papel secundario en la película Blow-up. Su guion estaba inspirado en un cuento de Julio Cortázar y fue galardonada con la Palma de Oro del Festival de Cine de Cannes. La taquilla alcanzó los 25 millones de dólares y su aparición, en la que sale medio desnuda, la catapultó a la popularidad.

Dos mujeres, una rubia y una morena, miran fuera del fotograma.
Jane Birkin (izquierda) y Gillian Hills en Blow-Up.
FIlmAffinity

El escándalo de ‘Je t’aime… moi non plus’

En 1969 protagonizó en Francia, junto con Serge Gainsbourg, la pelicula Slogan. Ambos comenzaron una relación intensa y apasionada que duró doce años. Durante esa época, Gainsbourg ejerció de “pigmalión”, la introdujo en los entornos artísticos franceses y ambos se convirtieron en una pareja icónica.

Serge Gainsbourg venía de vivir un romance con Brigitte Bardot, con quien había grabado la canción “Je t’aime… moi non plus” (“Te amo… yo tampoco”). La letra, los gemidos, jadeos y respiraciones evocan de forma explícita un encuentro sexual. Cuando el marido de Brigitte Bardot escuchó la canción se enfureció hasta el punto de amenazar con tomar medidas legales si se difundía.

Jane Birkin interpretó la versión que finalmente sí se publicó.

El gran escándalo que provocó la canción fue su mejor publicidad. Se prohibió en Inglaterra, España, Portugal, Suecia, Brasil, Italia…

En Francia fue censurada por su contenido pornográfico. Se vendía con una pegatina que indicaba que era para mayores de edad, y sólo se podía emitir en la radio por la noche. El mismísimo Vaticano se pronunció en L’Osservatore Romano amenazando con excomuniones. Fue así como la canción erótica que todo el mundo quería prohibir alcanzó el éxito mundial.

El erotismo de Jane

69, année érotique”, que da nombre a una de sus canciones, refleja el gusto de Jane Birkin por el erotismo. Su voz suave, delicada y con un tono sensual, aunque pareciera frágil evocaba con naturalidad todo tipo de fantasías. A Jane le divertía explorar ese juego erótico: lo asumía con libertad, lo disfrutaba y lo compartía abiertamente con Serge Gainsbourg.

Una prueba clara de esta faceta fue el reportaje titulado “Jane erotojane”, publicado en la edición navideña de 1974 de la revista masculina Lui. En él, las fotos tomadas por Frank Gitty y los textos escritos por el propio Gainsbourg mostraban una imagen de Birkin cargada de sensualidad. Era un erotismo explícito, en el límite entre el sadomasoquismo y la violencia, expresando una visión artística y provocadora del deseo y la atracción física.

Un hombre le da algo a una mujer sentada en un balancín.
Alain Delon y Jane Birkin en La piscina.
FilmAffinity

Birkin también participó en películas consideradas transgresoras para su época, como Si Don Juan fuese mujer, donde mantenía una relación sexualmente ambigua con Brigitte Bardot, además de actuar en éxitos de taquilla como La piscina.

Punto y seguido a Serge Gainsbourg

Tras doce años juntos y una hija –Charlotte Gainsbourg–, Jane Birkin y Serge Gainsbourg se separaron. Pero su amistad nunca terminó. Serge siguió escribiendo canciones para ella y de esa complicidad nació Baby Alone in Babylone (1983), el primer disco de Jane Birkin en solitario.

Más tarde, Jane tuvo otra hija, Lou, con el cineasta Jacques Doillon. Serge fue su padrino; una prueba de que la conexión entre ellos nunca se rompió.

Gainsbourg falleció en 1991. Tras su muerte, Jane Birkin se animó a subir a los escenarios, algo que hasta entonces le habían impedido el miedo escénico y una timidez insospechada. En 1995 lanzó Versions Jane, donde reinterpretaba canciones de Serge. En 1998 dio un paso más allá con À la légère, el primer disco sin vínculos con su expareja, rompiendo así con la imagen de “viuda oficial” que muchos le atribuían.

Aun así, en sus conciertos terminaba interpretando la canción “Je suis venu pour te dire que je m’en vais” (“He venido a decirte que me voy”), en homenaje a Serge.

Compromiso social

Una mujer con una camiseta, vaqueros y una riñonera posa en una playa.
Jane Birkin en el Festival de Cine de Cannes de 2008, donde organizó un evento denominado ‘Día de Birmania’ para llamar la atención sobre la difícil situación de los monjes birmanos.
Featureflash Photo Agency/Shutterstock

Birkin se comprometió activamente con diversas causas sociales. Entre ellas, la defensa del derecho al aborto en el famoso proceso de Bobigny (1972), en el que se juzgaba a una menor que había abortado tras ser violada. Muchas personalidades, incluida la filósofa Simone de Beauvoir, también apoyaron a la acusada. La gran presión social suscitada con este caso, entre otros factores, dio como resultado que el aborto fuera despenalizado en Francia con la Ley Veil en 1975.

Y aquí volvemos al famoso bolso, que, aunque exitoso, no estuvo exento de polémica. Porque, comprometida con la defensa de los derechos de los animales, y tras ver un documental de la organización PETA, Birkin publicó un comunicado en el que denunciaba públicamente el uso de piel de cocodrilo para fabricar bolsos, incluyendo el que llevaba su nombre, y pedía que le retiraran su nombre al accesorio si no se implementaban prácticas más éticas hacia los cocodrilos con los que se fabricaba. Hermès realizó una investigación y accedió a las peticiones de la artista.

Jane sostuvo también otras causas sociales y humanitarias, algunas promocionadas con pegatinas en su “Birkin”.

Comment te dire adieu?

La vida de Birkin fue azarosa. Tanto que ella misma fue el sujeto de estudio de dos documentales: Jane B para Agnès V (1988), dirigido por su amiga, la directora Agnès Varda, y Jane por Charlotte (2021), dirigido por la hija que tuvo con Gainsbourg, Charlotte.

Tráiler del documental Jane por Charlotte.

Birkin fue diagnosticada de leucemia en 2002, su hija Kate murió trágicamente precipitándose por una ventana –en lo que todo apuntaba a un suicidio– en 2013 y, en sus últimos años, ella contrajo el covid-19 en varias ocasiones. Pero a pesar de todo, siguió cantando y disfrutando de la adoración del público hasta prácticamente su final, en 2023, a los 76 años.

El bolso Birkin se encarga desde entonces de seguir nutriendo su leyenda.

The Conversation

Ana María Iglesias Botrán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Qué deberíamos recordar de Jane Birkin más allá del bolso que lleva su nombre – https://theconversation.com/que-deberiamos-recordar-de-jane-birkin-mas-alla-del-bolso-que-lleva-su-nombre-261220

La digitalización cambia el negocio de los seguros

Source: The Conversation – (in Spanish) – By Ivan Sosa Gómez, Doctor en Economía y Empresa. Profesor e investigador en la UCJC, Universidad Camilo José Cela

En los últimos años, el fenómeno insurtech (de insurance, seguro, y technology, tecnología) ha servido para rediseñar el modelo de negocio de las aseguradoras. Las empresas insurtech incorporan las nuevas tecnologías (big data, IA) al sector para el desarrollo de productos más eficientes.

Este cambio afecta directamente a los asegurados pues impacta en cómo se contrata un seguro, cómo se diseñan las coberturas o cuánto paga para asegurar sus riesgos.

De oficinas a aplicaciones

Si hace unos años contratar un seguro requería visitas presenciales a las sucursales de las compañías aseguradoras, hoy es posible tanto la contratación de seguros como la atención al cliente en minutos y desde el móvil.

La digitalización del sector incluye el uso de la inteligencia artificial para evaluar los daños tras un siniestro mediante el envío de imágenes a través de la app de la aseguradora. Esto reduce los tiempos de espera y mejora la experiencia de usuario de los asegurados. La optimización del proceso hace que, a su vez, los clientes esperen respuestas más rápidas y procesos más simples de las empresas.

Personalizado y flexible

La digitalización ha traído la personalización en el diseño de los seguros. La posibilidad de recopilar, organizar, analizar e interpretar datos –para extraer información relevante y tomar decisiones optimizadas– ha permitido a las compañías adaptar sus productos al perfil de cada usuario.

Por ejemplo, hay seguros de salud que ajustan el precio en función del estilo de vida del asegurado o seguros de coche que calculan la prima según sus hábitos de conducción, recogidos por sensores en el vehículo (pay how you drive) (“paga según cómo conduzcas”).

Este tipo de productos ya están activos en Europa. Algunas insurtechs, como la británica By Miles, ofrecen un seguro de automóvil por el que el asegurado paga por los kilómetros recorridos. En salud, hay startups que tienen como clientes a empresas que ofrecen –como parte de sus beneficios laborales– pólizas ajustadas en cobertura y precios al estilo de vida de los empleados.

Aunque productos de este tipo favorecen a los usuarios responsables, también abren el debate sobre la privacidad y el uso de datos personales.

¿Qué está pasando en el sector?

El auge de insurtechs ha provocado la aparición de cientos de startups de seguros en todo el mundo. Estas empresas no sustituyen a las aseguradoras tradicionales, pero aportan al sector la agilidad y las soluciones tecnológicas que los grandes grupos no pueden desarrollar con rapidez.

El mercado global de insurtech en 2023 fue de 22 000 millones de dólares. Las proyecciones indican que este mercado podría llegar a alcanzar los 306 500 millones en 2030, lo que supone una tasa de crecimiento anual cercana al 45 %. Este incremento exponencial se explica, en gran medida, por la entrada de nuevos actores tecnológicos, la inversión en soluciones de automatización y personalización, y la presión que ejerce el ecosistema insurtech sobre las aseguradoras tradicionales para modernizar sus modelos de negocio.

El ecosistema ‘insurtech’

La transformación no es solo digital: también está cambiando el enfoque del negocio de los seguros. Se está pasando de vender productos a construir ecosistemas de valor. En términos de estrategia empresarial, hablamos de redes de entidades interconectadas (organizaciones, individuos y tecnologías) que colaboran para crear más y mejor valor para las empresas (más oportunidades de negocio, un crecimiento más rápido y mayor adaptabilidad, por ejemplo).

Las grandes compañías de seguros también se han apuntado a la digitalización y operan con modelos en los que la contratación, gestión y atención al cliente se realizan en ecosistemas digitales cerrados. Y hay plataformas específicas que permiten a las aseguradoras integrar sistemas de pagos digitales y automatización de siniestros.

En este nuevo modelo de negocio la colaboración es la clave: las insurtechs buscan el crecimiento y la innovación a través de asociaciones empresariales. De ahí que la capacidad de una aseguradora para construir ecosistemas se haya convertido en una fuente crítica de ventaja competitiva.

¿Qué implican estos cambios para el asegurado?

Para los consumidores, esto supone contrataciones más simples y rápidas, precios potencialmente más justos –basados en el comportamiento real del cliente– y acceso a un mayor número de servicios a través de dispositivos móviles.

Pero la digitalización también obliga a pensar en cuestiones como la protección de los datos personales de los usuarios, en cómo evitar la exclusión de perfiles considerados de riesgo o garantizar una atención humana cuando esta sea necesaria.

Una transformación imparable

El sector asegurador está pasando de una estructura tradicional a un ecosistema digital centrado en el usuario. Lo que antes era un contrato difícil de entender ahora es una relación en tiempo real entre personas, datos y tecnología. Y este nuevo contexto puede beneficiar tanto a las aseguradoras como a los asegurados.

La clave está en aprovechar las ventajas de la digitalización sin perder el foco humano. Porque, al final, asegurar no es sólo una cuestión de tecnología, sino de proteger a las personas frente a los riesgos reales de su día a día.

The Conversation

Ivan Sosa Gómez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La digitalización cambia el negocio de los seguros – https://theconversation.com/la-digitalizacion-cambia-el-negocio-de-los-seguros-258805