Avec « Monsters », Netflix va toujours plus loin dans la fascination du mal

Source: The Conversation – in French – By Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC – École de Commerce Européenne, INSEEC Grande École

Ce qui devait être un récit unique devient une franchise : « Monsters » s’impose désormais comme une véritable anthologie du mal, explorant tour à tour la barbarie cannibale, la violence familiale et les dérives de l’imaginaire macabre.


En 2022, Netflix lançait Dahmer – Monster : The Jeffrey Dahmer Story, initialement conçue comme une série limitée. Mais face au succès (plus d’un milliard d’heures de visionnage en soixante jours), Ryan Murphy et Ian Brennan transforment leur projet en anthologie. L’année suivante, une deuxième saison est consacrée aux frères Menendez, ces deux adolescents de Beverly Hills (Californie) devenus tristement célèbres pour avoir assassiné leurs parents. Depuis octobre 2025, c’est Ed Gein, dit le « boucher de Plainfield », qui fait son apparition : un meurtrier dont les crimes ont inspiré le personnage de Norman Bates (Psychose) ou celui de Leatherface (Massacre à la tronçonneuse).

Monster: The Ed Gein Story, bande-annonce, Netflix.

Mais il y a quelque chose d’encore plus troublant que ces histoires elles-mêmes : la façon dont elles nous sont racontées. Car, contrairement à la plupart des séries, Monsters n’a pas de générique. Pas de sas, pas de transition.

Dès la première image, nous sommes dans la cuisine de Dahmer, dans la limousine des Menendez, sur la ferme de Gein. Sans préparation, sans médiation : la sidération est immédiate.

Dahmer, scène d’ouverture.

Sans générique : bienvenue dans l’antre du monstre

Contrairement à de nombreuses séries de Ryan Murphy, Monsters se distingue par l’absence de véritable générique. Cet effacement du seuil narratif n’est pas anodin.

Dans la saison de Dahmer, la première image nous plonge directement dans son appartement miteux de Milwaukee (Wisconsin). Pour les frères Menendez, c’est une limousine glissant dans les rues ensoleillées de Beverly Hills. Quant à Ed Gein, nous le découvrons accomplissant ses corvées dans les champs glacés du Wisconsin. Trois ouvertures, une même stratégie : abolir la frontière entre notre réalité et celle des tueurs.

Dans nos travaux, nous montrions comment le générique fonctionne comme « un espace intermédiaire entre l’espace privé du téléspectateur et l’espace fictionnel ». C’est un sas symbolique qui permet de passer progressivement du quotidien vers l’univers de la fiction. En supprimant ce seuil, Monsters radicalise le rapport au réel.

Là où les génériques évolutifs de Game of Thrones ou The White Lotus créaient un dialogue avec le spectateur, Monsters refuse toute médiation esthétique. La série abolit cet espace intermédiaire et nous plonge directement dans la matière du crime. Cette suppression du rituel d’entrée produit ce qu’Hervé Glevarec (2010) nomme un « effet de réel » saisissant : l’univers diégétique vient toucher le monde réel, abolissant toute distance protectrice.

Comment juger acceptable ce qui nous est imposé sans préambule, sans le moment rituel de la transformation ? En éliminant le générique, Monsters court-circuite toute distance critique et nous transforme en témoins involontaires, presque en voyeurs d’une monstruosité déjà accomplie.




À lire aussi :
De l’importance des génériques de séries


Humaniser les tueurs pour enrichir le récit

Pour comprendre comment Netflix peut transformer des faits divers en franchise infinie, il faut mobiliser le concept d’univers fictionnel développé par Lubomir Dolezel (1998). Dans nos travaux sur le traitement médiagénique de Batman, nous avions montré comment les médias puisent dans trois « textures » d’un univers fictionnel.

La texture explicite désigne ce qui est explicitement présent dans les archives : les crimes, les arrestations, les procès. La texture implicite concerne ce qui pourrait survenir dans le récit sans nous étonner : la vie quotidienne des tueurs, leurs relations, leurs espaces privés. Enfin, la texture zéro ou vague représente l’infini des possibilités pouvant subvenir dans le récit sans en altérer son authenticité : les pensées, les rêves, les motivations profondes, l’humanité cachée des tueurs.

Monsters exploite massivement les textures implicite et zéro. Ce qui n’était pas dit dans les reportages judiciaires devient le terrain d’exploitation du récit sériel. Netflix fait basculer l’implicite dans le champ explicite : la solitude de Dahmer, les dynamiques familiales des Menendez, la relation toxique de Gein avec sa mère. Tout ce qui relevait du domaine vague (leurs émotions, leurs désirs, leur humanité) devient matière narrative.

Lyle se dispute avec ses parents, scène extraite de Monsters: The Lyle and Erik Menendez Story.

Cette stratégie répond aux exigences de ce que nous avions nommé la « machine à récit » : la série télévisée comme gigantesque machine affamée d’histoires. Pour alimenter cette machine de manière hebdomadaire, Netflix construit un univers fictionnel riche en possibilités narratives. Chaque tueur devient le centre d’une saison entière, chaque saison explore un nouveau monstre. L’anthologie est par essence extensible à l’infini : il existera toujours un nouveau tueur à transformer en personnage de tragédie.

Le spectateur-voyeur : la leçon d’Hitchcock

« Tout spectateur est un voyeur », affirmait Alfred Hitchcock. Ce mantra du maître du suspense résonne de manière troublante dans Monster: The Ed Gein Story, avec la présence figurative de Hitchcock (interprété par Tom Hollander) dès le deuxième épisode. Car la série interroge précisément le dispositif qui alimente notre fascination : le regard.

Dès le premier épisode, Ed Gein observe, dans l’entrebâillement d’une porte, une jeune femme en sous-vêtement. Sa pupille se dilate d’excitation. Cette image séminale renvoie en miroir au plan mythique de Psychose (1960), où Norman Bates (joué par Anthony Perkins) observe Marion Crane (jouée par Janet Leigh).

Norman Bates espionne Marion Crane, scéne extraite de Psychose, d’Alfred Hitchcock, 1960.

Le parallèle est explicite : la série nous rappelle que l’affaire Ed Gein a contaminé tout le cinéma d’horreur américain. La fascination pour le mal qui incombe à chaque spectateur ayant porté aux nues ce genre dès les années 1960.




À lire aussi :
Psycho turns 60 – Hitchcock’s famous fright film broke all the rules


Certaines critiques dénoncent le voyeurisme de la série, accusant Netflix de complaisance. Mais c’est oublier que le cinéma lui-même est un acte de voyeur : voir sans être vu. Le sensationnalisme de l’œuvre est critiquable ; néanmoins, on ne peut le détacher du discours critique qui habite la série. Celle-ci tisse un lien inconfortable mais pertinent entre le spectateur et Ed Gein : une fascination commune, un voyeurisme viscéral.

La série révèle comment la violence a contaminé l’imaginaire d’Ed Gein (les images des camps d’extermination, le pulp américain) tout comme elle contamine le nôtre aujourd’hui. En puisant dans la texture zéro de l’univers fictionnel, Monsters nous confronte à une vérité dérangeante : nous avons un lien inconscient avec ce tueur, une fascination partagée pour le pouvoir de l’image.

C’est peut-être là le geste le plus audacieux et le plus dérangeant de cette anthologie de monstres : nous placer face à notre propre voyeurisme à une époque où celui-ci est devenu omniprésent.




À lire aussi :
Quand Dexter inspire Shein : comment les antihéros transforment la publicité


Le mal en série : les monstres placés sur un piédestal

Depuis Mindhunter (2017-2019) jusqu’à Monsters, le tueur en série est devenu une figure centrale de la culture visuelle contemporaine. Netflix a transformé cette fascination morbide en véritable industrie du récit criminel.

Mindhunter, bande-annonce VF, Netflix France.

Ryan Murphy et Ian Brennan construisent un univers à la fois dérangeant et poétique, où l’horreur côtoie l’émotion. Une mise en scène léchée, une photographie travaillée, un sens de la dramaturgie qui transforment l’horreur en tragédie. Chaque scène, chaque silence, chaque note de musique semble pesée, pensée. Dans leur anthologie, le crime est non seulement divertissant, mais esthétisé.

Jeffrey Dahmer devient un personnage complexe, presque sympathique dans sa solitude. Les frères Menendez, des victimes du système familial américain. Ed Gein, figure fondatrice et bouleversante dans son ambivalence. Trois tueurs placés sur un piédestal, au détriment de leurs victimes qui restent dans l’ombre du récit.

Monsters explore l’humanité des tueurs, transformant la texture vague de leurs vies intérieures en récit fascinant. C’est là toute l’ambiguïté morale de la série d’anthologie : prétendre condamner tout en rendant les tueurs inoubliables, charismatiques, dignes d’être regardés pendant des heures.




À lire aussi :
Comment la série « Watchmen » réinvente la genèse du super-héros


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Avec « Monsters », Netflix va toujours plus loin dans la fascination du mal – https://theconversation.com/avec-monsters-netflix-va-toujours-plus-loin-dans-la-fascination-du-mal-266841

Occident et Afrique : sortir des fantasmes réciproques

Source: The Conversation – in French – By Jean-Loup Amselle, Anthropologue et ethnologue, directeur d’études émérite à l’EHESS, chercheur à l’Institut des mondes africains (IRD-CNRS-Panthéon Sorbonne-Aix-Marseille-EHESS-EPHE), Institut de recherche pour le développement (IRD)

Photo présentée dans le cadre de l’exposition « Mission Dakar-Djibouti (1931-1933) : contre-enquêtes » (Musée du Quai Branly, Paris, 15 avril — 14 septembre 2025). Les membres de la mission Dakar-Djibouti y prennent la pose dans les environs de Bandiagara (Mali) en compagnie de plusieurs habitants locaux. Titre original de la photo : « La Mission Dakar-Djibouti en pays Dogon. » Site du musée du Quai Branly

Dans l’Afrique des fantasmes, qui vient de paraître aux éditions Mimésis, l’anthropologue Jean-Loup Amselle souligne qu’il est temps que les deux continents sortent de leurs visions réciproques, figées et caricaturales. Car, pour réinventer leur relation, l’Afrique et l’Occident doivent d’abord apprendre à se voir autrement. Extraits.


Les rapports entre l’Afrique et l’Occident sont pris dans une relation de nature libidinale qu’il convient de trancher. Et pour ce faire, il faut remonter à la façon dont se sont constituées ces deux parties du monde et comprendre comment cette séparation a débouché sur des enjeux de savoir et de pouvoir.

Ce n’est pas un hasard si les deux ouvrages les plus importants traitant de cette question, l’Orientalisme d’Edward Said et l’Invention de l’Afrique de Valentin Y. Mudimbe, s’appuient tous deux sur la pensée de Michel Foucault.

L’orientalisation du Maghreb et du Machrek, c’est-à-dire la constitution de ces entités en tant que telles, de même que l’ethnicisation de l’Afrique noire conçue comme une réalité à part, ont débouché sur un effet en retour, à savoir la constitution de l’Occident en tant que singularité autonome.

C’est pourquoi, si les Occidentaux vivent dans un rêve africain, les Africains vivent symétriquement dans un rêve occidental, ce que je nommerai la « toubabisation » ou, pour faire référence à l’Afrique centrale, la « mundelisation » de l’Occident.

L’aliénation, pour renvoyer à une problématique à la fois marxiste et psychiatrique, est donc circulaire : les Africains sont tout autant aliénés que les Occidentaux, à cette différence près que d’un côté le savoir, fût-il fantasmatique, débouche sur un pouvoir, alors que l’inverse ne se vérifie pas.

Il faut donc se déprendre de cette relation fantasmatique qui a été engendrée par le contexte colonial. Même si toutes les entreprises qui entendent dénouer ce nœud colonial peuvent paraître bénéfiques, seules certaines atteignent véritablement leur but.

Prenons le cas de deux expositions emblématiques récentes qui semblent dirigées vers le même objectif : « Paris noir » au Centre Pompidou et « Mission Dakar-Djibouti 1931-1933 : Contre-enquêtes », au musée du Quai Branly.

La première est pétrie de bonnes intentions, puisqu’elle entend montrer en quoi le Paris des années 1950, jusqu’aux années 2000, a été le havre et le creuset d’un monde noir représenté pêle-mêle par les jazzmen afro-américains, les intellectuels et artistes africains et antillais et les immigrés d’Afrique subsaharienne. Bref, une sorte de fourre-tout de la « noircitude », placé sur les auspices de figures emblématiques comme Senghor, Césaire, Glissant et Gilroy.

Le message peut sembler généreux, surtout par rapport à la situation actuelle d’une France caractérisée par la montée de l’extrême droite et du racisme. Mais on peut se demander également ce qu’il y a de commun entre les jazzmen afro-américains des années 1960, les intellectuels et les artistes africains et les travailleurs immigrés subsahariens qui ont commencé à arriver à la même époque dans notre pays. Dans un cas, il s’agit d’une élite artistique et intellectuelle bien accueillie par
le public français, dans l’autre de soutiers disparaissant dans le paysage des foyers et des logements insalubres.

Contrastant avec le confusionnisme non dénué de racialisme de cette exposition, se dresse l’exposition du musée du Quai Branly Mission Dakar-Djibouti 1931-1933 : Contre-enquêtes.

Le sous-titre de cette exposition est véritablement savoureux, puisqu’elle se présente comme une investigation d’ordre policier et judiciaire sur la célèbre expédition menée des rives de l’Atlantique à celles de la mer Rouge dans les années 1930 par Marcel Griaule et son équipe. Cette expédition a fait couler beaucoup d’encre, ne serait-ce que parce que Michel Leiris a en quelque sorte « trahi » Marcel Griaule en publiant son livre l’Afrique fantôme. Ce dernier n’est d’ailleurs pas épargné par cette exposition, puisque c’est son contexte colonial qui est mis en évidence.

Les fins limiers qui en sont les commissaires ont admirablement exhumé tout ce qui accompagne cette expédition, outre le vol bien connu des objets rituels : l’ethnologie d’urgence, le primitivisme, l’occultation de l’islam, du politique, du personnel africain, des femmes, de l’administration coloniale, entre autres (malheureusement, tous les objets collectés n’ont pas été exposés et il semble que le point de vue de la conservatrice l’ait emporté sur celui des ethnologues).

On assiste ainsi, au fil du passage devant les différentes vitrines, à un véritable festival de déconstruction décoloniale, c’est-à-dire de mise au jour du paradigme ethnologique qui a présidé à la prise de possession intellectuelle de l’espace sahélien, ou d’une partie de cet espace, par cette colonne scientifique française.

Celle-ci s’inscrit d’ailleurs dans une tradition de l’ethnographie itinérante, initiée en Afrique de l’Ouest par Louis Desplagnes ou par Léo Frobenius, et qui consistait à collecter pêle-mêle des objets, des spécimens d’animaux et des traditions orales.

Ce n’est que dans une phase ultérieure que Griaule et son équipe vont se sédentariser sur la falaise de Bandiagara et, en abandonnant le terme « habbé » qui était jusqu’alors utilisé par les Peuls pour désigner les populations païennes de cette région, vont « inventer » l’ethnie dogon et oblitérer le rapport de dépendance et la « chaîne de sociétés » unissant ces deux groupes de populations. Leiris utilise dans un premier temps le terme « habé », puis il introduit le terme « dogon » en déclarant qu’il s’agit « du nom véritable des Habé. Ce dernier mot – qui veut dire païens en langue peule – est le terme par lequel les désignent les musulmans ». Toutefois, M. Leiris ne nous indique ni la provenance ni le contexte d’utilisation du terme « dogon ».

Ainsi se met en place une fantasmagorie africaine ou une balkanisation de l’Afrique qui sera le ferment des revendications culturelles ultérieures. Les « païens » de Desplagnes deviennent les Dogons porteurs d’une riche cosmogonie qui alimentera plus tard les spéculations islamophobes de l’école anthropologique française et des intellectuels africains portés sur l’animisme.

Cet extrait est issu de l’Afrique des fantasmes (2025), de Jean-Loup Amselle, aux éditions Mimésis.

De même, les pratiques homosexuelles des jeunes de la falaise de Bandiagara seront gommées, au profit d’une homophobie largement répandue sur le continent africain. À cette homophobie correspondra du côté occidental le fantasme de la virilité constitutive du mâle africain et de la fécondité « exagérée » de la femme africaine, bref le fantasme du harem, qui représente une extension de l’orientalisme au sein de l’africanisme, conçu comme représentation du continent africain.

Certes, cette exposition du musée du Quai Branly n’embrasse pas la totalité de ces thèmes, mais elle constitue néanmoins un jalon de taille et un fil conducteur pour sortir l’Afrique de ses fantasmes à l’égard de l’Occident, tout comme elle devrait
permettre à l’Occident de déprendre de ses fantasmes à l’égard de l’Afrique.

L’Afrique et l’Occident se regardent chacun·e dans le miroir de l’autre et ce sont ces deux miroirs qu’il convient de briser.

The Conversation

Jean-Loup Amselle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Occident et Afrique : sortir des fantasmes réciproques – https://theconversation.com/occident-et-afrique-sortir-des-fantasmes-reciproques-266643

Is the end looming for Canada’s border pre-clearance program with the United States?

Source: The Conversation – Canada – By Emily Gilbert, Professor, Canadian Sudies and Geography & Planning, University of Toronto

At a testy meeting in Banff recently, the American ambassador to Canada, Pete Hoekstra, mused about the future of pre-clearance in Canada. Cross-border travel numbers are down, he complained, which makes the cost of the program less appealing to Americans.

Hoekstra’s comments came across as a threat — almost a demand that Canadians resume travelling to the United States.

But should Canadians continue to stay away? Maybe it’s time to rethink Canada’s pre-clearance program with the U.S. and the ways it can undermine Canadian civil rights and sovereignty.

Started informally, then expanded

The origins of U.S. customs pre-clearance in Canada date back to 1952. It began as an informal arrangement made at the request of American Airlines, which was interested in building up its business in Canada.

Since then, the program has expanded to nine Canadian international airports and the Alaska Marine Highway System Ferry Terminal in Prince Rupert, B.C. The U.S. has also expanded its pre-clearance facilities to the Bahamas, Bermuda, Ireland and the United Arab Emirates.

Under Canada-U.S. pre-clearance arrangement, American border agents are located in Canada so that travellers can clear customs, immigration, public health and safety and agriculture inspection before they travel. This provides an additional layer of security for the U.S. since it can screen travellers much earlier in their travel journeys and stop suspicious travellers before they board their flights.

For Canadian travellers, it makes crossing the border faster. By clearing customs in Canada, they don’t need to wait in long lines when they arrive in the U.S. This makes it much easier to catch connecting flights and also means airlines can fly into smaller American airports from Canada, which can be cheaper and more convenient.

Police powers

Pre-clearance in Canada has become so commonplace that it’s not faced significant scrutiny, even though recent legislation raises pressing concerns.

In 2015, the U.S. and Canada signed a new treaty on land, rail, marine and air transport pre-clearance. This legislation opened the door to expanded pre-clearance with new facilities at Québec City’s airport and Billy Bishop airport on the Toronto islands, scheduled to open soon. Pilot projects have also been introduced at train stations and ports, which raise their own issues because they’re often located in city centres.

Subsequently, Canada passed its new Preclearance Act that entered into force in 2019. The legislation updated the terms for pre-clearance but also introduced worrisome and expansive new police powers for U.S. officers on Canadian soil.

American border agents now have the power to conduct strip searches if a Canadian officer is not available or is unwilling to participate. American border agents also have the authority to carry weapons.

Under the previous legislation of 1999, U.S. border agents were authorized to use “as much force is necessary to perform their pre-clearance duties” if they did so “on reasonable grounds.” But under the recent legislation, U.S. officers are “justified in doing what they are required or authorized to do under this Act and in using as much force as is necessary for that purpose.” In other words, the use of force is now legitimized.

Furthermore, while it was previously possible for travellers to remove themselves from inspection without prejudice, under the 2017 legislation, their withdrawal from the border process could be interpreted as grounds for suspicion.

The act of withdrawal itself becomes suspect, with refusal to answer taken as obstruction, which is a criminal offence in both the U.S. and Canada. This can impede someone’s ability to enter the U.S. at a later date.

If someone is suspected of committing an offence, U.S. border agents are also able to detain them as long it does not “unreasonably delay the traveller’s withdrawal” from the process. There is no time limit placed on what is meant by “unreasonably delay.”

Worrisome legislative changes

When the new Preclearance Act was introduced, Prime Minister Justin Trudeau tried to assuage concerns by explaining that pre-clearance allowed more protections for travellers because the Canadian Constitution would apply in Canada.

The act itself states:

“The exercise of any power and performance of any duty or function under United States law in Canada is subject to Canadian law, including the Canadian Charter of Rights and Freedoms, the Canadian Bill of Rights and the Canadian Human Rights Act.”

But can these protections really be assured when there are overlapping jurisdictions at play?

Take U.S. President Donald Trump’s most recent 2025 travel ban that fully bans nationals of 12 countries and partially bans nationals of seven others.

As Amnesty International argues, Trump’s bans are “targeting people based on their race, religion, or nationality, from countries with predominantly Black, Brown and Muslim-majority populations.” Yet these bans are being enforced in Canada via these pre-clearance areas, meaning the rights and protections against discrimination set out in Canadian laws are not being upheld.

Under the terms of the 2015 treaty, pre-clearance officers also receive immunity for civil and administrative offences in their host countries. Furthermore, the U.S. passed legislation a year later stipulating the U.S. has jurisdiction over offences committed by American personnel stationed in Canada.

As Canada’s privacy officer has stated, this lack of accountability in Canada means there is little recourse for someone in Canada who experiences an incident with American border officers when going through pre-clearance. If there is no accountability, then Canadian laws are essentially meaningless.

Border politics

For these reasons, a Canadian reassessment of the pre-clearance program is all the more pressing since efforts are already underway to implement Canadian pre-clearance at land borders with the U.S.

In January 2025, before Trump’s inauguration, a two-year pilot project was announced at the Cannon Corners facility on the New York-Québec border. This would be somewhat different from the police powers granted to American border officials at Canadian airports, but Canada’s objectives have been similar to U.S. security directives — make admissibility determinations before someone enters Canada.

In other words, Canada is proceeding with pre-clearance initiatives that make it more difficult for people to make asylum claims when crossing the Canada-U.S. border.

Hoekstra has put the future of pre-clearance in question. This provides an excellent opportunity to reconsider whether the costs of the program outweigh the benefits in today’s political climate. That’s because no matter how convenient and efficient pre-clearance programs might be, they raise challenging questions about Canadian sovereignty and the rights of Canadian citizens.

The question should really be whether Canada wants to pursue America-style border politics rather than trying to build more humane border policies and practices.

The Conversation

Emily Gilbert has received funding from the Social Sciences and Humanities Research Council.

ref. Is the end looming for Canada’s border pre-clearance program with the United States? – https://theconversation.com/is-the-end-looming-for-canadas-border-pre-clearance-program-with-the-united-states-266764

What the First Amendment doesn’t protect when it comes to professors speaking out on politics

Source: The Conversation – USA (2) – By Neal H. Hutchens, University Research Professor of Education, University of Kentucky

Employees at public and private colleges do not have the same First Amendment rights. dane_mark/Royalty-free

American colleges and universities are increasingly firing or punishing professors and other employees for what they say, whether it’s on social media or in the classroom.

After the Sept. 10, 2025, killing of conservative activist Charlie Kirk, several universities, including Iowa State University, Clemson University, Ball State University and others, fired or suspended employees for making negative online comments about Kirk.

Some of these dismissed professors compared Kirk to a Nazi, described his views as hateful, or said there was no reason to be sorry about his death.

Some professors are now suing their employers for taking disciplinary action against them, claiming they are violating their First Amendment rights.

In one case, the University of South Dakota fired Phillip Michael Cook, a tenured art professor, after he posted on Facebook in September that Kirk was a “hate spreading Nazi.” Cook, who took down his post within a few hours and apologized for it, then sued the school, saying it was violating his First Amendment rights.

A federal judge stated in a Sept. 23 preliminary order that the First Amendment likely protected what Cook posted. The judge ordered the University of South Dakota to reinstate Cook, and the university announced on Oct. 4 that it would reverse Cook’s firing.

Cook’s lawsuit, as well as other lawsuits filed by dismissed professors, is testing how much legal authority colleges have over their employees’ speech – both when they are on the job and when they are not.

For decades, American colleges and universities have traditionally encouraged free speech and open debate as a core part of their academic mission.

As scholars who study college free speech and academic freedom, we recognize that these events raise an important question: When, if ever, can a college legally discipline an employee for what they say?

A university campus with various buildings and trees is seen from above.
An aerial view of University of South Dakota’s Vermillion campus, one of the places where a professor was recently fired for posting comments about Charlie Kirk, a decision that was later reversed.
anup khanal – CC BY-SA 4.0

Limits of public employees’ speech rights

The First Amendment limits the government’s power to censor people’s free speech. People in the United States can, for instance, join protests, criticize the government and say things that others find offensive.

But the First Amendment only applies to the government – which includes public colleges and universities – and not private institutions or companies, including private colleges and universities.

This means private colleges typically have wide authority to discipline employees for their speech.

In contrast, public colleges are considered part of the government. The First Amendment limits the legal authority they have over their employees’ speech. This is especially true when an employee is speaking as a private citizen – such as participating in a political rally outside of work hours, for example.

The Supreme Court ruled in a landmark 1968 case that public employees’ speech rights as private citizens can extend to criticizing their employer, like if they write a letter critical of their employer to a newspaper.

The Supreme Court also ruled in 2006 that
the First Amendment does not protect public employees from being disciplined by their employers when they say or write something as part of their official job duties.

Even when a public college employee is speaking outside of their job duties as a private citizen, they might not be guaranteed First Amendment protection. To reach this legal threshold, what they say must be about something of importance to the public, or what courts call a “matter of public concern.”

Talking or writing about news, politics or social matters – Kirk’s murder – often meets the legal test for when speech is about a matter of public concern.

In contrast, courts have ruled that personal workplace complaints or gossip typically does not guarantee freedom of speech protection.

And in some cases, even when a public employee speaks as a private citizen on a topic that a court considers a matter of public concern, their speech may still be unprotected.

A public employer can still convince a court that its reasons for prohibiting an employee’s speech – like preventing conflict among co-workers – are important enough to deny this employee First Amendment protection.

Lawsuits brought by the employees of public colleges and universities who have been fired for their comments about Kirk may likely be decided based on whether what they said or wrote amounts to a matter of public concern. Another important factor is whether a court is convinced that an employee’s speech about Kirk was serious enough to disrupt a college’s operations, thus justifying the employee’s firing.

Academic freedom and professors’ speech

There are also questions over whether professors at public universities, in particular, can cite other legal rights to protect their speech.

Academic freedom refers to a faculty member’s rights connected to their teaching and research expertise.

At both private and public colleges, professors’ work contracts – like the ones typically signed after receiving tenure – potentially provide legal protections for faculty speech connected to academic freedom, such as in the classroom.

However, the First Amendment does not apply to how a private college regulates its professors’ speech or academic freedom.

Professors at public colleges have at least the same First Amendment free speech rights as their fellow employees, like when speaking in a private citizen capacity.

Additionally, the First Amendment might protect a public college professor’s work-related speech when academic freedom concerns arise, like in their teaching and research.

In 2006, the Supreme Court left open the question of whether the First Amendment covers academic freedom, in a case where it found the First Amendment did not cover what public employees say when carrying out their official work.

Since then, the Supreme Court has not dealt with this complicated issue. And lower federal courts have reached conflicting decisions about First Amendment protection for public college professors’ speech in their teaching and research.

A large gray stone plaque shows the First Amendment in front of a green grassy field and buildings in the distance.
The First Amendment is on display in front of Independence Hall in Philadelphia.
StephanieCraig/iStock via Getty Images Plus

Future of free speech for university employees

Some colleges, especially public ones, are testing the legal limits of their authority over their employees’ speech.

These incidents demonstrate a culture of extreme political polarization in higher education.

Beyond legal questions, colleges are also grappling with how to define their commitments to free speech and academic freedom.

In particular, we believe campus leaders should consider the purpose of higher education. Even if legally permitted, restricting employees’ speech could run counter to colleges’ traditional role as places for the open exchange of ideas.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. What the First Amendment doesn’t protect when it comes to professors speaking out on politics – https://theconversation.com/what-the-first-amendment-doesnt-protect-when-it-comes-to-professors-speaking-out-on-politics-266128

Les adolescents confient-ils désormais leurs secrets aux intelligences artificielles ?

Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

Si les adolescents se sont longtemps épanchés dans des journaux intimes, sur des blogs, ou dans des conversations entre amis, ils n’hésitent pas aujourd’hui à se confier à des intelligences artificielles. Une pratique à prendre en compte pour mieux en prévenir les risques.


Les grands modèles de langage comme ChatGPT et des plateformes spécialisées telles que Replika – où l’on peut personnaliser une IA en lui attribuant même un prénom, une voix – s’imposent peu à peu comme des confidents dans l’univers des adolescents. Toujours disponibles, capables de répondre sans jugement et de donner l’illusion d’une écoute attentive, ils séduisent des jeunes en quête de réconfort ou de conseils.

Cette apparente bienveillance n’est pas sans risques : dépendance affective, exposition à des réponses inadaptées, voire dangereuses, et fragilisation de la confidentialité des données personnelles.

Ce phénomène, encore largement sous-estimé, révèle l’émergence d’une nouvelle vulnérabilité qui appelle à une vigilance accrue. Comment comprendre que l’expression de l’intimité adolescente glisse vers ces dispositifs algorithmiques ? Et quelles en sont les implications communicationnelles, psychosociales et éthiques ?

Du journal intime au chatbot : mutation du support de la confidence

La confidence adolescente, longtemps inscrite dans le registre du journal intime, de l’échange entre amis, ou avec des adultes de confiance, migre aujourd’hui vers des artefacts techniques. On observe ici une forme de relation parasociale inversée où le chatbot donne l’illusion d’une réciprocité et d’une écoute bienveillante alors que ces réponses reposent uniquement sur des logiques algorithmiques.

Selon une enquête de Common Sens Media, près de 72 % des adolescents aux États-Unis ont déjà utilisé un « compagnon IA ». Plus de la moitié (52 %) en sont des usagers réguliers et 13 % en font un usage quotidien. Le divertissement (30 %) et la curiosité (28 %) dominent, mais une part significative touche à l’intime, la recherche de conseil (14 %) et surtout la capacité de confier l’indicible (12 %), c’est-à-dire ce qu’ils n’oseraient pas partager à leur entourage humain.

Ces données témoignent d’une omniprésence devenue presque invisible dans la vie quotidienne. Une étude récente confirme cette tendance en France. Elle révèle que 80 % des jeunes utilisent déjà l’intelligence artificielle dans leur quotidien, même si 93 % affirment qu’elle ne pourra jamais remplacer les interactions humaines.

Près d’un jeune sur cinq a testé des IA conversationnelles comme Character.Ai ou le chatbot MyAI de Snapchat. Ces dispositifs sont principalement utilisés comme « compagnons virtuels » (28 %) ou comme « coachs psychologiques » (16 %). Pour beaucoup d’adolescents, ils apparaissent comme un remède ponctuel à la solitude (35 %) ou à l’ennui (41 %).

Si les chiffres de l’étude indiquent que près de 75 % des adolescents ont déjà interagi avec un « compagnon virtuel IA », que ce soit pour discuter, pour flirter ou pour chercher un soutien émotionnel, ces usages relèvent de trois grandes fonctions :

  • la régulation émotionnelle (extérioriser l’anxiété, verbaliser ses doutes) ;

  • l’orientation pratique et intime (relations amoureuses, sexualité, conflits familiaux) ;

  • l’externalisation de soi (journalisation numérique, conversation sans jugement).

Ces pratiques concernent surtout les digital natives fortement connectés, mais aussi les adolescents qui hésitent à se confier à leurs proches. Par ailleurs, un sondage Odoxa signale que les plus jeunes font davantage confiance aux IA tandis que les plus âgés expriment une certaine vigilance.

On retrouve ici une logique classique décrite en sciences de l’information et de la communication où la technologie occupe l’espace laissé vacant par une communication interpersonnelle jugée insatisfaisante.

Des risques pluriels

Tout d’abord, il est démontré que certains adolescents développent de véritables attachements amoureux à l’IA, ce qui peut remodeler leurs attentes relationnelles et, donc, met en avant le risque affectif.

Le risque social est également à considérer dans la mesure où le recours massif aux chatbots peut isoler, habituant à ne plus accepter la contradiction due à l’entrée dans des bulles de filtres confirmant les affirmations.

Ensuite, les recherches ont montré que les LLM produisent parfois des réponses biaisées ou erronées appelées « hallucinations », ce qui renforce les risques de mauvaises orientations.

La médiatisation de cas impliquant des incitations à la violence ou au suicide par des chatbots souligne les risques critiques liés à ces technologies. Ces épisodes montrent que l’interaction avec une IA conversationnelle peut devenir un facteur aggravant pour des publics vulnérables et, notamment, pour les mineurs et pour les personnes atteintes de troubles psychiques sévères.

De plus, les confidences partagées exposent à des enjeux de vie privée et de traçabilité numérique, problématiques accentuées par l’âge et par la méconnaissance des conditions d’usage alimentant ainsi le risque informationnel.

Les adolescents exposent désormais leur intimité à des dispositifs algorithmiques conçus par des acteurs privés dont la finalité n’est pas l’accompagnement psychologique, mais la captation et la valorisation de données. La recherche montre que la mémoire numérique est toujours orientée dans la mesure où elle conserve, filtre et reconfigure les traces. En l’espèce, elle archive et met en forme la subjectivité adolescente, ce qui interroge profondément la construction identitaire et relationnelle des jeunes.

Face à ce constat, l’interdiction pure et simple apparaît illusoire. Trois pistes d’action semblent plus pertinentes :

  • un encadrement technique visant à intégrer des garde-fous spécifiques pour mineurs (redirection vers des ressources humaines, modérations renforcées) ;

  • une éducation à la communication permettant d’apprendre à décoder et à contextualiser ces usages à destination des jeunes, des enseignants et des parents ;

  • une gouvernance partagée associant familles, enseignants, institutions de santé et plateformes pour co-construire des normes adaptées.

Vers une intimité sous influence

Le recours massif aux intelligences artificielles met en jeu non seulement le développement psychologique des jeunes, mais aussi la reconfiguration des régimes de confiance de nos sociétés. L’authenticité de la relation humaine cède le pas à une forme de relation parasociale artificielle façonnée par des logiques techniques et économiques.

Face à ce basculement, trois chantiers apparaissent incontournables :

  • le chantier scientifique afin de documenter rigoureusement l’ampleur et l’effet de ces usages ;

  • le chantier pédagogique afin de doter les jeunes d’une littératie émotionnelle et numérique adaptée

  • le chantier politique pour encadrer les pratiques des plates-formes et préserver les droits des mineurs.

La question n’est donc pas de savoir si les adolescents vont continuer à se confier aux IA (c’est déjà le cas) mais plutôt de déterminer dans quelles conditions cette confidence peut être entendue sans devenir un risque majeur pour leur autonomie et leur santé psychique.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les adolescents confient-ils désormais leurs secrets aux intelligences artificielles ? – https://theconversation.com/les-adolescents-confient-ils-desormais-leurs-secrets-aux-intelligences-artificielles-266004

Retour du loup : sociologie d’un grand remue-ménage

Source: The Conversation – in French – By Antoine Doré, Sociologue des sciences, techniques et politiques environnementales et agricoles., Inrae

Alors que les appels à renouer avec le sauvage se multiplient, la place du loup est devenue une question éminemment politique. Comment cohabiter avec le grand prédateur, et que cela signifie-t-il à tous les niveaux ? Dans « Politiques du loup. Faire de la sociologie avec des animaux », à paraître le 15 octobre 2025 aux Presses universitaires de France, le sociologue Antoine Doré (Inrae) revient sur la complexité de notre rapport au vivant, constitué d’un écheveau de liens complexes formés historiquement et socialement. Nous reproduisons ci-dessous un extrait de son introduction.


Plusieurs dizaines d’années après leur disparition, les loups sont de retour dans des contrées d’Europe et d’Amérique du Nord desquelles ils avaient été éradiqués. Au milieu des frénésies de la modernité, des raffuts du monde industriel et du grand saccage des milieux de vie, une espèce réapparaît : moment suspendu… entre espoir fragile et modeste soulagement devant les manifestations d’une nature qui reprend ses droits.

Dans le quotidien des champs, au milieu des frémissements du bétail et du fourmillement des vies pastorales, surgit une bête : instants de stupeur… profonde incompréhension et montées de colère face aux signes de délitement d’un monde familier dans lequel on ne se reconnaît plus.

Les réactions contrastées suscitées par le retour du prédateur ont quelques points communs. Elles témoignent d’une attention à l’habitabilité des lieux, que les prédateurs viennent tantôt enrichir, tantôt dégrader, selon les points de vue. Elles rappellent également à quel point les conditions d’existence de tout un chacun sont intimement intriquées avec la présence des autres. Non seulement avec la présence des autres humains, mais également avec celle des animaux qui peuplent les endroits où l’on vit.

Parce que se situer dans le monde revient à tisser des relations avec un ensemble d’entités matérielles et symboliques. Certaines, auxquelles sont reconnues des capacités à éprouver subjectivement les choses, occupent une position particulière. Car elles habitent le monde. Elles en ont une expérience. Vivre avec elles, c’est donc cohabiter. Les façons d’être au monde sont ainsi étroitement liées aux entités non humaines (notion mise à l’honneur en sciences sociales par la théorie de l’acteur-réseau, issue des Science and Technology Studies, selon laquelle la société ne se réduit pas aux humains), en particulier aux animaux.




À lire aussi :
Comprendre la diversité des émotions suscitées par le loup en France


Vivant-matière, Vivant-personne et vivants sauvages

Bien sûr, ces derniers ne tiennent pas une place équivalente dans la vie de tous. Un nombre croissant de personnes vivent des animaux sans vivre avec. Ceux-ci s’apparentent alors à ce que le sociologue André Micoud appelle du vivant-matière : des organismes désingularisés, souvent invisibles de leurs principaux usagers finaux, confinés dans des ateliers de productions intensives et des laboratoires de recherche.

Dans la taxonomie proposée par ce sociologue, le vivant-matière s’oppose au vivant-personne, qui désigne au contraire des animaux dotés d’identités singulières, façonnées par des attachements affectifs et des relations bienveillantes. Là où A. Micoud identifie deux pôles d’un continuum en tension, l’anthropologue Charles Stépanoff distingue pour sa part « deux formes originales de traitement des animaux [qui] se sont […] généralisées à une époque récente » : l’animal-matière et l’animal-enfant. Mais plus que des réalités empiriques « pures », ces deux figures s’apparentent davantage à des avatars de la pensée des modernes.

Les loups ont ceci de particulier et d’intéressant qu’ils surgissent dans les interstices de cette modernité occidentale, là où des personnes partagent leur vie avec des animaux selon des modalités bien différentes. Ici, les brebis tiennent une place irréductible à une simple fonction de production. Les relations aux chiens – de conduite ou de protection des troupeaux, de chasse, etc. – ne se résument pas à des rapports familiers. S’ils mangent et s’ils dorment parfois aux côtés des humains, ils partagent également avec eux le travail.

Et puis il y a les animaux que l’on chasse, ceux que l’on observe, ceux que l’on protège et dont on prend soin sans pour autant les apprivoiser. Se situer par rapport à ces bêtes relève d’enjeux complexes. Cela engage des rapports hétérogènes à l’environnement. Cela instaure également des positions différenciées dans l’espace social.

Car autour de ces animaux s’établissent des relations entre les habitants des territoires. Et les crises provoquées par les loups naissent bien souvent d’une perturbation de l’équilibre des attachements entre les habitants humains et non humains de ces territoires recolonisés par le prédateur. S’y écharper à propos des loups, c’est toujours aussi se disputer sur la relation qui convient à tout un cortège d’autres animaux.

Une multitude de perceptions sociales

Isabelle Arpin l’a bien montré dans une enquête sur la place de la faune sauvage dans la vie des gens de la Vanoise (Parc national situé dans le département de la Savoie, ndlr). Quand la sociologue amorce son enquête, les loups n’y ont pas réapparu. En écoutant les gens parler des animaux et en observant les activités qui les relient à ces derniers, elle distingue deux mondes :

  • d’un côté, celui des éleveurs, des chasseurs de chamois et d’une première génération de garde-moniteurs du parc national ;

  • de l’autre, celui des naturalistes, des protecteurs de la nature, d’une nouvelle génération de garde-moniteurs et autres agents du parc national.

Le premier, composé principalement des « gens d’ici », est resserré dans l’espace et le temps. Les récits qui y circulent décrivent avec précision la vie quotidienne dans ces lieux, une vie partagée avec la faune, structurée autour de l’opposition entre le sauvage et le domestique. On y accorde une attention particulière à l’abondance et à la rareté des espèces, aux craintes et à la distance que les animaux conservent à l’égard des humains.

Les bouquetins y sont par exemple considérés comme suspects et de peu d’intérêt. Ils sont nombreux et peu craintifs, ce qui les apparente alors anormalement à des animaux domestiques. Les mouflons, au contraire, restent plutôt rares et éloignés des humains. Ils sont ainsi mieux appréciés en tant qu’authentiques animaux sauvages.

Les bouquetins (ici, en Vanoise) sont souvent considérés comme inintéressants par les habitants locaux du fait de leur nombre élevé et de leur nature peu craintive. Mais les visiteurs, au contraire, les apprécient pour leur caractère indigène.
Ibex73/WikiCommons, CC BY-SA

Le second monde, composé surtout des « gens d’ailleurs », est plus vaste et diffus. On y traverse des époques reculées, des espaces lointains, entre des récits de voyage naturaliste à l’étranger et un intérêt pour la longue histoire des espèces sauvages. L’opposition du naturel et de l’artificiel y prédomine, mettant en jeu l’appréciation du caractère autonome et autochtone des animaux. Les bouquetins y sont appréciés en tant qu’animaux naturels, car indigènes aux lieux, tandis que les mouflons au contraire y sont moins bien considérés du fait de leur origine anthropique, l’espèce ayant été introduite au XIXe siècle, puis dans les années 1950.

On découvre, au fil des récits et des pratiques des habitants de la Vanoise, le rôle de quelques animaux dans la construction, la naturalisation ou la subversion d’oppositions structurantes entre les « gens d’ici » et les « gens d’ailleurs », mais aussi entre les femmes et les hommes, entre les générations ou encore entre les « profanes » aux savoirs empiriques ancrés dans l’expérience vécue et les « experts » dont les connaissances de terrain s’appuient aussi sur des savoirs livresques ou institutionnalisés.




À lire aussi :
Comment le tourisme et les loisirs de plein air ont modifié notre rapport aux animaux sauvages


Un équilibre fragile bousculé

Avant que les loups ne reviennent en Haute-Maurienne (Savoie) à l’automne 1997, quelques années après leur découverte dans le Mercantour (Alpes-Maritimes), les membres de ces deux mondes coexistent de manière relativement stable et pacifique. Ils parviennent à s’éviter en se partageant les animaux.

Les naturalistes s’attachent par exemple davantage aux bouquetins et les chasseurs aux chamois. L’accès aux animaux est également distribué dans le temps et l’espace, à travers la mise en place de périodes de chasse ou la définition de zones réglementées instituant une partition géographique des activités qui gravitent autour d’eux.

La coexistence n’est pas toujours facile cependant. Les catégories qui façonnent ces mondes s’avèrent parfois instables. Ces mondes réussissent toutefois à ménager des compromis face à l’émergence de nouveaux problèmes liés à la réapparition ou à l’augmentation des effectifs d’espèces comme les grands herbivores, les lynx, les grands rapaces ou encore les sangliers.

Jusqu’au retour du loup, l’attention se porte plutôt sur d’autres espèces, comme les grands herbivores, les lynx, les grands rapaces (ici, un gypaète barbu) ou les sangliers.
Noël Reynolds/Wikicommons, CC BY-SA

C’est alors que les loups surgissent et viennent bouleverser ce modus vivendi. Un sentiment de vulnérabilité plus brutal et plus insoutenable gagne en particulier les éleveurs et bergers confrontés aux attaques de leurs troupeaux, tandis que la protection des loups est identifiée par certains naturalistes comme un combat capital pour la préservation de la nature en général. Dès lors, ainsi que le souligne I. Arpin :

« La crise éclate parce que la venue des loups exaspère les tensions accumulées et met fin à un équilibre fragile entre les deux mondes. »

De nouveaux liens se créent entre des mondes qui doivent désormais composer ensemble. Les oppositions sauvage/domestique et naturel/artificiel sont brouillées : les loups deviennent l’archétype du sauvage pour les « gens d’ailleurs » et le comble de l’artifice pour les « gens d’ici » dont une majorité considère qu’ils ont été réintroduits secrètement par des « écologistes ». À l’arrivée du prédateur, les mondes globalement structurés se dissipent pour prendre la forme de réseaux conflictuels :

« L’ordre […] cède la place au désordre, les certitudes aux incertitudes, les savoir-faire maîtrisés aux improvisations. »

La propagation politique des loups

Si les études en sciences sociales ont bien documenté les turbulences locales provoquées par la présence des loups – lesquelles poussent à inventer des manières d’habiter les territoires –, on sait encore peu de choses de leur étonnante propagation politique.

Alors qu’avec nombre d’animaux, la cohabitation reste une affaire d’ajustements circonscrits aux bêtes et aux personnes directement engagées dans la situation, on est dans le cas des loups face à des négociations d’un type très différent. Les bouleversements locaux débordent des territoires concernés et affectent finalement une large part de la population nationale soucieuse du sort réservé aux loups ou aux moutons, aux éleveurs, aux mouflons, aux chasseurs, etc. Les destinées d’une multiplicité d’humains et de non-humains se trouvent inextricablement reliées à celle des loups, mais dans des sens très divers et antagonistes. De sorte que les modes de régulation locale des conflits, qui s’inventaient autour des problèmes liés par exemple aux sangliers, aux marmottes, ou aux bouquetins, apparaissent inappropriés pour faire face à l’ampleur de la crise engendrée par les loups.

Les réseaux constitués des humains et des non-humains directement affectés par le retour des loups ne parviennent plus à s’articuler. La définition des modalités de prise en charge des conséquences heureuses ou malheureuses liées à ces nouveaux venus fait l’objet d’une multitude de questions.

Ces questions circulent des territoires ruraux confrontés à la présence de ces prédateurs jusque dans les grands médias nationaux, au Parlement, ou encore dans les tribunaux : qui sont-ils ? D’où viennent-ils ? Combien sont-ils ? Comment les protéger ? Comment s’en protéger ? Que valent-ils ? Que coûtent-ils et à qui ? Comment les accueillir ? Comment s’en prémunir ?

Aucun compromis local ni aucune solution scientifique, technique, juridique ou administrative ne permet de répondre de manière satisfaisante aux problèmes qui se posent.

Les acteurs désorientés – les protecteurs comme les détracteurs du prédateur – se mobilisent alors pour chercher le soutien d’alliés extérieurs susceptibles de les aider à constituer une force de résolution de la crise qu’ils traversent et qui affecte ce à quoi ils tiennent. Dans les pays où les loups réapparaissent, l’annonce publique de leur retour fait grand bruit. L’événement s’impose comme un problème public sur lequel les habitants de toute la nation sont invités à s’exprimer. En France, le retour des loups donne lieu par exemple à un sondage Sofres commandé par le ministère de l’environnement en mai 1995 : 79 % des personnes interrogées s’y déclarent favorables.

Les réseaux locaux, qui se sont substitués aux mondes articulés, s’étendent au-delà de celles et ceux qui sont immédiatement concernés par le retour des loups. Ils forment ainsi des publics, c’est-à-dire des groupes d’individus qui, sans être directement affectés par la présence du prédateur, s’en trouvent pourtant sérieusement concernés (en reprenant la définition du « public » forgée par John Dewey :

« Ceux qui sont indirectement et sérieusement affectés en bien ou en mal forment un groupe suffisamment distinct pour requérir une reconnaissance et un nom. Le nom sélectionné est le public. »

Dans cette perspective, j’entends par « politique » un type d’expérimentation des problèmes, dont la trajectoire engage à un moment donné une prise en charge par des publics, c’est-à-dire par des personnes qui sont indirectement concernées, mais sérieusement affectées par ces derniers.

La présence des loups s’affirme alors comme une question plus politique que jamais. C’est à l’étude de ces formes intrigantes de propagation politique des loups que ce livre est consacré.




À lire aussi :
Malgré les plans loup successifs, une cohabitation toujours délicate dans les Alpes du Sud


The Conversation

Antoine Doré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Retour du loup : sociologie d’un grand remue-ménage – https://theconversation.com/retour-du-loup-sociologie-dun-grand-remue-menage-266605

Canada’s rising poverty and food insecurity have deep structural origins

Source: The Conversation – Canada – By Tracy Smith-Carrier, Professor and Canada Research Chair (Tier 2) in Advancing the UN Sustainable Development Goals, Royal Roads University

With one-quarter of Canadians struggling to put food on the table, Canada has recently received a D grade from Food Banks Canada for its performance in meeting the country’s food security needs.

According to a 2024 report by the federal government’s National Advisory Council on Poverty, poverty is also on the rise, and people who once thought they were financially secure are starting to feel the squeeze.

Canada is a signatory to the International Covenant on Economic, Social and Cultural Rights, recognizing the right to food, housing and an adequate standard of living.

As a social scientist, my research shows that Canada is struggling to realize these rights because decision-makers often lack the political will to act, and the judicial system still relies on an outdated approach that cannot hold these decision-makers accountable.

Understanding the rights split

Human rights are indivisible, meaning they’re all equally important and interdependent: one right cannot be realized without realizing the others. To meet their commitments, signatory states have agreed to respect, protect and fulfil human rights and to use the “maximum available resources” at their disposal to progressively achieve them.

While Canada and other United Nations member states have endorsed social and economic rights, these rights have often been treated differently from their civil and political counterparts.

Civil and political rights are typically considered negative rights, which do not require the government to act or provide anything, but rather to protect or not interfere with people’s rights, such as freedom of expression or religion. Social and economic rights, on the other hand, have often been deemed positive rights, meaning they require the state to act or provide resources to meet them, like education or health care.

In 1966, human rights were split: civil and political rights were placed under one covenant, and economic, social and cultural rights under another, rather than having them all affirmed under one, as was originally envisaged in the Universal Declaration of Human Rights in 1948.

Weaker language was deliberately included in the International Covenant of Economic, Social and Cultural Rights by the rights architects, particularly those in the United States, who felt that its ratification should not encroach on state autonomy or require “thicker social programs and a robust welfare state.”

Consequently, the courts, particularly Canadian lower courts and others internationally, have over the years commonly affirmed that social and economic rights are policy matters best determined by political entities and given democratic legitimacy at the ballot box.

While there is overlap between the two sets of rights, social and economic rights have frequently been deemed non-justiciable — not something people can challenge in court — and therefore not ones people can directly claim or pursue legal remedies for. Instead these rights have taken on an aspirational quality.

When courts are reluctant

Gosselin v. Québec set an important precedent for how social and economic rights would come to be interpreted in Canada.

This case relates to a regulation in the 1980s that set Québec’s social assistance benefits for people under 30 at only two-thirds of the regular benefit ($170 rather than $466 per month). The plaintiff claimed that the regulation was age-discriminatory and violated the Québec and Canadian Charters of Rights and Freedoms under Sections 7 and 15.

Judges in Québec, and later in 2002 in the Supreme Court — although the justices were split on the decision — confirmed the Charter did not impose positive-rights duties on governments, even while the Supreme Court left the door open that it could do so in the future.

Yet some legal scholars contend that the case took constitutional law “two steps backward” and failed to debunk the prejudicial stereotypes surrounding people living in poverty that influenced the decision. In 1992, a Québec Superior Court judge said “the poor were poor for intrinsic reasons” — that they were under-educated and had a weak work ethic.

Such reasoning, however, reflects an individual explanation of poverty — that financial hardship derives from personal failings or deficits — rather than a structural one, where poverty stems from economic downturns, weak labour markets and a lack of affordable child care or housing.

A significant body of evidence now shows that poverty largely has structural origins. Although there have been some victories on social and economic rights, many cases have followed the interpretation in Gosselin.

The right to housing was explicitly identified in the 2019 National Housing Strategy Act. The act introduced the National Housing Council and a complaints and monitoring mechanism through the federal housing advocate, a model that limits people from demanding state-provided housing and suing if they don’t receive it.

Lacking an ecosystem of rights compliance and enforcement, governments have turned to less effective options like charity, rather than engaging solutions that could actually end poverty and hunger, such as a basic income guarantee.

The impasse on social and economic rights has led to the denial of these rights for those living in poverty.

Enforcing implemented rights

Some, like Oxford legal scholar Sandra Fredman, argue the courts should use legal frameworks not to defer to politicians or usurp their decision-making capacity, but to require them to provide reasoned justifications for their distributive decisions.

Although non-binding, the UN’s judicial body, the International Court of Justice, recently concluded that countries have legal obligations to curb their emissions. Some courts, domestically and globally, are also gravitating toward the enforcement and justiciability of human rights, particularly in climate-related cases and the right to a healthy environment.

These could provide new precedents that transform how these rights are understood and enforced in the future.

Without concrete resources, targets and accountability mechanisms to ensure people have dignified access to food, housing and social security, these rights will remain largely hollow.

The “climate of the era” has changed. It’s time for politicians to actively work to fulfill social and economic rights and for the courts to hold them accountable when they fail to do so.

Without substantive rights — ones backed by action — poverty will continue to rise and people will be denied justice.

The Conversation

Tracy Smith-Carrier receives funding from the Tri-agency’s Canada Research Chairs program and the Social Sciences and Humanities Research Council.

ref. Canada’s rising poverty and food insecurity have deep structural origins – https://theconversation.com/canadas-rising-poverty-and-food-insecurity-have-deep-structural-origins-265570

What are climate tipping points? They sound scary, especially for ice sheets and oceans, but there’s still room for optimism

Source: The Conversation – USA (2) – By Alexandra A Phillips, Assistant Teaching Professor in Environmental Communication, University of California, Santa Barbara

Meltwater runs across the Greenland ice sheet in rivers. The ice sheet is already losing mass and could soon reach a tipping point. Maria-José Viñas/NASA

As the planet warms, it risks crossing catastrophic tipping points: thresholds where Earth systems, such as ice sheets and rain forests, change irreversibly over human lifetimes.

Scientists have long warned that if global temperatures warmed more than 1.5 degrees Celsius (2.7 Fahrenheit) compared with before the Industrial Revolution, and stayed high, they would increase the risk of passing multiple tipping points. For each of these elements, like the Amazon rain forest or the Greenland ice sheet, hotter temperatures lead to melting ice or drier forests that leave the system more vulnerable to further changes.

Worse, these systems can interact. Freshwater melting from the Greenland ice sheet can weaken ocean currents in the North Atlantic, disrupting air and ocean temperature patterns and marine food chains.

World map showing locations for potential tipping points.
Pink circles show the systems closest to tipping points. Some would have regional effects, such as loss of coral reefs. Others are global, such as the beginning of the collapse of the Greenland ice sheet.
Global Tipping Points Report, CC BY-ND

With these warnings in mind, 194 countries a decade ago set 1.5 C as a goal they would try not to cross. Yet in 2024, the planet temporarily breached that threshold.

The term “tipping point” is often used to illustrate these problems, but apocalyptic messages can leave people feeling helpless, wondering if it’s pointless to slam the brakes. As a geoscientist who has studied the ocean and climate for over a decade and recently spent a year on Capitol Hill working on bipartisan climate policy, I still see room for optimism.

It helps to understand what a tipping point is – and what’s known about when each might be reached.

Tipping points are not precise

A tipping point is a metaphor for runaway change. Small changes can push a system out of balance. Once past a threshold, the changes reinforce themselves, amplifying until the system transforms into something new.

Almost as soon as “tipping points” entered the climate science lexicon — following Malcolm Gladwell’s 2000 book, “The Tipping Point: How Little Things Can Make a Big Difference” — scientists warned the public not to confuse global warming policy benchmarks with precise thresholds.

A tall glacier front seen from above shows huge chunks of ice calving off into Disko Bay.
The Greenland ice sheet, which is 1.9 miles (3 kilometers) thick at its thickest point, has been losing mass for several years as temperatures rise and more of its ice is lost to the ocean. A tipping point would mean runaway ice loss, with the potential to eventually raise sea level 24 feet (7.4 meters) and shut down a crucial ocean circulation.
Sean Gallup/Getty Images

The scientific reality of tipping points is more complicated than crossing a temperature line. Instead, different elements in the climate system have risks of tipping that increase with each fraction of a degree of warming.

For example, the beginning of a slow collapse of the Greenland ice sheet, which could raise global sea level by about 24 feet (7.4 meters), is one of the most likely tipping elements in a world more than 1.5 C warmer than preindustrial times. Some models place the critical threshold at 1.6 C (2.9 F). More recent simulations estimate runaway conditions at 2.7 C (4.9 F) of warming. Both simulations consider when summer melt will outpace winter snow, but predicting the future is not an exact science.

Bars with gradients show the rising risk as temperatures rise that key systems, including Greenland ice sheet and Amazon rain forest, will reach tipping points.
Gradients show science-based estimates from the Global Tipping Points Report of when key global or regional climate tipping points are increasingly likely to be reached. Every fraction of a degree increases the likeliness, reflected in the warming color.
Global Tipping Points Report 2025, CC BY-ND

Forecasts like these are generated using powerful climate models that simulate how air, oceans, land and ice interact. These virtual laboratories allow scientists to run experiments, increasing the temperature bit by bit to see when each element might tip.

Climate scientist Timothy Lenton first identified climate tipping points in 2008. In 2022, he and his team revisited temperature collapse ranges, integrating over a decade of additional data and more sophisticated computer models.

Their nine core tipping elements include large-scale components of Earth’s climate, such as ice sheets, rain forests and ocean currents. They also simulated thresholds for smaller tipping elements that pack a large punch, including die-offs of coral reefs and widespread thawing of permafrost.

A few fish swim among branches of a white coral skeleton during a bleaching event.
The world may have already passed one tipping point, according to the 2025 Global Tipping Points Report: Corals reefs are dying as marine temperatures rise. Healthy reefs are essential fish nurseries and habitat and also help protect coastlines from storm erosion. Once they die, their structures begin to disintegrate.
Vardhan Patankar/Wikimedia Commons, CC BY-SA

Some tipping elements, such as the East Antarctic ice sheet, aren’t in immediate danger. The ice sheet’s stability is due to its massive size – nearly six times that of the Greenland ice sheet – making it much harder to push out of equilibrium. Model results vary, but they generally place its tipping threshold between 5 C (9 F) and 10 C (18 F) of warming.

Other elements, however, are closer to the edge.

Alarm bells sounding in forests and oceans

In the Amazon, self-perpetuating feedback loops threaten the stability of the Earth’s largest rain forest, an ecosystem that influences global climate. As temperatures rise, drought and wildfire activity increase, killing trees and releasing more carbon into the atmosphere, which in turn makes the forest hotter and drier still.

By 2050, scientists warn, nearly half of the Amazon rain forest could face multiple stressors. That pressure may trigger a tipping point with mass tree die-offs. The once-damp rainforest canopy could shift to a dry savanna for at least several centuries.

Rising temperatures also threaten biodiversity underwater.

The second Global Tipping Points Report, released Oct. 12, 2025, by a team of 160 scientists including Lenton, suggests tropical reefs may have passed a tipping point that will wipe out all but isolated patches.

Coral loss on the Great Barrier Reef. Australian Institute of Marine Science.

Corals rely on algae called zooxanthellae to thrive. Under heat stress, the algae leave their coral homes, draining reefs of nutrition and color. These mass bleaching events can kill corals, stripping the ecosystem of vital biodiversity that millions of people rely on for food and tourism.

Low-latitude reefs have the highest risk of tipping, with the upper threshold at just 1.5 C, the report found. Above this amount of warming, there is a 99% chance that these coral reefs tip past their breaking point.

Similar alarms are ringing for ocean currents, where freshwater ice melt is slowing down a major marine highway that circulates heat, known as the Atlantic Meridional Overturning Circulation, or AMOC.

Two illustrations show how the AMOC looks today and its expected weaker state in the future
How the Atlantic Ocean circulation would change as it slows.
IPCC 6th Assessment Report

The AMOC carries warm water northward from the tropics. In the North Atlantic, as sea ice forms, the surface gets colder and saltier, and this dense water sinks. The sinking action drives the return flow of cold, salty water southward, completing the circulation’s loop. But melting land ice from Greenland threatens the density-driven motor of this ocean conveyor belt by dilution: Fresher water doesn’t sink as easily.

A weaker current could create a feedback loop, slowing the circulation further and leading to a shutdown within a century once it begins, according to one estimate. Like a domino, the climate changes that would accompany an AMOC collapse could worsen drought in the Amazon and accelerate ice loss in the Antarctic.

There is still room for hope

Not all scientists agree that an AMOC collapse is close. For the Amazon rain forest and the North Atlantic, some cite a lack of evidence to declare the forest is collapsing or currents are weakening.

In the Amazon, researchers have questioned whether modeled vegetation data that underpins tipping point concerns is accurate. In the North Atlantic, there are similar concerns about data showing a long-term trend.

A map of the Amazon shows large areas along its edges and rivers in particular losing tree cover
The Amazon forest has been losing tree cover to logging, farming, ranching, wildfires and a changing climate. Pink shows areas with greater than 75% tree canopy loss from 2001 to 2024. Blue is tree cover gain from 2000 to 2020.
Global Forest Watch, CC BY

Climate models that predict collapses are also less accurate when forecasting interactions between multiple tipping points. Some interactions can push systems out of balance, while others pull an ecosystem closer to equilibrium.

Other changes driven by rising global temperatures, like melting permafrost, likely don’t meet the criteria for tipping points because they aren’t self-sustaining. Permafrost could refreeze if temperatures drop again.

Risks are too high to ignore

Despite the uncertainty, tipping points are too risky to ignore. Rising temperatures put people and economies around the world at greater risk of dangerous conditions.

But there is still room for preventive actions – every fraction of a degree in warming that humans prevent reduces the risk of runaway climate conditions. For example, a full reversal of coral bleaching may no longer be possible, but reducing emissions and pollution can allow reefs that still support life to survive.

Tipping points highlight the stakes, but they also underscore the climate choices humanity can still make to stop the damage.

The Conversation

Alexandra A Phillips does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. What are climate tipping points? They sound scary, especially for ice sheets and oceans, but there’s still room for optimism – https://theconversation.com/what-are-climate-tipping-points-they-sound-scary-especially-for-ice-sheets-and-oceans-but-theres-still-room-for-optimism-265183

The limits of free speech protections in American broadcasting

Source: The Conversation – USA – By Michael J. Socolow, Professor of Communication and Journalism, University of Maine

FCC Chairman Brendan Carr testifies in Washington on May 21, 2025. Brendan Smialowski/AFP via Getty Image

The chairman of the Federal Communications Commission is displeased with a broadcast network. He makes his displeasure clear in public speeches, interviews and congressional testimony.

The network, afraid of the regulatory agency’s power to license their owned-and-operated stations, responds quickly. They change the content of their broadcasts. Network executives understand the FCC’s criticism is supported by the White House, and the chairman implicitly represents the president.

I’m not just referring to the recent controversy between FCC Chairman Brendan Carr, ABC and Jimmy Kimmel. The same chain of events has happened repeatedly in U.S. history.

President Franklin Delano Roosevelt’s FCC chairman, James Lawrence Fly, warned the networks about censoring news commentators.

Then there was John F. Kennedy’s FCC chairman, Newton Minow, who criticized the networks for not airing more news and public affairs programming to support American democracy during the Cold War.

And there was George W. Bush’s FCC chairman, Michael Powell. He decided that a fleeting “wardrobe malfunction” during the 2004 Super Bowl halftime show – when Janet Jackson’s breast was exposed – was sufficient to punish CBS with a fine.

In each of those cases, the FCC represented the views of the White House. And in each case, the regulatory agency was employed to pressure the networks into airing content more aligned with the administration’s ideology.

But what’s interesting in those four examples is that two of the FCC chairmen were Democrats – Fly and Minow – and two were Republicans – Powell and Carr.

As a media historian, I’m aware of the long-existing bipartisan enthusiasm for exploiting the fact that no First Amendment exists in American broadcasting. Pressuring broadcasters by leveraging FCC power occurs regardless of which party controls the White House. And when the agency is used in partisan fashion, the rival party will criticize such politicization of regulation as a threat to free speech.

This recurring cycle is made possible by the fact that broadcasting is licensed by the government. Since a Supreme Court decision in 1943, the supremacy of the FCC in broadcast regulation has been unquestioned.

Such strong governmental oversight separates broadcasting from any other medium of mass communication in the United States. And it’s the reason why there’s no “free speech” when it comes to Kimmel, or any other performer, on U.S. airwaves.

The FCC’s empowerment

Since its establishment in 1934, the FCC’s primary role in broadcasting has been to authorize local station licenses “in the public interest, convenience, or necessity.”

In 1938, the FCC began its first investigation into network practices and policies, which resulted in new regulations. One of the new rules stated that no network could own and operate more than one licensed station in any single market. This forced NBC, which owned two networks that operated stations in several markets, to divest itself of one of its networks. NBC sued.

In the first serious constitutional test of the FCC’s full authority, in 1943, the Supreme Court vindicated the FCC’s expansive power over all U.S. broadcasting in its 5–4 verdict in National Broadcasting Co. v. United States. The ruling has stood since.

That’s why there’s no First Amendment in broadcasting. The Supreme Court ruled that, due to spectrum scarcity – the idea that the airwaves are a limited public resource and therefore not every American can operate a broadcast station – the FCC’s power over broadcasting must be expansive.

The 1934 act, the 1943 Supreme Court decision read, “gave the Commission … expansive powers … and a comprehensive mandate to ‘encourage the larger and more effective use of radio in the public interest,’ if need be, by making ‘special regulations applicable to radio stations engaged in chain (network) broadcasting.’”

The ruling also explains why the FCC can be credited with having created the American Broadcasting Company. Yes, the same ABC that suspended Kimmel in the face of FCC threats was the network that emerged from NBC’s forced divestiture of its Blue Network as a result of the 1943 Supreme Court decision.

The empowerment of the FCC by NBC v. U.S. led to such content restrictions as the Fairness Doctrine, which intended to ensure balanced political broadcasting, instituted in 1949, and later, additional FCC rules against obscenity and indecency on the airwaves. The Supreme Court decision also encouraged FCC chairmen to flex their regulatory muscles in public more often.

A Black woman and white man sing onstage.
A federal appeals court ruled on Nov. 2, 2011, that CBS should not be fined US$550,000 for Janet Jackson’s infamous ‘wardrobe malfunction.’
AP Photo/David Phillip

For example, when CBS suspended news commentator Cecil Brown in 1943 for truthful but critical news commentary about the U.S. World War II effort, FCC Chairman Fly expressed his displeasure with the network’s decision.

“It is a little strange,” Fly told the press, “that all Americans are to enjoy free speech except radio commentators.”

When FCC Chairman Minow complained about television in the U.S. devolving into a “vast wasteland” in 1961, the networks responded both defensively and productively. They invested far more money into news and public affairs programming. That led to significantly more news reporting and documentary production throughout the 1960s and 1970s.

A ‘hands-off’ FCC

In the early 2000s, FCC Chairman Powell promised to “refashion the FCC into an outfit that is fast, decisive and, above all, hands-off.”

Yet his promise to be “hands-off” did not apply to content regulation. In 2004, his FCC concluded a contentious legal battle with Clear Channel Communications over comments ruled “indecent” by shock jock Howard Stern. The settlement resulted in a US$1.75 million payment by Clear Channel Communications – the largest fine ever collected by the FCC for speech on the airwaves.

Powell apparently enjoyed policing content, as evidenced by the $550,000 fine his FCC levied against CBS for the fleeting exposure of singer Janet Jackson’s breast during the Super Bowl. The fine was eventually overturned. But Powell did successfully lobby Congress to significantly hike the amount of money the FCC could fine broadcasters for indecency. The fine for a single incident increased from $32,000 to $325,000, and up to $3 million if a network broadcasts it on multiple stations.

Powell’s regulatory activism, done mostly to curb the outrageous antics of radio shock jocks, resulted in some of the most significant and long-lasting restrictions on broadcast freedom in U.S. history. Thus, Carr’s 2025 threats toward ABC can be viewed in a historical context as an extension of established FCC activism.

Demonstrators holds signs in front of a building with columns.
Demonstrators hold signs on Sept. 18, 2025, outside Los Angeles’ El Capitan Entertainment Centre, where the late-night show ‘Jimmy Kimmel Live!’ is staged.
AP Photo/Damian Dovarganes

But Carr’s threat also appeared to contradict his previously espoused values.

As the author of the FCC section in Project 2025, a conservative blueprint for federal government policies, Carr wrote: “The FCC should promote freedom of speech … and pro-growth reforms that support a diversity of viewpoints.” In exploiting the FCC’s licensing power to threaten to penalize speech he found offensive, Carr failed to promote either freedom of speech or diversity of viewpoints.

If there’s one thing the Carr-Kimmel episode teaches us, it’s that more Americans should know the structural constraints in the U.S. system of broadcasting. Media literacy has proved essential as curbs to free expression – both official and unofficial – have become more popular.

When the FCC threatens a broadcaster, it does so in Americans’ name.

If Americans applaud regulatory activism when it supports their partisan beliefs, consistency demands they accept the same regulatory activism in the hands of their political opponents. If Americans prefer their political opposition show restraint in the regulation of broadcasting, then they need to promote restraint when their preferred administration is in power.

The Conversation

Michael J. Socolow does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The limits of free speech protections in American broadcasting – https://theconversation.com/the-limits-of-free-speech-protections-in-american-broadcasting-266206

Industrial facilities owned by profitable companies release more of their toxic waste into the environment

Source: The Conversation – USA (2) – By Mahelet G Fikru, Professor of Economics, Missouri University of Science and Technology

Toxic chemical pollution can come in many forms, including compounds that float on top of water. Brett Hondow/iStock / Getty Images Plus

How much pollution a facility engaged in production or resource extraction emits isn’t just based on its location, its industry or the type of work it does. That’s what our team of environmental and financial economists found when we examined how corporate characteristics shape pollution emissions.

Pollution emissions rates also vary with specific characteristics of the company that owns the facility – such as how many patents it holds, how profitable it is and how many employees it has, according to an analysis we have conducted of corporate pollution data.

We found that industrial and mining facilities owned by profitable companies with relatively few patents and fewer employees tend to release higher proportions of their toxic waste into the environment – into the air, into water or onto soil.

By contrast, industrial sites owned by unprofitable companies with higher levels of innovation and more personnel tend to handle higher proportions of their toxic waste in more environmentally responsible ways, such as processing them into nontoxic forms or recycling them, or burning them to generate energy.

Corporations publish their pollution data

A 1986 federal law requires companies that are in certain industries, employ more than 10 people and make, use or process significant amounts of certain toxic or dangerous chemicals to tell the government where those chemicals go after the company is done with them.

That data is collected by the U.S. Environmental Protection Agency in a database called the Toxics Release Inventory. That data includes information about the companies, their facilities and locations, and what they do with their waste chemicals.

The goal is not only to inform the public about which dangerous chemicals are being used in their communities, but also to encourage companies to use cleaner methods and handle their waste in ways that are more environmentally responsible.

Overall, U.S. companies reported releasing to the environment 3.3 billion pounds of toxic chemicals (1.5 billion kg) in 2023, a 21% decrease from 2014. The decline reflects increased waste management, adoption of pollution prevention and cleaner technologies, in addition to the fact that disclosure requirements motivate companies to reduce releases.

The 2023 releases came from over 21,600 industrial facilities in all 50 states and various U.S. territories, including Puerto Rico, the U.S. Virgin Islands, Guam and American Samoa. One-fifth of the facilities reporting toxic releases in 2023 were in Texas, Ohio and California.

What kinds of businesses release toxic pollution?

Metal mining, chemical manufacturing, primary metals, natural gas processing and electric utilities represent the top five polluting industrial sectors in the U.S. Combined, businesses in those sectors accounted for 78% of the toxic chemicals released in 2023.

Research has found that, often, higher levels of toxic chemical releases come from industrial facilities in less populated, economically disadvantaged, rural or minority communities.

But geography and population are not the whole story. Even within the same area, some facilities pollute a lot less than others. Our inquiry into the differences between those facilities has found that corporate characteristics matter a lot – such as operational size, innovative capacity and financial strength.

In our analysis, we combined the data companies reported to the EPA about toxic chemical releases with financial information on those companies and ZIP-code level geographic and demographic data. We found that corporate characteristics like profitability, employment size and number of patents are more strongly connected with toxic chemical releases than a community’s population density, minority-group percentage or household income.

We looked at what percentage of its toxic chemical waste a facility or mine released to the environment versus how much it treated, recycled or incinerated.

The average facility in our sample, which included 1,976 facilities owned by companies for which financial data is available, released about 39% of its toxic chemical waste to the environment, whether to air, water or land – with the remaining 61% of it managed through recycling, treatment or energy recovery either on-site or off-site.

But facilities in different industries have different release rates. For example, about 99% of toxic chemicals from coal mines are released to the environment, compared with 81% for natural gas extraction, recovery and processing; 25% for power-generating electric utilities; and less than 3% for electrical equipment manufacturers.

The role of innovation

One corporate attribute we examined was innovation, which we measured by counting corporations’ patent families, which are groups of patent documents related to the same invention, even if they are filed in different countries. We found that companies with more patent families tend to release less of their toxic waste to the environment.

Specifically, facilities owned by the top 25% of companies, when rated by innovation, released an average of 32.5% of their toxic waste to the environment, which is 8 percentage points lower than the average of facilities owned by the remaining companies in the sample.

We hypothesize that innovation may give firms a competitive advantage that also enables them to adopt cleaner production technologies or invest in more environmentally conscious methods of handling waste containing toxic chemicals, thereby preventing toxic chemicals from being directly released to the environment.

Size and profitability matter, too

We also looked at companies’ size – in terms of number of employees – and their profitability, to see how those connected with pollution rates at the facilities the company owns.

We found that larger companies, those with more than 19,000 employees, own facilities that release an average of 31% of their toxic chemical waste to the environment. By contrast, facilities owned by midsized companies, from 1,000 to 19,000 workers, release 45%, on average. Those owned by smaller companies, with less than 1,000 employees, release an average of 42% of their toxic chemical waste to the environment.

An important note is that those larger companies, which are more likely to have multiple locations, often own facilities that handle larger volumes of chemicals. So even if they release smaller proportions of their toxic waste to the environment, that may still add up to larger quantities.

We also found that industrial facilities owned by profitable firms have higher average rates of releasing toxic chemicals to the environment than those owned by unprofitable companies.

Facilities owned by companies with positive net income, according to their income statements obtained from PitchBook, a company that collects data on corporations, released an average of 40% of their toxic-chemical-containing wastes to the environment. Facilities owned by companies with negative net income released an average of 31% of their toxic chemical waste to the environment. To us, that indicates that financially strong companies are not necessarily more environmentally responsible. That may be evidence that profitable firms make money in part by contaminating the environment rather than paying for pollution prevention or cleanup.

Our analysis shows that geography and demographics alone do not fully account for industries’ and facilities’ differing levels of pollution. Corporate characteristics are also key factors in how toxic waste is handled and disposed of.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Industrial facilities owned by profitable companies release more of their toxic waste into the environment – https://theconversation.com/industrial-facilities-owned-by-profitable-companies-release-more-of-their-toxic-waste-into-the-environment-265227