Northern B.C. shows how big resource projects can strain rural health care

Source: The Conversation – Canada – By Gary N. Wilson, Professor of Political Science, University of Northern British Columbia

American tariffs and fears of a prolonged recession have increased calls to expand resource development and infrastructure projects in Canada. The pace and scope of expansion projects like these have major implications for Canada on many levels, including: commitments to environmental sustainability, relations with Indigenous Peoples and the quality of local health services.

In a study that I conducted with environmental health researcher Barbara Oke in northern British Columbia, we found that major resource projects can strain local health-care services in rural and remote regions. In particular, the influx of workers connected with development projects puts significant pressures on health-care providers. This is especially concerning as local health-care services are already experiencing funding, infrastructure and staff shortages.

Therefore, it’s critical that government and industry actively consider these pressures when planning new projects.

Health-care services under pressure

In recent years, northern British Columbia has been home to some of the biggest capital investment projects in Canada, including a major hydroelectric dam, liquefied natural gas (LNG) facilities, pipelines and mines.

Our interviews with leaders from Northern Health, the region’s main health-care provider, have highlighted the link between major development projects and the pressures experienced by their health-care system.

Pressures on the local health-care system mainly stem from the influx of a non-local workforce when compared to the size of the nearest community, and local contexts. The smaller the community, the more vulnerable its health-care system is to additional pressures, especially if capacity challenges already exist.

How well a project manages its health service impacts clearly matters. When project workers resided in well-managed camps supported by competent onsite medical service providers, the pressures on the local system were less than when workforces did not have adequate accommodation and health supports.

An older workforce

Contrary to some popular assumptions that itinerant project workforces consist mainly of young, risk-taking individuals, most workers seeking health-care services were older and managing multiple chronic illnesses or disease risk factors.

Therefore, most of the pressure on health-care services did not come from what one would consider typical “workplace injuries” but, rather, from workers experiencing injuries and illnesses common within any population.

One health-care interviewee said: “It’s not that [project workers] are asking for special services, but just having more people needing health care adds to [the] pressure.”

Emergency departments

Impacts to the health-care system were felt primarily in the emergency departments of local hospitals and health-care centres.

Many communities in northern B.C. do not have walk-in clinics and most doctor’s offices are already at patient capacity.

So if a project does not provide its own on-site medical supports, the only option for workers is to seek care at a local emergency department, which are supposed to respond to urgent issues.

When staff have to deal with non-urgent needs, such as prescription renewals, sick notes or to manage regular ailments, it compounds the challenges and congestion faced by emergency departments.

Cumulative impacts on health services

Beyond emergency departments, industry pressures have cascaded throughout the system, affecting services such as primary care, infectious disease, diagnostic and lab services, and administrative and ambulance transfer services.

Rising workloads, combined with higher private-sector wages and an industry-driven increase in the cost of living, have made it harder to retain and recruit staff — especially in housekeeping, food services, laundry, administration, ambulance services and care aide roles.

Several people interviewed noted the consistent and cumulative pressures of projects on the health-care system.

While the pressures from a single project may seem inconsequential, the impacts from multiple projects in the same area pose a significant challenge to health-care services.

Balancing resource development and health care

The strategic and economic value of resource development is difficult to ignore.

Major infrastructure projects contribute to both local and provincial economies. When managed well, the economic benefits of such projects can positively contribute to community health.

But when not managed properly, the pressures that major infrastructure projects place on local health-care services can be significant. Therefore, we strongly urge governments and businesses to consider their impacts on overburdened and hard-working health-care providers in rural and remote communities.

Barbara Oke contributed to this article. She recently completed her Master’s of Arts in Political Science at UNBC.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Northern B.C. shows how big resource projects can strain rural health care – https://theconversation.com/northern-b-c-shows-how-big-resource-projects-can-strain-rural-health-care-256059

Calls to designate the Bishnoi gang a terrorist group shine a spotlight on Canadian security laws

Source: The Conversation – Canada – By Basema Al-Alami, SJD Candidate, Faculty of Law, University of Toronto

British Columbia Premier David Eby recently called on Prime Minister Mark Carney to designate the India-based Bishnoi gang a terrorist organization.

Brampton Mayor Patrick Brown echoed the request days later. The RCMP has also alleged the gang may be targeting pro-Khalistan activists in Canada.

These claims follow a series of high-profile incidents in India linked to the Bishnoi network, including the murder of a Punjabi rapper in New Delhi, threats against a Bollywood actor and the killing of a Mumbai politician in late 2024.

How terrorism designations work

Eby’s request raises broader legal questions. What does it mean to label a group a terrorist organization in Canada and what happens once that label is applied?

Under Section 83.05 of the Criminal Code, the federal government can designate an entity a terrorist organization if there are “reasonable grounds to believe” it has engaged in, supported or facilitated terrorist activity. The term “entity” is defined broadly, covering individuals, groups, partnerships and unincorporated associations.

The process begins with intelligence and law enforcement reports submitted to the public safety minister, who may then recommend listing the group to cabinet if it’s believed the legal threshold is met. If cabinet agrees, the group is officially designated a terrorist organization.

A designation carries serious consequences: assets can be frozen and financial dealings become criminalized. Banks and other institutions are protected from liability if they refuse to engage with the group. Essentially, the designation cuts the group off from economic and civic life, often without prior notice or public hearing.

As of July 2025, Canada has listed 86 entities, from the Islamic Revolutionary Guard Corps to far-right and nationalist organizations. In February, the government added seven violent criminal groups from Latin America, including the Sinaloa cartel and La Mara Salvatrucha, known as the MS-13.

This marked a turning point: for the first time, Canada extended terrorism designations beyond ideological or political movements to include transnational criminal networks.

Why the shift matters

This shift reflects a deeper redefinition of what Canada considers a national security threat. For much of the post-9/11 era, counterterrorism efforts in Canada have concentrated on groups tied to ideological, religious or political agendas — most often framed through the lens of Islamic terrorism.

This has determined not only who is targeted, but also what forms of violence are taken seriously as national security concerns.

That is why the recent expansion of terrorism designations — first with the listing of Mexican cartels in early 2025, and now potentially with the Bishnoi gang — feels so significant.

It signals a shift away from targeting ideology alone and toward labelling profit-driven organized crime as terrorism. While transnational gangs may pose serious public safety risks, designating them terrorist organizations could erode the legal and political boundaries that once separated counterterrorism initiatives from criminal law.

Canada’s terrorism listing process only adds to these concerns. The decision is made by cabinet, based on secret intelligence, with no obligation to inform the group or offer a chance to respond. Most of the evidence remains hidden, even from the courts.

While judicial review is technically possible, it is limited, opaque and rarely successful.

In effect, the label becomes final. It brings serious legal consequences like asset freezes, criminal charges and immigration bans. But the informal fallout can be just as harsh: banks shut down accounts, landlords back out of leases, employers cut ties. Even without a trial or conviction, the stigma of being associated with a listed group can dramatically change someone’s life.

What’s at stake

Using terrorism laws to go after violent criminal networks like the Bishnoi gang may seem justified. But it quietly expands powers that were originally designed for specific types of threats. It also stretches a national security framework already tainted by racial and political bias.




Read more:
Canadian law enforcement agencies continue to target Muslims


For more than two decades, Canada’s counterterrorism laws have disproportionately targeted Muslim and racialized communities under a logic of pre-emptive suspicion. Applying those same powers to organized crime, especially when it impacts immigrant and diaspora communities, risks reproducing that harm under a different label.

Canadians should be asking: what happens when tools built for exceptional threats become the default response to complex criminal violence?

As the federal government considers whether to label the Bishnoi gang a terrorist organization, the real question goes beyond whether the group meets the legal test. It’s about what kind of legal logic Canada is endorsing.

Terrorism designations carry sweeping powers, with little oversight and lasting consequences. Extending those powers to organized crime might appear pragmatic, but it risks normalizing a process that has long operated in the shadows, shaped by secrecy and executive discretion.

As national security law expands, Canadians should ask not just who gets listed, but how those decisions are made and what broader political agendas they might serve.

The Conversation

Basema Al-Alami does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Calls to designate the Bishnoi gang a terrorist group shine a spotlight on Canadian security laws – https://theconversation.com/calls-to-designate-the-bishnoi-gang-a-terrorist-group-shine-a-spotlight-on-canadian-security-laws-259844

Des pistes pour une IA digne de confiance : mélanger expertises humaines et apprentissage automatique

Source: The Conversation – in French – By Elodie Chanthery, maîtresse de conférences en diagnostic de fautes – IA hybride, INSA Toulouse

Peut-on faire confiance à un algorithme d’IA dont les décisions ne sont pas interprétables ? Quand il s’agit de diagnostiquer une maladie ou de prédire une panne sur un train ou une voiture, la réponse est évidemment non.

L’intelligence artificielle hybride se positionne comme une réponse naturelle et efficace aux exigences croissantes d’interprétabilité, de robustesse et de performance.

En conciliant données et connaissances, apprentissage et raisonnement, ces approches ouvrent la voie à une nouvelle génération de systèmes intelligents, capables de comprendre — et de faire comprendre — le comportement de systèmes physiques complexes. Une direction incontournable pour une IA de confiance.


Les algorithmes d’IA s’immiscent de plus en plus dans les systèmes critiques — transport, énergie, santé, industrie, etc. Dans ces domaines, une erreur peut avoir des conséquences graves — et un problème majeur de la plupart des systèmes d’IA actuels est qu’ils ne sont pas capables d’expliquer leurs conclusions et qu’il est donc difficile pour leurs superviseurs humains de rectifier le système s’il commet une erreur.

Considérons par exemple la maintenance des roulements d’un train. Si un modèle d’IA indique la nécessité d’une réparation sans donner d’explication, le technicien en charge ne sait pas si l’alerte est justifiée, ni quoi réparer ou remplacer exactement. Celui-ci peut alors être amené à ignorer l’alerte pour éviter des arrêts ou des réparations inutiles, ce qui peut avoir des conséquences critiques. Pour ces raisons, la nouvelle loi européenne sur l’IA — le AI Act — introduit des exigences de transparence et de supervision humaine.




À lire aussi :
L’AI Act, ou comment encadrer les systèmes d’IA en Europe



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Pour concevoir des solutions à la fois performantes, robustes et interprétables (compréhensibles) par des humains, les approches d’IA dites « hybrides » proposent une voie prometteuse.

Il s’agit de combiner les méthodes d’apprentissage à partir des données (l’IA) avec des modèles basés sur les connaissances des experts du domaine concerné (par exemple des procédures de tests habituellement utilisées par les techniciens de maintenance des trains).

Première option : apprendre à partir des données pour enrichir les modèles experts

Une première approche hybride consiste à utiliser l’apprentissage automatique, non pas comme une fin en soi, mais comme un outil pour construire ou ajuster des modèles basés sur des connaissances physiques ou structurelles du système.

Par exemple, dans le suivi de patients épileptiques, des modèles physiques existent pour décrire les activités cérébrales normale et pathologique. Cependant, l’analyse de signaux d’électroencéphalogrammes par apprentissage automatique permet d’identifier des motifs annonciateurs de crises d’épilepsie que les modèles des experts ne prévoient pas. Ici, l’IA vient compléter la connaissance médicale avec des analyses pouvant prendre en compte l’évolution de la maladie spécifique à chaque patient.

On dit que l’apprentissage du système d’IA est « guidé » par des analyses de diagnosticabilité, c’est-à-dire la capacité à identifier précisément un état anormal grâce aux observations.

Un autre exemple concret : le modèle d’un moteur électrique enrichi avec l’IA hybride peut combiner un premier modèle représentant le comportement nominal du moteur sous forme d’équations de la physique, complété avec des comportements appris grâce aux données mesurées. On peut ainsi découvrir des comportements anormaux comme des petits glissements intermittents du rotor dus à une usure progressive des roulements.

On voit que cette combinaison permet à la fois de profiter de la rigueur du modèle physique et de la flexibilité de l’apprentissage automatique.

Deuxième option : Injecter directement des « règles » dans les modèles d’IA

Une autre voie d’hybridation consiste à intégrer directement des connaissances expertes dans les algorithmes d’apprentissage. Ainsi, on rend l’approche d’IA « interprétable » (dans le sens où le résultat peut être compris et expliqué par un humain). Par exemple, on peut guider un arbre de décision avec des règles inspirées de la physique ou du raisonnement humain.

Qu’est-ce qu’un arbre de décision ?

  • Un arbre de décision est un modèle d’apprentissage automatique qui permet de prendre des décisions en suivant une structure arborescente de règles successives basées sur les caractéristiques des données (par exemple les questions successives: “la température du patient est-elle supérieure 38,5°C ?” suivi de “le patient a-t-il du mal à respirer ?”).
  • À chaque noeud, une condition est testée, et selon la réponse (oui ou non), on progresse sur une branche.
  • Le processus se poursuit jusqu’à une “feuille” de l’arbre, qui donne la prédiction sous forme de valeur, ou une décision finale (“le patient a la grippe”).

En utilisant des arbres de décision dans les algorithmes d’IA, on peut dévoiler des « tests de diagnostic » adéquats que l’on ne connaissait pas encore.

Un exemple de test de diagnostic simple est de regarder la différence entre l’état d’un interrupteur et l’état de la lampe associée (la lampe ne s’allume que si la position de l’interrupteur est sur ON. Si l’on constate que l’interrupteur est sur ON mais que la lampe est éteinte, il y a un problème ; de même si l’interrupteur est OFF et la lampe est allumée). Ce genre de relation, égale à 0 quand le système fonctionne de manière nominale et différente de 0 quand il y a un problème, existe également pour le diagnostic de systèmes plus complexes. La seule différence est que la relation est mathématiquement plus complexe, et qu’elle fait intervenir plus de variables — si le test de diagnostic de notre système « interrupteur+ampoule » est simple, ces tests sont souvent plus difficiles à concevoir.

Ainsi, en IA, si on insère des arbres de décision où on force les règles à être des tests de diagnostic — sans connaître le test spécifique au préalable — on peut :

  • découvrir un test de diagnostic adéquat de manière automatique et sans expertise humaine,

  • faire en sorte que l’algorithme d’IA résultant soit plus facilement interprétable.

Troisième option : rendre les réseaux de neurones moins obscurs

Les réseaux de neurones sont très performants mais critiqués pour leur opacité. Pour y remédier, on peut injecter des connaissances expertes dans leur structure, notamment via par exemple les Graph Neural Networks (GNN).

Qu’est-ce qu’un réseau de neurones en graphes (Graph Neural Network (GNN)) ?

  • Un Graph Neural Network (GNN) est un modèle d’apprentissage automatique conçu pour traiter des données avec des relations explicites entre éléments, comme dans un réseau social ou une molécule. Contrairement aux réseaux de neurones classiques, qui supposent des données organisées en tableaux ou séquences, les GNN exploitent la structure d’un graphe: des noeuds (par exemple les individus dans un réseau social) et les liens entre ces noeuds (les liens entre les individus).
  • Chaque noeud apprend en échangeant de l’information avec ses voisins via le graphe. Cela permet de capturer des dépendances locales et globales dans des systèmes connectés.
  • Les GNN, c’est l’IA qui comprend les relations, pas juste les valeurs.

Contrairement aux architectures classiques, les GNN sont conçus pour traiter des données structurées sous forme de graphes, ce qui les rend particulièrement adaptés pour tirer parti des modèles de systèmes physiques complexes.

Par exemple, dans le cas d’une carte électronique, la structure du circuit — c’est-à-dire les connexions entre composants, la topologie des pistes, etc. — peut être représentée sous forme de graphe. Chaque nœud du graphe représente un composant (résistance, condensateur, circuit intégré…), et les arêtes traduisent les connexions physiques ou fonctionnelles.

En entraînant un GNN sur ces graphes enrichis de données mesurées (tensions, courants, températures), on peut non seulement détecter des anomalies, mais aussi localiser leur origine et comprendre leur cause probable, grâce à la structure même du modèle.

Cette approche améliore l’explicabilité des diagnostics produits : une anomalie n’est plus simplement un signal aberrant détecté statistiquement, mais peut être reliée à un ensemble de composants spécifiques, ou à une zone fonctionnelle de la carte. Le GNN agit ainsi comme un pont entre la complexité des réseaux de neurones et l’intelligibilité du comportement physique du système.

Quatrième option : croiser les sources pour un diagnostic fiable

Enfin, les méthodes de fusion permettent de combiner plusieurs sources d’information (modèles, données, indicateurs) en un diagnostic unifié. Ces méthodes s’avèrent particulièrement utiles lorsque les différentes sources d’information sont complémentaires ou redondantes.

Un exemple d’application : fusionner les résultats de diagnostic issus d’un modèle basé sur la physique et de modèles issus de méthodes d’apprentissage permet d’obtenir une estimation plus robuste de l’état de santé d’un composant, en tirant profit à la fois de la fiabilité de la modélisation physique et de la sensibilité des approches basées données.

C’est aussi exactement ce qui est fait en médecine lorsqu’on confronte les résultats d’un diagnostic médical obtenu par une équipe de médecins, dont les avis peuvent diverger, ajouté à des méthodes d’aide à la décision automatisées nourries par des données (diagnostics déjà existants, base de données patients, etc.).


Le programme « Investir pour l’avenir – PIA3 » ANR-19-PI3A-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Elodie Chanthery a reçu des financements d’ANITI dans le cadre du programme français « Investir pour l’avenir – PIA3 » sous le numéro de convention ANR-19-PI3A-
0004. Elle est membre d’ANITI (Artificial and Natural Intelligence Toulouse Institute).

Philippe Leleux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des pistes pour une IA digne de confiance : mélanger expertises humaines et apprentissage automatique – https://theconversation.com/des-pistes-pour-une-ia-digne-de-confiance-melanger-expertises-humaines-et-apprentissage-automatique-260331

La Thaïlande en crise politique et diplomatique

Source: The Conversation – in French – By Alexandra Colombier, Spécialiste des médias en Thaïlande, Université Le Havre Normandie

La première ministre thaïlandaise Paetongtarn Shinawatra a été suspendue suite à la fuite de l’enregistrement d’une conversation qu’elle a eue avec l’ancien dirigeant cambodgien Hun Sen. Cette conversation a été perçue comme un manquement grave à l’éthique, voire comme un acte de trahison, dans un contexte de tensions avec Phnom Penh. L’affaire ravive les tensions frontalières et exacerbe les rivalités claniques au sein du pouvoir thaïlandais.


Le 2 juin 2025, la Cour constitutionnelle thaïlandaise a voté à l’unanimité (9-0) pour examiner une requête déposée par 36 sénateurs demandant la destitution de la première ministre Paetongtarn Shinawatra. Le 1er juillet, la juridiction a prononcé sa suspension immédiate par 7 voix contre 2, dans l’attente d’un jugement définitif. La dirigeante dispose désormais de 15 jours pour préparer sa défense. C’est le vice-premier ministre Phumtham Wechayachai qui assure maintenant l’intérim, tandis que Paetongtarn elle-même se voit confier le portefeuille de la Culture, à l’issue d’un remaniement express du gouvernement. Paradoxalement, ce remaniement, approuvé par le roi, laisse le pays sans ministre de la défense, en pleine crise diplomatique avec le Cambodge.

Le motif officiel de la suspension de Paetongtarn ? Une « violation grave de l’éthique », à la suite de la fuite de l’enregistrement audio d’une conversation privée entre Paetongtarn et Hun Sen, l’ex-homme fort du Cambodge. Ce scandale diplomatique aggrave la crise politique thaïlandaise. Il révèle les tensions sous-jacentes d’un système fragile, marqué par des alliances dynastiques, la judiciarisation du politique, des rivalités militaires et une société polarisée.

Une fuite audio au cœur du scandale

Depuis mai 2025, les tensions entre la Thaïlande et le Cambodge ne cessent de croître, alimentées par d’anciens contentieux frontaliers hérités de la période coloniale française.

Le 18 juin, un enregistrement audio de 17 minutes est rendu public ; sa diffusion semble orchestrée depuis Phnom Penh, sans que l’on sache précisément par qui. On y entend la première ministre s’entretenir avec Hun Sen, président du Sénat cambodgien et père du premier ministre actuel Hun Manet. La discussion porte sur la souveraineté de trois temples situés à la frontière thaïlando-cambodgienne, théâtre de tensions depuis des décennies. Paetongtarn y adopte un ton informel et conciliant. À un moment, elle dit : « Oncle, soyez indulgent avec votre nièce. » Un peu plus loin, elle ajoute : « Votre excellence Hun Sen, tout ce que vous voudrez, je m’en chargerai. »

Dans l’appel, elle critique également le commandant de la deuxième région militaire de Thaïlande, le lieutenant-général Boonsin Padklang, responsable du secteur frontalier, en le qualifiant de membre du « camp opposé ». Un signal préoccupant pour la cohésion institutionnelle, dans un contexte de méfiance historique entre le clan Shinawatra et l’institution militaire.

Depuis la fuite de cet enregistrement, Paetongtarn a présenté ses excuses au général Boonsin et a exprimé publiquement ses regrets auprès de la population thaïlandaise – non pour ses propos tenus envers Hun Sen, mais pour la fuite elle-même, qu’elle qualifie de regrettable. Elle a justifié le ton de la conversation en évoquant une technique de négociation de sa part.

Hun Sen affirme n’avoir partagé l’enregistrement qu’avec environ 80 collègues pour les « informer », sans pouvoir identifier celui ou celle qui aurait orchestré la fuite. Une ligne de défense peu convaincante, d’autant plus qu’il a ensuite menacé de divulguer d’autres informations compromettantes sur Paetongtarn et son père Thaksin (ancien premier ministre de Thaïlande de 2001 à 2006).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’effet a été immédiat : un tollé national, des accusations de trahison et un gouvernement en crise. Le Parti du Peuple, principal parti d’opposition, issu du Parti Move Forward, dissous en 2024, a exigé la dissolution du Parlement et des législatives anticipées. Le Bhumjaithai, parti conservateur dont la base se trouve dans la région de Buriram (Isan), et deuxième force de la coalition gouvernementale derrière le Pheu Thai de la première ministre, a annoncé son retrait du gouvernement dès le 19 juin – officiellement, au nom de la souveraineté nationale face à une cheffe du gouvernement jugée incapable de répondre aux menaces venues du Cambodge ; officieusement, il cherche à se désolidariser d’un gouvernement fragilisé, dans un contexte de rivalité autour du contrôle du stratégique ministère de l’intérieur.

C’est dans ce contexte qu’un groupe de sénateurs proches du parti Bhumjaithai – surnommés les « bleus foncés » (couleur du parti Bhumjaithai) en raison de leur allégeance partisane – saisit la Cour constitutionnelle, accusant Paetongtarn d’une « violation grave de l’éthique ». Dans leur pétition, ils demandent officiellement sa destitution, estimant que son comportement a enfreint les standards de probité attendus d’un chef de gouvernement.

Une réponse risquée et une majorité menacée

Dans ce climat d’hostilité, Paetongtarn a une échappatoire : démissionner avant la décision de la Cour constitutionnelle, comme l’y ont invité de nombreux responsables politiques et analystes. Cette stratégie lui permettrait de préserver son avenir politique, et de se présenter de nouveau ultérieurement.

Ce choix n’est pas sans précédent dans la dynastie Shinawatra. En 2006, son père Thaksin avait dissous le Parlement pour tenter de désamorcer une crise politique, mais fut renversé peu après par un coup d’État militaire. En 2014, sa tante Yingluck, première ministre de 2011 à 2014, adopta la même stratégie : elle dissout l’Assemblée nationale avant d’être destituée par la Cour constitutionnelle, puis renversée à son tour par l’armée.

Ces précédents expliquent en partie pourquoi Paetongtarn semble avoir écarté cette option : dans le système politique thaïlandais, la dissolution du Parlement n’offre aucune garantie de survie. Elle préfère donc affronter le verdict d’une Cour constitutionnelle perçue comme proche de l’establishment royaliste et militaire, pourtant historiquement hostile aux Shinawatra, malgré le risque d’un bannissement politique.

Politiquement, sa position est devenue intenable. Le Pheu Thai, qu’elle dirige, ne compte que 141 députés sur 495. Sa nouvelle majorité repose sur une coalition fragile d’environ 260 sièges, menacée à tout moment par les dissensions internes et les jeux d’influence. Une vingtaine de parlementaires initialement élus dans l’opposition – surnommés les « Cobra MPs » pour avoir changé de camp moyennant contreparties financières – pourraient apporter un soutien ponctuel au gouvernement, mais sans garantir sa stabilité. Dans ce contexte, le remaniement ministériel apparaît comme une manœuvre tactique : il vise non seulement à rassurer l’opinion, mais aussi à élargir la base parlementaire en intégrant ou en récompensant les petits partis susceptibles de rejoindre ou de soutenir la coalition.

Et pourtant, ni la dissolution de l’Assemblée ni la tenue d’élections anticipées ne figurent à l’agenda. Le Pheu Thai espère faire adopter son budget avant octobre, et surtout éviter une confrontation électorale avec l’opposition représentée par le Parti du Peuple, crédité de 46 % d’intentions de vote selon un sondage NIDA du 29 juin, contre seulement 11,5 % pour le Pheu Thai.

En outre, la Commission nationale anti-corruption (NACC) enquête sur plusieurs dossiers concernant Paetongtarn : sa détention présumée illégale d’actions dans un complexe hôtelier luxueux ; une transaction familiale de 2016 dans laquelle elle aurait utilisé des billets à ordre sans date pour « payer » 4,4 milliards de bahts (environ 135 millions de dollars) d’actions, évitant ainsi près de 218 millions de bahts d’impôts ; ainsi que sa gestion controversée de la crise frontalière du 28 mai, qui a causé la mort d’un soldat cambodgien.

S’y ajoutent les affaires judiciaires visant son père, qui pourraient affaiblir l’ensemble de la famille, dans un contexte où les compromis passés entre le Pheu Thai et ses anciens adversaires conservateurs semblent de plus en plus fragilisés. Thaksin est jugé pour crime de lèse-majesté, à la suite d’une interview accordée à un média sud-coréen il y a neuf ans. Il est également mis en cause pour son retour controversé en Thaïlande en 2023 : bien qu’officiellement condamné à un an de prison après un pardon royal, il n’a passé aucun jour derrière les barreaux, ayant été transféré dès la première nuit à l’hôpital de la police pour raisons de santé. Ce séjour prolongé en chambre VIP a provoqué une vive controverse, relancée en juin 2025 par l’ouverture d’une enquête judiciaire et la suspension de plusieurs médecins par le Conseil médical, sur fond de pressions politiques.

L’histoire se répète : une Cour au cœur des jeux de pouvoir

La suspension de Paetongtarn s’inscrit dans une longue série de décisions judiciaires politiquement orientées. En 2024, son prédécesseur Srettha Thavisin, membre du Pheu Thai, avait été démis pour manquement éthique après avoir nommé un ministre ayant fait de la prison. En parallèle, nous l’avons évoqué, le Move Forward Party a été dissous et ses dirigeants bannis de la vie politique pour avoir fait campagne en faveur d’une réforme de la loi de lèse-majesté.

En 2022, la Cour avait suspendu le premier ministre Prayuth Chan-o-cha pour avoir dépassé la durée légale de son mandat, avant de conclure dans une décision controversée que son mandat n’avait réellement commencé qu’avec l’adoption de la nouvelle Constitution de 2017, bien qu’il dirigeait déjà le gouvernement militaire depuis 2014.

Cette tendance n’est pas neutre. Les institutions judiciaires, en particulier la Cour constitutionnelle, sont régulièrement mobilisées pour neutraliser les figures perçues comme hostiles à l’ordre établi (monarchie, armée, haute bureaucratie). Cette fois encore, la procédure suit un schéma bien rodé : acceptation de la plainte, enquête à charge, puis destitution.

Il convient de noter que le parti Bhumjaithai avait lui aussi fait l’objet d’une plainte, pour son implication présumée dans des fraudes lors des élections sénatoriales de 2024. Il lui était reproché d’avoir financé illégalement certains candidats. La Cour constitutionnelle a rejeté la requête à l’unanimité, estimant qu’il n’y avait pas lieu de poursuivre. Une décision qui tranche avec l’acceptation de la plainte visant Paetongtarn, et qui alimente les soupçons d’un traitement différencié. Le Bhumjaithai s’impose de plus en plus comme le nouveau pilier politique des forces conservatrices.

Manœuvres régionales, protestations nationales

La crise actuelle dépasse largement le cadre parlementaire. Le 28 juin, des milliers de manifestants se sont rassemblés à Bangkok à l’appel du « Front uni pour la défense de la souveraineté thaïlandaise ». À leur tête, Sondhi Limthongkul, figure centrale du mouvement des Chemises jaunes, un groupe royaliste et ultranationaliste opposé aux gouvernements issus de la mouvance Shinawatra, et l’un des artisans du renversement de Thaksin en 2006.

Aux côtés des figures traditionnelles de l’aile droite conservatrice, on retrouvait aussi d’anciens alliés de Thaksin désormais en rupture, dont Jatuporn Prompan, l’un des leaders des Chemises rouges, un mouvement populaire né en réaction au coup d’État de 2006. Une autre manifestation est prévue mi-août, au moment où la Cour constitutionnelle doit rendre son verdict.

Les discours varient, mais tous convergent vers une mise en accusation morale : la première ministre aurait troqué les intérêts nationaux contre des avantages familiaux. Si la majorité réclame un changement par les voies parlementaires, certains conservateurs zélés agitent la nécessité d’un coup d’État. La musique patriotique, les foulards de protestation, les sifflets : tout rappelait les mobilisations qui ont précédé le dernier coup d’État en date, en 2014.

En arrière-plan, les relations entre la Thaïlande et le Cambodge s’enveniment, sur fond de rivalités territoriales et de recomposition politique. Officiellement, Phnom Penh envisage de porter devant la Cour internationale de justice un différend frontalier autour de l’île de Kood, potentiellement riche en ressources gazières et pétrolières. Mais pour plusieurs analystes, cette démarche s’inscrit dans une stratégie plus large : affaiblir le gouvernement thaïlandais en alimentant la controverse autour de la diplomatie parallèle menée entre Thaksin Shinawatra et Hun Sen.

Le projet de développement conjoint de cette zone, longtemps discuté entre les deux hommes, symbolise aujourd’hui un alignement informel qui dérange à Bangkok. C’est dans ce contexte que la fuite audio apparaît comme une manœuvre délibérée : Hun Sen chercherait à exposer publiquement ces liens, à détourner l’attention des tensions internes au Cambodge, et à peser sur les équilibres politiques thaïlandais. Cette offensive s’explique aussi par des intérêts économiques plus immédiats : la légalisation des casinos, promue par Paetongtarn, et sa politique de lutte contre les réseaux criminels transfrontaliers, menacent directement l’industrie des casinos cambodgiens et les revenus d’élites cambodgiennes implantées le long de la frontière.

Ces attaques réactivent de vieilles suspicions autour des liens entre la famille Shinawatra et le Cambodge. Thaksin et Hun Sen entretiennent des relations étroites depuis des décennies, fondées sur des intérêts économiques communs et une forme de pragmatisme politique. Lorsque Thaksin et l’ex-première ministre Yingluck ont fui la Thaïlande après les coups d’État de 2006 et 2014, c’est Hun Sen qui leur a offert l’asile.

En 2008 et 2011, les tensions frontalières – notamment autour du temple de Preah Vihear – avaient déjà été instrumentalisées pour dépeindre les Shinawatra comme des traîtres à la nation. Aujourd’hui, avec Paetongtarn au pouvoir et Thaksin de retour, ces accusations ressurgissent.

Une instabilité chronique, une scène politique verrouillée

La destitution de Paetongtarn semble de plus en plus probable, mais les options de succession restent floues.

Son remplaçant désigné au sein du Pheu Thai, Chaikasem Nitisiri, suscite des réserves en raison de son état de santé et de ses positions passées en faveur d’une réforme du crime de lèse-majesté. Au sein de la coalition, d’autres personnalités comme Pirapan ou Jurin manquent de poids politique ou sont affaiblies par la controverse. À l’heure actuelle, le seul candidat disposant d’un poids parlementaire suffisant et d’une certaine légitimité semble être Anutin Charnvirakul. Mais en cas d’impasse parlementaire, l’ancien premier ministre Prayut Chan-o-cha pourrait émerger comme candidat « joker », bien qu’il ne pourrait exercer cette fonction que deux ans de plus avant d’atteindre le nombre d’années maximal à ce poste autorisé par la Constitution.

La chute de Paetongtarn, si elle se confirme, s’inscrit dans un cycle bien connu : des leaders issus des urnes sont discrédités par des mécanismes institutionnels, les élites conservatrices se réorganisent, les rues se remplissent, et l’armée se prépare à l’arrière-plan.

Derrière l’image d’un renouveau générationnel ou féminin, le pouvoir de Paetongtarn reposait sur une architecture héritée de son père qu’elle n’a ni réformée ni contestée. Mais en cherchant à naviguer dans ce système tout en y réimposant l’influence de sa famille, elle a ravivé les tensions avec les élites conservatrices qui avaient tout fait pour en exclure les Shinawatra. Un défi moins institutionnel que politique, mais elle a peut-être sous-estimé la résilience du système en place.

À court terme, tout dépend de la décision de la Cour constitutionnelle, attendue d’ici un ou deux mois. Mais comme toujours en Thaïlande, les véritables négociations n’ont pas lieu au Parlement ou sur la place publique ; elles se déroulent en coulisses, entre familles, factions et intérêts imbriqués, avec le roi à la tête de l’État.

The Conversation

Alexandra Colombier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Thaïlande en crise politique et diplomatique – https://theconversation.com/la-tha-lande-en-crise-politique-et-diplomatique-260252

Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications

Source: The Conversation – in French – By Alexis Aulagnier, Chercheur postdoctoral, Centre Emile Durkheim, Sciences Po Bordeaux

La loi Duplomb sera examinée ce mardi 8 juillet à l’Assemblée nationale. Le texte reprend plusieurs revendications de longue date du syndicat majoritaire agricole, historiquement opposé à l’objectif de réduction de l’utilisation de pesticides. Il est le fruit d’une séquence au cours de laquelle la FNSEA est parvenue à s’appuyer sur la colère des agriculteurs pour imposer certaines de ses demandes.


La période est aux régressions en matière de politiques écologiques. Les reculs se multiplient en ce qui concerne le climat, l’énergie ou encore la biodiversité, comme l’atteste ce récent rapport du réseau Action climat. Comment expliquer ces rétropédalages environnementaux ?

Nous proposons d’analyser le cas des politiques liées aux pesticides, au cœur de l’actualité en raison de la proposition de loi « visant à lever les contraintes à l’exercice du métier d’agriculteur », dite Duplomb. Ce texte, soutenu par la ministre de l’Agriculture Annie Genevard, acterait notamment la réintroduction temporaire d’un néonicotinoïde interdit depuis 2020, l’acétamipride.

Or ce texte n’est pas un fait isolé : il intervient au terme d’un processus à l’œuvre depuis deux ans, qui a vu des acteurs syndicaux comme la FNSEA réussir à fragiliser des politiques limitant l’usage de ces substances controversées.

Le plan Ecophyto, symbole du rejet de l’objectif de réduction des pesticides par une partie du monde agricole

Un rappel nécessaire : les pesticides sont encadrés, en France, par deux ensembles de politiques publiques. En amont de leur mise sur le marché, l’efficacité et les risques liés à leur usage sont évalués : c’est le système d’homologation, en place en France depuis près d’un siècle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Depuis la fin des années 2000, des politiques publiques visent par ailleurs à réduire l’usage de ces substances, dont les impacts apparaissent difficiles à contrôler. En 2008 a été lancé le plan Ecophyto, qui visait initialement à réduire de 50 % la consommation de pesticides.

Une part de la profession agricole, représentée en particulier par le syndicat majoritaire de la Fédération nationale des syndicats d’exploitants agricoles (FNSEA), n’a jamais fait mystère de son opposition à Ecophyto. Pour cette organisation, l’existence même d’une politique de réduction est illégitime, étant entendu que les risques liés aux pesticides sont déjà pris en charge par le système d’homologation.

Quand la FNSEA profite des manifestations pour remettre en cause le plan Ecophyto

En janvier et février 2024, le monde agricole a été secoué par un important mouvement de protestation sur l’ensemble du territoire français. Ces manifestations sont parties de la base, avec un mécontentement croissant dans plusieurs territoires à partir de l’automne 2023. Rien n’indique qu’Ecophyto était l’objet prioritaire de revendications au sein des collectifs mobilisés. Les spécialistes des mondes agricoles décrivent un malaise agricole multiforme, mêlant l’excès de normes et d’opérations administratives, un sentiment d’abandon et des préoccupations en matière de rémunération et de partage de la valeur.

En janvier 2024 pourtant, l’échelon national de la FNSEA, face à un exécutif déstabilisé par les mobilisations, a formulé une très large liste de revendications, incluant un « rejet d’Ecophyto ».

La stratégie a été gagnante : la mise en pause du plan a effectivement compté parmi les premières mesures annoncées par le gouvernement. Par la suite, le syndicat a imposé un changement d’indicateur pour ce plan, l’affaiblissant considérablement. Ce faisant, la FNSEA est parvenue à imposer une interprétation bien particulière de la colère des exploitants, instrumentalisant sa prise en charge politique pour contester un plan auquel elle s’opposait de longue date.

Cette séquence confirme la capacité de cette organisation à imposer ses priorités politiques, notamment dans des moments de crise. Les relations entre ce syndicat et les pouvoirs publics ont historiquement été privilégiées, notamment lors de la phase de modernisation de l’agriculture, qui s’est ouverte à la sortie de la Seconde Guerre mondiale. S’est mis en place à l’époque un système dit de « cogestion », dans lequel le ministère de l’Agriculture et les organisations professionnelles agricoles menaient de front l’intensification des productions.

Cette relation de cogestion s’est considérablement affaiblie à partir des crises sanitaires (vache folle, nitrates) et économiques (quotas laitiers) des années 1990, qui ont vu ces politiques modernisatrices être questionnées. Mais à l’heure où l’agriculture est mise face au défi de l’écologisation, ce syndicat continue d’apparaître comme un interlocuteur incontournable pour les pouvoirs publics.

La loi Duplomb reprend le « pas d’interdiction sans solutions » de la FNSEA

On retrouve cette même dynamique autour de la loi Duplomb, dont le contenu a été fixé en Commission mixte paritaire le 30 juin. Ce texte prévoit notamment la réautorisation temporaire de l’acétamipride, un pesticide utilisé par des agriculteurs dans les productions de betterave et de fruits à coque. Il fait partie de la famille des néonicotinoïdes, dont l’usage a progressivement été proscrit en France, en raison notamment de leurs impacts sur les populations d’insectes.

Au-delà du seul cas de l’acétamipride, la disposition du texte qui permet sa réintroduction apparaît comme particulièrement problématique. Elle inscrit dans la loi la possibilité de déroger temporairement à l’interdiction de pesticides si « les alternatives disponibles à l’utilisation de ces produits sont inexistantes ou manifestement insuffisantes ». Ce texte législatif reprend une logique devenue depuis quelques années un leitmotiv défendu par la FNSEA : « Pas d’interdiction sans solution ».

À première vue, cette demande semble légitime : il apparaît raisonnable de ne pas priver les agriculteurs de substances nécessaires à leurs productions en l’absence d’alternatives clairement identifiées. Mais à y regarder de plus près, conditionner le retrait de pesticides à la disponibilité d’alternatives comporte plusieurs limites.

Premièrement, pour satisfaire à cette logique, il convient de définir ce qui est considéré comme une alternative à un pesticide. Or, les agronomes ont montré que la réduction de l’usage de ces substances peut passer par l’adoption de pratiques alternatives – modification des rythmes de culture ou des assolements, diversification des cultures, entre autres – et pas seulement par l’usage de technologies de substitution. De telles méthodes ou pratiques culturales peuvent facilement être négligées au moment de passer en revue les alternatives identifiées.

Deuxièmement, les solutions alternatives aux pesticides gagnent à être pensées en interaction les unes avec les autres – c’est ce que les agronomes appellent une approche systémique. Les stratégies alternatives de protection des cultures sont d’autant plus efficaces qu’elles sont associées. Or, dans la logique dessinée par la loi Duplomb, les alternatives sont envisagées isolément les unes des autres.

Enfin, le « pas d’interdiction sans solutions » nécessite de définir les paramètres retenus pour décréter qu’une alternative est « équivalente » au pesticide qu’elle est censée remplacer. À ce stade, la loi Duplomb précise qu’une solution alternative doit procurer une « protection des récoltes et des cultures semblable à celle obtenue avec un produit interdit » et être « financièrement acceptable ». Cette définition d’apparent bon sens comporte le risque de disqualifier nombre de solutions, en imposant la comparaison terme à terme de méthodes de protection des cultures très différentes.

La FNSEA, un interlocuteur clé pour l’État malgré une représentativité qui s’érode

Il ne s’agit pas ici de délégitimer la recherche de solutions alternatives aux pesticides, qui est un enjeu essentiel. De multiples projets ont été lancés ces dernières années, en lien avec les filières agricoles, pour identifier et diffuser des stratégies de protection à même de remplacer les pesticides les plus dangereux. Mais conditionner le retrait de substances à la disponibilité d’alternatives présente le risque de maintenir indéfiniment sur le marché des produits chimiques controversés.

Les opposants à la réduction de l’usage des pesticides l’ont bien compris, et ont fait de ce « pas d’interdiction sans solution » un slogan. L’introduction de cette logique dans le droit est une victoire – revendiquée – pour la FNSEA. La loi Duplomb était censée être une réponse législative aux malaises agricoles. Elle comprend en réalité des mesures techniques qui ne concernent qu’un nombre réduit d’exploitants, en particulier ceux qui possèdent les exploitations à l’orientation la plus intensive. Elle néglige une série d’enjeux essentiels : répartition des revenus, règles commerciales, etc. Plus qu’une prise en compte réelle des difficultés du monde agricole, elle apparaît comme un nouveau véhicule de revendications anti-écologistes d’un syndicat toujours majoritaire – mais en recul – et qui ne représente plus qu’une partie d’un monde agricole toujours plus fragmenté.

Une politique prenant en charge le malaise agricole et les enjeux environnementaux devra nécessairement passer par une réflexion de fond sur les modalités de représentation du secteur, notamment la gouvernance des chambres d’agriculture.

The Conversation

Alexis Aulagnier est membre du Comité scientifique et technique (CST) du plan Ecophyo. Le présent article est signé à titre individuel et ne reflète en rien la position du comité.

ref. Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications – https://theconversation.com/loi-duplomb-et-pesticides-comment-la-fnsea-a-impose-ses-revendications-260603

« Nouveaux OGM » : quels risques en Europe à autoriser les semences issues des nouvelles techniques génomiques ?

Source: The Conversation – in French – By Dominique Desclaux, Chercheure en Agronomie et Génétique, Inrae

Un futur cadre réglementaire spécifique aux variétés OGM issues des « nouvelles techniques génomiques » (NTG) est en cours de discussion au sein de l’Union européenne. Le compromis à l’étude diviserait ces variétés en deux catégories, soumises à des contraintes différentes. Des citoyens et des scientifiques alertent sur les risques qu’une telle distinction entraînerait. Ce n’est pas seulement d’agriculture dont il est question, mais de l’assiette des consommateurs européens.


Les semences, premier maillon de notre agriculture, ont été sélectionnées au fil des siècles pour offrir une alimentation sûre, saine et durable. En France, un catalogue officiel réglementé par le ministère de l’agriculture via le Centre technique et permanent de la sélection (CTPS) recense les variétés pouvant être commercialisées dans le pays. Il est décrit comme un outil capable de sécuriser le marché de semences saines, loyales et marchandes, et de renseigner agriculteurs, consommateurs et industriels sur les caractéristiques précises des variétés cultivées.

Ce catalogue pourrait intégrer prochainement de nouvelles variétés, issues des nouvelles techniques génomiques (NTG, plus connu sous l’acronyme anglais NGT).

Classées comme OGM depuis 2018, ces variétés sont pour l’instant interdites de culture dans l’Union européenne et leur importation est autorisée sous condition d’étiquetage. Mais un assouplissement de ces règles est en cours de discussion à Bruxelles.

Que sont les variétés issues des NTG ?

Pour rappel, il existe divers types de techniques permettant de créer une variété végétale, et notamment d’introduire de nouveaux caractères d’intérêt dans une plante.

Les techniques de sélection conventionnelles consistent à croiser deux variétés d’une espèce végétale pour obtenir une plante présentant les caractéristiques souhaitées. Ce processus peut être accéléré par des substances chimiques ou des rayonnements induisant des mutations.

Les techniques de modification génétique (OGM) établies consistent à modifier le génome d’une plante par transfert de gènes d’origine extérieure (transgénèse).

Les nouvelles techniques génomiques (NGT), elles, recoupent les approches permettant de modifier le génome d’une plante :

  • par mutagénèse ciblée, qui induit une ou plusieurs mutations spécifiques sans insertion de matériel génétique nouveau ;

  • par transfert de gènes provenant de la même espèce ou d’une espèce étroitement apparentée, par cisgenèse ou intragénèse ;

  • ou encore par des techniques permettant l’insertion ou délétion ciblée de fragments d’ADN, par exemple grâce à la technique des « ciseaux » moléculaires (CRISPR-CAS).

Ces NGT sont présentées comme des techniques permettant donc de modifier en des endroits précis le génome pour conférer au végétal des caractéristiques d’intérêt. Par exemple, meilleure résistance à la sécheresse, aux insectes ravageurs et aux maladies, rendement plus élevé, etc.

Elles sont vues comme permettant d’accélérer la création d’une variété par rapport aux techniques conventionnelles.

Un compromis réglementaire à l’étude

Ces NGT, apparues après la mise en place de la réglementation sur les OGM de 2001, n’avaient jusqu’alors pas de cadre législatif spécifique.

En 2018, un arrêt de la Cour de justice européenne a soumis les produits issus de ces nouvelles techniques à la réglementation OGM.

Mais sous la pression de plusieurs parties prenantes, le Conseil européen, dans sa décision du 8 novembre 2019 a enjoint la Commission de produire une étude sur le statut des NGT au regard du droit de l’UE.

Le 29 avril 2021, la Commission a rendu son étude et a conclu que la législation actuelle sur les OGM n’était pas adaptée à la réglementation ni des plantes NGT obtenues par mutagenèse ciblée ou cisgénèse, ni des produits (y compris les denrées alimentaires et les aliments pour animaux) qui en sont dérivés. Elle a conclu que cette législation devait s’adapter aux progrès scientifiques et techniques dans ce domaine.

Une proposition législative nouvelle a ainsi été publiée le 5 juillet 2023.

Alors qu’aucune version recueillant une majorité qualifiée n’avait pu être établie sous les dernières présidences (espagnole, belge et hongroise). La présidence polonaise a pu obtenir, via un calendrier très serré, une majorité qualifiée sur un texte de compromis le 14 mars 2025.

Les variétés NGT divisées en deux catégories

La France l’a soutenu en vue de la phase de « trilogue », qui a débuté en mai 2025 et permet d’engager des discussions entre Commission, Conseil et Parlement européen afin d’offrir un cadre réglementaire spécifique aux végétaux issues des NTG. La France a toutefois reconnu qu’il ne répond pas totalement aux enjeux sur les brevets, sur lesquels on reviendra plus bas dans ce texte. Le Danemark qui préside actuellement (juillet à décembre 2025) le conseil européen devrait poursuivre cette phase de trilogue.

La version actuelle du compromis entérine les deux grandes catégories inscrites dans la proposition de loi.

  • La catégorie 1 (NGT1) englobe les végétaux NGT considérés comme « pouvant apparaître naturellement ou avoir été produits par des techniques conventionnelles ». Ses végétaux ne sont pas considérés comme des OGM, les sacs de semences se voient imposer un étiquetage mais pas le produit final qui parvient au consommateur. Un État ne peut pas refuser de cultiver ou d’importer des NGT de cette catégorie.

  • La catégorie 2 (NGT2) inclut tous les autres végétaux NGT. Ils sont alors considérés comme des OGM et doivent être étiquetés comme tels. Leur culture peut être interdite par un État sur son territoire. Toute plante rendue « tolérante aux herbicides » par NGT doit être intégrée dans cette catégorie.

Les deux catégories de NGT sont prohibées pour l’agriculture biologique. Les plantes NGT1 ou NGT2 peuvent être brevetées.

L’accord sur le mandat de négociation du Conseil permet à sa présidence d’entamer des discussions avec le Parlement européen sur le texte final du règlement. Le résultat devra être formellement adopté par le Conseil et le Parlement avant que le règlement puisse entrer en vigueur.

Une réglementation qui divise

La réglementation à l’étude divise, en particulier entre professionnels de la filière et organisations non gouvernementales.

L’Union française des semenciers (UFS), et notamment le Collectif en faveur de l’innovation variétale, s’est ainsi félicitée de la position du conseil de l’Union européenne. Elle a souligné le « retard » de l’Europe sur ces techniques autorisées par « d’autres régions du monde » et ajouté qu’« il en va de notre souveraineté alimentaire dans un contexte international de fortes tensions ».

D’autres organisations, telles les Amis de la Terre Europe, Pollinis ou ECVC (European Coordination Via Campesina), dénoncent cette décision. Elles estiment qu’elle « menace grandement l’avenir de l’agriculture européenne et condamne à l’échec la nécessaire transformation de notre modèle agricole, en renforçant l’emprise de quelques multinationales ».

Plusieurs incertitudes et risques de ce futur cadre réglementaire suscitent l’inquiétude parmi les citoyens, mais également les scientifiques.

Une distinction floue entre les catégories

Tandis que la première proposition de loi distinguait les NGT1 des NGT2 par le nombre de nucléotides modifiés (inférieur ou égal à 20 nucléotides pour les NGT1 et supérieur à 20 pour les NTG2), ce seuil qui était arbitraire a été supprimé au profit d’un flou tout aussi latent (20 modifications ou 3, selon les propositions du Conseil ou du Parlement).

Qui pourra vraiment statuer sur le fait que les modifications NGT1 pourraient apparaître naturellement ou si elles doivent relever de la catégorie NGT2 ? Même en amont, comment distinguer les plantes NGT1 et les plantes issues de techniques conventionnelles ?

Dans ce compromis, cette différence sera fondée sur la simple déclaration du semencier. En cas de doute ou de litige, les scientifiques s’accordent sur la très grande difficulté – voire l’impossibilité – de détecter la technique à l’origine d’une mutation dans le génome.

En outre, l’état insuffisant des connaissances actuelles sur les régulations génomiques et sur l’épigénétique ne permet pas d’affirmer l’« équivalence » – évoquée par le texte sans la définir – entre une plante NGT1 et une plante issue de technique conventionnelle.

L’efficacité des NGT en question

Par ailleurs, le texte de loi indique en préambule que :

« les NGT ont le potentiel de contribuer aux objectifs d’innovation et de durabilité […], à la biodiversité et adaptation au changement climatique, à la sécurité alimentaire mondiale, à la stratégie pour la bioéconomie et à l’autonomie de l’Union ».

Les OGM vantaient les mêmes promesses. Or, leurs résultats ne sont pas à la hauteur : des études ont montré que ces cultures sont marquées par une augmentation des traitements herbicides et insecticides et par un contournement des résistances par les ravageurs.

À l’heure actuelle, les scientifiques ont trop peu de recul sur les NGT. Le référentiel d’évaluation des risques sanitaires et environnementaux est mal adapté à ces nouvelles plantes.

Des risques liés aux brevets

La future législation pose enfin des interrogations en matière de propriété intellectuelle des variétés. Jusqu’ici, la France et l’Europe ont toujours refusé que leur reconnaissance passe par des brevets, privilégiant le certificat d’obtention végétale (COV) qui permettait notamment d’utiliser librement une variété dans un programme de sélection.

Si les brevets sont autorisés sur les plantes NGT1 considérées comme équivalentes à des plantes non modifiées, cela pourrait rouvrir des velléités de brevets sur traits natifs… autrement dit, des brevets sur des fragments d’ADN naturellement présents dans les plantes ou pouvant être obtenus après un simple croisement.

En outre, quid des semences paysannes ou traditionnelles qui contiendraient une séquence génétique « semblable » à celle obtenue par NGT et couverte par un brevet ? Les agriculteurs pourraient-ils être poursuivis pour contrefaçon ?

La concentration du secteur semencier est déjà très forte : en 2018, le marché mondial des semences était partagé entre six multinationales – Monsanto, Bayer, BASF, Syngenta, Dow et DuPont. Depuis, Bayer a racheté Monsanto, Dow et Dupont ont fusionné et donné Corteva, et Syngenta a été rachetée par ChemChina.

La proposition de loi et l’incitation au brevet ne risquent-elles pas d’accélérer cette concentration ? Quelle place pour les artisans semenciers ?

Une consultation lancée dans l’Union européenne

Ce compromis pose encore d’autres questions. Quid de la présence accidentelle de végétaux NGT1 ou NGT2 dans un champ en agriculture biologique ? Sur ce risque mentionné dans le texte de compromis, les États membres sont invités à prendre des mesures pour l’éviter. Mais concrètement, comment feront-ils ?

Enfin, un des problèmes tout aussi majeur est l’information du consommateur. Les NGT1 ne pouvant être refusées par les États et leur traçabilité étant restreinte à un étiquetage des semences, le mangeur européen ne pourra pas savoir si son assiette contient ou non des dérivés des variétés de cette catégorie.

Demain, sans que vous le sachiez, peut-être allez vous ingérer une tomate GABA antistress, une dorade produisant 50 % de muscle en plus, du blé moins générateur d’acrylamide, de l’huile de soja contenant moins de graisses saturées, du maïs waxy, ou encore en dessert une banane résistante à la cercosporiose (maladie des feuilles).

Nous sommes tous concernés par cette réglementation actuellement débattue à Bruxelles. Dans le cadre du projet de recherche européen Divinfood, nous organisons une consultation sur le sujet, à laquelle vous êtes largement invités à participer via ce lien. Cela permettra de faire remonter l’avis des futurs consommateurs de variétés NGT auprès des décideurs de l’Union européenne.

The Conversation

Dominique Desclaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Nouveaux OGM » : quels risques en Europe à autoriser les semences issues des nouvelles techniques génomiques ? – https://theconversation.com/nouveaux-ogm-quels-risques-en-europe-a-autoriser-les-semences-issues-des-nouvelles-techniques-genomiques-258004

Le « brassage cognitif » peut-il vraiment vous aider à vous endormir ?

Source: The Conversation – France in French (3) – By Melinda Jackson, Associate Professor at Turner Institute for Brain and Mental Health, School of Psychological Sciences, Monash University

S’endormir n’est pas toujours simple, en particulier lorsque l’on est en proie au stress. Ursula Ferrara/Shutterstock

Plutôt que de se focaliser sur leurs préoccupations, les personnes promptes à s’endormir ont tendance à laisser divaguer leurs pensées, ce qui mène leur cerveau vers un état propice au sommeil. Une méthode que l’on peut tenter de mimer en cas de difficultés d’endormissement, grâce à un exercice appelé « brassage cognitif ».


Si vous fréquentez un tant soit peu les réseaux sociaux – peut-être en plein milieu de la nuit, quand vous n’arrivez pas à dormir, tout en vous disant que ce n’est pas la solution pour trouver le sommeil… – vous avez probablement vu passer l’une des nombreuses vidéos qui vantent les mérites du « brassage cognitif » (« cognitive shuffling » en anglais), une méthode qui, selon ses partisans, favoriserait l’endormissement.

Le principe est de solliciter son cerveau en lui soumettant des images et des idées aléatoires, selon un protocole spécifique qui consiste à :

  • choisir un mot au hasard (par exemple « cookie ») ;

  • se concentrer sur la première lettre de ce mot (ici C) et énumérer une série de mots débutant par cette lettre : chat, carotte, calendrier, etc. ;

  • visualiser chaque nouveau mot ;

  • lorsque vous vous sentez prêt, passer à la lettre suivante (O) et renouveler le processus ;

  • poursuivre avec chaque lettre du mot initial (donc, ici, O, K, I puis E) jusqu’à ce que vous soyez prêt à changer de mot ou que vous sombriez dans le sommeil.

Certes, cette méthode rencontre un certain succès sur Instagram et TikTok. Mais repose-t-elle sur des bases scientifiques ?

D’où vient cette idée ?

La technique du brassage cognitif a été popularisée voici plus d’une dizaine d’années par le chercheur canadien Luc P. Beaudoin, après la publication d’un article décrivant ce qu’il nommait « serial diverse imagining » (« visualisation diversifiée sérielle »), une méthode présentée comme facilitant l’endormissement.

L’un des exemples proposés par Luc Beaudoin mettait en scène une femme pensant au mot « blanket » (couverture en anglais). Elle imaginait ensuite un vélo (en pensant au mot « bicycle », équivalent anglais de bicyclette), puis se visualisait en train d’acheter des chaussures (« buying », « acheter » en anglais). Ensuite, elle faisait surgir dans son esprit un bananier, en pensant au mot « banana » (« banane »), etc.

En passant à la lettre L, elle évoquait son ami Larry, puis le mot « like » (« aimer »), en imaginant son fils qui serrait son chien dans ses bras, avant de basculer sur la lettre A, pensant au mot « Amsterdam », qui lui faisait évoquer mentalement un marin réclamant une autre portion de frites en levant sa large main, dans un bar proche des docks de la capitale batave, tandis qu’en fond sonore, un accordéoniste jouait de son instrument désaccordé… Peu après, elle sombrait dans le sommeil.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Selon Luc Beaudoin, l’objectif de ces exercices mentaux est de penser brièvement à une « cible » neutre ou agréable, puis de passer à d’autres cibles, sans lien avec les précédentes, et ce, fréquemment, soit toutes les 5 à 15 secondes environ. Il ne s’agit ni de relier les mots évoqués entre eux, ni de satisfaire la tendance naturelle de notre esprit à donner du sens. Le brassage cognitif vise plutôt à imiter le fonctionnement cérébral des « bons dormeurs ».

Trier le bon grain pro-endormissement de l’ivraie insomniante

Des recherches ont démontré qu’avant de s’endormir, l’esprit des « bons dormeurs » est envahi de pensées « hallucinatoires », proches du rêve. Ces visions oniriques, désordonnées, sont radicalement différentes des préoccupations angoissées qu’expérimentent les personnes qui ont des tendances à l’insomnie. Ces dernières ont en effet plutôt tendance à se focaliser davantage sur leurs préoccupations, leurs problèmes ou les bruits environnants, tout en s’inquiétant sans cesse de ne pas trouver le sommeil.

Pages semblent s’envoler d’un livre et se transformer en oiseaux.
Les bons dormeurs ont généralement des pensées plus hallucinatoires et moins ordonnées avant de s’endormir que les mauvais dormeurs.
fran_kie/Shutterstock

Le brassage cognitif a pour but de détourner l’attention des pensées qui empêchent la somnolence (inquiétudes, planifications, ruminations) pour privilégier celles qui la favorisent (images calmes et neutres propices au sommeil). Il procure un moyen de s’apaiser et de s’évader, ce qui permet de diminuer le stress lié aux difficultés d’endormissement, et envoie au cerveau le signal que l’on est prêt à sombrer dans le sommeil.

Le va-et-vient d’images aléatoires mis en œuvre mime ce qu’il se passe naturellement lors de l’endormissement : l’activité cérébrale ralentit et produit sans effort conscient des séquences d’images déconnectées, appelées hallucinations hypnagogiques.

Les recherches préliminaires menées par Luc Beaudoin et son équipe suggèrent que cette méthode aiderait à réduire l’excitation mentale avant le sommeil, améliorerait la qualité de ce dernier et faciliterait l’endormissement.

Néanmoins, le nombre d’études étayant ces premiers résultats demeure limité, et des travaux complémentaires sont encore nécessaires pour les confirmer.

Et si cela ne fonctionne pas ?

« C’est en forgeant qu’on devient forgeron » : comme pour tout nouvel exercice, acquérir la maîtrise du brassage cognitif passe par une période d’entraînement. Ne soyez pas découragé si l’effet n’est pas immédiat. Persévérez, et faites preuve de bienveillance envers vous-même. Gardez aussi à l’esprit que chaque individu réagit différemment.

Par ailleurs, selon votre relation au stress, d’autres stratégies vous conviendront peut-être davantage :

  • instaurer une routine régulière avant le coucher pour inciter votre cerveau à se détendre ;

  • observer vos pensées, sans aucun jugement, pendant que vous êtes allongé ;

  • noter vos inquiétudes ou élaborer des listes de tâches plus tôt dans la journée, afin d’éviter de les ressasser au moment du coucher.

Enfin, si malgré tous vos efforts, vos pensées nocturnes continuent à nuire à la qualité de votre sommeil ou à votre bien-être, n’hésitez pas à consulter votre médecin ou un spécialiste du sommeil.

The Conversation

Melinda Jackson a reçu des financements du Medical Research Future Fund, du National Health and Medical Research Council (NHMRC), de l’Aged Care Research & Industry Innovation Australia (ARIIA) et de Dementia Australia. Elle est membre du conseil d’administration de l’Australasian Sleep Association.

Eleni Kavaliotis a déjà bénéficié d’une bourse du Programme de formation à la recherche (RTP) du gouvernement australien. Elle est membre du Conseil sur l’insomnie et la santé du sommeil de l’Association australasienne du sommeil (Australasian Sleep Association’s Insomnia and Sleep Health Council).

ref. Le « brassage cognitif » peut-il vraiment vous aider à vous endormir ? – https://theconversation.com/le-brassage-cognitif-peut-il-vraiment-vous-aider-a-vous-endormir-260685

Universities in every state care for congressional papers that document US political history − federal cuts put their work at risk

Source: The Conversation – USA – By Katherine Gregory, Assistant Professor, University Libraries, Mississippi State University

The papers of members of Congress are fertile ground for research into Congress’ role in shaping U.S. history. cunfek, iStock/Getty Images Plus

In 1971, the president of Mississippi State University, Dr. William L. Giles, invited President Richard Nixon to attend the dedication of U.S. Sen. John C. Stennis’ papers to the university library’s archives.

Nixon declined, but the Republican president sent a generous note in support of the veteran Democrat Stennis.

“Future students and scholars who study there will … familiarize themselves with the outstanding record of a U.S. Senator whose … judgment in complex areas of national security have been a source of strength and comfort to those who have led this Nation and to all who are concerned in preserving the freedom we cherish.”

Nixon’s prediction came true, perhaps ironically, considering the legal troubles over his own papers during the Watergate crisis. Congress passed the Presidential Records Act of 1978 after Nixon resigned.

Stennis’ gift to his alma mater caused a windfall of subsequent congressional donations to what is now the Mississippi Political Collections at Mississippi State University Libraries.

Now, 55 years later, Mississippi State University holds a body of records from a bipartisan group of officials that has positioned it to tell a major part of the state’s story in national and global politics. That story is told to over 100 patrons and dozens of college and K-12 classes each year.

The papers are fertile ground for scholarly research into Congress’ role in shaping U.S. history, with its extraordinary powers over lawmaking, the economy and one of the world’s largest militaries.

Mississippi State University, where I work as an assistant professor and director of the Mississippi Political Collections, is not alone in providing such a rich source of history. It is part of a national network of universities that hold and steward congressional papers.

But support for this stewardship is in jeopardy. With the White House’s proposed elimination of independent granting agencies such as the National Endowment for the Humanities and the Institute of Museum and Library Services, it is unclear what money will be available for this work in the future.

A typed letter on the letterhead of the U.S. Congress, Committee on Armed Forces begins 'Dear Walter:'
A 1963 letter from Sen. John Stennis to a constituent about agricultural legislation and also Russians in Cuba.
Mississippi State University

From research to public service

Mississippi State University’s building of an expansive political archive is neither unique nor a break from practices by our national peers:

The Richard Russell Library for Political Research and Studies at the University of Georgia – named after the U.S. senator from Georgia from 1933 to 1971 – has grown since its founding in 1974 into one of America’s premier research libraries of political history, with more than 600 manuscript collections and an extensive oral history collection.

• Iowa Sen. Tom Harkin donated his papers to Drake University to form The Harkin Institute, which memorializes Harkin’s role as chief sponsor of the Americans with Disabilities Act through disability policy research and education.

• Sens. Robert and Elizabeth Dole’s papers are the bedrock of the Dole Institute of Politics at Kansas University.

• In 2023, retiring Sens. Richard Shelby and Patrick Leahy donated their archives – Shelby to the University of Alabama and Leahy to the University of Vermont.

By lending their papers and relative political celebrity, members of Congress have laid the groundwork for repositories like these to promote policy research to enable local and state governments to shape legislation on issues central to their states.

More complete history

When the repositories are at universities, they also provide educational programming that encourages public service for the next generations.

At Mississippi State University, the John C. Stennis Institute for Government and Community Development sponsors an organization that allows students to learn about government, voting, organizing and potential careers on Capitol Hill with trips to Washington, D.C.

Depositing congressional papers in states and districts, to be cared for by professional archivists and librarians, extends the life of the records and expands their utility.

When elected officials give their papers to their constituents, they ensure the public can see and use the papers. This is a way of returning their history to them, while giving them the power to assemble a more complete, independent version of their political history. While members of Congress are not required by law to donate their papers, they passed a bipartisan concurrent resolution in 2008 encouraging the practice.

Users of congressional archives range from historians to college students, local investigative journalists, political memoirists and documentary filmmakers. In advance of the 2020 election, we contributed historical materials to CNN’s reporting on Joe Biden’s controversial relationship with the Southern bloc of segregationist senators in his early Senate years.

A yellowed letter from 1947 about Indian resource rights from a congressman to a Native American constituent in Oklahoma.
A copy of a letter from U.S. Rep. Carl Albert of Oklahoma, who ultimately became the 46th speaker of the U.S. House of Representatives.
Carl Albert Center Congressional and Political Collections, University of Oklahoma

Preserving the archives

While the results contribute to the humanities, the process of archival preservation and management is as complex a science as any other.

“Congressional records” is a broad term that encompasses many formats such as letters, diaries, notes, meeting minutes, speech transcripts, guestbooks and schedules.

They also include ephemera such as campaign bumper stickers, military medals and even ceremonial pieces of the original U.S. Capitol flooring. They contain rare photographs of everything from natural disaster damage to state dinners and legacy audiovisual materials such as 8 mm film, cassette tapes and vinyl records. Members of Congress also have donated their libraries of hundreds of books.

Archival preservation is a constantly evolving science. Only in the mid-20th century was the acid-free box developed to arrest the deterioration of paper records. After the advent of film-based photographs, archivists later learned to keep them away from light and heat, and they observed that audiovisual materials such as 8mm tape decompose from acid decay quickly if not stored in proper conditions.

Alongside preservation work comes the task of inventorying the records for public use. Archivists write finding aids – itemized, searchable catalogs of the records – and create metadata, which describes items in terms of size, creation date and location.

Future congressional papers will include born-digital content such as email and social media. This means traditional archiving will give way to digital preservation and data management. Federal law mandates that digital records have alt-text and transcription, and they need specialized expertise in file storage and data security because congressional papers often contain case files with sensitive personal data.

With congressional materials often clocking in at hundreds or thousands of linear feet, emerging artificial intelligence and automation technologies will usher this field into a new era, with AI speeding metadata and cataloging work to deliver usable records for researchers faster than ever.

No more funding?

All of this work takes money; most of it takes staff time. Institutions meet these needs through federal grants – the very grants at risk from the Trump administration’s proposed elimination of the agencies that administer them.

For example, West Virginia University has been awarded over $400,000 since 2021 from the National Endowment for the Humanities for the American Congress Digital Archives Portal project, a website that centralizes digitized congressional records at the university and a growing list of partners such as the University of Hawaii and the University of Oklahoma.

Past federal grants have funded other congressional papers projects, from basic supply needs such as folders to more complex repair of film and tape.

The Howard Baker Center for Public Policy at the University of Tennessee used National Endowment for the Humanities funds to purchase specialized supplies needed to store the papers of its namesake, the Republican senator who also served as chief of staff to President Ronald Reagan.

National Endowment for the Humanities funds helped process U.S. Rep. Pat Williams’ papers at the University of Montana, resulting in a searchable finding aid for the 87 boxes of records documenting the Montana Democrat’s 18 years in Congress.
President Franklin D. Roosevelt said, “I have an unshaken conviction that democracy can never be undermined if we maintain our library resources and a national intelligence capable of utilizing them.”

With the current threat to federal grants – and agencies – that pay for the crucial work of stewarding these congressional papers, it appears that these records of democracy may no longer play their role in supporting that democracy.

The Conversation

Katherine Gregory received funding from the National Endowment for the Humanities and is a member of the Society of American Archivists.

ref. Universities in every state care for congressional papers that document US political history − federal cuts put their work at risk – https://theconversation.com/universities-in-every-state-care-for-congressional-papers-that-document-us-political-history-federal-cuts-put-their-work-at-risk-256053

Your data privacy is slipping away – here’s why, and what you can do about it

Source: The Conversation – USA – By Mike Chapple, Teaching Professor of IT, Analytics, and Operations, University of Notre Dame

Cybersecurity and data privacy are constantly in the news. Governments are passing new cybersecurity laws. Companies are investing in cybersecurity controls such as firewalls, encryption and awareness training at record levels.

And yet, people are losing ground on data privacy.

In 2024, the Identity Theft Resource Center reported that companies sent out 1.3 billion notifications to the victims of data breaches. That’s more than triple the notices sent out the year before. It’s clear that despite growing efforts, personal data breaches are not only continuing, but accelerating.

What can you do about this situation? Many people think of the cybersecurity issue as a technical problem. They’re right: Technical controls are an important part of protecting personal information, but they are not enough.

As a professor of information technology, analytics and operations at the University of Notre Dame, I study ways to protect personal privacy.

Solid personal privacy protection is made up of three pillars: accessible technical controls, public awareness of the need for privacy, and public policies that prioritize personal privacy. Each plays a crucial role in protecting personal privacy. A weakness in any one puts the entire system at risk.

The first line of defense

Technology is the first line of defense, guarding access to computers that store data and encrypting information as it travels between computers to keep intruders from gaining access. But even the best security tools can fail when misused, misconfigured or ignored.

Two technical controls are especially important: encryption and multifactor authentication. These are the backbone of digital privacy – and they work best when widely adopted and properly implemented.




Read more:
The hidden cost of convenience: How your data pulls in hundreds of billions of dollars for app and social media companies


Encryption uses complex math to put sensitive data in an unreadable format that can only be unlocked with the right key. For example, your web browser uses HTTPS encryption to protect your information when you visit a secure webpage. This prevents anyone on your network – or any network between you and the website – from eavesdropping on your communications. Today, nearly all web traffic is encrypted in this way.

But if we’re so good at encrypting data on networks, why are we still suffering all of these data breaches? The reality is that encrypting data in transit is only part of the challenge.

Securing stored data

We also need to protect data wherever it’s stored – on phones, laptops and the servers that make up cloud storage. Unfortunately, this is where security often falls short. Encrypting stored data, or data at rest, isn’t as widespread as encrypting data that is moving from one place to another.

While modern smartphones typically encrypt files by default, the same can’t be said for cloud storage or company databases. Only 10% of organizations report that at least 80% of the information they have stored in the cloud is encrypted, according to a 2024 industry survey. This leaves a huge amount of unencrypted personal information potentially exposed if attackers manage to break in. Without encryption, breaking into a database is like opening an unlocked filing cabinet – everything inside is accessible to the attacker.

Multifactor authentication is a security measure that requires you to provide more than one form of verification before accessing sensitive information. This type of authentication is more difficult to crack than a password alone because it requires a combination of different types of information. It often combines something you know, such as a password, with something you have, such as a smartphone app that can generate a verification code or with something that’s part of what you are, like a fingerprint. Proper use of multifactor authentication reduces the risk of compromise by 99.22%.

While 83% of organizations require that their employees use multifactor authentication, according to another industry survey, this still leaves millions of accounts protected by nothing more than a password. As attackers grow more sophisticated and credential theft remains rampant, closing that 17% gap isn’t just a best practice – it’s a necessity.

Multifactor authentication is one of the simplest, most effective steps organizations can take to prevent data breaches, but it remains underused. Expanding its adoption could dramatically reduce the number of successful attacks each year.

Awareness gives people the knowledge they need

Even the best technology falls short when people make mistakes. Human error played a role in 68% of 2024 data breaches, according to a Verizon report. Organizations can mitigate this risk through employee training, data minimization – meaning collecting only the information necessary for a task, then deleting it when it’s no longer needed – and strict access controls.

Policies, audits and incident response plans can help organizations prepare for a possible data breach so they can stem the damage, see who is responsible and learn from the experience. It’s also important to guard against insider threats and physical intrusion using physical safeguards such as locking down server rooms.

Public policy holds organizations accountable

Legal protections help hold organizations accountable in keeping data protected and giving people control over their data. The European Union’s General Data Protection Regulation is one of the most comprehensive privacy laws in the world. It mandates strong data protection practices and gives people the right to access, correct and delete their personal data. And the General Data Protection Regulation has teeth: In 2023, Meta was fined €1.2 billion (US$1.4 billion) when Facebook was found in violation.

Despite years of discussion, the U.S. still has no comprehensive federal privacy law. Several proposals have been introduced in Congress, but none have made it across the finish line. In its place, a mix of state regulations and industry-specific rules – such as the Health Insurance Portability and Accountability Act for health data and the Gramm-Leach-Bliley Act for financial institutions – fill the gaps.

Some states have passed their own privacy laws, but this patchwork leaves Americans with uneven protections and creates compliance headaches for businesses operating across jurisdictions.

The tools, policies and knowledge to protect personal data exist – but people’s and institutions’ use of them still falls short. Stronger encryption, more widespread use of multifactor authentication, better training and clearer legal standards could prevent many breaches. It’s clear that these tools work. What’s needed now is the collective will – and a unified federal mandate – to put those protections in place.


This article is part of a series on data privacy that explores who collects your data, what and how they collect, who sells and buys your data, what they all do with it, and what you can do about it.

The Conversation

Mike Chapple does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Your data privacy is slipping away – here’s why, and what you can do about it – https://theconversation.com/your-data-privacy-is-slipping-away-heres-why-and-what-you-can-do-about-it-251768

Scientific norms shape the behavior of researchers working for the greater good

Source: The Conversation – USA – By Jeffrey A. Lee, Professor of Geography and the Environment, Texas Tech University

Mentors model the ethical pursuit of scientific knowledge. sanjeri/E+ via Getty Images

Over the past 400 years or so, a set of mostly unwritten guidelines has evolved for how science should be properly done. The assumption in the research community is that science advances most effectively when scientists conduct themselves in certain ways.

The first person to write down these attitudes and behaviors was Robert Merton, in 1942. The founder of the sociology of science laid out what he called the “ethos of science,” a set of “values and norms which is held to be binding on the man of science.” (Yes, it’s sexist wording. Yes, it was the 1940s.) These now are referred to as scientific norms.

The point of these norms is that scientists should behave in ways that improve the collective advancement of knowledge. If you’re a cynic, you might be rolling your eyes at such a Pollyannaish ideal. But corny expectations keep the world functioning. Think: Be kind, clean up your mess, return the shopping cart to the cart corral.

I’m a physical geographer who realized long ago that students are taught biology in biology classes and chemistry in chemistry classes, but rarely are they taught about the overarching concepts of science itself. So I wrote a book called “The Scientific Endeavor,” laying out what scientists and other educated people should know about science itself.

Scientists in training are expected to learn the big picture of science after years of observing their mentors, but that doesn’t always happen. And understanding what drives scientists can help nonscientists better understand research findings. These scientific norms are a big part of the scientific endeavor. Here are Merton’s original four, along with a couple I think are worth adding to the list:

Universalism

Scientific knowledge is for everyone – it’s universal – and not the domain of an individual or group. In other words, a scientific claim must be judged on its merits, not the person making it. Characteristics like a scientist’s nationality, gender or favorite sports team should not affect how their work is judged.

Also, the past record of a scientist shouldn’t influence how you judge whatever claim they’re currently making. For instance, Nobel Prize-winning chemist Linus Pauling was not able to convince most scientists that large doses of vitamin C are medically beneficial; his evidence didn’t sufficiently support his claim.

In practice, it’s hard to judge contradictory claims fairly when they come from a “big name” in the field versus an unknown researcher without a reputation. It is, however, easy to point out such breaches of universalism when others let scientific fame sway their opinion one way or another about new work.

black-and-white image of man in white jacket holding up two bottles
When asked about patenting his polio vaccine, Jonas Salk replied, ‘There is no patent. Could you patent the sun?’
Bettmann via Getty Images

Communism

Communism in science is the idea that scientific knowledge is the property of everyone and must be shared.

Jonas Salk, who led the research that resulted in the polio vaccine, provides a classic example of this scientific norm. He published the work and did not patent the vaccine so that it could be freely produced at low cost.

When scientific research doesn’t have direct commercial application, communism is easy to practice. When money is involved, however, things get complicated. Many scientists work for corporations, and they might not publish their findings in order to keep them away from competitors. The same goes for military research and cybersecurity, where publishing findings could help the bad guys.

Disinterestedness

Disinterestedness refers to the expectation that scientists pursue their work mainly for the advancement of knowledge, not to advance an agenda or get rich. The expectation is that a researcher will share the results of their work, regardless of a finding’s implications for their career or economic bottom line.

Research on politically hot topics, like vaccine safety, is where it can be tricky to remain disinterested. Imagine a scientist who is strongly pro-vaccine. If their vaccine research results suggest serious danger to children, the scientist is still obligated to share these findings.

Likewise, if a scientist has invested in a company selling a drug, and the scientist’s research shows that the drug is dangerous, they are morally compelled to publish the work even if that would hurt their income.

In addition, when publishing research, scientists are required to disclose any conflicts of interest related to the work. This step informs others that they may want to be more skeptical in evaluating the work, in case self-interest won out over disinterest.

Disinterestedness also applies to journal editors, who are obligated to decide whether to publish research based on the science, not the political or economic implications.

Organized skepticism

Merton’s last norm is organized skepticism. Skepticism does not mean rejecting ideas because you don’t like them. To be skeptical in science is to be highly critical and look for weaknesses in a piece of research.

colorful journals with spines out on library shelves
By the time new research is published in a reputable journal, it’ has made it past several sets of skeptical eyes.
gorsh13/iStock via Getty Images Plus

This concept is formalized in the peer review process. When a scientist submits an article to a journal, the editor sends it to two or three scientists familiar with the topic and methods used. They read it carefully and point out any problems they find.

The editor then uses the reviewer reports to decide whether to accept as is, reject outright or request revisions. If the decision is revise, the author then makes each change or tries to convince the editor that the reviewer is wrong.

Peer review is not perfect and doesn’t always catch bad research, but in most cases it improves the work, and science benefits. Traditionally, results weren’t made public until after peer review, but that practice has weakened in recent years with the rise of preprints, reducing the reliability of information for nonscientists.

Integrity and humility

I’m adding two norms to Merton’s list.

The first is integrity. It’s so fundamental to good science that it almost seems unnecessary to mention. But I think it’s justified since cheating, stealing and lazy scientists are getting plenty of attention these days.

The second is humility. You may have made a contribution to our understanding of cell division, but don’t tell us that you cured cancer. You may be a leader in quantum mechanics research, but that doesn’t make you an authority on climate change.

Scientific norms are guidelines for how scientists are expected to behave. A researcher who violates one of these norms won’t be carted off to jail or fined an exorbitant fee. But when a norm is not followed, scientists must be prepared to justify their reasons, both to themselves and to others.

The Conversation

Jeffrey A. Lee does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Scientific norms shape the behavior of researchers working for the greater good – https://theconversation.com/scientific-norms-shape-the-behavior-of-researchers-working-for-the-greater-good-255159