Les fantômes des pesticides hantent nos environnements pour longtemps

Source: The Conversation – in French – By Gaspard Conseil, Docteur en écotoxicologie, attaché temporaire d’enseignement et de recherche à l’Université de Lorraine (UL, ENSAIA, L2A), Université de Lorraine

« Les étangs ne sont pas de simples plans d’eau, mais de véritables archives vivantes de l’activité humaine environnante. » Gaspard Conseil, Fourni par l’auteur

De l’autre côté du miroir d’eau paisible des étangs, on rencontre en réalité de véritables « fantômes moléculaires » laissés par les pesticides utilisés pour l’agriculture. Même lorsque la substance originelle a été depuis interdite, ses produits de transformation – parfois plus toxiques – peuvent persister longtemps. Et si l’on envisageait les étangs différemment ? Les considérer comme des archives biochimiques des pollutions passées pourrait nous aider à améliorer la surveillance sanitaire et à prendre de meilleurs décisions réglementaires aujourd’hui.


Sous la surface calme des étangs (et, en particulier, des étangs agricoles) se cache une contamination invisible mais omniprésente. Sur l’ensemble des substances chimiques surveillées en milieu aquatique, 86 % sont des produits de transformation de pesticides plutôt que des pesticides eux-mêmes. Ce paysage est dominé par des dérivés du chlorothalonil, pesticide pourtant interdit en Europe et en Suisse depuis 2019, qui ont depuis été détectés d’abord en Suisse, puis signalés au sein d’unités françaises de traitement de l’eau potable.

Ces « fantômes moléculaires », souvent ignorés des suivis classiques, sont pourtant impliqués dans la dégradation silencieuse de la qualité des eaux. Dans une recherche scientifique publiée en 2025, nous avons mis en évidence qu’ils modifient le comportement et le métabolisme de petits crustacés d’eau douce (ici, Gammarus roeseli) utilisés comme sentinelles biologiques.

À la fois témoins et victimes des pollutions chimiques successives de l’environnement, ces organismes livrent une histoire préoccupante, inscrite dans le vivant, que les simples mesures chimiques ne permettent pas de lire.

La mémoire chimique des étangs

Les étangs ne sont pas de simples plans d’eau, mais des archives vivantes de l’activité humaine environnante. Souvent connectés aux rivières, ils s’imprègnent de l’héritage chimique des pratiques agricoles, à travers les métabolites de produits phytopharmaceutiques, ou produits de transformation (PT), qui en résultent.

Il ne suffit pas de retirer un pesticide du marché pour résoudre tous les problèmes de pollution : son empreinte chimique peut persister très longtemps dans l’environnement.
Gapard Conseil, Fourni par l’auteur

Quand bien même un pesticide est amené à être retiré du marché, son empreinte chimique demeure. Des PT issus de la dégradation d’une molécule mère peuvent ainsi persister longtemps dans l’eau, dans les sédiments ou dans les organismes vivants. Longtemps invisibles, car peu connus et peu étudiés, ils rappellent que la contamination environnementale n’est pas qu’une affaire du présent, mais aussi une mémoire du passé.

Nous vivons ainsi avec les cicatrices laissées par des produits chimiques utilisés à d’autres époques, lorsque leurs effets étaient encore mal connus. Et pourtant, nous continuons de répéter la même erreur : autoriser la commercialisation de produits aux effets mal compris. Nous déléguons alors de nouveaux problèmes à nos enfants.

Même lorsqu’on interdit un pesticide, ses descendants sont toujours là

L’herbicide atrazine, interdit depuis 2003, illustre très bien le problème. Ses métabolites sont encore détectés vingt ans après son interdiction dans de nombreuses masses d’eau françaises.

Les progrès de la recherche et les nouvelles connaissances acquises ont conduit à des réglementations plus strictes, comme le Règlement européen (CE) no 1107/2009, qui exclut l’autorisation de mise sur le marché de substances persistantes ou qui s’accumulent dans les organismes.

La relation entre l’humain et son environnement reste complexe. L’histoire que nous commençons à lire grâce aux outils analytiques mobilisés en écotoxicologie, qui intègrent à la fois des approches chimiques et biologiques, devrait éclairer nos choix présents et nous permettre d’éviter de les regretter demain.

Le fongicide chlorothalonil, interdit en 2019, fournit un exemple récent de ce décalage entre décision réglementaire et réalité environnementale. Son métabolite R471811 est aujourd’hui retrouvé dans de nombreuses eaux de surface et souterraines européennes. Il n’existe a priori pas de preuves qu’il présente un risque avéré, mais cela pourrait être réévalué dans cinq, dix ou trente ans.

Ces reliquats chimiques révèlent l’inertie propre des cycles environnementaux, souvent difficiles à cerner ou à mesurer. Ils soulignent aussi les limites de nos politiques de retrait, capables de réagir vite, mais impuissantes face à la persistance du passé et à la multiplicité des substances chimiques encore autorisées (422 en Europe en octobre 2025.

Expositions chimiques invisibles, ou difficiles à cerner ?

Les milieux aquatiques sont exposés à une mosaïque de contaminants que les scientifiques appellent exposome chimique, c’est-à-dire l’ensemble des substances auxquelles un organisme ou un écosystème est exposé au cours de sa vie.

Si les substances actives sont surveillées via la réglementation européenne, les PT passent souvent sous le radar. Un seul pesticide peut engendrer plusieurs molécules filles, parfois plus durables et plus mobiles que la molécule mère. Les connaissances sur leur toxicité sont encore très lacunaires, avec peu de tests de toxicité, peu de standards analytiques et très peu de données sur leurs effets cumulés. Ainsi, une part importante du risque nous échappe encore.

Dans un travail antérieur, mené en 2024, sur les étangs agricoles du nord-est de la France, nous avions déjà montré que plus d’une molécule détectée sur deux était un PT encore dépourvu de profil écotoxicologique connu. En d’autres termes, une partie du risque reste littéralement dans l’ombre.




À lire aussi :
« L’envers des mots » : Exposome


Des crevettes pour sonder l’eau des étangs

Les grands cours d’eau font l’objet de suivis réguliers. Les étangs, eux, sont les parents pauvres de la limnologie (c’est-à-dire la science des lacs) et restent peu étudiés. Pourtant, ils ponctuent nos paysages et abritent souvent une large biodiversité constituée de poissons, d’oiseaux, de batraciens, de reptiles, d’insectes et de végétaux divers. Ils jouent aussi un rôle d’interface entre terres agricoles et nappes souterraines. Exposés aux polluants au fil du temps, ils jouent un rôle de « mémoire tampon » entre terres cultivées et milieux naturels, entre les eaux de surface et les nappes souterraines.

Pour explorer cette mémoire chimique, notre équipe a eu recours à une approche de biosurveillance active, où l’on utilise le vivant pour évaluer la qualité de l’eau. Cette méthode consiste à confronter des organismes sentinelles à l’environnement étudié afin d’observer leurs réactions biologiques, en parallèle de l’analyse chimique dite de l’exposome, décrit précédemment (l’ensemble des substances auxquelles le milieu est exposé, et de facto, nous aussi).

Gammarus roeseli est un petit crustacé utilisé en tant que sentinelle biochimique des étangs.
Gaspard Conseil, Fourni par l’auteur

Croiser ces deux lectures, chimique et biologique, permet d’obtenir un indicateur global de l’état de santé d’une masse d’eau bien plus représentatif que la simple mesure de concentrations d’une liste de contaminants strictement définis.

Concrètement, nous avons placé dans sept étangs lorrains implantés le long d’un gradient de terres agricoles aux pratiques diversifiées (sans activité agricole, en agriculture biologique ou en agriculture conventionnelle) de petits crustacés d’eau douce, Gammarus roeseli, enfermés dans de fines cages perméables.

Ces gammares, discrets habitants des rivières, sont de véritables sentinelles biologiques. Leur respiration, leurs mouvements et leurs activités enzymatiques reflètent fidèlement la qualité du milieu où ils vivent. Pendant une semaine, ces organismes ont été exposés à l’eau et leur état de santé a été suivi. En parallèle, dans chaque étang, 136 substances (herbicides, insecticides, fongicides, et leurs PT) ont été recherchées.

Les résultats montrent une prédominance écrasante des produits de transformation, qui représentaient 86 % des contaminants détectés, dominés par les dérivés du chlorothalonil et du métazachlore.

Les gammares ont survécu, mais leur comportement et leur métabolisme ont changé. Ralentissement des déplacements, troubles de la respiration et activation des mécanismes de détoxification traduisent le signal précoce d’un potentiel stress toxique. Ces réactions biologiques confirment que la contamination, bien qu’étant une affaire de chimie, s’inscrit profondément dans le vivant. En d’autres termes, les organismes racontent ce que les analyses chimiques ne suffisent pas toujours à voir.

De la science au terrain : comment gouverner l’invisible ?

Reste à savoir comment intégrer au mieux ces signaux biologiques et cette mémoire chimique dans les décisions publiques et réglementaires.

Aujourd’hui, la surveillance réglementaire reste essentiellement centrée sur les substances actives autorisées. Pourtant, le risque dépasse largement ces molécules. Il s’étend dans le temps, change de forme, interagit avec d’autres contaminants et varie selon les conditions environnementales. L’environnement et sa biodiversité sont aussi le siège d’une diversité de voies de transformation et de transfert des contaminants.

La surveillance doit donc évoluer, élargir les listes de substances suivies, développer les outils biologiques, et, surtout, agir avec précaution dans un contexte où tout ne peut être mesuré ni anticipé : il serait illusoire de vouloir tout tester et suivre toutes les substances possibles et imaginables. L’enjeu est donc surtout de prioriser les composés les plus à risque et de protéger les milieux les plus vulnérables.

Il existe ainsi trois leviers pour mieux protéger les milieux aquatiques :

  • élargir la couverture analytique, c’est-à-dire les méthodes et techniques utilisées pour identifier et quantifier les PT issus de la dégradation des pesticides dans les suivis de routine,

  • renforcer les outils biologiques capables de traduire la complexité chimique en signaux écologiques mesurables, par exemple, le recours à des organismes sentinelles,

  • enfin, prioriser localement les actions de gestion (par exemple, rotation des cultures, zones tampons sans traitement, meilleure gestion des effluents et du ruissellement, ou encore l’aménagement de réseaux de drainage) adaptées aux usages et aux vulnérabilités des territoires.

De récentes observations nous montrent que les dynamiques observées en Lorraine ressemblent à celles de sites agricoles en Suisse, dans le canton de Genève. Nous menons depuis l’été 2025 des recherches avec la Haute école du paysage, d’ingénierie et d’architecture de Genève (Hépia) à ce sujet.

Ces enjeux de pollution franchissent donc les frontières, mais les solutions doivent émerger localement, en combinant restauration de zones tampons (qui permettent d’atténuer les transferts de contaminants d’origine agricole vers les milieux aquatiques), diversification des pratiques et surveillance chimique et biologique intégrée.

Une écologie de la mémoire

Les étangs sont les miroirs de nos paysages agricoles, mais en constituent surtout des archives. Ils accumulent, filtrent et témoignent des usages passés. Reconnaître cette mémoire chimique, c’est accepter que certaines traces mettent des décennies à s’effacer.

Les produits de transformation des pesticides ne sont ni marginaux ni nouveaux. Ils incarnent une génération de micropolluants qui s’ancre dans la mémoire chimique de nos agroécosystèmes. Les inclure, les considérer, c’est comprendre qu’un étang, aussi petit soit-il, peut raconter une histoire de pollutions passées, mais aussi celle d’une vigilance à retrouver.

À l’heure où les politiques de transition agricole s’accélèrent, prendre en compte ces produits de transformation est essentiel pour éviter que ces fantômes chimiques ne pèsent sur les générations futures. Ce que nous faisons aujourd’hui s’inscrira dans la mémoire environnementale de demain. À nous de choisir l’histoire que ces étangs raconteront aux générations futures.

The Conversation

Gaspard Conseil a reçu des financements de l’Office français de la biodiversité (OFB).

Damien Banas a coordonné le projet CABARETox (ContAmination des matrices Biotiques et Abiotiques par les Résidus phytopharmaceutiques en Étangs : volet écotoxicologie), financé par l’Office Français de la Biodiversité (OFB), dont sont issus les résultats présentés dans le présent article.

ref. Les fantômes des pesticides hantent nos environnements pour longtemps – https://theconversation.com/les-fantomes-des-pesticides-hantent-nos-environnements-pour-longtemps-268613

Pourquoi l’écologie est d’abord une science

Source: The Conversation – in French – By Sébastien Barot, Chercheur en écologie, IEES-Paris, vice-président du conseil scientifique de la Fondation pour la recherche sur la biodiversité (FRB), Institut de recherche pour le développement (IRD)

Souvent assimilée à un courant politique, l’écologie est avant tout une science à part entière, qui étudie les interactions du vivant avec son environnement. Pourtant, en France, ce terme est devenu symbole de militantisme au risque d’invisibiliser le travail précieux des écologues, alors même que leurs connaissances sont indispensables pour affronter la crise environnementale en cours.

Dans « l’Écologie est une science », publié par les éditions Belin, Sébastien Barrot, directeur de recherche à l’IRD, présente son domaine de recherche, encore trop méconnu du grand public. Nous reproduisons ci-dessous un extrait de son avant-propos.


À 10 ans, quand on me demandait quel métier je souhaitais faire plus tard, je répondais  « Un -logue quelconque. » Je disais par là que je voulais devenir archéologue ou paléontologue. J’ai mal tourné, je suis devenu écologue, chercheur en écologie, et j’ai commencé à écrire ce livre parce que personne ne sait ce que ça veut dire. Si tout le monde a une idée, juste ou non, de ce qu’est un chercheur, quasiment personne ne sait en France, en dehors du cadre académique, que l’écologie est une science.

Même aujourd’hui, en pleine crise environnementale, je dois expliquer les études que j’ai faites (un master et une thèse en écologie), et on me le fait répéter au moins trois fois car ça ne paraît pas possible. Les gens pensent souvent que j’ai étudié la biologie. Cela paraît beaucoup plus sérieux, mais ce n’est pas le cas. D’autres personnes imaginent que la seule préoccupation d’un écologue est de protéger les petits oiseaux, ou que je développe de nouveaux moyens pour recycler les déchets.

Ce sont deux thématiques importantes, cependant l’écologie scientifique n’a pas uniquement pour but la protection de la nature, et seul le recyclage des déchets organiques entre, en fait, dans le champ des compétences de l’écologie puisqu’il fait intervenir des organismes décomposeurs, comme des bactéries ou des vers de terre.




À lire aussi :
L’écologie expliquée aux enfants et aux ados


Un seul terme pour de nombreuses réalités

La méconnaissance de l’écologie scientifique vient de trois facteurs complémentaires.

Tout d’abord, l’écologie est une science relativement jeune. Le mot a été inventé par Ernst Haeckel en 1866, mais les sciences écologiques ne se sont vraiment développées dans le monde académique qu’après la Seconde Guerre mondiale pour les Anglo-Saxons et durant les années 1970 en France. C’est donc un développement très récent, ce qui signifie que les bases de cette science doivent encore être consolidées, et sa structure affinée. Le système académique étant très conservateur, l’écologie scientifique a parfois du mal à trouver sa place parmi les disciplines plus anciennes. Malgré la gravité des problèmes environnementaux actuels, et contrairement à ce qu’on pourrait penser, il est souvent difficile d’augmenter le volume des enseignements d’écologie du primaire à l’université, et la recherche en écologie n’est pas particulièrement bien financée.

De plus, en France, le terme « écologie » est utilisé aussi bien pour désigner une science que des mouvements politiques environnementalistes ou verts, entraînant de fait une confusion entre le travail de recherche et l’action politique, ou même le militantisme. Il est important de souligner que, la plupart du temps, lorsque quelqu’un intervient dans les médias pour parler de protection de la nature, il s’agit d’un militant ou d’une militante (ou parfois même d’un chercheur d’une autre discipline !). Si ces derniers utilisent souvent les connaissances développées par l’écologie scientifique, ils ne sont pas chercheurs en écologie pour autant.

On pense facilement à de grandes figures, comme Hubert Reeves, qui ont joué et jouent un rôle important et utile dans la dissémination des savoirs et idées écologiques. Ces grandes figures médiatiques mêlent toujours dans leurs discours des messages environnementalistes et d’autres plus fondamentaux et proches des sciences écologiques. Tout cela entraîne des conséquences globalement positives, mais contribue à invisibiliser la science écologique et le travail des chercheuses et chercheurs qui la pratique. D’autant que dans les autres sciences (biologie, physique, chimie…), quand les médias ont besoin d’éclairages, c’est bien à un spécialiste du domaine que l’on fait appel en général.

Enfin, l’écologie est une science intégrative. C’est-à-dire qu’elle utilise les autres sciences (biologie, géologie, climatologie, chimie…) et qu’il est donc difficile de l’identifier en elle-même. Ce fonctionnement fait sa force, mais il rend son positionnement plus difficile. En effet, les systèmes académique et médiatique fonctionnent beaucoup « par boîtes » et la mauvaise identification d’une science et de ses spécialistes complique la prise en compte des connaissances qu’elle développe.

Cela explique en partie que les sociétés humaines soient si lentes à prendre des mesures pour atténuer la crise de la biodiversité et qu’elle reste moins bien prise en compte que la crise climatique par les pouvoirs publics (même si de ce côté-là, cela avance, bien que beaucoup trop lentement).




À lire aussi :
La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier


Mais alors l’écologie, c’est quoi ?

Ma définition préférée de l’écologie est la suivante : c’est la science qui étudie les interactions entre les êtres vivants (par exemple, entre les espèces de plantes d’une prairie) et leur environnement physico-chimique (par exemple, entre les plantes de cette prairie et les caractéristiques du sol comme son pH ou sa teneur en azote) et les conséquences de ces interactions à toutes les échelles temporelles (de la seconde à des millions d’années) et spatiales (de l’agrégat de sol d’un millimètre à la biosphère) possibles. Cette définition peut paraître un peu abstraite mais elle prendra tout son sens au cours du livre.

Il est important de retenir que l’écologie traite bien d’organismes vivants, tout en étant distincte de la biologie. Cette dernière a tendance à étudier le fonctionnement interne des êtres vivants. Historiquement, à l’aide de moyens techniques de plus en plus sophistiqués, la biologie les a découpés en parties de plus en plus petites (l’organe, la cellule, la molécule, le gène) pour analyser la manière dont le fonctionnement interne d’un organisme et de nombreux mécanismes de régulation permet aux organismes de grandir, de survivre et de se reproduire. C’est aussi grâce à la biologie que l’on comprend les mécanismes de développement d’un organisme à partir de ses gènes.

À l’inverse, les sciences de l’univers (géochimie, climatologie, hydrologie…) s’intéressent essentiellement au fonctionnement physico-chimique, aux éléments abiotiques, de l’environnement et de la planète Terre. Par exemple, ces sciences permettent de quantifier les flux d’eau (évaporation, précipitation, ruissellement…) à des échelles variées depuis le mètre carré jusqu’à la planète entière ou encore les flux d’azote, composante chimique essentielle de toute la matière vivante.

L’écologie se trouve exactement à mi-chemin entre la biologie et les sciences de l’univers : elle traite à la fois des organismes vivants et de leur environnement physico-chimique. Elle fait le lien entre les deux et étudie leurs interactions qui sont bidirectionnelles. Les organismes dépendent de leur environnement (température, humidité…) et des ressources qu’ils y puisent. Si les conditions physico-chimiques sont bonnes (ni trop chaud ni trop froid, suffisamment humide…), ils pourront grandir et se reproduire ; si les conditions sont un peu moins bonnes, cela devient plus difficile ; si elles empirent, les organismes ont de grandes chances de mourir. D’une manière peut-être moins évidente, mais tout aussi importante, les organismes modifient leur environnement physico-chimique en y puisant des ressources (CO2, eau et nutriments minéraux pour une plante), par des activités variées (galeries des vers de terre) ou simplement par leur présence (un arbre fait de l’ombre).

L’écologie est une science à part entière qui a développé son propre cadre conceptuel, ses écoles de pensée et ses outils. Elle fonctionne au quotidien comme les autres sciences : il y a des formations (masters, écoles doctorales), des chercheuses et des chercheurs, des laboratoires et des journaux internationaux en anglais spécialisés.

Elle s’appuie cependant, nous l’avons vu, sur de nombreuses sciences, de la biologie à la climatologie, en passant par la physique ou la chimie. Les résultats de ces différents domaines servent d’éléments de contexte et leurs méthodes et outils sont utilisés comme des couteaux suisses modulables pour répondre à des questions propres à l’écologie. Par exemple, l’étude des interactions entre un ver de terre et le sol peut nécessiter de connaître le fonctionnement interne du ver de terre, tel son mode de digestion (biologie), mais aussi l’impact de l’espèce sur la chimie du sol (chimie).

L’écologie peut aussi étudier comment le climat influence la croissance des plantes en prenant en compte la quantité d’énergie apportée par la lumière solaire et utilisable pour la photosynthèse, ou la température et l’humidité de l’air qui influencent la quantité d’eau transpirée par les plantes. Ou encore la manière dont les plantes influencent le climat en fixant plus ou moins de carbone par la photosynthèse ou en renvoyant plus ou moins de vapeur d’eau dans l’atmosphère. Ces résultats peuvent alors servir aux climatologues pour améliorer les prédictions climatiques.

Par ailleurs, l’écologie est indissociable de l’évolution des organismes vivants au sens darwinien, car ils présentent tous une histoire évolutive : ils ont été façonnés par une succession de pressions de sélection et de processus évolutifs qui ont conduit aux caractéristiques actuelles des organismes et ont contribué à leur diversité. De ce fait, les interactions écologiques entre eux ou avec leur milieu physico-chimique ont été façonnées par l’évolution. Il est important de le prendre en compte pour mieux comprendre et interpréter les fonctionnements écologiques actuels.

Ainsi, les plantes ont construit au cours de l’évolution des mutualismes avec leurs pollinisateurs. Étudier cette évolution peut aider à comprendre la pollinisation et ses conséquences. À l’inverse, les interactions écologiques, elles-mêmes, constituent un des principaux moteurs de l’évolution : la sélection naturelle est fondée sur le fait que les organismes les mieux adaptés à une situation écologique donnée (caractéristiques de l’environnement, existence d’un prédateur…) ont plus de descendants si bien que leurs caractéristiques deviennent dominantes au sein de l’espèce du fait de leur transmission génétique.

Dans ce contexte, les mécanismes conférant à certains individus un avantage sont liés à des interactions écologiques : certaines caractéristiques leur permettent de mieux interagir avec les autres organismes ou leur environnement physico-chimique, acquérant ainsi plus de ressources, augmentant leur survie ou leur fécondité. Tous ces mécanismes sont étudiés en écologie. On sait maintenant que l’évolution peut être suffisamment rapide pour interférer avec les processus écologiques à des échelles de temps communes. Cela signifie qu’il ne s’agit pas simplement d’un phénomène ancien qu’il faut étudier pour comprendre les organismes ayant disparu depuis longtemps, mais que les organismes continuent actuellement à évoluer.

De domaines en sous-domaines

Plus généralement, l’écologie aborde des sujets si variés qu’il est nécessaire de la diviser en sous-domaines.

L’écologie se compose de plusieurs sous-domaines.
Sébastien Barrot/Belin, Fourni par l’auteur

Bien sûr, on peut en classer les différents champs selon le milieu étudié (écologie forestière, écologie aquatique, écologie des sols…), mais il est important de différencier également certaines approches. En effet, une partie importante de l’écologie, l’écologie des populations, se focalise sur les groupes d’individus d’une même espèce qui interagissent entre eux au sein d’un milieu donné (ce qu’on appelle une « population »). Elle se concentre donc sur les individus, sur ce qu’ils font et sur leur démographie (comme on le ferait pour des populations humaines), s’appuyant notamment pour cela sur leur recensement (on peut, par exemple, compter le nombre d’arbres dans une forêt). L’écologie des populations est fortement liée à l’écologie évolutive, qui étudie l’évolution darwinienne des organismes, puisque l’individu est l’unité de base dans tous les processus évolutifs.

Proche de l’écologie des populations, on trouve aussi celle du comportement qui cherche à analyser le comportement des individus au sein d’une population en fonction de leur environnement, avec souvent des interprétations liées à l’évolution darwinienne des organismes. On distingue ensuite l’écologie des communautés qui étudie les interactions entre populations (d’espèces différentes) dans un même milieu. Cela permet d’aborder, par exemple, les relations proie-prédateur, les symbioses, ou de décrire des communautés d’organismes (le nombre d’espèces, leur abondance relative, leurs caractéristiques, et les facteurs qui déterminent tout ça). On arrive alors à l’écologie fonctionnelle qui étudie la manière dont les organismes arrivent à puiser des ressources dans leur milieu et à les transformer en biomasse, ainsi que la quantité de matière et d’énergie qu’ils échangent avec leur milieu…

Enfin, l’écologie des écosystèmes est proche de l’écologie fonctionnelle puisqu’elle étudie la manière dont ils fonctionnent. Un écosystème comprend à la fois l’ensemble des populations en interaction dans un lieu donné et leur milieu physico-chimique (sol, climat…). Il s’agit donc d’intégrer tous les types d’interactions écologiques entre populations ainsi qu’entre elles et leur milieu physico-chimique, et de comprendre comment cela détermine les propriétés émergentes des écosystèmes, telle que leur production primaire. Là où l’écologie des populations est focalisée sur les individus, l’écologie fonctionnelle et celle des écosystèmes étudient plutôt les flux de matière (carbone, azote, eau…) et d’énergie entre les organismes et avec leur milieu. Ce type d’approche permet souvent d’aller vers des échelles spatiales de plus en plus grandes. On peut, par exemple, mesurer la biomasse de la végétation ou la quantité de carbone dans la matière organique du sol à l’échelle du mètre carré, mais aussi d’une prairie, d’une région, d’un continent…

The Conversation

Sébastien Barot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi l’écologie est d’abord une science – https://theconversation.com/pourquoi-lecologie-est-dabord-une-science-268626

¿Qué hacer cuando mi hijo no quiere salir porque está enganchado a los videojuegos?

Source: The Conversation – (in Spanish) – By Dominica Díez Marcet, Doctora en Psicología. Psicóloga Clínica responsable de la Unidad de Adicciones Comportamentales de la Fundació Althaia, Xarxa Assistencial Universitària de Manresa. Profesora asociada de la UVic-UCC., Universitat de Vic – Universitat Central de Catalunya

La adicción a los videojuegos está reconocida en el Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-V). Kelly Sikkema / Unsplash., CC BY

Hoy en día, jugar a videojuegos se ha convertido en una práctica habitual dentro de las actividades de ocio de muchos niños y adolescentes. Es frecuente que los padres duden sobre la conveniencia de permitirles jugar a demanda, así como el tiempo aconsejado y en qué momentos. ¿Dejarlos jugar durante la semana o únicamente el fin de semana? ¿Después de los deberes o antes, para que no los haga deprisa y corriendo?

También refieren lo complicado que es lidiar con los argumentos de los menores: “si todos mis amigos juegan a este juego, ¿por qué a mí no me dejáis?”. A menudo, el miedo de los padres a que su hijo quede excluido del grupo hace que se sean más permisivos de lo que en realidad desearían respecto a los horarios y el tipo de juego.

De este modo, empiezan a consentir que los videojuegos se vayan convirtiendo en un hábito, a pesar de que tengan el convencimiento o duden sobre si no sería mejor que jugaran a otras cosas, leyeran o salieran más de casa.

Así, progresivamente, si no se marcan límites, se va generando una adicción. Es posible empezamos a observar un cambio en el carácter: “está más irritable”, “va más a la suya que antes”,“ parece que no le importa nada”, “cada vez que sale menos con amigos”.

Los videojuegos con más potencial adictivo son los juegos de rol online. Son juegos multijugador en los que se realizan tareas en equipos, también llamados guild. Están diseñados utilizando técnicas psicológicas para que el jugador pase el máximo tiempo conectado. Por ejemplo, el refuerzo intermitente propio de las cajas botín es el mismo mecanismo que el utilizado en las máquinas tragaperras.

El papel de los padres

Es importante, cuando vemos que nuestro hijo empieza a estar más tiempo jugando, intentar respondernos a estas tres cuestiones:

  • ¿Ha perdido interés por actividades que antes hacía (académicas, extraescolares, salir con amigos, colaborar en casa…)?

  • ¿Sabemos si le ha pasado alguna cosa en la vida “real” de la cual necesite evadirse? En este caso tendremos que actuar sobre la causa y, si es necesario, buscar ayuda especializada.

  • ¿Se irrita con más frecuencia y pasa más de las cosas?

Después de reflexionar sobre estas preguntas, nos centraremos en dos conceptos esenciales que guían cómo nos posicionamos respecto a nuestros hijos: vínculo afectivo y autoridad (que no es lo mismo que el autoritarismo).

Lazos de confianza y autoridad

El vínculo afectivo hace referencia a los lazos de amor que se establecen entre padres e hijos y que son la base para generar confianza y bienestar. Hablamos de autoridad respecto a la responsabilidad de los padres para tomar todas las decisiones necesarias para el bienestar de sus hijos e hijas. De hecho, la patria potestad otorga a los padres ese derecho. Ello implica establecer reglas, expectativas y límites y, al mismo tiempo, guiar y enseñar a los niños sobre comportamientos y valores aceptables, así como protegerlos de lo que no les conviene.

Por otra parte, “la autoridad se tiene, no se gana”, en palabras de un amigo mío profesor de adolescentes. Es algo intrínseco al papel de ser padres, para quienes es un derecho y un deber aplicarla.

¿Qué podemos hacer para ayudarlo a recuperar su bienestar?

El primer consejo es mantener una conversación tranquila, incluyendo a otros familiares significativos para él o ella. Debemos evitar juicios y podemos interesarnos por el juego y compartir qué hemos observado (pérdida de intereses, cambio carácter, menos comunicación etc.).

Podemos proponer, con cariño y decisión, establecer unas normas y horarios de juego que preserven los espacios familiares (hora desconexión noche, comidas juntos, tareas casa, etc.).

También es útil facilitar alternativas al juego individuales y familiares, pueden incluir actividades con pantallas juntos.

Sabemos que a los hijos les importa la opinión que los padres y madres tienen sobre ellos, pero ¿qué pasa si no quiere escucharnos y sigue manteniendo la conducta de juego?

Cuando no escuchan

Cuando no escucha, será nuestra responsabilidad ayudar al menor activamente a desengancharse. Es importante recordar el principio de autoridad, para evitar que el uso de videojuegos se convierta en una conducta adictiva con serias implicaciones para su salud, tanto cognitiva como emocional, física y social.

Unos padres que acudían a nuestra consulta habían intentado todo tipo de estrategias para desenganchar a su hijo de 15 años de los videojuegos. Hasta que un día, sacaron el ordenador de la habitación con buen humor y determinación y le dijeron: “el ordenador se ha ido de vacaciones”. Comentaron que fue el mejor verano de los últimos años. El chico estuvo de mal humor tres días, pero rápidamente observaron un cambio de carácter. Fue recuperando la empatía que aparentemente había perdido y retomando los intereses que había aparcado los últimos meses. Explicaron en consulta: “ya vuelve a ser él”, un comentario frecuente de padres que han pasado por procesos similares.

No obstante, debemos tener en cuenta que no siempre es posible, sobre todo, cuando observamos una escalada a nivel de agresividad o cuando se ha intentado varias veces sin conseguir un cambio. Asimismo debemos tener en cuenta que diversos trastornos de salud mental como el TDAH o TEA pueden predisponer a generar una adicción a videojuegos.

Será necesario, en estos casos, buscar ayuda psicológica especializada para recibir la orientación necesaria y poder aplicar las estrategias adecuadas para ayudarlo, cuanto antes mejor.

The Conversation

Dominica Díez Marcet no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué hacer cuando mi hijo no quiere salir porque está enganchado a los videojuegos? – https://theconversation.com/que-hacer-cuando-mi-hijo-no-quiere-salir-porque-esta-enganchado-a-los-videojuegos-247375

‘Tú y la bomba atómica’: George Orwell predijo en 1945 la Guerra Fría y la proliferación nuclear

Source: The Conversation – (in Spanish) – By Ibrahim Al-Marashi, Adjunct Professor, IE School of Humanities, IE University; California State University San Marcos

Bombardero estadounidense Boeing B-29 Superfortress, igual que los que lanzaron las bombas atómicas sobre Hiroshima y Nagasaki, dirigiéndose a bombardear Osaka en 1945. United States Army Air Force

En agosto de 2025 se cumplieron 80 años de los bombardeos atómicos de Hiroshima y Nagasaki. Apenas un mes después de los ataques, el 19 de octubre de 1945, George Orwell publicó un ensayo en el London Tribune titulado Tú y la bomba atómica. En él, planteaba la hipótesis de qué pasaría si “las grandes naciones llegaran a un acuerdo tácito para no utilizar nunca la bomba atómica entre ellas”. Escribió que lo que surgiría sería una “paz que no es paz” y un “estado permanente de ‘guerra fría’”, introduciendo una metáfora perdurable que definiría la geopolítica durante décadas.

En el ensayo, Orwell también predijo la proliferación nuclear: “La bomba es increíblemente cara y su fabricación exige un enorme esfuerzo industrial, del que solo son capaces tres o cuatro países en el mundo”. De hecho, los cinco miembros permanentes del Consejo de Seguridad de las Naciones Unidas (ONU), que también se creó hace 80 años, tienen ahora “la bomba”. La URSS fue la segunda en conseguirla, en 1949.

George Orwell.
Branch of the National Union of Journalists

Desde entonces, su amenaza ha configurado y justificado los conflictos mundiales. Tanto Irak como Irán han sido acusados de buscar la bomba, pero en lugar de la no proliferación diplomática, Estados Unidos e Israel han utilizado la fuerza armada para impedir que estas naciones obtengan armas nucleares.

Una de las razones por las que la ONU aprobó la Guerra del Golfo de 1991 fue la existencia de información de inteligencia que indicaba que Irak tenía un programa de armas nucleares. En 2003, Estados Unidos y Reino Unido intentaron que la organización aprobara una guerra similar para desmantelar las supuestas armas nucleares de Irak, basándose en información errónea que había sido plagiada de mi propia tesis de la Universidad de Oxford.

En junio de 2025, Israel atacó Irán por supuestamente buscar un arma nuclear, también basándose en informes de “inteligencia”. El mundo contuvo la respiración durante los 12 días que duró la guerra, que fácilmente podría haber degenerado en un conflicto nuclear.

Hoy en día, la inteligencia artificial (IA) puede permitir a una nación o a un grupo terrorista construir una bomba atómica de formas que los contemporáneos de Orwell, como Einstein y Oppenheimer, nunca hubieran podido imaginar.

Las novelas y la Guerra Fría

En 1949, solo cuatro años después de Tú y la bomba atómica, Orwell publicó 1984. Se trata de una novela distópica que presagia la Guerra Fría que él había predicho en 1945, con tres bloques geopolíticos ficticios –Oceanía (América del Norte y Gran Bretaña), Eurasia (URSS y Europa) y Eastasia (China y sus vecinos)– que forman una serie de alianzas siempre cambiantes para controlar los “territorios en disputa”.

Edición en español de 1984 de George Orwell.

Penguin Libros

La novela fue profética, ya que se escribió antes de la creación de la Organización del Tratado del Atlántico Norte (OTAN) y del Pacto de Varsovia, y antes de que se acuñaran términos como “Primer”, “Segundo” y “Tercer Mundo”.

Sin embargo, fue su contemporáneo, el oficial británico de Inteligencia Naval durante la Segunda Guerra Mundial Ian Fleming, quien consiguió adivinar en sus novelas una faceta diferente de la dinámica del poder en el siglo XXI. En su exitosa serie de James Bond (y sus aún más populares adaptaciones cinematográficas), la mayor amenaza para la seguridad mundial no son los gobiernos nacionales como la URSS, sino actores individuales superpoderosos, como el genio criminal Ernst Stavro Blofeld y el científico Dr. No.

En las últimas décadas, esta visión de un poder concentrado en una persona como corazón de la amenaza geopolítica se ha materializado una y otra vez. En 2001, Osama bin Laden desencadenó la guerra contra el terrorismo, que duró 20 años. El magnate de los medios de comunicación Rupert Murdoch ejerce un poder desmesurado sobre la política internacional, influyendo en elecciones y votaciones importantes, como el Brexit de 2016. Y fue Elon Musk, no la NASA, quien creó un programa espacial y proporcionó conexión a internet a Ucrania tras la invasión rusa de 2022, lo que otorgó a SpaceX un poder sin precedentes desde los tiempos de la Compañía Británica de las Indias Orientales.

IA atómica y bombas sucias

El camino para obtener un arma nuclear no ha cambiado mucho desde Hiroshima, aunque la IA podría ayudar a los Estados que buscan bombas atómicas. Los avances en inteligencia artificial también pueden facilitar a los grupos terroristas la producción y detonación de explosivos convencionales combinados con material radiactivo, también conocidos como “bombas sucias”, lo que causaría enormes trastornos psicológicos y económicos.

Los escritos de Orwell ponen de manifiesto la hipocresía de este término, ya que nos obliga a preguntarnos si eso significa que las armas nucleares normales son, por defecto, “bombas limpias”. Sin embargo, a pesar del temor a un ataque terrorista improvisado con una bomba sucia, las más sucias son las que están recubiertas de uranio empobrecido (DU), ampliamente utilizadas por las fuerzas militares occidentales.

El DU se produjo inicialmente hace 80 años como un subproducto “residual” del enriquecimiento de uranio durante el Proyecto Manhattan. Sus científicos descubrieron que podía utilizarse para crear armas perforantes.

Estados Unidos y Reino Unido utilizaron estas armas durante la Guerra del Golfo de 1991 y la Guerra de Irak de 2003. Todavía contaminan el suelo, provocando cáncer, defectos congénitos y otras enfermedades. Hoy en día, Ucrania sufre las consecuencias de Chernóbil, pero además, tanto este país como Rusia, han utilizado armas perforantes desde 2022.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Noticias falsas en 1945

Si bien la IA ha potenciado lo que normalmente consideramos orwelliano (estados de vigilancia como los descritos en 1984), Orwell también escribió sobre cómo la tecnología permitía la desinformación. En 1944, cuestionó las noticias falsas de inexistentes ataques aéreos alemanes sobre Gran Bretaña que se emitieron en la radio nazi, y destacó su valor como propaganda en caso de una posible victoria alemana.

Hoy, 80 años después, sigue ocurriendo lo mismo. En junio de 2025, durante la guerra de 12 días entre Israel e Irán, se difundieron vídeos deepfake fabricados por IA que mostraban nubes nucleares en forma de hongo detonando sobre instalaciones atómicas iraníes destruidas.

Algunos sostienen que la guerra fría entre Washington y Moscú nunca terminó, lo que da a la metáfora de Orwell un legado perdurable. No obstante, se suele atribuir al escritor y comentarista político estadounidense Walter Lippman la invención del término en 1947, lo que demuestra la afirmación de Orwell en la novela 1984: “Quien controla el pasado controla el futuro; quien controla el presente controla el pasado”.

The Conversation

Ibrahim Al-Marashi no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ‘Tú y la bomba atómica’: George Orwell predijo en 1945 la Guerra Fría y la proliferación nuclear – https://theconversation.com/tu-y-la-bomba-atomica-george-orwell-predijo-en-1945-la-guerra-fria-y-la-proliferacion-nuclear-268252

El nivel del mar está subiendo, pero no al mismo ritmo en todas partes: el caso de Perú

Source: The Conversation – (in Spanish) – By Juan J. Muñoz, Profesor de Ingeniería Costera, Universidad de Cádiz

Costa de Paracas, Perú. Wikimedia Commons., CC BY

La subida del nivel del mar es uno de los efectos más visibles del cambio climático. Pero, aunque solemos pensar en un fenómeno global, cada región del planeta vive su propia historia.

En la costa peruana, esa historia empieza a contarse en 1942, cuando se instalaron los primeros mareógrafos –instrumento que registra y mide las oscilaciones del nivel del mar (mareas) de forma automática– en Talara, Callao y Matarani. Desde entonces, esas estaciones han registrado casi ocho décadas de variaciones del nivel del mar. Hoy, gracias a ese archivo único, podemos afirmar con claridad que el mar está subiendo en Perú, y que lo hace de manera desigual según la región y el periodo analizado.

Los diferentes niveles de referencia vertical en cada una de las estaciones. Alturas de cada uno de los niveles utilizados están referidas al punto de referencia mareográfico del Callao.
Bismarck J. A. et al.

Una tendencia clara, con altibajos marcados

Un equipo de investigadores de la Universidad de Cádiz comprobamos en un estudio reciente que, entre 1942 y 2019, el nivel del mar ha subido en los tres puntos estudiados. Sin embargo, la magnitud del aumento depende del intervalo que se mire. En algunos periodos, la subida fue moderada (menos de 1 mm por año), mientras que en otros llegó a ser muy acelerada, con valores de más de 10 mm anuales, especialmente en los años más recientes.

Esto significa que no basta con hablar de un único valor promedio. La subida del mar en el Perú es un proceso altamente variable, que responde tanto a tendencias globales como a fenómenos regionales y locales.

El impacto de El Niño

Una de las razones de esa variabilidad es bien conocida por los peruanos: el fenómeno de El Niño. Durante los eventos extraordinarios de 1982-83 y 1997-98, el mar en Talara, Callao y Matarani llegó a elevarse hasta 40 centímetros por encima de su promedio normal.

Consecuencias de las inundaciones traídas por El Niño en 1983 en Perú.
IDESEP.

Estos picos temporales muestran cómo la interacción entre el clima y el océano puede intensificar los riesgos de inundaciones costeras y erosión.

De hecho, el análisis estadístico confirma una fuerte correlación entre la temperatura y el nivel del mar en la costa peruana: cuando sube la temperatura superficial, también lo hace el mar. Y cuando las aguas se enfrían (como en los episodios de La Niña), el nivel tiende a descender.

Perú frente a los reportes del IPCC

Si comparamos los resultados con los informes del Panel Intergubernamental sobre Cambio Climático (IPCC), encontramos coincidencias y también diferencias. Hasta comienzos de los años 2000, las tasas de aumento en Perú eran algo menores que el promedio global. Sin embargo, en la última década analizada (2006-2015) ocurrió lo contrario: los registros de Talara, Callao y Matarani muestran un aumento mucho más rápido que la media mundial reportada por el IPCC.

Esto nos recuerda que las cifras globales sirven como referencia, pero las decisiones de gestión costera deben basarse en estudios locales. El mar no sube al mismo ritmo en todas partes.

Resumen gráfico del trabajo realizado, donde se muestra el mapa de la costa peruana y la ubicaión de las tres estaciones utilizadas (Talara, Callao, Matarani). La gráfica de barras muestra la comparativa en las tres estaciones, de las variaciones del aumento del nivel del mar (SLR) de los datos obtenidos
C. Estrada, B. Jigena-Antelo, J. J. Muñoz-Pérez.

¿Por qué importa?

La costa peruana concentra gran parte de la población y de la infraestructura crítica del país. La subida del nivel del mar amenaza puertos, viviendas, playas, humedales y acuíferos. También puede agravar los impactos de tsunamis y tormentas.

Para planificar defensas costeras, gestionar el agua o proteger los ecosistemas, es vital contar con información detallada y específica, como la que aportan estas series de mareógrafos.

Mirando al futuro

Nuestro estudio no solo confirma la tendencia ascendente, sino que también muestra que los cambios pueden ser bruscos en lapsos cortos, asociados a ciclos climáticos como El Niño o la Oscilación Decadal del Pacífico. Esto significa que los próximos años podrían traer tanto aceleraciones como pausas temporales en la subida del mar, pero la tendencia de fondo es clara: el océano está ganando terreno.

La conclusión es ineludible: Perú necesita políticas costeras basadas en datos locales, que consideren la variabilidad natural y el impacto del cambio climático global. Solo así se podrán anticipar riesgos y reducir la vulnerabilidad de millones de personas que viven frente al Pacífico.

The Conversation

Bismarck Jigena Antelo recibió fondos de Universidad de Cádiz, para realizar una estancia en la Dirección de Hidrografía y Navegación de la Marina del Perú (DHNM).
Los datos de niveles del mar de los mareografos de Talara, Callao y Matarani, que se utilizaron en el artículo de investigación fueron cedidos por la DHNM.
¿Es posible incluir a un tercer autor, la Ing. Carol Estrada Ludeña, funcionaria de la DHNM.

Juan J. Muñoz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El nivel del mar está subiendo, pero no al mismo ritmo en todas partes: el caso de Perú – https://theconversation.com/el-nivel-del-mar-esta-subiendo-pero-no-al-mismo-ritmo-en-todas-partes-el-caso-de-peru-266603

Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

El 9 octubre de 2025, Italia dio un paso sin precedentes en Europa al aprobar una ley que reconoce legalmente la obesidad como una enfermedad crónica, progresiva y con tendencia a la recaída. Su entrada en vigor se produjo el pasado 25 de octubre.

Hasta la fecha, ningún otro país europeo ha promulgado una ley nacional que reconociera la obesidad con tal amplitud: como una patología crónica y con garantías específicas de prevención, tratamiento y seguimiento incluidas en la atención sanitaria pública.

Pasos en la misma dirección

No obstante, algunos países del entorno también han avanzado parcialmente en la misma dirección. Así, mediante el Despacho n.º 12634/2023, Portugal aprobó en diciembre de 2023 implementar un Modelo Integrado de Cuidados para la Prevención y Tratamiento de la Obesidad, dentro de su Servicio Nacional de Salud. Aunque no se trata de una ley, la define como un problema crónico de salud pública e impulsa redes especializadas de tratamiento.

En Alemania, el Bundestag la reconoció en 2020 como una enfermedad en sentido médico y social, dentro de la Estrategia Nacional contra la Diabetes y la Obesidad, aunque sin dotarla aún de un marco legal que garantice prestaciones o cobertura sanitaria específica.

Y, por último, Reino Unido tampoco cuenta con una ley como la de Italia, pero su Servicio Nacional de Salud sí incluye la obesidad entre las condiciones crónicas de manejo prioritario, con énfasis en la prevención y el tratamiento a largo plazo.

De “culpa personal” a problema estructural

En consecuencia, la legislación italiana, a la que la revista The Lancet Diabetes & Endocrinology le ha dedicado unas páginas en el número de este mes, marca un antes y un después en Europa: es la primera que convierte en norma legal al máximo nivel una visión médica y social moderna de la obesidad.

Durante décadas, la acumulación anormal de grasa en el cuerpo fue interpretada como una consecuencia de malos hábitos, falta de disciplina o elecciones alimentarias equivocadas. Sin embargo, la evidencia científica ha demostrado que su origen es complejo, resultado de la interacción entre factores genéticos, ambientales, metabólicos y sociales.

La nueva legislación italiana asume esa visión moderna, y al hacerlo, rompe con el estigma que ha acompañado a millones de personas. Reconocer la obesidad como enfermedad significa reconocer también que requiere atención médica especializada, no juicios morales.

Una pandemia silenciosa

La Organización Mundial de la Salud ha calificado la expansión de la obesidad como “globesidad”, una pandemia en constante aumento. El World Obesity Atlas 2025 estima que su prevalencia mundial habrá aumentado entre 2010 y 2030 más de un 115 %. Si no se mejoran las medidas de prevención y tratamiento, el coste económico podría alcanzar 4,32 billones de dólares anuales en 2035, casi el 3 % del PIB mundial. Esta cifra es comparable al impacto de la covid-19 en 2020, o al del cambio climático en la actualidad.

Este problema no se limita a la salud individual: está asociado a un incremento sustancial en enfermedades cardiovasculares, metabólicas y oncológicas. Los investigadores incluso han introducido un nuevo término, adiponcosis, para describir la relación entre exceso de tejido adiposo y el desarrollo de hasta 13 tipos de cáncer.

Más allá de la atención médica

Al reconocer la obesidad como una enfermedad crónica con implicaciones sanitarias, sociales y económicas, la Ley n. º 149 del 3 de octubre de 2025 también impulsa políticas integradas para su prevención y tratamiento. Su enfoque combina prevención, educación, investigación y asistencia, mediante la creación de un programa nacional y un observatorio especializado

Entre sus disposiciones, promueve campañas de información y educación sobre alimentación saludable y actividad física, así como iniciativas comunitarias y escolares destinadas a crear entornos que favorezcan estilos de vida sanos. Aunque no contempla medidas fiscales ni de etiquetado, la norma sienta las bases para una estrategia nacional multisectorial.

Cambio de mentalidad

El reconocimiento de la obesidad como una enfermedad crónica con repercusiones sociales y sanitarias implica un cambio simbólico importante: las personas afectadas pasan a ser consideradas sujetos de derecho sanitario, merecedores de atención y respeto. La nueva norma promueve la educación, sensibilización y formación profesional para mejorar la comprensión social del problema, sentando las bases para reducir el estigma y fomentar una visión más sensible y estructurada de la obesidad.

En definitiva, el reconocimiento oficial puede contribuir a cambiar el discurso público, promoviendo empatía y comprensión en lugar de juicio y culpa.

Un modelo para el mundo

Ahora, el desafío radica en implantar con eficacia y sostenidamente las medidas que impulsa, garantizando la coordinación entre los niveles institucionales y el seguimiento continuo de los resultados. Pero si el modelo tiene éxito, podría inspirar una transformación global en la manera de entender y afrontar la obesidad.

Como concluyen los autores del artículo en The Lancet, la decisión italiana “representa un paso crucial para reducir los costes del tratamiento y frenar la mortalidad”.

En una época en la que las enfermedades crónicas amenazan la sostenibilidad de los sistemas sanitarios, reconocer la obesidad como una enfermedad es, ante todo, un acto de realismo y de justicia sanitaria, que debe ser tratada por los profesionales de la nutrición.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública – https://theconversation.com/italia-reconoce-la-obesidad-como-enfermedad-cronica-un-paso-historico-en-la-salud-publica-268403

Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine

Source: The Conversation – (in Spanish) – By Lara López Millán, Docente Universitaria de Artes y Educación, Universidad Camilo José Cela

Oscar Isaac en una imagen del último _Frankenstein_ dirigido por Guillermo del Toro. Netflix

El miedo siempre estuvo ahí, pero el cine lo convirtió en espectáculo. Desde las primeras proyecciones, el público acudió a las salas para sentir esa descarga controlada de adrenalina.

Cuando Nosferatu (1922) extendió su sombra, no fue sólo un vampiro lo que hizo que la audiencia se estremeciese: era la Europa de entreguerras viéndose reflejada en una criatura enfermiza y extranjera, una amenaza que llegaba de fuera para romper un orden social que ya tambaleaba. Desde entonces, cada generación ha encontrado su propio engendro en la pantalla.

Sombras y mutaciones

El terror funciona como un espejo. Los castillos en ruinas y las nieblas góticas de los años treinta no eran simples decorados: representaban un mundo que parecía haberse detenido, que miraba con nostalgia y temor al pasado.

Los monstruos de Universal –Drácula (1931), Frankenstein (1931), El hombre lobo (1941)– eran a la vez temibles y fascinantes, porque encarnaban miedos muy contemporáneos: la ciencia que se descontrola, el cuerpo que enferma, lo diferente que amenaza lo familiar. La gente entraba en el cine buscando escalofríos, pero salía habiéndose enfrentado, de forma simbólica, a sus propias ansiedades.

Un hombre deforme yace en el suelo y otro con joroba lo observa iluminándose con una antorcha.
Fotograma de Frankenstein (James Whale, 1931).
Universal Pictures

Con el tiempo, las nieblas se despejaron y el terror empezó a mirar hacia el futuro. Las décadas de posguerra trajeron un pánico nuevo, más tecnológico, más científico. De pronto, las amenazas venían del espacio exterior o de laboratorios secretos: alienígenas, mutantes, experimentos que se salían de control.

Películas como Ultimátum a la Tierra (1951) y El enigma de otro mundo (1951) capturaban la paranoia de un planeta dividido en bloques, mientras que La humanidad en peligro (1954) y Godzilla (1954) daban forma grotesca a la amenaza nuclear con hormigas gigantes y criaturas surgidas de la radiación. La bomba atómica estaba en la mente de todos, y el cine lo canalizó en forma de invasiones, mutaciones y sospechas colectivas.

El enemigo está en casa

El susto más inquietante todavía estaba por llegar: el que no depende de criaturas sobrenaturales.

Cuando Alfred Hitchcock estrenó Psicosis (1960), el público descubrió que el peligro podía estar en la puerta de al lado. Norman Bates era un hombre normal, tímido, amable. No necesitaba colmillos ni garras para matar. Se plasmaba así la incertidumbre de una época marcada por cambios sociales y la erosión de la confianza en las instituciones: los años sesenta traían consigo tensiones urbanas, movimientos sociales y la sensación de que la amenaza podía venir del vecino o el propio núcleo familiar.

Un hombre mira a cámara con la cabeza baja y sonríe.
Anthony Perkins interpretando a Norman Bates, un hombre… ¿normal?
Paramount Pictures

A partir de ese momento, el horror se volvió más íntimo: el motel de carretera, la casa suburbana y la niñez misma podían convertirse en escenarios de pesadilla. Películas como La matanza de Texas (1974) o Halloween (1978) consolidaron esa sensación. Su violencia evidenciaba la desconfianza y el malestar de Estados Unidos tras la guerra de Vietnam y la crisis económica de los setenta: lo que parecía seguro –el hogar, la comunidad– podía volverse mortal.

Esa invasión de lo cotidiano continuó durante los ochenta, una década de consumismo, cultura pop y miedo al crimen urbano, donde el género se llenó de ruido, sangre y espectáculo. Freddy Krueger, Jason Voorhees o el muñeco Chucky se convirtieron en iconos de la cultura pop, con máscaras y frases ingeniosas incluidas.

Pero en medio del exceso, hubo cineastas que exploraron terrores más psicológicos: El resplandor (1980) convirtió a un padre en monstruo, miesntras que La cosa (1982) reflejó la paranoia y el aislamiento propios de la Guerra Fría, donde el enemigo podía estar más cerca de lo que pensábamos. Lo verdaderamente espeluznante no era la criatura, sino la posibilidad de que estuviera dentro de nosotros.

A finales de los noventa, este cine se tornó autorreflexivo. Scream (1996) jugaba con los clichés y los convertía en parte de la diversión; el espectador ya era un cómplice. Este conocimiento de las reglas del juego preparó el terreno para un nuevo tipo de terror: el que utilizaba la cámara y la estructura narrativa para hacer que el miedo pareciera más real y cercano al espectador.

En el nuevo milenio el género empezó a experimentar con nuevas formas de asustar. Surgió el found footage (metraje encontrado) con El proyecto de la bruja de Blair (1999) y después Paranormal Activity (2007), que hicieron que el espanto fuese casi documental, revelando la ansiedad de una sociedad cada vez más vigilada, hiperconectada y acostumbrada a consumir imágenes de lo real a través de cámaras y móviles.

También hubo un auge de remakes estadounidenses de clásicos japoneses como The Ring (2002) o El grito (2004), que introdujeron a Occidente en un miedo atmosférico, más basado en el silencio y la sugerencia que en el susto fácil. Esto coincidió con la apertura cultural global y el interés por historias que venían de fuera, mostrando un mundo interconectado donde lo desconocido podía llegar de cualquier parte.

El arte de atemorizar hoy

Así, tras la experimentación formal de los primeros años del milenio, el género se abrió a propuestas en las que no solo se sobresaltaba al espectador, sino que también se comentaba la sociedad y se exploraba la psicología humana.

La década de 2010 supuso un punto de inflexión. Productoras como A24 y Blumhouse apostaron por un terror más ambicioso y autoral. Por ejemplo, Déjame salir (2017) convirtió el miedo en un comentario social directo sobre los conflictos raciales y la polarización política.

Hereditary (2018) y Midsommar (2019), por el contrario, llevaron el género a un horror casi operístico, en el que la fractura familiar y las dinámicas comunitarias provocan espanto, un espejo de sociedades contemporáneas cada vez más fragmentadas e impacientes. The Babadook (2014) e It Follows (2014) se encargaron de explorar el trauma, la ansiedad y la transmisión del pavor como si fueran enfermedades. Incluso el slasher regresó en versiones más sofisticadas como X (2022) y Pearl (2022), que mezclan nostalgia y reflexión metacinematográfica.

En los años 2020, el género sigue expandiéndose en todas direcciones. Películas como Barbarian (2022) o Háblame (2023) juegan con las expectativas del espectador, construyendo giros radicales en un contexto de incertidumbre global: pandemias, crisis climáticas y cambios tecnológicos acelerados. También vemos un resurgir del folk horror en propuestas como Men (2022) o The Witch (2015), donde lo rural y lo ancestral vuelven a ser fuente de amenaza, recordando cómo la modernidad puede despertar miedos arcaicos.

En los tres últimos años el género ha seguido explorando nuevas formas de provocar escalofríos: It Lives Inside (2023) combina terror sobrenatural y exploración cultural, mientras que La sustancia (2024) ofrece una sátira que critica la industria del bienestar. Incluso Robert Eggers presentó su reinterpretación gótica del clásico Nosferatu (2024) y, en 2025, Weapons introdujo una narrativa fragmentada sobre la desaparición de niños, mezclando horror psicológico y social mientras hablaba de la infancia, la vigilancia y la seguridad en la vida cotidiana.

Un niño con una sonrisa pintada mira a cámara mientras sus compañeros duermen sobre los pupitres.
Imagen de Weapons, de Zach Cregger (2025).
Warner Bros.

Estas producciones demuestran que el cine de terror continúa adaptándose, mostrando ansiedades contemporáneas y ofreciendo nuevas perspectivas al público. Lo que se mantiene constante es nuestra necesidad de mirar, tal vez porque lo consideramos un laboratorio emocional. Nos permite ensayar el miedo sin consecuencias, sentirlo de manera segura y controlada. Cuando las luces se apagan, podemos enfrentarnos a aquello que más nos perturba –la muerte, el caos, la desintegración de la familia, el fin del mundo– y salir ilesos.

En un presente lleno de amenazas difusas, desde pandemias hasta crisis climáticas, el género sigue evolucionando para darles forma. Así, cada Halloween volvemos a las salas buscando ese escalofrío. Puede que ya no haya vampiros con capa ni lobos aullando a la luna, pero el vecino inquietante, el monstruo invisible o el silencio en una casa demasiado tranquila siguen funcionando. Y quizás por eso el terror nunca muere: porque siempre encuentra un nuevo rostro para nuestros miedos.

The Conversation

Lara López Millán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine – https://theconversation.com/del-vampiro-al-vecino-inquietante-como-ha-cambiado-nuestra-forma-de-asustarnos-en-el-cine-265552

El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA

Source: The Conversation – (in Spanish) – By Mauro Hernández, Profesor Titular de Historia Económica, UNED – Universidad Nacional de Educación a Distancia

_El líder de los luditas_, grabado de 1813. Wikimedia Commons, CC BY

En los tiempos que corren, cualquiera que se atreva a cuestionar las ventajas de la innovación tecnológica se arriesga a ser tachado de ludita. En la imagen popular, el ludita es un personaje agrio, reaccionario, visceralmente opuesto a cualquiera de los inventos que supuestamente nos mejoran la vida –del teléfono móvil a la roomba–, y que se resiste más o menos activamente a usarlas, e incluso a que las usen los demás.

Inglaterra, comienzos del XIX: el ludismo

Sin embargo, hubo un tiempo en que el ludismo y los luditas significaron algo muy distinto. Ser ludita en la Inglaterra de las primeras décadas del siglo XIX era una cosa muy seria, y a menudo peligrosa. Pero la imagen que circula de estos “destructores de máquinas” de la primera Revolución Industrial es inexacta e inmerecida.

El mítico Ned Ludd, alias General Ludd o Rey Ludd –de cuyo nombre deriva el término luditas–, probablemente no fue una persona de carne y hueso. Pero sus seguidores formaron a comienzos de la década de 1810 un auténtico ejército de trabajadores, la mayoría de ellos artesanos cualificados, embarcados en una campaña de asaltos a fábricas textiles y destrucción de maquinaria.

Esta movilización alcanzó su apogeo entre 1811 y 1813, pero sus ecos perdurarían. Unos veinte años después, las multitudinarias revueltas del capitán Swing de 1830-1831, movilizaron en veinte condados del sur de Inglaterra a miles de trabajadores agrarios que buscaban mejorar sus salarios destruyendo trilladoras mecánicas. Estos disturbios se saldaron con más de 2 000 detenciones, 500 encarcelados y 19 ejecutados.

Pero la destrucción de máquinas o el asalto a fábricas, como la que defendió a tiros Edmund Cartwright, inventor del primer telar mecánico, eran sólo una parte del repertorio de la protesta ludita. En realidad, combinaban la acción política (peticiones al Parlamento), la sindical (sociedades de socorro mutuo, negociación con los patronos) y la violencia tumultuaria.

La destrucción de unos 1 000 telares llevó al gobierno inglés a movilizar tropas (en plena guerra con Napoleón fueron enviados a Nottingham 2 000 soldados) y castigar la destrucción de maquinaria con pena de muerte. Ser ludita no era cosa de broma.

Ludismo: un movimiento no tan irracional

Aunque los movimientos luditas se han contemplado a menudo como una reacción desesperada contra un progreso inexorable, tenían una racionalidad mucho mayor de la que se les suele reconoce.

Para empezar, formaban parte de acciones de negociación salarial (o de precios, pues muchos artesanos trabajaban a destajo para fabricantes o comerciantes). En ocasiones estaban conectados a corrientes revolucionarias clandestinas como el jacobinismo, inspirado en las ideas de la Revolución francesa, o bien movimientos de corte democrático reformista como el cartismo que allanó el camino para la gran confederación de las Trade Unions (sindicatos obreros) en 1834.

Los luditas representaban, sobre todo, la lucha de muchos trabajadores y sus familias para influir en el reparto del pastel de los beneficios de la mecanización. En ese sentido, alcanzaron algunos éxitos y abrieron el camino a muchas décadas de lucha obrera.

Todo esto lo conocen bien los historiadores, especialmente los británicos, que han dedicado amplia atención al fenómeno, desde los clásicos E. P. Thompson o Eric Hobsbawm hasta más recientemente Brian Merchant, cuyo apasionante libro Sangre en las máquinas acaba de ser publicado en español por una editorial llamada (¿casualmente?) Capitán Swing.

¿Qué es el neoludismo del siglo XXI?

A día de hoy, el término puede utilizarse en dos sentidos. Despectivamente, para retratar a personas refractarias a la tecnología en general, y en especial a la que tiene que ver con la computación (IA incluida) y las comunicaciones móviles. Es casi un epíteto burlón, que abarca tanto al boomer que “pasa de WhatsApp” como a quienes niegan a sus hijos el acceso libre a las pantallas (algo que no necesariamente hacen, pese a lo que a veces se dice, los magnates de las tecnologías. Gente opuesta al progreso, incluso partidarios del decrecimiento económico, a quienes acabará barriendo el viento de la historia.

Desde otro punto de vista, también se reivindican como neoluditas sesudos analistas de las repercusiones indeseadas de las tecnologías, especialmente la IA.

Para estos expertos, a menudo conocedores de primera mano del mundo de los gigantes tecnológicos, la tecnología no siempre significa progreso. La IA generativa, por ejemplo, es una herramienta potentísima para la educación, pero que puede emplearse para estudiar menos.

También puede funcionar como un potenciador y acelerador en el análisis de pruebas médicas pero, a la vez, desplegar sesgos notables, probablemente por el origen de los datos con que se entrena. Eso puede provocar errores en los diagnósticos que varían según el género, la etnia, la edad o, incluso, el nivel socioeconómico.

Valiosa aliada en la lucha contra el crimen o la corrupción, la IA puede ser un arma igualmente poderosa para la persecución política.

También está la espinosa cuestión de cómo se ha alimentado la IA con una ingente masa de materiales que tienen creadores concretos cuyos derechos de autor fueron vulnerados. En el debate sobre estas y otras muchas cuestiones, ciertos neoluditas tienen mucho que decir.




Leer más:
Por qué es tan relevante la demanda de The New York Times contra OpenAI y Microsoft por usar sus contenidos sin permiso


La tecnología no es el problema

Ni las caricaturas de los luditas de la Inglaterra de la Revolución Industrial ni las de los neoluditas de nuestros días hacen justicia a sus reivindicaciones. Unos neoluditas que, por ejemplo, plantean el debate sobre los costes medioambientales de ciertas tecnologías, la regulación de las llamadas tecnologías destructivas, los riesgos de los oligopolios del sector, los efectos sobre derechos y libertades básicos o la participación ciudadana en las decisiones sobre el desarrollo tecnológico. Se trata de debates imprescindibles desde el punto de vista político, ético, social y medioambiental.

Las tecnologías en sí mismas no son casi nunca el problema, pero sí su uso y cómo se reparte el pastel que generan. Los luditas de 1810 lo sabían. A nosotros nos toca decidir, y empieza a ser urgente, cómo va a regularse la inteligencia artificial y cómo van a asignarse los costes y beneficios de su implantación.

The Conversation

Mauro Hernández recibe fondos de la Agencia Estatal de Investigación (Ministerio de Ciencia e Innovación) como investigador del proyecto “Transformaciones sociales en Madrid y la Monarquía hispánica en la edad moderna. Movimientos ascendentes y descendentes. Entre cambios y resistencias” (PID2022-142050NB-C22) coordinado por José Antolín Nieto (UAM).

ref. El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA – https://theconversation.com/el-legado-de-los-luditas-de-la-destruccion-de-telares-al-cuestionamiento-de-la-ia-268041

Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo)

Source: The Conversation – (in Spanish) – By Valentín Iglesias Sarmiento, Profesor, Universidade de Vigo

shutterstock Billion Photos

Aprender matemáticas supone un desafío particular, diferente al otras materias escolares.

En primer lugar, requiere mucho más que memorizar estrategias o recordar fórmulas: implica poner en marcha procesos mentales complejos y coordinarlos. A diferencia de otras asignaturas o contenidos, en los que puede bastar con comprender o recordar información, las matemáticas exigen transformar datos, establecer relaciones abstractas y planificar diferentes pasos para llegar a una solución.

En este proceso, la memoria de trabajo desempeña un papel fundamental porque permite mantener y manipular la información necesaria mientras se resuelve una tarea matemática, y la velocidad de procesamiento ayuda a realizar con agilidad las operaciones básicas.

Matemáticas y funciones ejecutivas

También intervienen otras funciones ejecutivas: la planificación (determinar los pasos que se deben seguir, organizarlos en un orden lógico y supervisar el progreso para evaluar posibles soluciones); la inhibición (frenar respuestas impulsivas o automáticas y resistirse a elementos externos que puedan distraer durante la resolución); y la flexibilidad (cambiar de estrategia cuando el procedimiento inicial no conduce al resultado esperado).

A todo ello se suma el razonamiento no verbal, entendido como la capacidad de reconocer patrones y establecer relaciones entre elementos para guiar las estrategias de solución.

El lenguaje también resulta clave a medida que las tareas se vuelven más complejas. Para resolver un problema correctamente es necesario comprender el significado de las palabras y expresiones que aparecen en el enunciado. Por ejemplo, términos como “aumentar”, “quitar” o “repartir en partes iguales” implican operaciones matemáticas concretas, y si el alumnado no domina ese vocabulario puede tener dificultades para entender qué se le pide.

Esta interacción entre componentes lingüísticos, conocimientos matemáticos y procesos cognitivos de carácter más general explica por qué son frecuentes las dificultades en matemáticas y por qué persisten aunque los alumnos se esfuercen.

Un problema que comienza temprano

La evidencia científica indica que las dificultades no dependen únicamente de la inteligencia o la perseverancia (ni de dificultades específicas como la discalculia), sino de la interacción de múltiples factores educativos, cognitivos, matemáticos, lingüísticos y socioafectivos. Es importante detectar cuáles son y cómo se combinan, pues de lo contrario las dificultades se acumulan y se mantienen a lo largo de toda la etapa escolar.

Las dificultades en matemáticas aparecen ya en Educación Infantil y se consolidan en Educación Primaria. No se trata de un simple “despiste”: los niños con bajo rendimiento inicial suelen mantenerlo durante años.




Leer más:
¿Problemas con los números? Herramientas para detectar y tratar la discalculia


Tradicionalmente, un bajo rendimiento en matemáticas respecto al cociente intelectual se asociaba con la citada discalculia. Hoy se sabe que este criterio es limitado: aunque esta dificultad puede estar detrás en algunas ocasiones, en otras las causas responden a una combinación de factores diferente.

Retos a abordar en el aprendizaje matemático

Las habilidades necesarias para tener un buen rendimiento matemático va evolucionando a lo largo de la escolarización. Algunas tareas, como el cálculo, se apoyan sobre todo en la memoria de trabajo y en habilidades matemáticas tempranas como el conteo. Otras, como la resolución de problemas que hemos comentado, exigen una mayor comprensión verbal y presentan demandas cognitivas más complejas.

Por eso, no todos los estudiantes se enfrentan a las mismas dificultades ni por las mismas razones. Algunos tienen problemas para memorizar las tablas aritméticas, otros tropiezan al seguir los pasos de un procedimiento o al aplicarlo en situaciones nuevas. Estas dificultades pueden estar relacionadas con limitaciones en procesos generales, como la memoria o la atención, con dificultades en las habilidades lingüísticas necesarias para comprender enunciados o con carencias en los conocimientos matemáticos previos.

Una enseñanza flexible y personalizada

Reconocer esta diversidad implica que la enseñanza no puede ser uniforme ni basarse en estrategias idénticas para todo el alumnado. Debe ser flexible y adaptarse a las necesidades específicas de cada niño, lo que supone observar cómo aprende cada estudiante, proponer actividades variadas en función de sus fortalezas y debilidades y ofrecer apoyos ajustados cuando sea necesario.

Muchos docentes ya trabajan en esta dirección, aunque los programas y currículos escolares no siempre facilitan este enfoque. Por ello es importante incorporar esta diversidad en las programaciones didácticas y en la formación del profesorado.

Diferentes tipos de apoyos

Las dificultades en matemáticas no son estáticas ni se ajustan a un enfoque categórico simple. No existen únicamente dos grupos –los que “entienden” y los que “no entienden”–, sino que hay muchos niveles intermedios. Algunos estudiantes pueden mostrar problemas puntuales que desaparecen con pequeñas ayudas, mientras que otros necesitan apoyos más intensos y prolongados a lo largo del tiempo.

También es habitual que las dificultades no se distribuyan de forma uniforme entre las distintas áreas: por ejemplo, un alumno puede dominar el cálculo pero tener dificultades al aplicar sus conocimientos en contextos nuevos o en tareas más complejas, como la resolución de problemas.




Leer más:
¿Qué es el método ABN de matemáticas?


Por todo ello, resulta fundamental realizar un seguimiento del progreso del alumnado durante periodos prolongados, más allá de un curso escolar o de una evaluación puntual. Solo mediante una observación continua es posible comprender cómo evolucionan sus habilidades, por qué algunas dificultades persisten y qué tipo de enseñanza o intervención resulta más eficaz para superarlas.

Estrategias de actuación basadas en la evidencia

De acuerdo con nuestros estudios, más de una cuarta parte de los niños que presenta dificultades en el aprendizaje de las matemáticas en Educación Infantil continúa con ellas al finalizar la etapa de Educación Primaria.

Enfoques educativos como el modelo de Respuesta a la Intervención (RtI) o, de forma más amplia, los Sistemas Multinivel de Apoyo (MTSS) han demostrado ser enfoques eficaces para organizar el trabajo en el aula.

Estos sistemas parten de un mismo principio: ofrecer diferentes niveles de apoyo en función de las necesidades de cada estudiante, que son detectadas de forma temprana a través de instrumentos de cribado. Cada nivel ofrece diferentes tipos de instrucción, evaluación, intervención y apoyos, con niveles más intensivos a medida que se avanza en el sistema.

Combinar estrategias

Los hallazgos recientes también sugieren que los programas que combinan entrenamiento de procesos cognitivos con habilidades matemáticas concretas tienen mayor potencial que los que se centran en un solo aspecto.

Estrategias como la identificación y construcción de esquemas de problemas, la enseñanza explícita de secuencias de estrategias cognitivas y metacognitivas, y el uso de materiales manipulativos para reducir la carga de abstracción han demostrado ser eficaces para ayudar a los estudiantes con debilidades cognitivas y lingüísticas.

Integrar sistemáticamente estos enfoques en la escuela no solo mejora la adquisición de habilidades matemáticas, sino que también favorece la confianza y autonomía de los estudiantes, aspectos fundamentales para su desarrollo académico y emocional.

En definitiva, la combinación de detección temprana, intervenciones estructuradas e integradoras y personalización según el perfil del alumno es la forma más eficaz de abordar las dificultades matemáticas persistentes.

Más allá del aula: un reto social

Comprender por qué algunos niños tropiezan en matemáticas no es solo un asunto académico: estas dificultades tienen un impacto directo en las oportunidades futuras de los escolares, tanto educativas como laborales y sociales.

La evidencia indica que la detección temprana y las intervenciones adecuadas pueden marcar una diferencia significativa. El desafío actual es trasladar este conocimiento a las aulas, asegurando que ningún niño quede rezagado en el aprendizaje de un área tan esencial como las matemáticas.

The Conversation

Valentín Iglesias Sarmiento recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores Longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-I00.

Leire Pérez Pérez recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-100.

ref. Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo) – https://theconversation.com/por-que-algunos-ninos-tienen-dificultades-con-las-matematicas-desde-el-inicio-y-no-es-por-falta-de-esfuerzo-266683

Nuclear-powered missiles: An aerospace engineer explains how they work – and what Russia’s claimed test means for global strategic stability

Source: The Conversation – USA – By Iain Boyd, Director of the Center for National Security Initiatives and Professor of Aerospace Engineering Sciences, University of Colorado Boulder

Russia’s earlier tests of the Burevestnik missile include this 2018 launch. Screencapture of Russian Defense Ministry video, CC BY

Russian President Vladimir Putin, dressed in a military uniform, announced on Oct. 26, 2025, that Russia had successfully tested a nuclear-powered missile. If true, such a weapon could provide Russia with a unique military capability that also has broader political implications.

The missile, called Burevestnik, was reportedly successfully tested over the Arctic Ocean after years of development and several earlier initial test flights, one of which resulted in the deaths of five nuclear scientists.

I am an engineer who studies defense systems. Here is how these weapons function, the advantages they present over conventional missile systems, and their potential to disrupt global strategic stability.

Conventionally powered missiles

Missiles have been used by militaries around the world for centuries and come in a broad array of designs that are characterized by their mission, range and velocity. They are used to damage and destroy a wide variety of targets, including ground installations such as bases, command centers and deeply buried infrastructure; ships; aircraft; and potentially spacecraft. These weapons are operated from the ground by the army, from the sea by navy ships, and from the air by fighters and bombers.

Missiles can be tactical, with relatively short ranges of less than 500 miles, or strategic, with long ranges of thousands of miles. Missiles fall into three general categories: ballistic, cruise and hypersonic.

Ballistic missiles are launched on rockets. After the rocket burns out, the missile flies along a predictable arc that takes it out of the atmosphere into space and then back into the atmosphere toward its target.

Cruise missiles have an additional engine that is ignited after the rocket burns out, allowing the missile to fly programmed routes, typically at low altitudes. These engines are powered by a mixture of chemicals or a solid fuel.

Hypersonic missiles fly faster than the speed of sound, but not as fast as intercontinental ballistic missiles, or ICBMs. They are launched on smaller rockets that keep them within the upper reaches of the atmosphere. A hypersonic glide vehicle is boosted to high altitude and then glides to its target, maneuvering along the way. A hypersonic cruise missile is boosted to hypersonic speed and then uses an air-breathing engine called a scramjet to sustain that speed.

How nuclear-powered missiles work

Nuclear-powered missiles are a type of cruise missile. The designs are typically a form of scramjet. A thermal nuclear system uses fission of nuclear fuel to add energy to an airstream that is then accelerated through a nozzle to generate thrust. In this way, fission of nuclear material replaces chemical combustion of traditional cruise missile engines.

a line drawing diagram with labels
The concept for a nuclear-powered scramjet is simple, even if building one is extremely challenging.
Lawrence Berkeley National Laboratory

The energy density – the amount of energy released per unit mass of fuel – available from nuclear fission is millions of times larger than that released by chemical propellants. This feature means that a relatively small amount of fissionable propellant can be used to power a missile for much longer periods of time than chemical propellants can.

The United States explored developing a nuclear-powered missile in the 1960s. The effort, Project Pluto, was abandoned due to the rapid progress made at the same time on ICBMs, as well as concerns over environmental contamination associated with nuclear systems.

Advantages of nuclear-powered flight

The key advantage of nuclear-powered missiles is the extra energy, which allows them to fly farther, longer, faster and lower in the atmosphere, while executing a wide array of maneuvers. For these reasons, they pose a significant challenge to the best missile defense systems.

The Russian military claims that the Burevestnik missile flew 8,700 miles at low altitude over a 15-hour period. For comparison, an airline flight from San Francisco to Boston covers 2,700 miles in six hours. While the Burevestnik vehicle is not flying particularly fast for a missile, it is likely maneuverable, which makes it difficult to defend against.

Challenges to using nuclear power

The huge amount of energy released by fission has been the key technical challenge for developing these missiles. The high levels of energy require materials that can withstand temperatures up to several thousand degrees Fahrenheit to prevent the missile from destroying itself.

In terms of safety, nuclear technology has found very limited application in space due to concerns over radiation contamination if something goes wrong, such as a failed launch. The same concerns apply to a nuclear-powered munition.

In addition, such systems may need to remain safe in storage for many years prior to use. An attack by an enemy on a weapons storage facility that contains nuclear-powered weapons could lead to a massive radiation leak.

Early development of a nuclear-powered missile by the United States in the 1950s and ’60s ended after it became clear the idea was strategically and environmentally challenging.

Russia’s Burevestnik and global stability

The new Russian Burevestnik missile has been under development for over 20 years. While few technical details are known, Russian officials claim that it can maneuver to bypass antimissile and air defense systems.

Nuclear weapons were the basis for mutual deterrence between the Soviet Union and the United States during the Cold War. Both parties understood that a first strike by one side would be matched by an equally destructive counterstrike by the other. The fear of total annihilation maintained a peaceful balance.

Several developments threaten the current balance of power: better missile defense systems such as the U.S.’s planned Golden Dome and advances in highly maneuverable missiles. Missile defense systems have the potential to block a nuclear strike, and low-altitude maneuverable missiles have the potential to arrive without warning.

So, while much of the reaction to Russia’s announcement of its new nuclear-powered missile has focused on the challenges of defending against it, the more important concern may be its potential to completely disrupt global strategic stability.

The Conversation

Iain Boyd receives funding from the U.S. Department of Defense.

ref. Nuclear-powered missiles: An aerospace engineer explains how they work – and what Russia’s claimed test means for global strategic stability – https://theconversation.com/nuclear-powered-missiles-an-aerospace-engineer-explains-how-they-work-and-what-russias-claimed-test-means-for-global-strategic-stability-268476