Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices

Source: The Conversation – in French – By Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)

Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.

Épissage d’un pré-ARN messager : excision des introns et suture des exons.
Fdardel/Wikimédia, CC BY

Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.

Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.

Comment avons-nous répondu à cette question ?

Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.

Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.

Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.

Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.

Pourquoi est-ce important ?

Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.

L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.

Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.

Quelles suites donner à ce projet ?

Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.

Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.

The Conversation

Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.

ref. Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices – https://theconversation.com/double-fonction-des-sequences-dadn-une-nouvelle-etude-demontre-que-certaines-sont-a-la-fois-codantes-et-regulatrices-280230

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

Source: The Conversation – in French – By William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le grand collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au grand collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules – https://theconversation.com/une-anomalie-au-lhc-laisse-entrevoir-une-percee-majeure-en-physique-des-particules-281164

Masques à lumière rouge : que dit la science de leur efficacité ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech », portée par les influenceurs et rendue accessible au travers de dispositifs à domicile. Elle est associée à des effets séduisants tels que réduction des signes de l’âge, amélioration de l’acné ou encore accélération de la cicatrisation. Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?


Les dispositifs de thérapie à la lumière rouge destinés au grand public se présentent le plus souvent sous la forme de masques faciaux rigides ou souples, conçus pour épouser les contours du visage. Leur prix varie d’une centaine à environ mille euros. Ils intègrent un ensemble de diodes électroluminescentes (LED) disposées sur leur face interne, émettant une lumière visible rouge, parfois associée à du proche infrarouge. L’utilisateur porte ce masque pendant une durée déterminée (généralement quelques minutes), afin d’exposer uniformément la peau à cette lumière. D’autres formats existent également, tels que des panneaux lumineux ou des dispositifs portatifs ciblant des zones spécifiques du corps, mais le masque facial constitue aujourd’hui la forme la plus emblématique.

Cet intérêt croissant pour la thérapie à la lumière rouge repose sur plusieurs facteurs complémentaires. D’une part, les avancées technologiques ont permis la miniaturisation de systèmes LED, rendant possible leur utilisation hors des cabinets médicaux. Dans ces derniers, la lumière rouge est utilisée notamment en dermatologie, où elle est employée pour le traitement de l’acné, des plaies, des ulcères et des cicatrices. D’autre part, ces dispositifs sont souvent présentés comme des solutions non invasives, ce qui contribue à leur accessibilité et à leur adoption par le grand public. Enfin, les réseaux sociaux participent à leur visibilité, en diffusant des retours d’expérience et des contenus d’usage, qui s’ajoutent aux publications scientifiques et aux communications commerciales existantes.

Commençons par préciser ce que l’on appelle thérapie à la lumière rouge. Aussi appelée photobiomodulation, elle repose sur l’utilisation de longueurs d’onde spécifiques, généralement comprises entre 630 et 660 nm, parfois étendues au proche infrarouge (environ 800–900 nm). Ces longueurs d’onde peuvent pénétrer dans la peau jusqu’au derme sans provoquer d’échauffement significatif ou de dommages comparables aux UV.

Quels sont les effets biologiques de la photobiomodulation ?

Au niveau biologique, la photobiomodulation serait liée à plusieurs mécanismes cellulaires encore en cours d’étude. Le mécanisme principal évoqué dans les travaux repose sur une interaction avec les mitochondries (petites structures cellulaires qui produisent l’énergie – sous forme d’une molécule appelée adénosine triphosphate : ATP – à partir des nutriments et de l’oxygène), en particulier avec l’enzyme cytochrome c oxydase, un acteur clé de la chaîne respiratoire. Plusieurs travaux suggèrent que cette enzyme agit comme un chromophore capable d’absorber la lumière rouge, entraînant des modifications de son état redox (gain ou perte d’électrons) et une stimulation du métabolisme, notamment via une augmentation de la production d’ATP et l’activation de voies de signalisation intracellulaires.

Ces processus s’accompagnent de plusieurs effets biologiques principalement observés in vitro et dans des modèles animaux. Une augmentation de la production d’ATP a notamment été mesurée après exposition à ces longueurs d’onde. Par ailleurs, la lumière semble moduler le stress oxydatif, c’est-à-dire le déséquilibre entre la production de molécules réactives de l’oxygène et les systèmes de défense antioxydants de la cellule. Ce déséquilibre est susceptible d’endommager les lipides, protéines et l’ADN lorsqu’il est excessif, mais peut aussi jouer un rôle de signal biologique à faible niveau. Ce processus implique notamment une production contrôlée d’espèces réactives de l’oxygène (ROS) et de monoxyde d’azote, deux molécules impliquées dans les voies de signalisation cellulaire. Enfin, ces signaux biochimiques activent des cascades intracellulaires (kinases, facteurs de transcription) favorisant des processus de réparation et de régénération tissulaire.

Des effets modestes

Ces mécanismes restent encore débattus, notamment concernant le rôle exact du cytochrome c oxydase, dont l’implication directe n’est pas unanimement démontrée. Malgré ces incertitudes mécanistiques, la photobiomodulation a été largement étudiée sur le plan clinique, avec des résultats globalement positifs mais variables selon les indications.

Dans le cas du vieillissement cutané, plusieurs essais rapportent une légère amélioration des rides fines, de la texture et de l’élasticité de la peau après plusieurs semaines de traitement. Ces effets seraient liés à la stimulation des fibroblastes (cellules de base des tissus conjonctifs) et à l’augmentation de la production de collagène. Une revue souligne que les effets observés sont réels mais hétérogènes et encore mal standardisés.

Concernant la cicatrisation, les données suggèrent un potentiel effet, mais les preuves restent encore incomplètes et parfois contradictoires. La lumière rouge pourrait intervenir dans les différentes phases de la réparation tissulaire (inflammation, prolifération et remodelage) en stimulant l’activité de cellules clés comme les fibroblastes et les macrophages (cellules du système immunitaire). Elle favoriserait ainsi la production de collagène, la migration cellulaire et possiblement l’angiogenèse (formation de nouveaux vaisseaux sanguins à partir de vaisseaux existants), contribuant à la reconstruction du tissu lésé. Cependant, les données cliniques sont hétérogènes : certaines études montrent une accélération de la cicatrisation, tandis que d’autres ne retrouvent pas d’effet significatif.

Enfin, dans le traitement de l’acné, la lumière rouge agit principalement par des effets anti-inflammatoires et une modulation de l’activité des glandes sébacées (situées dans la peau et impliquées dans la synthèse et sécrétion du sébum). Les études rapportent une diminution des lésions inflammatoires et des rougeurs, avec des résultats globalement modérés et variables selon les protocoles. Elle est souvent plus efficace lorsqu’elle est combinée à d’autres thérapies lumineuses.

Un niveau de preuve limité

Malgré des résultats encourageants dans plusieurs domaines, la photobiomodulation reste une discipline en développement, dont le niveau de preuve est limité par plusieurs facteurs méthodologiques. De nombreuses études reposent sur des effectifs réduits, ce qui limite la robustesse statistique et la généralisation des résultats. Par ailleurs, l’hétérogénéité des protocoles expérimentaux (durée d’exposition, intensité lumineuse, fréquence des traitements) complique la comparaison entre études et peut expliquer certaines divergences observées.

Ces limites méthodologiques contrastent avec la diffusion rapide de dispositifs grand public (masques LED, panneaux, appareils portatifs), aux performances variables et peu standardisées. L’écart entre les conditions expérimentales (paramètres contrôlés, doses précises, suivi médical) et l’usage domestique peut conduire à une surestimation des effets, parfois amplifiée par des discours commerciaux optimistes.

En résumé, la photobiomodulation repose sur des mécanismes biologiques plausibles et des résultats expérimentaux et cliniques encore partiellement concordants. Le niveau de preuve reste à ce jour modéré, en raison notamment du nombre limité d’essais randomisés contrôlés de grande ampleur et de l’hétérogénéité des protocoles. Les données disponibles suggèrent des effets potentiels dans plusieurs indications dermatologiques, mais leur amplitude et leur reproductibilité varient selon les conditions d’utilisation. Cette technologie s’inscrit ainsi dans un champ de recherche en structuration, nécessitant des études complémentaires standardisées afin de préciser ses indications et ses paramètres optimaux.

Dans ce contexte, des effets indésirables restent rares mais possibles, principalement sous forme d’irritations cutanées transitoires ou d’inconfort oculaire en cas de mauvaise utilisation. Les données actuelles ne mettent pas en évidence de toxicité majeure aux paramètres utilisés en photobiomodulation, mais les effets d’un usage prolongé ou non encadré restent encore insuffisamment documentés. Certaines situations peuvent également nécessiter des précautions particulières, notamment chez les personnes présentant une sensibilité accrue à la lumière ou des pathologies dermatologiques spécifiques.

L’utilisation de dispositifs commerciaux de lumière rouge doit donc être envisagée avec prudence, en particulier en dehors d’un cadre médical. Il est recommandé de solliciter un avis médical ou dermatologique en cas d’usage à visée thérapeutique. Par ailleurs, les dispositifs disponibles sur le marché présentent une qualité variable : il convient de vérifier des paramètres tels que la longueur d’onde (généralement 630–660 nm pour le rouge), la puissance d’émission, ainsi que la présence de certifications de sécurité.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Masques à lumière rouge : que dit la science de leur efficacité ? – https://theconversation.com/masques-a-lumiere-rouge-que-dit-la-science-de-leur-efficacite-281373

Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ?

Source: The Conversation – in French – By Véronique Sadtler, Professeure, Université de Lorraine

Ce qu’il se passe à l’intérieur d’une machine à laver est bien plus complexe que ce que vous imaginez. Manon Lincésur/Unsplash, CC BY

Vous lancez une machine, versez une dose de lessive et attendez un linge propre : taches éliminées, fibres et couleurs préservées, même à basse température. Derrière ce geste quotidien se cache une chimie sophistiquée. Les formulations actuelles mobilisent souvent plus de 30 ingrédients, chacun jouant un rôle précis. Pourtant, on voit apparaître des lessives mettant en avant des listes plus courtes, parfois réduites à moins de 10 composants, portées par une demande de transparence et de moindre impact environnemental. Mais peut-on vraiment simplifier sans perdre en efficacité ?


Une lessive ne se contente pas de nettoyer. Elle doit simultanément décoller les salissures, préserver les tissus et fonctionner dans des eaux de qualité variable. Pour y parvenir, chaque ingrédient remplit un rôle précis. Les tensioactifs forment la colonne vertébrale de la formulation. Leur structure amphiphile – une tête hydrophile avec affinité pour l’eau et une chaîne hydrophobe attirant les graisses – leur permet de s’intercaler entre les salissures et les fibres, de les décoller et de les maintenir en suspension dans le bain de lavage.

Les enzymes complètent cette action en ciblant des taches spécifiques : les protéases décomposent les taches protéiniques (sang, œuf), les amylases s’attaquent aux amidons (sauces, pâtes, riz), tandis que les lipases hydrolysent graisses et huiles. Leur efficacité à basse température explique en grande partie pourquoi les lessives modernes peuvent nettoyer sans chauffer fortement l’eau. D’autres ingrédients assurent des fonctions complémentaires, comme l’efficacité du lavage en eau dure (une eau riche en ions calcium et magnésium, une eau calcaire), la stabilité de la formulation ou la limitation de la redéposition des salissures sur les fibres.

Cette complexité s’est construite au fil des décennies pour répondre à des exigences toujours plus élevées. Certaines fonctions restent difficiles à concilier : améliorer la blancheur peut altérer les couleurs vives, tandis que renforcer l’efficacité à basse température exige souvent des systèmes enzymatiques plus élaborés. Notons que la réglementation européenne n’impose pas l’affichage de la liste complète des ingrédients sur l’emballage, mais seulement des classes de composants avec des fourchettes de pourcentages. Obtenir la liste exhaustive reste souvent complexe pour le consommateur. Si la liste détaillée est théoriquement accessible en ligne, elle est en pratique plus ou moins facile à consulter, parfois dispersée dans des documents techniques.

Les deux moteurs de la simplification

Les formulations tendent aujourd’hui à se raccourcir sous l’effet de deux dynamiques. La première est réglementaire. Ainsi, les phosphates, autrefois largement utilisés comme agents séquestrants, ont été fortement limités puis pratiquement éliminés des lessives ménagères en Europe depuis 2013. Rejetés dans les eaux usées après le lavage, les phosphates contribuent à l’eutrophisation des milieux aquatiques, c’est-à-dire à un enrichissement excessif en nutriments. Ils favorisent ainsi la prolifération d’algues, qui appauvrit l’eau en oxygène et peut entraîner une perte de biodiversité.

La seconde dynamique est sociétale. Une demande croissante de transparence et de réduction de l’empreinte environnementale pousse les fabricants à proposer des formules plus courtes. Azurants optiques, qui donnent une impression de blancheur plus éclatante sans agir directement sur le nettoyage, parfums, conservateurs, remplissent des fonctions réelles, mais sont de plus en plus contestés pour leurs effets allergènes potentiels ou leur persistance dans l’environnement. Certains labels, comme l’Écolabel européen, vont au-delà de la réglementation en les excluant ou en les limitant strictement, privilégiant certains critères écologiques au détriment d’autres performances.

Simplifier, c’est arbitrer

Réduire le nombre d’ingrédients ne consiste pas à supprimer des composants sans conséquence. Il s’agit de recomposer un nouvel équilibre entre contraintes souvent contradictoires.

Le cercle de Sinner, cadre classique en chimie du lavage, illustre ces arbitrages. Il repose sur quatre paramètres interdépendants : action chimique, température de l’eau, temps de contact et action mécanique. Pour obtenir un niveau de propreté donné, ces facteurs se compensent : réduire l’un impose d’en renforcer un autre.

C’est exactement la logique des programmes « éco » des machines à laver : en abaissant la température à 30 ou 40 °C au lieu de 60 °C, ils allongent la durée du cycle. Si cette baisse de température permet de réduire la consommation d’énergie, elle peut rendre aussi le lavage moins efficace, ce qui nécessite des formulations souvent plus sophistiquées, capables d’agir à froid. Le lavage à basse température ne simplifie donc pas nécessairement les formules, et peut au contraire conduire à les complexifier.

Du bidon à la dosette : la complexité change de forme

L’évolution des formats de lessive illustre la manière dont la complexité est parfois redistribuée plutôt qu’éliminée. Les lessives liquides, aujourd’hui dominantes, sont pratiques et efficaces à basse température, mais transportent une part importante d’eau, souvent plus de la moitié de la formulation et nécessitent des conservateurs. Les formats concentrés ou solides visent à réduire l’emballage et l’impact du transport, mais nécessitent un dosage plus précis de la part du consommateur.

Dans ce contexte, le volume du flacon n’est pas toujours un bon indicateur : les fabricants indiquent généralement sur l’emballage le nombre de lavages, qui reflète mieux la concentration et facilite la comparaison entre produits.

Le surdosage reste fréquent : par habitude ou par crainte d’un résultat insuffisant, beaucoup de consommateurs versent plus que la dose recommandée. Au-delà d’un certain seuil, les tensioactifs supplémentaires n’améliorent plus le nettoyage ; ils sont simplement rejetés dans les eaux usées, augmentant inutilement la charge environnementale.

Les dosettes multi-compartiments offrent une autre réponse élégante : en séparant physiquement des ingrédients incompatibles (certaines enzymes et agents oxydants qui se neutraliseraient dans un mélange unique), elles préservent l’efficacité de chacun jusqu’au moment du lavage, tout en imposant une dose prédéfinie qui limite mécaniquement le surdosage. La complexité chimique n’a pas disparu ; elle a simplement été intégrée dans l’architecture du produit.

Performance maximale ou performance suffisante ?

Le véritable enjeu réside ici. Les lessives classiques sont conçues selon une logique de performance maximale : elles doivent venir à bout des situations les plus exigeantes – taches tenaces, eau très calcaire, textiles délicats – même si ces cas restent minoritaires dans la vie quotidienne.

Pourtant, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) le rappelle : la très grande majorité du linge porté n’est que peu ou modérément sale, et il est recommandé d’espacer les lavages. Viser systématiquement la performance maximale revient à surdimensionner la formulation pour des usages qui ne le justifient pas. Dans la pratique, pour le linge du quotidien, des doses modérées et des cycles à basse température sont généralement suffisants. À l’inverse, pour des taches plus tenaces – vêtements de sport ou de travail –, il peut être plus pertinent d’avoir recours à des détachants ciblés plutôt que d’augmenter systématiquement les doses de lessive.

Adapter les formulations aux usages majoritaires implique donc de passer d’une approche universelle à une logique de performance suffisante, c’est-à-dire une efficacité adaptée à la grande majorité des lavages quotidiens. Ce n’est pas une régression technique, mais un choix de conception assumé qui rend enfin visibles les arbitrages. Les lessives pour linge blanc (avec agents de blanchiment et azurants optiques) et celles pour linge foncé (sans ces composants pour préserver les couleurs) en sont l’illustration parfaite : on ne peut pas optimiser simultanément ces deux objectifs.

Enfin, le prix joue un rôle important. Les lessives revendiquant une formulation plus simple ou un impact réduit sont souvent plus chères à l’achat que les produits classiques, en raison du coût plus élevé des ingrédients alternatifs d’origine végétale ou biodégradable, des volumes de production généralement plus faibles et des certifications spécifiques. Toutefois, ce surcoût à l’achat ne se traduit pas nécessairement par un coût plus élevé à l’usage. Grâce à une concentration souvent supérieure et à un dosage plus précis, le prix par lavage peut s’approcher, voire s’aligner sur celui des lessives classiques, notamment avec les marques de distributeurs écologiques qui offrent aujourd’hui un excellent rapport qualité-prix.

Au fond, la simplification ne change pas seulement les formules, elle interroge aussi nos habitudes d’usage. Et c’est peut-être là son véritable apport : non pas viser une performance maximale en toutes circonstances, mais ajuster le niveau de performance réellement nécessaire selon les situations.

The Conversation

Véronique Sadtler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ? – https://theconversation.com/lessive-peut-on-passer-de-50-a-5-ingredients-et-toujours-avoir-un-linge-propre-280642

Una larga historia de amor entre la moda, el cine… y el ‘marketing’

Source: The Conversation – (in Spanish) – By Isabelle Chaboud, Professeur senior d’analyse financière, d’audit et de risk management – Directrice de Programme pour le MSc Fashion Design & Luxury Management- Responsable de la spécialisation MBA "Brand & Luxury Management", GEM

Meryl Streep y Anne Hathaway en un fotograma de _El diablo viste de Prada 2_. Disney

La secuela de El diablo viste de Prada no solo recupera una historia de hace veinte años para mostrarnos en qué momento vital se encuentran ahora los personajes. También permite que todos ellos utilicen un vestuario compuesto por prendas de diseñadores de renombre que apuntalan su caracterización.

No es nada nuevo. Desde sus inicios, el cine utiliza el vestuario para situar la historia en un contexto histórico-social. Pero a partir de la década de 1960, la indumentaria trasciende su función ilustrativa para convertirse en una herramienta narrativa y simbólica.

El vestido negro de Audrey Hepburn en Desayuno con diamantes (1961), diseñado por Hubert de Givenchy, es un ejemplo emblemático del momento en que una prenda adquiere una dimensión totalmente nueva en la gran pantalla. Con el tiempo, se convertiría en uno de los trajes más caros de la historia del cine. El único ejemplar vendido se adjudicó por 608 000 euros en una subasta en 2006.

Y eso sucedió porque esa pieza tubo de satén, con cortes minimalistas en la espalda, encarna la elegancia atemporal y consagra la unión entre la alta costura y el séptimo arte. La escena inmortalizada frente a los escaparates de Tiffany’s eleva a la categoría de icono al “vestidito negro” popularizado por Coco Chanel en la década de 1920, y lo convierte en un símbolo de elegancia sin igual.

Inicio de Desayuno con diamantes y ese vestido.

La edad de oro de las colaboraciones

Los años 80 marcan un punto de inflexión decisivo con la llegada de Giorgio Armani, cuyas siluetas minimalistas y desestructuradas redefinen la elegancia masculina y femenina.

Armani se da a conocer al público estadounidense al crear el vestuario de Richard Gere en American Gigolo. Sus trajes, depurados y sofisticados, se convierten en su sello visual y lanzan una moda que sigue siendo influyente hasta hoy. El modisto milanés multiplica a continuación las colaboraciones destacadas: viste a Kevin Costner, Sean Connery y Robert De Niro en Los intocables de Eliot Ness, a Lauren Bacall en Una estrella por dos y, de nuevo, a Kevin Costner en El guardaespaldas. Estas apariciones contribuyen a forjar la imagen de un estilo Armani que es sinónimo del poder discreto y la elegancia atemporal.

Esta relación privilegiada entre Armani y Hollywood continúa con George Clooney y Brad Pitt en Ocean’s Thirteen, para la que diseñará el vestuario, al igual que el de Tom Cruise en Misión imposible: Protocolo fantasma, y el de Leonardo DiCaprio en El lobo de Wall Street, donde el personaje de Jordan Belfort luce trajes de tres piezas que simbolizan su ascenso y desmesura. Estas colaboraciones ilustran cómo la moda puede servir a la narración, reforzar la credibilidad de los personajes y situar al espectador en una época o un entorno social concretos.

Leonardo DiCaprio en El lobo de Wall Street.
Allociné

La moda como catalizador de la metamorfosis

En el cine, la ropa es un vector de transformación, como analizó recientemente un grupo de investigadores utilizando el ejemplo de Pretty Woman.

La película retoma de forma moderna el arquetipo de la transformación presente en tres cuentos clásicos: La Cenicienta, Pigmalión y La Bella y la Bestia. Vivian Ward, interpretada por Julia Roberts, es una prostituta ingenua pero encantadora. Gracias a su vestuario, pasa de una imagen marginal a una elegancia sofisticada que le permite conquistar la atención de Edward Lewis, un rico hombre de negocios interpretado por Richard Gere.

Los investigadores destacan que Pretty Woman refleja una sociedad en transformación, en la que la identidad personal está cada vez más determinada por la imagen y el estilo. Los vestidos de lunares, el vestido blanco y el sombrero negro que luce en Rodeo Drive e incluso el vestido de noche rojo en la ópera se convierten en símbolos de esta metamorfosis, popularizando tendencias que marcarán la moda estadounidense de los años 1990.

Cuando la moda moldea la ambición y la identidad profesional

En El diablo viste de Prada, adaptación de la novela de Lauren Weisberger, la moda no es solo un accesorio, sino un instrumento de poder y transformación. Andrea Sachs, una joven periodista recién licenciada interpretada por Anne Hathaway, se convierte en la asistente de Miranda Priestly, la tiránica redactora jefe de la revista Runway (encarnada por Meryl Streep).

Al principio, Andrea es objeto de burlas por su falta de estilo, pero sufre una metamorfosis en su forma de vestir que refuerza su confianza en sí misma. Un abrigo blanco, una chaqueta verde, una falda plisada e incluso unas botas negras de Chanel hasta el muslo se convierten en los marcadores visuales de su evolución. Todos ellos ilustran cómo la adopción de los códigos de la moda puede abrir las puertas a un mundo profesional despiadado.

Veinte años después, el estreno de la segunda entrega plantea una pregunta central: ¿sabrá Andrea imponerse ante Miranda y las demás mujeres ambiciosas del sector, adoptando prendas tomadas del vestuario masculino? ¿Qué nuevas siluetas surgirán como símbolos de esta rivalidad y de esta búsqueda de emancipación?

De la colocación de productos a la creación de tendencias

El cine y las series, al mostrar marcas de lujo, se han convertido en importantes palancas de marketing. La década de los 2000, con el impacto de la serie Sexo en Nueva York, sistematizó esta práctica y transformó las pantallas en escaparates para Manolo Blahnik, Dolce & Gabbana, Prada o Gucci. Después de todo, la colocación de productos en películas es una excelente estrategia para aumentar la notoriedad de una marca y llegar fácilmente a un segmento de la clientela.

En un mercado del lujo estimado en más de 1,5 billones de euros en 2024, con cerca del 25 % de clientes estadounidenses, no es de extrañar que las producciones al otro lado del Atlántico sean tan apreciadas por las marcas.

Sin embargo, el equilibrio sigue siendo frágil: entre la coherencia narrativa y la saturación publicitaria, las marcas deben evitar caer en la caricatura, como en Emily in Paris, donde la repetida exposición de productos de lujo roza a veces la parodia. A pesar de ello, algunas apariciones más discretas, como la de bolsos fabricados por una firma de Isère en la quinta temporada de la serie, han generado una avalancha de pedidos, lo que demuestra el impacto directo de estas colocaciones.

En la serie Emily in Paris, temporada 4, episodio 3, un baile de máscaras de alta costura.
Allociné

Cuando la moda se convierte en protagonista

La serie Love Story (2024), que narra la relación entre Carolyn Bessette y John F. Kennedy Jr. desde los años 90 hasta su trágica desaparición en 1999, ofrece un ejemplo llamativo de la influencia de la moda en la pantalla.

Aunque la ficción explora sobre todo la dimensión psicológica de la pareja, los atuendos de Carolyn Bessette ocupan un lugar central. Su estilo minimalista, depurado y elegante se convierte en un personaje en sí mismo, celebrado bajo el nombre de “Carolyn Bessette Style”. Las redes sociales se han hecho eco del fenómeno, con una explosión de búsquedas de prendas de los años 90 y del hashtag #CBK. Las plataformas de venta de segunda mano ven cómo se disparan sus ventas de ropa vintage, mientras que Calvin Klein, marca emblemática de esa época, disfruta de un resurgimiento sin precedentes.

Tráiler de Love Story.

Este éxito demuestra que la moda, cuando se integra con sutileza y pertinencia, puede trascender su papel accesorio para convertirse en un verdadero vector de identificación y aspiración. La colocación de marcas de lujo solo tiene un efecto persuasivo cuando se inscribe en un contexto narrativo coherente. Love Story es la prueba de ello.

La moda en la pantalla, entre espejo social y palanca de influencia

El vestuario cinematográfico se ha impuesto como un lenguaje universal, reflejando y anticipando los cambios sociales. Ahora trasciende su función narrativa para convertirse en una herramienta de transformación identitaria y una palanca de marketing imprescindible.

En la era digital, donde las fronteras entre ficción y realidad se difuminan, las marcas de lujo y el séptimo arte mantienen una relación simbiótica: una ofrece un escenario, la otra relato. Esta alianza, entre creación artística y estrategia comercial, sigue cautivando el imaginario colectivo, al tiempo que cuestiona los límites de una exposición cada vez más intensa. ¿Siguen viendo los espectadores en estas historias una promesa de metamorfosis personal?


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Isabelle Chaboud no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Una larga historia de amor entre la moda, el cine… y el ‘marketing’ – https://theconversation.com/una-larga-historia-de-amor-entre-la-moda-el-cine-y-el-marketing-281455

Así diseñamos el césped para la mayor Copa del Mundo de fútbol de la historia

Source: The Conversation – (in Spanish) – By John N. Trey Rogers, Professor of Turfgrass Research, Michigan State University

Los campos de la Copa del Mundo sufren mucho desgaste. AP Photo/Bernat Armangue

Con 104 partidos en 16 estadios repartidos por Canadá, Estados Unidos y México, la Copa Mundial de la FIFA de 2026 será el mayor evento de fútbol de la historia.

Es nuestro trabajo como investigadores especializados en césped contratados por la FIFA, el organismo rector del fútbol, asegurarnos de que esos campos ofrezcan las mismas sensaciones a los jugadores y de que el césped crezca con fuerza.

No es tan sencillo. De hecho, al principio parecía un reto imposible.

Elegir el césped adecuado

La magnitud de esta tarea no tenía precedentes: tres zonas climáticas distintas, más de 4 900 kilómetros entre los estadios más alejados, y recintos que van desde estadios al aire libre hasta el calor de Ciudad de México y Miami, pasando por los estadios cubiertos de la Liga Nacional de Fútbol Americano en Dallas y Atlanta, y los climas más frescos de Boston y Toronto.

A pesar de las situaciones únicas de cada estadio, la FIFA tiene una larga lista de normas sobre cómo deben construirse los campos. El césped debe ser natural, pero reforzado para que pueda soportar muchos partidos y ceremonias. Cada campo necesita un sistema de riego automático, un buen drenaje, un sistema de aspiración y ventilación integrado para mantener el césped y el suelo aireados, y luces de cultivo artificiales para mantener el césped sano.

Cada ciudad anfitriona es responsable de determinar cómo cumplir estos requisitos.

En este momento, ocho de los estadios anfitriones de 2026 suelen utilizar césped artificial: ¿cómo van a cambiar temporalmente a césped natural para el Mundial?

Y lo que es aún más complicado, cinco de los estadios tienen cúpulas, lo que significa que el césped recibe menos luz solar. ¿Cómo podrán mantener el césped vivo durante ocho semanas?

¿Cómo podemos asegurarnos de que un futbolista que compita en Filadelfia tenga la misma experiencia sobre el terreno de juego que uno que compita en Guadalajara o Seattle?

Instalación del nuevo césped artificial en el Gillette Stadium de Nueva Inglaterra, cerca de Boston. WCBV.

Nuestro equipo de la Universidad de Tennessee y la Universidad Estatal de Míchigan ha dedicado los últimos cinco años a investigar estas cuestiones para ofrecer orientación a las ciudades anfitrionas. Aquí, vamos a explorar algunas de las cuestiones más importantes a las que nos enfrentamos: qué tipo de césped cultivar, cómo se cultiva, cómo pensamos hacerlo aún más resistente y cómo transportarlo de forma segura a cada estadio.

El cultivo del césped

Normalmente, el césped en rollos se cultiva en suelo nativo. Al cosecharlo, se cortan las raíces, lo que supone un shock para la planta y puede retrasar el reestablecimiento de las raíces varias semanas.

Eso no funcionaría para la Copa del Mundo, ya que los partidos pueden celebrarse tan solo 10 días después de la instalación. Si las raíces no se establecen lo suficientemente rápido, el césped será más débil y más propenso a sufrir daños.

Para solucionar esto, decidimos utilizar césped cultivado sobre plástico con arena como base.

Imagine cultivar césped en una bandeja de plástico, pero a una escala mucho mayor. Cuando las raíces llegan al plástico, se extienden lateralmente y se entrelazan, formando un denso sistema radicular. Dado que las raíces permanecen intactas durante la cosecha, el césped sufre un estrés mínimo y puede estar listo para jugar casi inmediatamente después de su instalación.

El césped para campos deportivos se cultiva normalmente sobre una base de arena para proporcionar un drenaje rápido y evitar que el césped se compacte a medida que las raíces se establecen.

El problema es que cultivar césped en 5 cm de arena sobre una lámina de plástico conlleva riesgos. Debido al plástico, una sola lluvia intensa mientras el césped se está asentando puede arrastrar la arena expuesta.

Para los productores de césped de estación cálida –aquellos que cultivan variedades que prospera a altas temperaturas–, la erosión de la arena es menos preocupante porque el césped bermuda que cultivan se establece rápidamente. Por otro lado, los productores de césped de estación fría suelen cultivar pasto azul de Kentucky, que germina lentamente en comparación con otras especies, lo que aumenta el riesgo de arrastre.

Decidimos mezclar una especie de germinación más rápida –el raigrás perenne– con el pasto azul de Kentucky cultivado sobre plástico y, a continuación, probamos diversas proporciones de siembra. Descubrimos que una mezcla de 84 % de pasto azul de Kentucky y 16 % de raigrás perenne producía un césped más resistente que el pasto azul de Kentucky puro cuatro meses después de la siembra. Desde 2025, estos hallazgos se han aplicado en granjas de césped de toda Norteamérica, más allá de las que lo cultivan para la Copa del Mundo.

Estabilización de la superficie

“Un partido de la Copa del Mundo equivale a una Super Bowl”, como les gusta recordarnos a los responsables de la FIFA. Dado que cada campo acogerá muchos partidos y ceremonias, incluyendo hasta nueve partidos a lo largo de seis semanas, los campos deben ser extremadamente resistentes.

Para hacerlos más resistentes, mezclamos fibras de plástico con el césped natural, lo que crea un sistema de césped híbrido. A medida que el césped crece, sus raíces se entrelazan con estas fibras de plástico, lo que ayuda a mantener la superficie estable y firme. Estas fibras también se tiñen para que coincidan con el color del césped natural, de modo que, incluso si este se desgasta, ayudan a que el campo se mantenga verde.

Los sistemas de césped híbrido se pueden crear de dos maneras: cosiendo fibras de plástico en un campo de césped ya existente o colocando una alfombra de fibras de plástico que luego se rellena con arena y se siembra para que crezca césped nuevo.

Los sistemas cosidos se han empleado en los partidos de la Copa del Mundo durante mucho tiempo, pero los sistemas de alfombra son todavía bastante nuevos en el torneo: solo se han utilizado en la Copa Mundial Femenina de 2023.

Probamos ocho sistemas de moqueta para ver cómo funcionaban y descubrimos que todos podían cultivarse con éxito sobre plástico. Todas las pruebas de rendimiento de la superficie –rebote del balón, resistencia a la rotación y dureza de la superficie– realizadas en estos ocho sistemas de alfombras también cumplieron con las normas de la FIFA.

Tres ciudades anfitrionas eligieron un tipo de alfombra para sus estadios: Vancouver, Los Ángeles y Filadelfia.

El transporte del césped desde la granja hasta el estadio

La mayoría de los estadios –14 de ellos– contarán con césped cultivado sobre plástico, que se enrollará y se enviará al recinto durante la primavera de 2026. Parte del césped no tendrá que recorrer grandes distancias, pero otra parte se transportará en camiones frigoríficos. Dado que el césped permanece intacto tras la cosecha, puede soportar largos tiempos de transporte.

Cinco de esos estadios no reciben suficiente luz solar, por lo que utilizarán céspedes de estación fría que requieren menos luz que los de estación cálida.

Mientras que el estadio al aire libre de Miami utilizará bermuda, el estadio cubierto de Houston, a pesar de estar a una latitud similar, utilizará una mezcla de pasto azul de Kentucky y raigrás perenne. Esto significa que es imprescindible realizar viajes a través de Estados Unidos desde las granjas de césped de estación fría de Denver y Washington hasta los estadios con cúpula de las regiones del sur.

Es una locura pensar que todo esto sea necesario, pero la duración del torneo y las condiciones únicas de los estadios exigen innovación.

The Conversation

La Universidad de Tennessee fue la principal beneficiaria de la subvención de la FIFA. La Universidad Estatal de Míchigan es una subbeneficiaria. John N. Trey Rogers es el investigador principal del proyecto de la Universidad Estatal de Míchigan.

Jackie Lyn A. Guevara está adscrita a la Universidad Estatal de Míchigan. Recibió una remuneración a través de una subvención de la FIFA concedida a la Universidad Estatal de Míchigan.

John Sorochan es el investigador principal del proyecto financiado por la FIFA en la Universidad de Tennessee.

Ryan Bearss trabaja en la Universidad Estatal de Míchigan.

ref. Así diseñamos el césped para la mayor Copa del Mundo de fútbol de la historia – https://theconversation.com/asi-disenamos-el-cesped-para-la-mayor-copa-del-mundo-de-futbol-de-la-historia-281456

Síndrome invdup15q: un exceso de información genética que afecta al desarrollo del cerebro

Source: The Conversation – (in Spanish) – By Cristina Benítez Provedo, Neurología pediátrica, Fundación para la Investigación Biomédica del Hospital Infantil Universitario Niño Jesús (FIBHNJS)

SynthEx/Shutterstock

Recibir el diagnóstico de una enfermedad rara cambia la vida de una familia. En muchos casos, además, el nombre de la dolencia es largo, complejo y difícil de comprender. Esto ocurre con el síndrome de inversión-duplicación del cromosoma 15q, también conocido como invdup15q, un trastorno genético poco frecuente que afecta, sobre todo, al desarrollo del cerebro.

Aunque se trata de una condición rara, el conocimiento científico sobre este síndrome ha avanzado de forma notable en los últimos años. Contar con información clara y basada en la evidencia es clave para mejorar el diagnóstico, el seguimiento y la calidad de vida de las personas afectadas.

¿Qué es el síndrome invdup15q?

El síndrome de inversión-duplicación del cromosoma 15q es una alteración genética causada por la presencia de material extra en una región concreta del cromosoma 15, llamada 15q11.2-q13.1. Esta duplicación suele producirse de forma espontánea y no suele heredarse de los padres. En términos sencillos, algunas personas nacen con copias adicionales de genes importantes para el desarrollo cerebral.

Ese exceso de información genética altera el funcionamiento normal del cerebro y da lugar a un trastorno del neurodesarrollo. Se estima que su incidencia es de 1 caso por cada 30 000 nacimientos, sin diferencias claras entre niños y niñas.

El diagnóstico se basa en pruebas genéticas que permiten confirmar la presencia de ese material extra en el cromosoma 15 y diferenciar entre los distintos tipos de duplicación. Es fundamental que los resultados sean interpretados por especialistas en genética clínica.

¿Cómo se manifiesta?

El invdup15q es, ante todo, un trastorno del neurodesarrollo cuyos síntomas aparecen desde los primeros meses de vida y evolucionan con el crecimiento.

Uno de los signos más precoces es la hipotonía, es decir, un tono muscular bajo. Esto hace que los bebés tengan más dificultades para sostener la cabeza, sentarse o caminar. El desarrollo motor suele ser más lento y muchos niños comienzan a andar entre los dos y tres años.

El retraso del desarrollo es casi universal. La mayoría de las personas con este síndrome presentan discapacidad intelectual, habitualmente de grado moderado o grave, junto con dificultades importantes en el aprendizaje y las capacidades lingüísticas. El lenguaje expresivo suele ser escaso o inexistente, y la comprensión también puede estar afectada.

Además, alrededor del 40-50 % de los pacientes desarrollan un trastorno del espectro autista (TEA). Esto se traduce en dificultades para la comunicación social, poco contacto visual, intereses repetitivos y ausencia de juego simbólico.

Epilepsia: un rasgo clave del síndrome

La epilepsia es una de las manifestaciones más frecuentes y complejas del invdup15q. Según los estudios disponibles, entre el 50 % y el 80 % de los pacientes desarrollan crisis epilépticas a lo largo de su vida, que pueden comenzar en edades muy diferentes, desde los primeros meses hasta la adolescencia o incluso la edad adulta.

Muchas personas con invdup15q presentan varios tipos de crisis, tanto focales como generalizadas, y con frecuencia no funciona el tratamiento. En una proporción significativa de casos, evoluciona hacia encefalopatías epilépticas como el síndrome de Lennox-Gastaut, una forma grave de epilepsia asociada a deterioro cognitivo y conductual.

Más allá del cerebro

Aunque el sistema nervioso es el más afectado, el síndrome invdup15q puede asociarse a manifestaciones en el resto del organismo, por lo que el seguimiento no debe centrarse solo en la neurología. Entre los síntomas más frecuentes se encuentran:

  • Trastornos del sueño, como insomnio o sueño fragmentado.

  • Problemas digestivos, especialmente estreñimiento y reflujo.

  • Alteraciones oftalmológicas, como estrabismo o defectos de refracción.

  • Malformaciones cardíacas congénitas, generalmente leves.

  • Rasgos faciales sutiles, conocidos como dismorfias menores.

La importancia de un abordaje multidisciplinar

No existe un tratamiento para curar el invdup15q. Su manejo se basa en un enfoque multidisciplinar, adaptado a las necesidades de cada persona. Este abordaje incluye neurólogos, genetistas, psiquiatras infantiles, rehabilitadores, logopedas, terapeutas ocupacionales, especialistas en sueño y profesionales de atención primaria. El objetivo es anticipar problemas, tratar los síntomas y apoyar a las familias.

El control adecuado de la epilepsia, el acceso a terapias de estimulación temprana y el apoyo educativo especializado pueden marcar una diferencia real en la evolución y la calidad de vida de las personas afectadas.

Mirar al futuro

El síndrome de inversión-duplicación del cromosoma 15q es una enfermedad que acompaña a la persona durante toda la vida, por lo que necesita seguimiento médico continuo. Revisar con regularidad cómo evoluciona el paciente permite ajustar los tratamientos y actuar a tiempo si aparecen nuevos problemas. La evolución es diferente en cada caso y depende, en gran parte, del control de la epilepsia y de otras dificultades asociadas.

Además del cuidado médico, es muy importante que las familias tengan información clara y apoyo constante. Contar con terapias de rehabilitación, orientación genética y recursos educativos ayuda a mejorar la calidad de vida. Las asociaciones de pacientes, como la Fundación Inversión Duplicación del Cromosoma 15q, ofrecen acompañamiento y la posibilidad de compartir experiencias con otras familias.

Afortunadamente, la investigación sigue avanzando. Gracias a iniciativas como los registros de pacientes y las guías clínicas, hoy se puede diagnosticar antes y cuidar mejor. Difundir información clara y accesible es clave para dar visibilidad a esta enfermedad rara y seguir mejorando la atención.

The Conversation

Cristina Benítez Provedo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Síndrome invdup15q: un exceso de información genética que afecta al desarrollo del cerebro – https://theconversation.com/sindrome-invdup15q-un-exceso-de-informacion-genetica-que-afecta-al-desarrollo-del-cerebro-276578

De la brecha de acceso a la brecha de regulación: la nueva desigualdad digital global

Source: The Conversation – (in Spanish) – By Raúl Céspedes Ventura, Profesor Asociado, Universidad de Murcia

Durante más de dos décadas, la desigualdad o brecha digital se ha referido sobre todo a la dificultad o imposibilidad de acceso a internet de millones de personas en el mundo. Desde finales del siglo XX, las políticas públicas relativas a las tecnologías de la información y la comunicación se han centrado en garantizar conexión, dispositivos y alfabetización tecnológica básica. La idea detrás de estos esfuerzos era que, si todos podíamos conectarse, todos podríamos acceder a las mismas oportunidades digitales.

En gran parte del mundo desarrollado, ese objetivo se ha cumplido. En la Unión Europea, más del 95 % de los hogares con menores tiene conexión a internet, según Eurostat. En países como Estados Unidos, Reino Unido, Corea del Sur o Australia, más del 90 % de los adolescentes tiene smartphone.

En este contexto, el acceso ha dejado de ser un problema. Sin embargo, los datos comparados muestran que la desigualdad digital no ha desaparecido. Simplemente ha cambiado de forma. La diferencia ya no está en quién puede conectarse, sino en quién tiene la capacidad de controlar esa conexión sin dejarse manipular o manejar por los algoritmos. En otras palabras, la desigualdad se ha desplazado a la forma de regular el uso de la tecnología.

Cómo se usa: la nueva brecha

La investigación sociológica lleva décadas señalando este fenómeno. Cuando un bien se democratiza, la ventaja cambia de lugar. Ya no es una ventaja tener acceso, pues todos lo tenemos. Ahora la verdadera ventaja es tener conocimientos y capacidad para usar o limitar este acceso. Varias encuestas internacionales del Pew Research Center en Estados Unidos, de Ofcom en Reino Unido y de UNICEF confirman este desplazamiento: las diferencias sociales aparecen ahora en cómo se utiliza la tecnología en el hogar.

No estamos ante una brecha económica clásica. Las familias con mayor nivel educativo tienen acceso a información y tiempo para involucrarse más en el uso que sus hijos dan a los dispositivos. Esto hace que, por ejemplo, suelan retrasar la entrega del primer smartphone. También tienden a establecer límites horarios más claros, a la vez que acompañan el uso digital de sus hijos. Por el contrario, en hogares con menor capital cultural, el dispositivo suele llegar antes y las normas de uso suelen ser menos claras o menos constantes.

Esto es así porque tener un smartphone y acceder a internet supone utilizar plataformas de redes sociales diseñadas para maximizar la interacción y el tiempo de uso. En ese contexto, regular exige información, coherencia y constancia. Y, en el caso de los menores, dar ejemplo con el propio uso.

Nivel educativo, más determinante que económico

Tiene sentido, por lo tanto, que los datos internacionales indiquen que la regulación digital depende más del nivel educativo de los padres que de sus ingresos. La educación de los progenitores influye en cómo se interpreta la evidencia sobre el uso problemático de la tecnología. También afecta a la disposición a establecer normas claras, al control del tiempo de exposición y a la forma de reaccionar ante señales como la irritabilidad al retirar el dispositivo o la interferencia con el sueño.




Leer más:
¿Es su bebé demasiado dependiente de las pantallas? Señales de alerta antes de los seis años


Y la brecha de regulación no solo supone que los menores de familias con menor capital cultural o educación sean más vulnerables a problemas de salud mental como ansiedad o depresión; tiene efectos significativos también en la educación fuera del hogar. Los menores cuyo uso de dispositivos y redes es precoz o está poco regulado tienen mayores dificultades para aprovechar la instrucción formal en la escuela.

Por ejemplo, evaluaciones internacionales como el Programa para la Evaluación Internacional de los Estudiantes de la Organización para la Cooperación y el Desarrollo Económicos muestran diferencias sociales claras en lectura y en concentración sostenida. Aunque este tipo de estudios no permite establecer una relación causal simple entre vulnerabilidad social y peores niveles en comprensión lectora o capacidad de concentración, sí nos permite observar cómo el uso de la tecnología puede amplificar desigualdades existentes.

Nuevos indicadores y nuevas estrategias

La situación obliga a revisar las estrategias digitales y empezar a medir lo que realmente importa. La mayoría de las estadísticas siguen centradas en acceso y equipamiento, indicadores que pertenecen a la primera brecha digital. Si la desigualdad se desplaza hacia la regulación, para evitar que la nueva brecha permanezca oculta convendría empezar a medir datos como la edad de entrega del primer smartphone, así como la existencia de normas familiares o el uso nocturno. Sin esos indicadores específicos, la brecha no puede observarse con claridad.




Leer más:
Redes sociales y adolescentes: prohibir no basta


Las familias necesitan apoyo e información clara y aplicable. Las campañas de salud pública han demostrado que la información basada en evidencia puede modificar hábitos cuando se mantiene en el tiempo y se acompaña de decisiones estructurales.

El caso del tabaquismo es paradigmático. No solo la información ha reducido su consumo, sino la combinación de advertencias visibles, restricciones de uso y cambios en el entorno social.

Algo similar ocurre con la alimentación, donde el etiquetado y las recomendaciones institucionales han contribuido a oriental las decisiones de consumo. En el ámbito digital, organismos como UNICEF o distintas asociaciones pediátricas llevan advirtiendo de forma reiterada sobre los riesgos de un uso intensivo de pantallas en la infancia, pero ese conocimiento no siempre se traduce en orientaciones operativas para todas las familias.

Facilitar las decisiones correctas

La regulación digital requiere un enfoque comparable, pero más exigente. No basta con informar. Es necesario facilitar que las decisiones correctas sean también las más sencillas. Se deben ofrecer orientaciones claras y culturalmente adaptadas, lo que implica reconocer que las familias no parten del mismo punto. Las recomendaciones generales suelen funcionar en contextos con alto capital educativo, pero pierden eficacia cuando no se ajustan a las condiciones reales de vida de muchos hogares.




Leer más:
Evitar las ‘tecnoferencias’ en familia y fortalecer los vínculos afectivos, las claves de la crianza digital


En la práctica, esto exige pasar de mensajes genéricos a herramientas concretas como guías claras por edades, programas de acompañamiento desde la escuela, formación accesible para familias y sistemas de control integrados en los propios dispositivos que no requieran conocimientos técnicos. Hoy, gran parte de esta responsabilidad recae casi exclusivamente en las familias, en un entorno diseñado precisamente para maximizar el uso. Mientras no se equilibre esa asimetría, la capacidad de regular seguirá siendo un privilegio más que una competencia generalizada.

Autorregulación de las plataformas

También es necesario revisar los incentivos del ecosistema digital. Como se ha comentado anteriormente, si la regulación depende solo de la vigilancia parental la desigualdad tenderá a crecer, porque no todas las familias disponen del mismo tiempo, información o capacidad para supervisar el uso que hacen sus hijos de los dispositivos. Los debates actuales sobre verificación de edad, transparencia algorítmica o diseño responsable apuntan a una redistribución de esta carga para que la regulación sea también responsabilidad de las propias plataformas.

En la práctica, esto implicaría exigir a las plataformas sistemas efectivos de verificación de edad que limiten el acceso a determinados contenidos, mayor claridad sobre cómo funcionan los algoritmos de recomendación y qué tipos de contenidos priorizan, así como cambios en el propio diseño de las aplicaciones para reducir dinámicas de uso intensivo, como la reproducción automática, las notificaciones constantes o el desplazamiento infinito. También supondría incorporar por defecto herramientas de control y gestión del tiempo de uso accesibles y fáciles de configurar.

Este tipo de medidas no eliminan la responsabilidad de las familias, pero sí corrigen una asimetría evidente: la de un entorno diseñado para maximizar la atención frente a usuarios que deben a aprender a limitarla por sí solos.

Alfabetización digital en la escuela

La escuela también tiene un papel clave. Durante años ayudó a reducir la brecha de acceso con programas de dotación tecnológica. Ahora debe afrontar una nueva tarea: integrar las herramientas digitales con objetivos pedagógicos claros. Al mismo tiempo, es necesario generar (y proteger) espacios de concentración sostenida: solo de esta manera podemos garantizar que todos los menores tengan la oportunidad de desarrollar sus capacidades cognitivas libres de interferencias tecnológicas.

La nueva brecha digital no se observa en quién tiene un teléfono, sino en quién controla su influencia. En una sociedad con conexión casi universal, el reto ya no es solo garantizar acceso, sino asegurar condiciones equitativas para gestionarlo. Si no se actúa desde políticas públicas, educación y regulación tecnológica, esta brecha puede ampliarse y traducirse en trayectorias sociales divergentes. Por un lado, ciudadanos con mayor capacidad crítica, capaces de interpretar la información, regular su tiempo digital y tomar decisiones informadas sobre el uso de la tecnología. Por otro, perfiles más vulnerables, con mayor exposición a contenidos de baja calidad, más dependientes de dinámicas de consumo impulsivo y con menor capacidad para identificar desinformación o limitar su propio uso.

Esta diferencia no solo afecta al bienestar individual, sino también a dimensiones como el aprendizaje, la participación social o a la calidad del debate público. Si el control del entorno digital se convierte en un recurso desigual, la tecnología dejará de ser un factor de oportunidad para convertirse en un amplificador de las brechas existentes.

(Una versión de este artículo fue publicada originalmente en la revista Telos de Fundación Telefónica).

The Conversation

Raúl Céspedes Ventura no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. De la brecha de acceso a la brecha de regulación: la nueva desigualdad digital global – https://theconversation.com/de-la-brecha-de-acceso-a-la-brecha-de-regulacion-la-nueva-desigualdad-digital-global-276987

En lugar de encontrar soluciones, plantear problemas: otra manera de aprender matemáticas

Source: The Conversation – (in Spanish) – By Eduardo Gregorio Quevedo Gutiérrez, Profesor en el Área de Didáctica de la Matemática, Departamento de Matemáticas, Universidad de Las Palmas de Gran Canaria

wavebreakmedia/Shutterstock

“Queridas y queridos estudiantes: hoy no van a resolver problemas matemáticos. Son ustedes quienes los van a crear”. ¿Se imaginan una clase que comience así? Pues ya está pasando en algunas aulas de primaria.

Resolver problemas matemáticos resulta fundamental en la educación matemática, y conviene empezar en edades tempranas, desde infantil. Pero idear los propios problemas (lo que en la investigación se conoce como “formulación de problemas” o “invención de problemas”) también ayuda. Es más, a menudo aporta una comprensión más profunda y completa que la simple aplicación de reglas matemáticas, porque nos hace pensar en esta ciencia de manera creativa.

¿Qué aporta formular nuestros propios problemas?

La formulación de problemas ha surgido en las últimas reformas educativas en los currículos de diferentes países, entre ellos España. En concreto, la ley educativa española especifica que los estudiantes de primaria deben conseguir ser capaces de “comprender problemas de la vida cotidiana a través de la reformulación de la pregunta, de forma verbal y gráfica”.

Crear problemas ayuda a comprender conceptos abstractos porque permite traducir ideas complejas, teóricas o invisibles en escenarios concretos, prácticos y lógicos, facilitando su manipulación mental. Este proceso fomenta el pensamiento crítico, la identificación de patrones y la creatividad al aplicar conocimientos teóricos (como álgebra o lógica) a situaciones nuevas.

Situar los problemas en la realidad

Imaginemos que un estudiante debe calcular el área de dos parcelas rectangulares diferentes, pero que comparten un mismo perímetro (por ejemplo, disponen de 20 metros de valla). Resolver esto es un simple ejercicio rutinario de multiplicar lados.

Sin embargo, si le pedimos que asuma el rol de diseñador y averigüe qué dimensiones lograrían el área máxima usando esa misma cantidad de valla, la tarea se transforma por completo.




Leer más:
Cómo enseñar matemáticas para desarrollar un pensamiento flexible y creativo


Para construir este nuevo enunciado, el estudiante primero debe explorar patrones (una parcela de 1×9, otra de 2×8, otra de 3×7…), descubriendo que el área cambia drásticamente, aunque la longitud de la valla sea la misma.

Al intentar encontrar una regla general que defina cualquier terreno de estas características, el alumno termina “chocando” de forma natural con un concepto abstracto superior: la función cuadrática (una parábola).

De este modo, la abstracción matemática no se impone desde la pizarra, sino que emerge como una herramienta necesaria para resolver un problema de optimización que el propio estudiante ha ayudado a construir. Un resumen de este desarrollo se presenta en la siguiente imagen.

Ejemplo Ilustrativo del Potencial de la Formulación de Problemas.
Elaboración propia con apoyo de Google Gemini Pro, CC BY-ND

Transferencias en tres dimensiones

El aprendizaje de los números enteros y sus operaciones implica el uso de símbolos y el dominio de reglas operatorias. Se puede facilitar a través del uso de tres dimensiones de conocimiento numérico: abstracta, recta numérica y contextual.

  • Dimensión abstracta: Uso de los números y las operaciones a través de sus símbolos matemáticos abstractos. Así, 1-3 = 1+(-3) = -2, se obtiene al sumar a 1 el opuesto de 3.

  • Dimensión recta: Representación en la recta de los números y las operaciones,.

  • Dimensión contextual: Uso de los números y las operaciones en situaciones concretas (temperaturas, deudas…). En este caso 1-3 = -2 se podría corresponder con la expresión “Tenía 1 euro y perdí 3, ahora debo 2 euros”.

Dimensiones de Transferencias en Números Enteros.
CC BY-NC-ND

Los problemas matemáticos trabajan la dimensión contextual, porque sirven para conectar las reglas y las operaciones con el mundo real.




Leer más:
Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo)


Capacidad de formulación de los estudiantes

Nuestra investigación más reciente se centra en cómo la formulación de problemas puede contribuir a comprender cómo conectar las tres dimensiones de conocimiento numérico, favoreciendo el aprendizaje de los números enteros.

Tras analizar los problemas formulados por 266 estudiantes del 6º de primaria y de 1º de secundaria en España, hemos podido comprobar que los estudiantes no son capaces de imaginar mucha variedad de situaciones y que no hay diferencias entre uno y otro curso.

¿Cómo introducirlo y mejorar esta habilidad?

La habilidad de crear problemas no se desarrolla espontáneamente y requiere instrucción específica. Al formular problemas los estudiantes pasan de ser meros consumidores de las matemáticas a ser “arquitectos de la actividad matemática”.

De esta forma, lo importante no es la respuesta a los problemas, sino las preguntas matemáticas que se pueden hacer. Una técnica habitual para trabajar la formulación de problemas se denomina “What-if-not…” (“¿Y si no…?”).




Leer más:
“Lo estás haciendo bien”: un mensaje básico en matemáticas, sobre todo para las niñas


Un ejemplo podría ser un problema clásico de regla de tres, que, de forma tradicional, quizás nos enseñaron a resolver con un producto cruzado, sin saber muy bien por qué. Por ejemplo:

“Si a 3 amigos ir al cine nos cuesta 18 € en total, ¿cuánto nos costará ir al cine a 7 amigos?”

Simplemente lo resolveríamos con una ecuación 3•x = 7•18 y resultaría que x = 42 €. Si bien el resultado es correcto, se ha perdido una gran oportunidad didáctica de trabajar y comprender el concepto de proporcionalidad directa (y probablemente el alumnado haya aplicado el producto cruzado de forma mecánica, sin comprender la base didáctica sobre la que se asienta).

Así, se podría plantear: ¿y si modificas el enunciado para que se calcule lo que vale una entrada y a partir de este nuevo dato se llegue al resultado?

Sabiendo lo que vale una entrada, directamente se podría inferir lo que cuesta el cine a 7 amigos (técnica conocida como “reducción a la unidad”) y el problema se podría plantear entonces así:

“Si a 3 amigos ir al cine les cuesta 18 € en total, calcula el coste de una entrada para saber cuánto cuesta a ir al cine a 7 amigos. Resuelve el problema sin realizar un producto cruzado.”

De esta forma es fácil inferir que si 3 entradas cuestan 18 €, 1 entrada cuesta 6 €, por lo que 7 entradas costarán 42 €. De fondo se está trabajando con una función lineal (o de proporcionalidad directa) del tipo y = 6•x, donde “y” es el coste total y “x” representa el número de amigos.

Más allá de la solución

Como solucionadores de problemas, muchas veces no nos cuestionamos los datos o las preguntas, simplemente buscamos la solución. Sin embargo, como formuladores de problemas la manera de pensar sobre los datos cambia: debemos analizar lo pertinente de la información dada y de las preguntas.

En el ejemplo anterior hemos visto que el coste de la entrada (6 €) simboliza la pendiente de una recta “m” del tipo y = m•x. Imaginemos ahora que compramos las entradas por internet, y existe un coste fijo de gestión de 2 € (independientemente del número de entradas). La formulación del problema entonces cambiaría, ya que al coste total habría que sumarle siempre 2 €, pasando entonces a una función afín del tipo y = m•x + n, donde “n” simbolizaría el coste de gestión.

La clave para formular el nuevo problema estaría en que tendríamos que sumar 2 € al coste total (antes 18 €) y tendríamos que indicar que se han de sumar siempre 2 €, independientemente del número de entradas que se compren. ¿Y si reformulamos el problema inicial de la siguiente forma?:

“Comprar las entradas por Internet para ir al cine tiene un cargo de gestión fijo de 2 €. Si a 3 amigos les ha acostado 20 € dichas entradas, ¿cuánto les costarán a 7 amigos?”

Hay infinitos problemas que inventar, y estos podrían plantear diversas formas de resolverse, e incluso diferentes soluciones posibles.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. En lugar de encontrar soluciones, plantear problemas: otra manera de aprender matemáticas – https://theconversation.com/en-lugar-de-encontrar-soluciones-plantear-problemas-otra-manera-de-aprender-matematicas-275243

Incómodos compañeros de cama: el gusano que nos visita mientras dormimos

Source: The Conversation – (in Spanish) – By Víctor M. Lizana Martín, Profesor Adjunto, Facultad de Veterinaria, Universidad CEU Cardenal Herrera, Universidad CEU Cardenal Herrera

Gusanos de la especie ‘Enterobius vermicularis’. Kateryna Kon/Shutterstock

“Mi exmujer era maestra, y hoy os voy a explicar por qué una de las primeras consecuencias de mi divorcio es que dejó de picarme el culo”. Tal vez podría haber empezado mi clase de parasitología presentando a Enterobius vermicularis (el gusano intestinal protagonista de la lección) de una forma más convencional. Pero la combinación de detalle de mi vida privada con toque escatológico, hace que capte la atención de mis estudiantes, que de normal tendrían la capacidad de concentración de un colibrí.

Imaginemos que es madrugada y estamos durmiendo plácidamente en nuestra cama cuando una sensación incómoda empieza a inquietarnos, pero no lo suficiente como para despertarnos por completo. Se trata de un picor creciente… ya sabemos dónde.

Aprovechando la quietud de nuestro sueño, las hembras de Enterobius migran desde el intestino grueso hasta el ano, para depositar sus huevos rodeados de una sustancia irritante. Los seres humanos somos de los pocos animales con la capacidad de llegar a rascarnos todas las partes de nuestro cuerpo y, así, los huevos de este nematodo parásito habrán pasado a nuestras manos. Estas, convertidas en armas de destrucción masiva, los dispersarán por nuestro ambiente más cercano: las sábanas, los pomos de las puertas y otros utensilios cotidianos se convertirán en potenciales superficies contaminadas.




Leer más:
¿Duermen los parásitos?


Todos somos iguales ante Enterobius

Muchas de nuestras normas sociales son producto de comportamientos higiénicos, como taparse la boca al estornudar o lavarse las manos después de ir al baño. Esto ha obligado a Enterobius a ser más creativo. Si nosotros desarrollamos estrategias más limpias, ellos contraatacan cuando bajamos la guardia.

“¿Cuántos de vosotros habéis sufrido los síntomas que estoy describiendo?”, pregunto en mi clase. El silencio se hace dueño del aula mientras los estudiantes se miran nerviosos sin que ninguno levante la mano… A diferencia de otros parásitos, cuya transmisión se asocia a pobreza o falta de higiene, el Enterobius está ampliamente distribuido en todo el mundo y afecta a todas las clases sociales. No obstante, su aparición sigue generando vergüenza y estigma social, lo que puede retrasar los tratamientos y favorecer la transmisión comunitaria.

Si existe una “zona 0” de infección, allí donde las tasas de transmisión son más altas, esa es, sin duda, la escuela primaria. Los niños son un campo abonado para el desarrollo de diferentes especies de parásitos. Su sistema inmunitario aún no es maduro, deben aprender todavía muchas de las conductas higiénico-sociales, no muestran el pudor de los mayores y, para empeorar la situación, conviven hacinados en los límites de un aula.

Las hembras de Enterobius son muy prolíficas, produciendo entre 10 000 y 15 000 huevos en una sola puesta, así que un lugar atestado de niños lo estará aún más de huevos. La transmisión directa (ano-mano-boca) es la más común, pero otros elementos también pueden servir de puentes indirectos, como juguetes o alimentos contaminados.

Además, los huevos son tan livianos que una ligera corriente de aire (como la que se produce al abrir o cerrar una puerta) puede hacer que miles de ellos se eleven del suelo, siendo aspirados y deglutidos. Así que tenemos el caldo de cultivo perfecto para que niños, padres y profesores se infecten y acaben transmitiéndolo a sus parejas, aunque no hayan visitado físicamente la escuela, como era mi caso.

Una vez que el gusano llega a casa, hay que medicar a toda la familia. De lo contrario, la infección irá pasando de unos a otros en un ping-pong infinito. Además, los tratamientos actuales matan a los ejemplares adultos, pero no a los huevos, así que habrá que repetirlo a las dos semanas, para acabar con la nueva generación, antes de que tengan opción de reproducirse.




Leer más:
Claves para evitar enfermar por anisakis


El parásito fiel y un ejército que se aburre

Estos nematodos están en todas partes y desde tiempos remotos. Se han encontrado huevos de Enterobius vermicularis hasta en coprolitos humanos (restos fecales fósiles) de hace más de 10 000 años, lo que da una idea de la magnífica capacidad de adaptación de este parásito a nuestra especie. Lleva acompañándonos desde las sociedades de cazadores recolectores y es tan específico que los arqueólogos lo usan para rastrear las migraciones humanas.

A diferencia de otros parásitos que utilizan otros animales (como cerdos o caracoles) para llegar hasta nosotros, estos gusanos han apostado todo a nuestra carta, explotando algo tan humano como es la sociabilidad, en una jugada que parece ganadora.

El sistema inmunitario ha evolucionado en un entorno lleno de amenazas. Nos ha salvado de bacterias, virus y parásitos desde el inicio de la vida compleja. Eso le ha llevado a constituirse en un ejército de élite preparado para actuar ante la más mínima alerta. Ahora, sin embargo, en la época de la limpieza y la asepsia, ese ejército está ocioso. La “hipótesis de la higiene” sugiere que la desaparición de amenazas, incluso con una pérdida de biodiversidad parasitaria, hace que nuestro sistema inmune sobrerreaccione ante estímulos que no son perjudiciales (como el polen, alimentos o nuestros propios tejidos). Quizás el picor no sea solo un incordio, sino el eco de una antigua relación biológica que mantenía a nuestras defensas ocupadas en lo que realmente importa.

Al final, el éxito de Enterobius radica en que explota nuestra mayor virtud: somos seres sociales. Necesitamos tocarnos, compartir espacios y cuidar a nuestros hijos. El precio de esa calidez humana es, de vez en cuando, un picor inoportuno a las tres de la mañana.

Así que, aunque mi divorcio me trajo la “paz anal”, no puedo evitar mirar con cierta admiración científica a este parásito. Ha sobrevivido a glaciaciones, a la invención del jabón y a los fármacos modernos. Quizás, más que un polizón molesto sea un recordatorio biológico de que, por mucho que nos empeñemos en vivir en entornos asépticos, seguimos siendo animales profundamente conectados y de que nuestro sistema inmune agradece tener “viejos amigos” a los que combatir.

The Conversation

Víctor M. Lizana Martín es miembro de la Sociedad Española para la Conservación y Estudio de los Mamíferos (SECEM)

ref. Incómodos compañeros de cama: el gusano que nos visita mientras dormimos – https://theconversation.com/incomodos-companeros-de-cama-el-gusano-que-nos-visita-mientras-dormimos-280886