En Inde, les 60 millions de chiens des rues fouillent de moins en moins les poubelles, et c’est dangereux

Source: The Conversation – France (in French) – By Nishant Kumar, India Alliance Fellow, National Centre for Biological Science, Bangalore & Department of Biology, University of Oxford

Des chiffres vieux de dix ans évoquent une population de 60 millions de chiens des rues en Inde, bien trop pour les rassembler dans des foyers. Dasarath Deka/Shutterstock

On compte plus de 60 millions de chiens errants en Inde. Depuis le déclin des vautours à la fin des années 1990, l’apparition de nouvelles sources de nourriture issues des déchets leur permet d’accéder aux déjections des abattoirs, au nourrissage spontané et aux carcasses abandonnées (la disparition des vautours a entraîné l’absence de régulation des populations de charognards, comme les chiens et les rats). Le comportement de ces animaux opportunistes a évolué, révélant l’interdépendance complexe entre chaîne alimentaire, pratiques humaines et santé publique.


Quand j’étais enfant, dans l’Inde rurale, ma grand-mère donnait chaque après-midi au chien du village un demi-chapati et un bol de lait, manifestement insuffisants pour couvrir ses besoins. Le chien survivait en fouillant les environs et en récupérant de la nourriture auprès des maisons voisines. Des années plus tard, à Delhi, j’ai croisé des chiens errants refusant des biscuits tant ils recevaient de nourriture de la part des habitants du quartier, qui tous rivalisaient d’attention à leur égard.

En Inde, l’entrelacement de valeurs religieuses et culturelles a instauré une forte tolérance à l’égard des non-humains et de la faune sauvage, toutes classes sociales confondues. Une attitude ancrée dans des millénaires de coexistence. Les populations acceptent délibérément de s’exposer à des risques importants pour vivre avec les animaux. Mais cet équilibre se fragilise à mesure que les villes s’étendent et que les chiens deviennent plus territoriaux dans des espaces partagés toujours plus encombrés et jonchés de déchets.

L’Inde compte au moins 60 millions de chiens en liberté, selon un décompte vieux de plus de dix ans. Des enquêtes plus récentes en recensent environ 1 million rien qu’à Delhi. Dans le même temps, le pays concentre plus d’un tiers des décès dus à la rage dans le monde.

À la différence de la plupart des pays occidentaux, la culture et le droit indiens proscrivent l’abattage. Les chiens doivent être capturés, stérilisés, vaccinés puis – impérativement – réinstallés sur leur territoire initial. En pratique, ces règles sont fréquemment bafouées.

Tout change en août 2025. Après plusieurs attaques de chiens errants contre des enfants, la Cour suprême indienne ordonne brièvement la capture de tous les chiens des rues de Delhi et de sa région, avec leur placement en refuges ou en fourrières, promettant pour la première fois depuis des décennies des rues sans chiens.

La décision est inapplicable – il n’existe tout simplement pas de structures pour accueillir des millions d’animaux – et déclenche une vive réaction des associations de protection animale. Deux jours plus tard, la Cour fait machine arrière et rétablit la politique de stérilisation en vigueur.

Les décisions ultérieures ont resserré le périmètre d’application. En novembre 2025, la Cour a ordonné le retrait des chiens des écoles, des hôpitaux et des zones de transport public dans tout le pays, tout en imposant des restrictions à l’alimentation des chiens dans l’espace public et en encourageant la mise en place de clôtures pour les tenir à distance.

Plus récemment encore, le 7 janvier 2026, elle a demandé aux autorités de clôturer et de sécuriser l’ensemble des 1,5 million d’écoles et d’établissements d’enseignement supérieur de l’Inde contre les chiens, et ce, en seulement huit semaines. Mais, comme les précédentes injonctions, ce calendrier ambitieux fait abstraction des contraintes d’infrastructure et a peu de chances de réduire significativement la fréquence des morsures et des infections qui en découlent. La Cour entend actuellement les parties prenantes, cherchant une voie médiane entre le retrait à grande échelle des chiens et le respect du bien-être animal.

La nation est divisée. L’État semble incapable de tuer ces chiens, de les héberger dans des foyers ou de les contrôler. La question de leur devenir relève à la fois de la sécurité publique et de la protection animale, mais touche aussi à quelque chose de plus profond : le dernier chapitre de l’un des partenariats les plus remarquables de l’évolution.




À lire aussi :
« Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants


Une expérience de coexistence

Les chiens sont la seule espèce de vertébrés à avoir suivi les migrations humaines hors d’Afrique, à travers tous les climats et tous les types de peuplement. Si le moment exact de leur domestication reste incertain, on sait que les chiens ont évolué pour vivre aux côtés des humains. Mais ce lien entre espèces se heurte aujourd’hui à un défi inédit : celui de l’urbanisation tropicale.

Trois chiens en Inde
Les chiens des rues en milieu urbain peuvent se montrer très territoriaux.
thinkpaws.org

Au cours des derniers siècles, alors que les chiens gagnaient leur place dans nos foyers, les humains ont créé plus de 400 races, belles, laborieuses ou affectueuses. Cette coévolution est importante : elle a rendu les chiens sensibles aux signaux humains et capables de développer de forts liens avec des personnes ou des lieux précis. Dans l’Inde urbaine, où les chiens n’appartiennent à personne mais ne sont pas vraiment sauvages, ces liens se traduisent par un comportement territorial autour d’un foyer ou d’une personne qui les nourrit.

Le laboratoire socio-écologique unique de l’Inde

L’Inde offre une perspective inégalée sur cette relation. Historiquement, les chiens des rues jouaient le rôle d’éboueurs. Dans les quartiers plus modestes, ils le font encore. Mais dans les zones plus aisées, ils sont désormais nourris délibérément.

Scène de rue en Inde
Chiens, cochons, vaches et humains coexistant.
thinkpaws.org

Des recherches préliminaires à Delhi menées avec ma collègue Bharti Sharma montrent que les chiens s’organisent en meutes autour de foyers précis, où quelques personnes qui les nourrissent régulièrement peuvent couvrir presque 100 % de leurs besoins alimentaires. Cela permet des densités de chiens bien plus élevées que ce que le rôle d’éboueur pourrait supporter.

La collision urbaine

C’est ici que la coexistence ancienne se heurte à l’urbanisme moderne. Les rues indiennes sont des espaces multifonctions. Dans les climats tropicaux, les récupérateurs de déchets et les travailleurs manuels opèrent souvent la nuit
– exactement aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Dans les climats tropicaux, les chiffonniers et les ouvriers travaillent souvent la nuit – précisément aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Les chiens ont adapté leur comportement – aboiements, poursuites, morsures occasionnelles – de manière à être involontairement récompensés par ceux qui les nourrissent, tout en créant des dangers pour les autres. Les chiffres sont inquiétants : des millions de morsures et des milliers de décès dus à la rage chaque année.

Pour autant, une réaction contre les décisions de la Cour suprême était inévitable. Avec la gentrification, qui redéfinit qui peut décider de l’organisation de la vie urbaine, un conflit de valeurs est apparu : certains défendent la présence partagée des animaux, d’autres privilégient l’élimination des risques.

La voie à suivre

Les villes indiennes ont peut-être atteint leur « apogée de coexistence ». Malgré les nuisances quotidiennes – aboiements, poursuites – des millions de personnes continuent de nourrir ces chiens. Pourtant, le même chien qui remue la queue devant ses nourrisseurs familiers peut mordre un inconnu. Il ne s’agit pas d’agression irrationnelle, mais d’une protection territoriale née d’un lien profond avec une communauté humaine spécifique.

Les villes occidentales ont abattu leurs chiens errants il y a longtemps, car les priorités sociales y étaient plus homogènes. La diversité de l’Inde empêche un tel consensus. Il faudra sans doute encore de vingt à trente ans avant que l’ensemble de sa population urbaine considère la présence de chiens territoriaux comme intolérable.

À mesure que l’Inde s’urbanise, elle doit choisir entre préserver des espaces pour des relations anciennes, antérieures aux villes elles-mêmes ou suivre la voie occidentale d’un contrôle total. Le rituel de ma grand-mère, donnant son demi-chapati, incarnait un ancien accord : un investissement minimal, une coexistence pacifique et un bénéfice mutuel. Les chiens de Delhi, suralimentés et défendant leur territoire, incarnent aujourd’hui une nouvelle intimité plus intense – et il n’est pas certain que cette situation soit bénéfique pour les deux espèces.

The Conversation

Nishant Kumar bénéficie d’un financement de la DBT/Wellcome Trust India Alliance Fellowship. Il est chercheur associé à cette bourse au National Centre for Biological Science, TIFR, à Bangalore, en Inde, son accueil à l’étranger étant assuré par le Département de biologie de l’Université d’Oxford. Il est également cofondateur et scientifique en chef d’un think-tank de recherche basé à Delhi, Thinkpaws : www.Thinkpaws.org.

ref. En Inde, les 60 millions de chiens des rues fouillent de moins en moins les poubelles, et c’est dangereux – https://theconversation.com/en-inde-les-60-millions-de-chiens-des-rues-fouillent-de-moins-en-moins-les-poubelles-et-cest-dangereux-273379

Lo que la antigua Atenas nos enseña sobre el debate y la disidencia en la era de las redes sociales

Source: The Conversation – (in Spanish) – By Sara Kells, Director of Program Management at IE Digital Learning and Adjunct Professor of Humanities, IE University

Monumento a Sócrates y Confucio en Atenas, Grecia. Collection Maykova/Shutterstock

En la antigua Atenas, el ágora era un foro público donde los ciudadanos podían reunirse para deliberar, discrepar y decidir juntos. Se regía por principios sociales profundamente arraigados que garantizaban un debate animado, inclusivo y saludable.

Hoy en día, nuestras plazas públicas se han trasladado a internet, a los canales y foros digitales de las redes sociales. Estos espacios carecen en su mayoría de normas y códigos comunitarios; en su lugar, son los algoritmos los que deciden qué voces se alzan por encima del clamor y cuáles quedan sepultadas bajo él.

La idea optimista de que internet es un espacio radicalmente democrático parece un recuerdo lejano. Nuestras conversaciones están ahora moldeadas por sistemas opacos diseñados para maximizar la participación, no la comprensión. La popularidad algorítmica, y no la precisión o la imparcialidad, determina el alcance.

Esto ha creado una paradoja. Disfrutamos de una libertad de expresión sin precedentes, pero nuestro discurso está limitado por fuerzas que escapan a nuestro control. Las voces fuertes dominan; las matizadas se desvanecen. La indignación viaja más rápido que la reflexión. En este panorama, la participación igualitaria es prácticamente inalcanzable, y el discurso honesto puede conllevar un riesgo muy real.

En algún lugar entre los escalones de piedra de Atenas y las pantallas de hoy, hemos perdido algo esencial para nuestra vida democrática y nuestro diálogo: el equilibrio entre la igualdad de voz y el valor de decir la verdad, incluso cuando es peligroso. Dos antiguos ideales atenienses de libertad de expresión, la isegoria y la parresía, pueden ayudarnos a recuperarlo.

Ideas antiguas que aún nos guían

En Atenas, la isegoria se refería al derecho a hablar, pero no se limitaba al mero derecho o acceso. Señalaba una responsabilidad compartida, un compromiso con la justicia y la idea de que la vida pública no debía estar gobernada únicamente por los poderosos.

El término parresía puede definirse como audacia o libertad para hablar. Una vez más, hay un matiz: la parresía no es franqueza imprudente, sino valentía ética. Se refería al deber de decir la verdad, incluso cuando esa verdad provocaba incomodidad o peligro.

Estos ideales no eran principios abstractos. Eran prácticas cívicas, aprendidas y reforzadas a través de la participación. Los atenienses entendían que el discurso democrático era tanto un derecho como una responsabilidad, y que la calidad de la vida pública dependía del carácter de sus ciudadanos.

La esfera digital ha cambiado el contexto, pero no la importancia de estas virtudes. El acceso por sí solo no es suficiente. Sin normas que apoyen la igualdad de voz y fomenten la verdad, la libertad de expresión se vuelve vulnerable a la distorsión, la intimidación y la manipulación.

La aparición de contenidos generados por la inteligencia artificial intensifica estas presiones. Los ciudadanos deben ahora navegar no solo por las voces humanas, sino también por las producidas por máquinas, que difuminan los límites de la credibilidad y la intención.

Cuando ser escuchado se convierte en un privilegio

En las plataformas contemporáneas, la visibilidad se distribuye de forma desigual y, a menudo, impredecible. Los algoritmos tienden a amplificar las ideas que desencadenan emociones fuertes, independientemente de su valor. Las comunidades que ya se enfrentan a la marginación pueden verse ignoradas, mientras que aquellas que prosperan con la provocación pueden dominar la conversación.

En internet, la isegoria se ve desafiada de una nueva manera. Pocas personas están formalmente excluidas de ella, pero muchas son estructuralmente invisibles. El derecho a hablar sigue existiendo, pero la oportunidad de ser escuchado es desigual.

Al mismo tiempo, la parresía se vuelve más precaria. Hablar con honestidad, especialmente sobre temas controvertidos, puede exponer a las personas al acoso, la tergiversación o el daño a su reputación. El coste del valor ha aumentado, mientras que los incentivos para permanecer en silencio o retirarse a las cámaras de eco han crecido.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Formar ciudadanos, no audiencias

Los atenienses comprendieron que las virtudes democráticas no surgen por sí solas. La isegoria y la parresía se mantuvieron gracias a hábitos aprendidos a lo largo del tiempo: escuchar como deber cívico, hablar como responsabilidad compartida y reconocer que la vida pública dependía del carácter de sus participantes. En nuestra época, el equivalente más cercano es la educación cívica, el espacio en el que los ciudadanos practican las disposiciones que requiere el discurso democrático.

Al convertir las aulas en ágoras a pequeña escala, los estudiantes pueden aprender a habitar la tensión ética entre la igualdad de voz y la integridad en el discurso. Las actividades que invitan al diálogo compartido, a la participación equitativa y a la atención a las voces más silenciosas les ayudan a experimentar la isegoria no como un derecho abstracto sino como una práctica viva de la equidad.

En la práctica, esto significa mantener discusiones y debates en los que los estudiantes tienen que verificar la información, articular y justificar argumentos, revisar sus opiniones públicamente o participar respetuosamente con posturas contrarios. Todas estas habilidades cultivan el coraje intelectual asociado con la parresía.

Es importante destacar que estas experiencias no prescriben lo que los estudiantes deben creer. En cambio, ensayan los hábitos que hacen que las creencias sean responsables ante los demás: la disciplina de escuchar, la voluntad de ofrecer razones y la disposición a refinar una posición a la luz de nuevos conocimientos. Estas prácticas restauran la sensación de que la participación democrática no es meramente expresiva, sino relacional y construida a través del esfuerzo compartido.

Lo que la educación cívica ofrece en última instancia es práctica. Crea ágoras en miniatura donde los estudiantes ensayan las habilidades que necesitan como ciudadanos: hablar con claridad, escuchar con generosidad, cuestionar las suposiciones y relacionarse con quienes piensan de manera diferente.

Estos hábitos contrarrestan las presiones del mundo digital. Ralentizan la conversación en espacios diseñados para la velocidad. Introducen la reflexión en entornos diseñados para la reacción. Nos recuerdan que el discurso democrático no es una actuación, sino una responsabilidad compartida.

Volver al espíritu del ágora

El reto de nuestra era no es solo tecnológico, sino también educativo. Ningún algoritmo puede enseñar responsabilidad, valentía o equidad. Estas son cualidades que se forman a través de la experiencia, la reflexión y la práctica. Los atenienses lo entendían intuitivamente, porque su democracia se basaba en que los ciudadanos de a pie aprendieran a hablar como iguales y con integridad.

Hoy nos enfrentamos al mismo reto. Si queremos plazas públicas digitales que apoyen la vida democrática, debemos preparar a los ciudadanos para que sepan habitarlas con sabiduría. La educación cívica no es un enriquecimiento opcional, sino el campo de entrenamiento de los hábitos que sustentan la libertad.

El ágora puede haber cambiado de forma, pero su propósito perdura. Hablar y escuchar como iguales, con honestidad, valentía y cuidado, sigue siendo el corazón de la democracia. Y esto es algo que podemos enseñar.

The Conversation

Sara Kells no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Lo que la antigua Atenas nos enseña sobre el debate y la disidencia en la era de las redes sociales – https://theconversation.com/lo-que-la-antigua-atenas-nos-ensena-sobre-el-debate-y-la-disidencia-en-la-era-de-las-redes-sociales-272923

Ni un solo culpable ni una causa única: el de la vivienda es un problema poliédrico y complejo

Source: The Conversation – (in Spanish) – By Jesús Zamora Bonilla, Catedrático de Filosofía de la Ciencia, UNED – Universidad Nacional de Educación a Distancia

shisu_ka/Shutterstock

La carestía de la vivienda es, sin duda, el principal problema socioeconómico de la mayor parte de las economías avanzadas, y muy especialmente de España, donde un renqueante crecimiento de los salarios y una elevada precariedad laboral hacen que el precio de los pisos los convierta cada vez más en un auténtico bien de lujo.

Además, 2026 comienza con dos nuevos retos en el mercado de la vivienda de alquiler: la renovación de los contratos que venzan este año puede encarecer significativamente los alquileres, pues los propietarios pueden ajustarlos a precio de mercado. A consecuencia de ello, el Gobierno español ha anunciado una bonificación fiscal a los arrendadores que no suban los alquileres a sus inquilinos. Esta propuesta ha puesto en pie de guerra tanto a la derecha como a la izquierda del espectro político español.




Leer más:
Crisis de la vivienda en España: ¿funciona premiar fiscalmente a quien alquila barato?


‘El pisito’, un problema social

La situación no es nueva. Ya quedó plasmada en la hermosa tragicomedia de Rafael Azcona y Marco Ferrari El pisito, filmada en 1958 y cuyo título he tomado prestado aquí. La gravedad y extensión del problema lo convierte, además, en terreno abonado para la aparición de discursos que, con buena o mala fe, fomentan la subversión del consenso democrático y la justificación de políticas autoritarias.

Escena de “El pisito” (1958). Fuente: FlixOlé, YouTube.

En mis trabajos recientes sobre la ontología de los problemas sociales (o sea, en qué consiste que algo sea un “problema social” y, sobre todo, qué hace que algo sea el problema social que es y no otro más o menos distinto), he explicado que la “construcción social del problema” es un proceso dirigido, fundamentalmente, a identificar a un grupo de personas como los principales responsables del problema. Bien sea en el sentido de que son sus causantes, o en el sentido de que deben ser quienes carguen (económicamente o de otro modo) con la parte más sustancial de la posible solución (y muy a menudo, ambas cosas a la vez).

Tendemos a pensar en un problema con más claridad (aunque no con más objetividad) cuando tenemos una teoría sencilla que nos permite identificar a sus culpables, o al menos, a quienes “deberían” hacer lo que nos parece más obvio que “habría que hacer” para solucionarlo.

Así, en la derecha, gana adeptos la idea de que la vivienda se haría más asequible si, simplemente, hubiese menos extranjeros viviendo en el país. Pero lo cierto es que aplicar esta política supondría una catástrofe social y económica, y una clara violación de los derechos humanos.




Leer más:
¿Qué pasaría en España si mañana desapareciera la inmigración?


En la izquierda, por su parte, ha cundido la idea de que “el sujeto responsable” del problema de la vivienda lo constituyen los “especuladores”, los “acaparadores” y los “rentistas”. Y que la solución estaría en prohibir la adquisición de una casa salvo para vivir en ella: “una vivienda, una familia”, sentenció hace poco el parlamentario Gabriel Rufián, de Esquerra Republicana de Catalunya.

Retórica política

En el caso de la vivienda, el término acaparador describiría, si acaso, a quienes deciden comprar varios pisos en distintos lugares con el objetivo de pasar una temporada en cada uno, teniéndolos vacíos entretanto, no para quien los compra con el objetivo de que otras personas puedan vivir en ellos a cambio de un alquiler.

Por otra parte, especular, en el sentido financiero del término, es, de hecho, prácticamente lo contrario de lo que suele hacerse cuando se invierte en viviendas. Las inversiones especulativas son las que llevan asociado un alto grado de incertidumbre sobre el valor futuro de los activos. En cambio, invertir en vivienda es justo lo que se recomienda al inversor que no quiere especular.

Algo semejante ocurre con el término rentista, que suele aplicarse a la persona que vive de las rentas, olvidando que la inversión, o sea, la creación de capital (y la vivienda es, económicamente hablando, un tipo de capital) es indispensable para el crecimiento económico y sería inviable si se prohibiese obtener una renta como fruto de las inversiones.

Los factores que hacen encarecer el mercado de la vivienda son muchos, muy diferentes entre sí y no admiten soluciones resumibles en eslóganes. Por ejemplo, la evolución demográfica es un factor principal y ninguna de las dos teorías monocausales la tiene en cuenta.

Imaginemos una ciudad de 100 000 habitantes, organizados en familias de cuatro miembros, y 25 000 viviendas. Si no se producen cambios, esas viviendas no serán suficientes cuando los hijos de esas familias quieran independizarse. Y seguirán siendo escasas aunque una cuarta parte de esos hijos decidiesen emigrar a otra ciudad.

Como la demografía, hay otras cuestiones a tener en cuenta, no siempre iguales en todas partes, en el tema de la vivienda.




Leer más:
Por qué la vivienda no será la mayor preocupación de la generación Z


En alquiler o compra pero accesible

Lo importante no es tanto el modo de propiedad de la vivienda como las condiciones de su uso. De hecho, es conveniente que coexistan diferentes sistemas de propiedad para hacer que el acceso a la vivienda sea más flexible y seguro. Por ejemplo, si una parte de la población no se plantea trabajar muchos años seguidos en la misma ciudad, no solo es útil, sino necesario, que existan suficientes viviendas disponibles para alquilar.

Lo fundamental no es prohibir radicalmente la posesión o adquisición de “más de un piso por familia”, sino fomentar que los pisos, los posea quien los posea, sean puestos en alquiler en cantidad suficiente y en condiciones ventajosas para los inquilinos.




Leer más:
El acceso a la vivienda de alquiler, peor en 2025


Desde el punto de vista económico la vivienda es una forma de capital. O sea, un bien que sirve para generar una utilidad durante un periodo prolongado de tiempo. Además, en comparación con otros bienes de capital (como los coches), es mucho más duradero y su demanda es muy poco variable, lo que la convierte, como ya hemos visto, en un capital típicamente no especulativo.

Esto ha hecho que, para la mayoría de los ciudadanos poco atraídos por la actividad empresarial o la especulación financiera, la inversión en vivienda (empezando por la habitual) haya sido el modo más natural de invertir, es decir, de convertirse en propietarios de capital. Pero esta tendencia se rompe si la vivienda se hace tan cara que los sueldos normales dejan de permitir su compra.

Son muchas las causas

La idea de “una nación de propietarios” no tiene por qué ser incompatible con la de “una nación de inquilinos”. Si en un país casi toda la vivienda fuera propiedad pública, en el fondo sería propiedad de sus ciudadanos, aunque cada uno viviese de alquiler.

De modo más directo, el Estado podría fomentar la creación de fondos de inversión social inmobiliaria, que dedicasen su capital íntegramente a construir o adquirir viviendas para alquilar en condiciones socialmente justas (y no necesariamente a quienes participen del fondo) y en los que la gente pudiese invertir sus ahorros con rentabilidad, seguridad y buen trato fiscal.

Aferrarse a una teoría monocausal del problema de la vivienda, aunque resuene de modo armonioso con los principios ideológicos propios, es cerrar la puerta a encontrar una solución mínimamente viable y efectiva.

La ingenua “construcción social” del problema de la vivienda, ejercida como la búsqueda de un chivo expiatorio, es perniciosa por las injusticias e ineficiencias a las que puede dar lugar de manera inmediata.

Pero, además, hace perder de vista el carácter multicausal y muy complejo que suelen tener los problemas sociales, en los que cada elemento posee múltiples causas y consecuencias que van tanto en un sentido como en el contrario.

The Conversation

Jesús Zamora Bonilla no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Ni un solo culpable ni una causa única: el de la vivienda es un problema poliédrico y complejo – https://theconversation.com/ni-un-solo-culpable-ni-una-causa-unica-el-de-la-vivienda-es-un-problema-poliedrico-y-complejo-273281

¿Comemos lo que decimos? Una gota de sangre podría revelar la verdad sobre nuestra dieta

Source: The Conversation – (in Spanish) – By Laura García-Urtiaga, Investigadora Predoctoral en Nutrición de Precisión – AZTI, Universidad del País Vasco / Euskal Herriko Unibertsitatea

InFocus.ee/Shutterstock

¿Y si una simple gota de sangre pudiera decirnos si nos estamos alimentando bien? Aunque muchas personas afirman seguir una dieta saludable, los métodos tradicionales para medir lo que comemos –como encuestas o diarios alimentarios– no siempre son fiables. Al fin y al cabo, es fácil olvidar lo que hemos comido o incluso tener percepciones erróneas sobre las cantidades ingeridas.

Por suerte, ahora hay alternativas. En un estudio que llevamos a cabo en el centro tecnológico AZTI, analizamos si una pequeña muestra de sangre recogida del dedo (lo que se llama dried blood spot o DBS) puede reflejar con precisión lo que comemos, especialmente respecto al consumo de pescado azul, rico en grasas saludables omega-3.

El estudio incluyó 18 participantes, hombres y mujeres de entre 18 y 65 años, sin enfermedades. Durante cinco semanas, las 18 personas participaron en una intervención nutricional. Primero siguieron su dieta habitual, luego evitaron el pescado y finalmente consumieron caballa enlatada varias veces por semana. En cada fase, recogimos muestras de sangre y analizamos los niveles de diferentes ácidos grasos.

De los cuestionarios a la analítica objetiva

Los resultados fueron claros. Antes de comenzar la intervención, el perfil de ácidos grasos reveló distintos patrones de dieta entre los participantes.

Por un lado, aquellas personas que habitualmente consumían lácteos azucarados, bebidas carbonatadas y azúcar presentaron mayores niveles de grasas omega-6 y menores niveles grasas omega-3. Esto es importante porque cuando el omega-6 está descompensadamente elevado, el riesgo de fallecer aumenta. Por el contrario, quienes consumían pescado azul, bebidas alcohólicas fermentadas, edulcorantes y nueces presentaron mayores niveles de grasas monoinsaturadas y omega-3.

Un tercer grupo con mayor consumo de verduras, cereales integrales, quesos y mantequilla presentó niveles intermedios de omega-3 y omega-6, y niveles más altos de grasas saturadas.

Pero ¿cuánto tardan en cambiar nuestro perfil de ácidos grasos tras consumir ciertos alimentos? Menos de lo que imaginamos. En los experimentos vimos que si los sujetos consumían latas de caballa, los niveles en sangre de ciertos omega-3 como el EPA aumentaban en un día. Sin embargo, otros como el DHA tardaban más en reflejarse. Esto demuestra que esta técnica puede detectar cambios en la dieta tanto a corto como a largo plazo.

Además, los niveles de estas grasas cambiaban de manera distinta según el patrón de dieta habitual de cada participante. En los participantes que normalmente no consumían pescado azul, aumentaban más sus niveles de EPA al día siguiente de comer pescado. Sin embargo, aunque el DHA también aumentó en estos participantes durante las dos semanas de intervención, los niveles no llegaron a igualarse a los de los participantes que normalmente sí consumían pescado. Esto quiere decir que para adquirir niveles de omega-3 correspondientes con un consumo de pescado azul adecuado, necesitarían seguir tomándolo durante más de dos semanas.




Leer más:
Cuidar la salud y el medio ambiente: dos razones para incluir pescado azul en nuestra dieta


Identificar si la dieta es adecuada sin cuestionarios

El nuevo método es, sobre todo, rápido, cómodo y poco invasivo. No requiere de profesionales médicos y puede aplicarse fácilmente en grandes muestras, o incluso en casa. Además, permite identificar si la dieta es adecuada y evitar los errores comunes de los cuestionarios alimentarios, que muchas veces no reflejan lo que realmente comemos. Por otro lado, gracias a los cambios a corto y largo plazo de diferentes grasas, también nos permite saber si las personas siguen las pautas indicadas en un plan nutricional.

Esta investigación nos coloca un paso más cerca de ofrecer recomendaciones nutricionales realmente personalizadas. Porque al final lo que importa no es lo que decimos que comemos, sino lo que realmente comemos.

The Conversation

Laura Garcia-Urtiaga recibe una beca predoctoral financiada por el Gobierno Vasco y está contratada como investigadora predoctoral en el centro tecnológico AZTI (Derio).

El presente estudio ha sido parcialmente financiado por el proyecto europeo Horizon Europe CoDiet (grant number 101084642) y por el proyecto OPTIPROT (CER-20231014) del Centro para el Desarrollo Tecnológico y la Innovación (CDTI) del Ministerio de Ciencia, Innovación y Universidades.

ref. ¿Comemos lo que decimos? Una gota de sangre podría revelar la verdad sobre nuestra dieta – https://theconversation.com/comemos-lo-que-decimos-una-gota-de-sangre-podria-revelar-la-verdad-sobre-nuestra-dieta-264461

Qué es la Grokipedia de Elon Musk y en qué se diferencia de Wikipedia

Source: The Conversation – (in Spanish) – By Rafael Conde Melguizo, Investigador en el grupo ECSiT, Tecnología e Innovación para la Sociedad, la Cultura y la Educación, UDIT – Universidad de Diseño, Innovación y Tecnología

Captura de pantalla de la entrada a Grokipedia.

El pasado 17 de octubre de 2025, Elon Musk anunció el lanzamiento de Grokipedia, una enciclopedia online similar a Wikipedia pero que, según el empresario sudafricano, “no tendría sesgos y contaría la verdad y solo la verdad”.

Tanto en esta presentación como en el pasado, Elon Musk había acusado a Wikipedia de estar sesgada políticamente. Como reacción, la Fundación Wikimedia, responsable de su mantenimiento y de otras iniciativas asociadas (Wikicommons, Wikidata, etc.), recordó que Wikipedia tiene un sistema de edición y moderación basado en humanos donde todo el mundo, de cualquier ideología o condición, está invitado a participar y carece de ánimo de lucro.

Dada la importancia de Wikipedia como fuente de información global, y teniendo en cuenta el peso mediático de cualquier declaración o lanzamiento de Elon Musk, parece necesario aclarar este debate y explicar qué es Grokipedia, cómo funciona Wikipedia y en qué se diferencian, pues, más allá de la similitud en el nombre, son diferentes.

Conocimiento libre y referenciado

Wikipedia ofrece un diseño fiable basado en los principios cooperativos y de conocimiento libre de la primera internet. Esta afirmación se fundamenta en que su diseño nos permite editar y verificar su contenido. La información sin referenciar o sin fuentes fiables es borrada, ya que se trata de una fuente de información secundaria.

Por otro lado, no se puede incorporar a Wikipedia un nuevo descubrimiento o un evento social. Primero, este debe ser recogido en una publicación de acreditada solvencia. Posteriormente, se volcaría esta información en Wikipedia referenciando la fuente original. Este es el motivo por el que suele quedar a salvo de desinformaciones que se viralizan rápidamente en las redes sociales, donde no existen sistemas de moderación tan exigentes.

Posibilidad pública de rectificar

Una vez la información está en Wikipedia, si consultamos un texto y dudamos de su veracidad, sesgo o incorrección, podemos acceder a la fuente original y contrastar nosotros mismos si es correcto. En caso de que, como Elon Musk, pensemos que se trata de una información sesgada, todos podemos participar en la página de discusión y exponer nuestros motivos solicitando fuentes alternativas.

Si esto no es suficiente, podemos editar nosotros mismos el texto y añadir nuevas fuentes. En caso de no ser compartido nuestro punto de vista por la comunidad, podemos solicitar la revisión por un bibliotecario en la página de discusión.

Estos bibliotecarios son elegidos en procesos democráticos en los que cualquiera puede participar. No exento de posibles errores, es un sistema que combate los sesgos mediante el debate y los equilibrios propios de una sociedad democrática.

En su contra, es un sistema que alarga las decisiones de edición de artículos. Se generan discusiones largas y, en ocasiones, deja fuera temas relevantes por carecer de atención suficiente por los medios o la academia. Es el caso de deportes minoritarios o artistas fuera de los circuitos comerciales habituales, que no consiguen enlaces a medios mayoritarios o artículos científicos que justifiquen su presencia en Wikipedia, aunque su importancia en algunos círculos sociales sea real.

Grokipedia, origen privado

Grokipedia es un proyecto administrado por xAI, una startup de inteligencia artificial fundada el 12 de julio de 2023 por Elon Musk. Actualmente, aún desconocemos el algoritmo que ha creado el contenido, el proceso de aprendizaje al que ha sido sometido o las fuentes con que se ha entrenado.

En caso de dudas, podemos sugerir ediciones con un formulario emergente, pero no podemos editar el texto, ni hablar con un humano que nos exponga los motivos que lo fundamentan. Esto no significa que el contenido de Grokipedia no sea válido o correcto, pero no tenemos manera de comprobarlo.

Artículos copiados y politizados

Diferentes estudios plantean que gran parte del contenido de Grokipedia está copiado literalmente de Wikipedia. Sin embargo, esos mismos estudios indican que hay entradas relacionadas con temas de debate político donde aparecen modificaciones que se inclinan hacia el discurso público de Elon Musk.

Por ejemplo, en la página sobre cambio climático, Wikipedia afirma que existe un consenso científico casi unánime sobre la intervención humana en el calentamiento global. La página está copiada casi literalmente en Grokipedia, salvo que sustituye el énfasis en la unanimidad por párrafos críticos al consenso, por lo que existe una reinterpretación del texto copiado, pero sin aportar fuentes o sin que sepamos cuál ha sido el proceso o los criterios de dicha reinterpretación.

¿Rapidez a cambio de veracidad?

A su favor, Grokipedia es un sistema mucho más rápido de creación de nuevos artículos, pues estos no están sometidos a un proceso de deliberación, ni existe un debate acerca de lo que es o no relevante como para tener página propia.

Así, mientras Wikipedia nos ofrece confianza, Grokipedia nos pide fe.

Wikipedia exige la participación activa del lector en la interpretación del contenido, propia del mundo académico y del primer internet; Grokipedia ofrece la rapidez del acceso a la información en un clic, propia del mundo actual y la inteligencia artificial.

Qué camino elegir es una decisión individual, pero esta decisión debe tomarse de manera consciente e informada, pensando en el tipo de información que deseamos para nosotros y para la red.

The Conversation

Rafael Conde Melguizo es miembro de Wikimedia España.

ref. Qué es la Grokipedia de Elon Musk y en qué se diferencia de Wikipedia – https://theconversation.com/que-es-la-grokipedia-de-elon-musk-y-en-que-se-diferencia-de-wikipedia-270989

España ya no exporta artistas musicales en español, los importa

Source: The Conversation – (in Spanish) – By Lourdes Moreno Cazalla, Doctora en Comunicación. Autora del estudio para el Observatorio Nebrija del Español "El boom de la música urbana latina y la expansión del español a nivel global", Universidad Nebrija

Shakira actúa durante el Festival Global Citizen 2025 en el Great Lawn de Central Park en la Nueva York, NY, en septiembre de 2025. lev radin/Shutterstock

A finales del siglo XX, España podía reconocer en el mundo con claridad “su” música, desde el melódico Julio Iglesias, el pop luminoso de Mecano o la fuerza de Héroes del Silencio a la sensibilidad con toques aflamencados de Alejandro Sanz o el indie que marcó a una generación.

Sin embargo, en 2025 la pregunta ya no es qué define la identidad de la música española, sino si ese concepto sigue teniendo sentido dentro de un ecosistema en el que el español se ha vuelto global, híbrido y profundamente interconectado.

Esta es una de las reflexiones del nuevo informe del Observatorio Nebrija del Español, donde se detecta cómo España ha pasado de exportar voces a formar parte de una red transnacional en la que los acentos se cruzan y los ritmos se comparten.

De la exportación de artistas a la importación de éxitos

España ha actuado como uno de los grandes emisores de música en español. Durante los años 80 y 90 se produjo la profesionalización de la industria española, marcada por la concentración del mercado en manos de compañías multinacionales. A diferencia de lo que sucedía en otras naciones europeas, la transformación fue vertiginosa.

Así, si en 1980 siete sellos globales controlaban un 52 % del mercado, ya en 1985 solo cinco discográficas aglutinaban el 87 %. Este crecimiento se sumó a la confluencia de una explosión creativa y al apoyo de la radio, algunos programas de televisión y las revistas musicales. También las nuevas tecnologías de consumo físico musical –como el CD– interpretaron su papel en la expansión internacional de los grandes referentes del pop español.

Pero a partir de los años 2000, esa fórmula de éxito comenzó a cambiar, primero de una manera tímida y luego de forma estructural. Así, pasamos de lo físico a lo digital impulsados por el auge de una piratería que sumió a la industria en una crisis de ventas que acabó afectando a todo el sistema.

En ese punto de inflexión, en 2005, una colaboración entre la colombiana Shakira y el español Alejandro Sanz reveló que el idioma era un vector más poderoso que cualquier identidad nacional. La canción “La tortura” anticipó la explosión de un pop latino-global cuya arquitectura ya no dependía del país de origen del artista sino de su conexión con una comunidad lingüística transcontinental.

Desde entonces, España comenzó a importar sonidos, estilos, productores y narrativas que provenían de América Latina. Los datos son reveladores: cuando analizamos el consumo musical en España de las últimas dos décadas, siete de cada diez canciones se cantan en español. De hecho, el 94 % de la música que consume esta audiencia YouTube se canta en español, al igual que el 87 % de lo que escuchan en Spotify. Pero solo una cuarta parte de esas canciones son de intérpretes originarios de España. Es decir, el español que está dominando las listas de éxitos posee muchos acentos.

No obstante, esto no indica una pérdida de relevancia cultural de los artistas españoles, sino un desplazamiento del eje. Podría decirse que la identidad musical está dejando de ser local para convertirse en lingüística y relacional. Así el Spanish sound ya no se entiende como una estética propia y diferenciada de un país sino como parte de un espacio común compartido, el “orgullo latino” que puede surgir desde Medellín, San Juan o Buenos Aires a Ciudad de México, Miami, Cuenca, Terrassa o las islas Canarias.

La identidad musical por contribución

El auge de la música en español en el escenario global no surge de la nada, ni es simplemente algo que el viento del mercado ha traído consigo. Es más bien el punto de encuentro de corrientes históricas y tecnologías que, en los últimos 20 años, han ido reconfigurando las rutas por las que viaja la cultura en un planeta interconectado.

En los años 90 la música en español funcionaba como un mercado fragmentado, jerarquizado, con flujos unidireccionales (en España ligado al pop y en Estados Unidos, al Spanglish). Hoy, sin embargo, actúa como una comunidad digital, fluida, global y dopada por los algoritmos. Las plataformas que han borrado fronteras también han revelado un dato fundamental: el español es uno de los idiomas más escuchados del mundo en las listas de éxitos.

En este contexto, los artistas españoles navegan entre la idea de preservar ciertas raíces culturales mientras adoptan sonidos y estéticas que conectan con audiencias globales. Se observa un cambio generacional de artistas superventas del pop español como Estopa, Pablo Alborán o Dani Martín para pasar a Juan Magán, Rosalía, Quevedo y RVFV, referentes de propuestas que se integran en un lenguaje musical más amplio.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Las mujeres facturan

Otro vector clave que impulsa la música en español es el femenino.

La presencia de Karol G y Rosalía en las listas de éxitos globales, junto a una figura transgeneracional como Shakira –quien constituye un caso singular de reinvención sostenida dentro de la industria latina–, permite observar un cambio de ciclo en la música popular contemporánea.

A ellas se suman intérpretes españolas con fuerte impronta internacional. Así, y según Chartmetric, para Aitana, Bad Gyal y Ana Mena México es su mercado secundario, mientras que Argentina lo es para Lola Índigo. Por tanto, la relevancia de estas artistas no puede entenderse ya como regional o local, sino como parte de un ecosistema cultural crecientemente interconectado que les permite disputar espacios simbólicos históricamente masculinizados.

En uno de sus conciertos en Madrid en 2024, Karol G subió al escenario a Amaia Montero, entonces excantante de La oreja de Van Gogh, en un momento que ejemplificaba la unión de dos generaciones musicales en español.

Su visibilidad y su forma de reinterpretar el género, lejos de ser un fenómeno aislado marca un hito en la historia de la representación femenina. Este empoderamiento femenino y latino que encarnan abre puertas para nuevas generaciones y legitima una diversidad de expresiones que amplían los márgenes en la cultura popular contemporánea desde el español.

Al final, la música en este idioma no es un tema de banderas, sino voces que conquistan. Lo que importa no es el origen del sonido, sino la amplitud de su eco.

The Conversation

Lourdes Moreno Cazalla no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. España ya no exporta artistas musicales en español, los importa – https://theconversation.com/espana-ya-no-exporta-artistas-musicales-en-espanol-los-importa-268594

Wikipedia cumple 25 años: ¿cómo la enciclopedia que la academia rechazaba se ha convertido en un bien público digital?

Source: The Conversation – (in Spanish) – By Martin Adalberto Tena Espinoza de los Monteros, Professor and Researcher in Information Science, Universidad de Guadalajara

T. Schneider/Shutterstock

Fundada el 15 de enero de 2001, Wikipedia cumple en estos días 25 años. Tras 25 años de historia, ha pasado de ser cuestionada por la academia a ser reconocida como un bien público global. Con más de 65 millones de artículos en su edición en inglés y presencia en más de 300 idiomas, hoy por hoy es reconocida como la mayor fuente de conocimiento colaborativo accesible y gratuito.

Su crecimiento ha logrado romper barreras geográficas y lingüísticas. Sin embargo, mantiene una lucha constante por ser más inclusiva. A través de iniciativas para reducir la brecha de género y visibilizar conocimientos del Sur Global, Wikipedia busca que el saber sea representativo.

Del estigma a la fiabilidad

Durante años, Wikipedia fue el enemigo en escuelas y bibliotecas. Se consideraba poco fiable porque cualquiera podía editarla, e incluso era común prohibir su uso y cita en los trabajos universitarios.

Las preocupaciones y discusiones sobre la fiabilidad de sus contenidos han sido objeto de constantes debates académicos y estudios críticos. Desafíos como los sesgos de género, las brechas geográficas, la calidad desigual entre idiomas y el vandalismo persistente son realidades vigentes que impactan fuertemente la credibilidad de Wikipedia.

Ante ello, la comunidad de wikipedistas ha afinado sus políticas y prácticas. Asimismo, el desarrollo de herramientas de verificación propias y externas ha mejorado la percepción sobre la enciclopedia. Aun así, la fiabilidad no es un estado fijo, sino un proceso en construcción permanente.

En la actualidad, tanto el ámbito de la educación como el mundo de la ciencia ven a Wikipedia como una aliada. Docentes e investigadores ayudan a mejorar los artículos con sus conocimientos. Sus aportaciones permiten que la sociedad acceda a información validada y de calidad.

La desconfianza inicial ha dado paso a alianzas y a una colaboración global. Universidades, instituciones culturales y ciudadanos construyen y mejoran juntos Wikipedia. El resultado es el acceso a un conocimiento humano, abierto, libre y gratuito.

Un bien público digital para el mundo

Wikipedia es una infraestructura esencial para el acceso al conocimiento en internet. Su historia como fuente de acceso libre y de código abierto es un ejemplo único del potencial de las tecnologías abiertas.

Su modelo colaborativo le ha permitido construir y contribuir a un acceso al conocimiento más equitativo. Su valor como proyecto fue reconocido en 2025 por la Digital Public Goods Alliance (DPGA). Esta iniciativa, respaldada por la ONU, gestiona un registro de bienes digitales que resultan de interés público: software de código abierto, modelos de IA, estándares y contenidos digitales.

El reconocimiento de Wikipedia como bien público digital certifica que cumple con estándares de software abierto, contenido libre y protección de la privacidad. Esta distinción también destaca su contribución a los Objetivos de Desarrollo Sostenible.

La misión de la Fundación Wikimedia, la organización responsable de sustentar el proyecto Wikipedia, también se beneficia de esta acreditación y de su consecuente valoración.

Al ser un recurso gratuito, accesible y libre de barreras comerciales, Wikipedia contribuye a reducir la brecha digital. Su modelo democratiza el acceso a la información a nivel global y garantiza que el conocimiento sea un recurso compartido y protegido para las generaciones futuras.

Sin embargo, en la actualidad este modelo enfrenta un desafío existencial: el auge de la Inteligencia Artificial generativa. Wikipedia es una de las fuentes principales para entrenar los grandes modelos de lenguaje. Este fenómeno obliga al proyecto a repensar su sostenibilidad y a defender su valor como fuente primaria de información generada y verificada por personas. Frente la automatización, Wikipedia reivindica el factor humano como el único capaz de producir conocimiento enciclopédico confiable, algo que la tecnología por sí sola no puede reemplazar.

Proteger Wikipedia frente al futuro digital

A pesar de su consolidación como infraestructura libre y gratuita, la viabilidad de Wikipedia como modelo y plataforma abierta enfrenta, junto con otros proyectos de conocimiento libre, desafíos y amenazas globales. Estas presiones han venido generando temores sobre la fragmentación de internet y la posible vulneración de los derechos humanos en el entorno digital.

En este escenario, la gobernanza de internet es una prioridad. Según los principios impulsados por la UNESCO, es vital que internet se mantenga como un recurso basado en los derechos humanos, abierto y accesible para todos.

Sin embargo, las políticas diseñadas para regular los entornos digitales a menudo no consideran la naturaleza única de los bienes públicos digitales. Con ello se pone en riesgo el principio de cooperación global, necesario para un futuro inclusivo en este ámbito.

Frente a estos riesgos, y en el marco del Pacto Digital Mundial de las Naciones Unidas, la Fundación Wikimedia ha liderado una carta abierta instando a los Estados miembros de las Naciones Unidas a proteger los proyectos de conocimiento libre y colaborativo.

Este llamado es un recordatorio de que la sostenibilidad de Wikipedia y otros proyectos de interés público no depende solo de su comunidad, sino de un marco normativo global que reconozca que el acceso al saber es un derecho humano fundamental y un pilar del desarrollo de la sociedad.

25 años de conocimiento humano

Celebrar el 25 aniversario de Wikipedia es una muestra y una defensa de que el conocimiento no es un producto estático, sino un proceso social vivo.

El lema “El conocimiento es humano” nos recuerda que detrás de cada artículo hay una comunidad global que defiende la verdad y la apertura. Lo que comenzó como un experimento audaz es hoy un patrimonio compartido. Proteger su legado no representa solo un acto de preservación tecnológica: implica garantizar que, en el futuro digital, el conocimiento sea un derecho, libre, accesible, de todos y para todos.

The Conversation

Martin Adalberto Tena Espinoza de los Monteros es miembro del Capítulo Wikimedia México. Wikimedia México es el capítulo de la Fundación Wikimedia en México, creado con objeto de difundir los proyectos de la misma en ese país. Los capítulos son organizaciones locales de wikipedistas y de personas interesadas en los proyectos de Wikipedia que pretenden difundir el conocimiento libre y la información.

ref. Wikipedia cumple 25 años: ¿cómo la enciclopedia que la academia rechazaba se ha convertido en un bien público digital? – https://theconversation.com/wikipedia-cumple-25-anos-como-la-enciclopedia-que-la-academia-rechazaba-se-ha-convertido-en-un-bien-publico-digital-272651

¿Se quedarán sin nieve los Pirineos por culpa del cambio climático?

Source: The Conversation – (in Spanish) – By Josep Bonsoms, Postdoctoral researcher and professor, Universitat de Barcelona

Fusión de la nieve en primavera en el Pirineo occidental. Josep Bonsoms, CC BY-SA

La nieve es uno de los elementos más característicos de las montañas y del invierno en gran parte del mundo. Más allá de su valor paisajístico, esta desempeña un papel clave en el funcionamiento de los ecosistemas de montaña y en múltiples actividades socioeconómicas.

Sin embargo, la nieve es también un componente del sistema climático especialmente sensible al calentamiento global. En las últimas décadas, su cantidad, duración y comportamiento han mostrado cambios significativos.

No nieva igual todos los inviernos

La nieve presenta una marcada variabilidad temporal y espacial. En las montañas de la península ibérica, los inviernos pueden alternar entre años con abundantes nevadas y otros casi sin nieve.

Esta variabilidad no es homogénea. Las cotas bajas y sectores como el Pirineo oriental son más irregulares debido a su posición frente a los flujos atlánticos, mientras que cordilleras occidentales y septentrionales actúan como barrera, captando la mayor parte de la humedad y dejando condiciones más secas hacia el este. Este fenómeno, conocido como sombra pluviométrica, también es observable en otras montañas españolas como Sierra Nevada.

A escala local, además, el relieve y el viento influyen también en la acumulación de nieve. En conjunto, estos factores hacen que las tendencias espacio-temporales de la nieve muestren una elevada heterogeneidad.

¿Hay menos nieve en el hemisferio norte?

A escala del hemisferio norte, la cobertura de nieve ha disminuido de forma acelerada desde la década de 1980. Este descenso se atribuye principalmente al aumento de la temperatura vinculado al cambio climático de origen antrópico. Este fenómeno ha dado lugar a lo que se conoce como sequía nival hidrológica, es decir, cuando la acumulación de nieve es insuficiente o la fusión es demasiado rápida y se genera un déficit respecto a un periodo histórico concreto.

Aun así, durante la estación fría, en cotas elevadas y en latitudes altas, la acumulación de nieve depende más de la precipitación que de la temperatura. En las latitudes medias de la cuenca del Mediterráneo, la precipitación presenta una elevada variabilidad anual y decadal, sin que se observen tendencias claras a lo largo del periodo histórico.

En los Pirineos, en cotas elevadas (>2 000 m), donde las temperaturas se mantienen bajo cero, las tendencias recientes (2000-2020) son neutras o ligeramente positivas. Sin embargo, en periodos más largos (1958–2017) se observa una disminución generalizada del número de días con nieve en el suelo y del espesor medio.

Además, en este sistema montañoso se detecta una fusión cada vez más temprana en la temporada y más intensa, asociada a un aumento de la energía disponible para derretir la nieve. Este fenómeno se ha relacionado con una mayor frecuencia de situaciones anticiclónicas durante la primavera. Estos periodos de estabilidad atmosférica favorecen la entrada de masas de aire templado, incrementan la radiación y el calor sensible, y aceleran la fusión. Estas situaciones atmosféricas se producen actualmente con temperaturas más elevadas debido al calentamiento global.




Leer más:
El cambio climático y la actividad humana están transformando las montañas en todo el mundo


¿Qué pasará en el futuro?

Los estudios basados en simulaciones climáticas coinciden en proyectar una disminución de la nieve en el hemisferio norte, independientemente del modelo climático utilizado y del escenario de emisiones de gases de efecto invernadero considerado, tanto moderado como alto.

En los Pirineos, las proyecciones apuntan a una reducción generalizada de la nieve, especialmente en las cotas bajas, donde pequeños aumentos de temperatura determinan si la precipitación cae en forma de nieve o de lluvia.

Aun así, la nieve no desaparecerá de esta cadena montañosa, ni siquiera a finales de siglo. En concreto, las proyecciones para finales del siglo XXI (2080–2100) anticipan reducciones de la precipitación nival que oscilan entre el −9 % en un escenario de emisiones moderadas (entre 2 500 y 3 000 m) y el −29 % en un escenario de altas emisiones (entre 1 000 y 1 500 m), en comparación con el clima histórico (periodo 1960–2006).

Estos cambios afectan también la duración de la temporada de nieve, la rapidez de la fusión y los picos de escorrentía, es decir, el agua que circula por la superficie. Un aumento de 1 °C puede reducir hasta un 30 % la nieve estacional a 1 500 m.

Además, estudios recientes indican que el aumento de la temperatura debido al cambio climático contribuye a una mayor evaporación y a una mayor cantidad de humedad disponible en la atmósfera, lo que puede dar lugar a un incremento de episodios extremos de precipitación en forma de nieve, como la borrasca Filomena de 2021, siempre que la temperatura se sitúe por debajo del punto de fusión.




Leer más:
A mayor calentamiento global, ¿menos nieve en las montañas?


Implicaciones para el clima y los ecosistemas

La nieve es un factor clave en las zonas de montaña. Actúa como un regulador hidrológico natural: almacena agua durante los meses fríos y la libera de forma progresiva en primavera y verano. Su disminución altera los picos de escorrentía, afecta a la disponibilidad de recursos hídricos y condiciona la producción hidroeléctrica.

La nieve desempeña un papel fundamental en el clima debido a su alto albedo, ya que refleja gran parte de la radiación solar. La pérdida de cobertura nival incrementa la absorción de energía en la superficie, generando retroalimentaciones que aumentan la temperatura.

Los cambios en la nieve influyen también en los ecosistemas de montaña, en la fenología de la vegetación –en sus ciclos biológicos– y en la evolución de los glaciares, que dependen de una cubierta nival persistente para retrasar la exposición del hielo durante el verano. Además, el aumento de episodios de lluvia sobre nieve, favorecidos por temperaturas más elevadas, puede desencadenar crecidas rápidas e inundaciones, como la ocurrida en el municipio de Vielha (Lérida) en 2013, con elevados costes económicos.




Leer más:
Los peligrosos efectos del cambio climático en las masas glaciares


En este contexto, el cambio climático plantea un desafío estructural para los sistemas naturales y económicos de montaña. Afrontar este nuevo escenario requiere avanzar en estrategias de adaptación y mitigación que permitan gestionar el agua, el territorio y las actividades de montaña.

The Conversation

Josep Bonsoms recibe financiación del Ministerio de Ciencia, Innovación y Universidades de España (PRE2021-097046).

ref. ¿Se quedarán sin nieve los Pirineos por culpa del cambio climático? – https://theconversation.com/se-quedaran-sin-nieve-los-pirineos-por-culpa-del-cambio-climatico-272626

The UK’s offshore wind auction broke records, but its clean power target remains unrealistic

Source: The Conversation – UK – By Thomas York, Postgraduate Researcher in Human Geography, University of Leicester

The UK government has just announced the results of its biggest-ever auction for new offshore wind projects. By doubling the budget at the eleventh hour, it managed to award contracts for a massive 8.4 gigawatts of new capacity. Energy secretary Ed Miliband described it as “a monumental step towards clean power by 2030”.

But despite the headline success, this outcome actually makes the government’s own clean power targets harder – not easier – to meet. While the auction successfully awarded contracts, it does nothing to address the bottlenecks that mean these projects won’t start producing electricity for many years.

German company RWE dominated the auction. It has been awarded contracts for 6.9GW of capacity, securing revenue for its Dogger Bank South, Norfolk Vanguard and Awel y Môr projects. The only other big winner was SSE, for the next phase of its Berwick Bank project in the North Sea, currently the largest planned offshore wind farm in the world.

The government’s “contracts for difference” scheme guarantees developers a fixed price for electricity to protect them from market volatility. This auction result should help stabilise an industry that was running into problems.

After the disastrous collapse of projects like the proposed Hornsea 4 wind farm last year, the government tweaked the rules for this round of auctions to prioritise deliverability over costs. It also extend guaranteed revenue contracts from 15 to 20 years, giving investors long-term certainty.

It’s a pragmatic move. By relying on established giants like RWE and prioritising projects that are actually likely to get built, the UK hopes to leave the era of high-profile collapses in the past.

Large ship, even larger wind turbine
Installing a large floating wind turbine at a pilot project in France, 2023.
Obatala-photography / shutterstock

Floating wind risks sinking

But this safety-first approach has left the more innovative end of the sector out in the cold.

Floating turbines are the next big thing in the wind industry. They enable electricity generation further offshore, where winds are even stronger and more consistent.

However, their low level of funding was already a talking point in the industry, and in these new auctions the budget for floating wind projects remained stagnant. Only two floating offshore wind farms have been awarded contracts, each a modest 100 megawatts (these days, a single big fixed-bottom turbine can generate about 15 megawatts).

The UK government has doubled down on established technology, but has missed a crucial chance to drive the standardisation floating wind will need before it can be deployed on a much larger scale.

Behind the bottleneck

But the ultimate problem is time.

The government’s clean power 2030 action plan sets the ambitious target of taking fixed-bottom offshore wind capacity from around 16GW today to nearly 50GW by 2030. The new 8.4GW may sound like a huge step towards that total, but signed contracts aren’t the same as actual turbines.

In the short-term, there are still serious bottlenecks. There aren’t enough of the huge and specialised ships needed to transport and deploy offshore wind farms. Grid connections are backlogged, and essential port upgrades can take a decade to complete.

Despite the government prioritising the most mature projects, doubling the budget at the last minute just adds even more capacity lined up behind these backlogs. In fact, the UK already has a significant pipeline of 96.4GW of offshore wind in various stages of development.

The newly-awarded projects will almost certainly not be generating power by 2030. Even with more investment in ports and supply chains, the timing is simply too tight.

The new auction demonstrates the balancing act between the need to grow confidence among investors and progress towards renewable energy generation targets.

Tweaks made to the auction design should result in fewer incidents like Hornsea 4 and will help revive a struggling industry, but political uncertainty is growing. In the UK, Reform is leading the polls and has promised to roll back net zero initiatives while, in the US, Donald Trump’s vendetta against offshore wind has resulted in legal battles that have global ramifications for the industry.

The industry needed a win and it got one. The new auction should ultimately deliver more wind farms. However, it won’t accelerate the transition to net zero. If the goal really is clean power by 2030, the government will need to do much more.

The Conversation

Thomas York receives funding from the University of Leicester’s Future 50 Doctoral Training Pathway.

ref. The UK’s offshore wind auction broke records, but its clean power target remains unrealistic – https://theconversation.com/the-uks-offshore-wind-auction-broke-records-but-its-clean-power-target-remains-unrealistic-273493

Voici ce que les dernières recherches révèlent sur le traitement hormonal de la ménopause et la santé cognitive

Source: The Conversation – in French – By Zahinoor Ismail, Professor, Cumming School of Medicine, University of Calgary

Au début des années 2000, une importante étude sur la santé des femmes, la Women’s Health Initiative (WHI), a fait la une des journaux. Lancée dans les années 1990 et toujours en cours, elle vise à déterminer si le traitement hormonal de la ménopause (THM), utilisé pour soulager leurs symptômes, pouvait également protéger contre des problèmes de santé graves survenant à un âge avancé.

Une sous-étude, la WHI Memory Study (WHIMS), s’est concentrée sur la santé cognitive des femmes ne souffrant pas de démence au départ.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Ses résultats, diffusés en 2002, ont provoqué un choc. Les personnes sous THM présentaient un risque accru de développer des maladies cardiaques, des accidents vasculaires cérébraux, des cancers du sein et de la démence. Les médecins ont rapidement déconseillé le THM, les ordonnances ont chuté et ce traitement a pratiquement disparu du débat public.

Les conclusions diffusées à l’époque étaient incomplètes. Les résultats de l’étude n’étaient pas faux, ils révélaient des risques réels. Mais au cours des années qui ont suivi, les chercheurs ont réexaminé les données, non seulement celles concernant le cerveau, mais aussi celles relatives au cœur, aux accidents vasculaires cérébraux et au cancer, afin de mieux comprendre quand, pourquoi et comment on devrait avoir recours au THM.

Aujourd’hui, les experts s’accordent à dire que pour de nombreuses femmes qui commencent ce traitement autour de la ménopause et qui n’ont pas de contre-indication médicale, les avantages l’emportent sur les risques. Dans de tels cas, le THM peut être prescrit en toute sécurité pour traiter les symptômes de la ménopause.

Pourtant, plusieurs mythes persistent, notamment concernant le vieillissement cérébral.

Nous allons examiner ici les principaux mythes à ce sujet.

Mythe n° 1 : le THM augmente le risque de démence chez toutes les femmes

Selon l’étude WHIMS, les femmes ayant commencé un traitement hormonal à 65 ans ou plus présentaient un risque accru de développer une démence par rapport à celles qui n’en avaient pas pris. Cependant, la plupart des femmes entreprennent un THM beaucoup plus tôt, généralement dans la quarantaine ou la cinquantaine, à la périménopause.

Le moment où l’on débute le traitement est important.

Les chercheurs évoquent l’hypothèse d’une « fenêtre critique » : entreprendre un THM autour de la ménopause pourrait favoriser la santé cérébrale, tandis que le commencer plusieurs années plus tard pourrait augmenter le risque de déclin cognitif et de démence.

L’étude WHIMS n’a pas testé cette « fenêtre » : la plupart des participantes avaient dépassé depuis longtemps l’âge de la ménopause et ne présentaient plus de symptômes. Les résultats n’offrent donc pas de conclusion quant aux effets du traitement hormonal lorsqu’il est utilisé au bon moment et pour les bonnes raisons (présence de symptômes de la ménopause).

Des études récentes apportent un tableau nuancé : certaines femmes qui commencent un THM autour de la ménopause vont constater des bienfaits cérébraux plus tard dans leur vie, comme une meilleure mémoire et un risque de démence réduit. Pour d’autres, les résultats en termes de cognition et de risque de démence seront peu marqués, mais pas moins bons.

Cependant, entreprendre un THM plus tard, par exemple après 70 ans ou plus de cinq ans après la ménopause, peut être associé à une accumulation accrue de protéines Tau, marqueur de la maladie d’Alzheimer.

En résumé, le THM n’est pas nécessairement mauvais pour le cerveau, mais ses effets peuvent dépendre du moment où il est commencé et du type d’hormones utilisé.

Mythe n° 2 : tous les THM ont le même effet sur le cerveau

Lorsqu’on évoque le THM (anciennement connu sous le nom de traitement hormonal substitutif ou THS), on peut penser qu’il existe un traitement standard. Or, le THM se présente sous de nombreuses formes, et celles-ci changent la donne. Dans le cadre de l’étude WHIMS, les femmes recevaient des comprimés d’œstrogène équin, et de l’acétate de médroxyprogestérone si elles avaient un utérus. Cette combinaison était autrefois le traitement standard, mais elle est rarement utilisée de nos jours.

Aujourd’hui, on a plutôt recours au 17-bêta– œstradiol (un type d’œstrogène) qui est associé à des bienfaits pour le cerveau et à un risque moindre de déclin cognitif.

Les femmes avec un utérus prennent aussi un progestatif pour réduire le risque de cancer de l’utérus. Si les progestatifs peuvent favoriser la santé cérébrale, ils peuvent également atténuer les effets protecteurs des œstrogènes, notamment leur rôle dans la croissance, le maintien et le fonctionnement des cellules cérébrales qui soutiennent la mémoire et la pensée. Ainsi, le type et la combinaison des hormones ont leur importance.

Le mode d’administration du THM (comprimé, timbre, gel, crème, vaporisateur ou anneau vaginal) est important, car chacun est métabolisé différemment.

Les comprimés oraux passent par le foie et peuvent accroître le risque de formation de caillots sanguins et d’hypertension artérielle. Ces effets peuvent avoir des répercussions sur la santé du cerveau, en ralentissant le flux sanguin et en augmentant le risque d’AVC.

Les timbres et les gels, absorbés par la peau, présentent moins de risques, car ils contournent le foie.

En bref, tous les THM ne se valent pas. Mais si on a la forme et le moment appropriés, les THM peuvent-ils prévenir la démence ?

Mythe n° 3 : l’étude WHIMS a démontré que le THM pouvait prévenir la démence

Avec le temps, le THM est passé de traitement contre les symptômes de la ménopause à moyen de prévention de la démence. C’est l’étude WHIMS, qui visait à déterminer s’il pouvait réduire le risque de démence, qui a engendré cette vision.

Cependant, réduction des risques ne signifie pas prévention. L’étude WHIMS n’a pas évalué si le THM prévenait la démence. Comme elle portait sur des femmes longtemps après la ménopause, ses résultats ne permettent pas de savoir ce qui se produit lorsque le THM est administré pendant la transition ménopausique. Ses conclusions sont néanmoins utilisées pour étayer des affirmations plus générales sur le THM et la santé cérébrale, alors que ce traitement n’a jamais été conçu pour prévenir la démence ou servir de stratégie unique pour en réduire les risques.

Ce ne sont pas toutes les femmes qui ont besoin de suivre un THM, ou qui devraient le faire. Certaines traversent la ménopause sans difficulté, tandis que d’autres rencontrent davantage de problèmes. Le traitement hormonal n’est pas une solution universelle.

Mais pourquoi certaines femmes présentent-elles des symptômes et d’autres non ? De nouvelles recherches suggèrent que les symptômes de la ménopause pourraient fournir des indices sur la santé du cerveau, reflétant sa sensibilité à la baisse du taux d’œstrogènes. Comme les œstrogènes influencent la mémoire, la réflexion et l’humeur, un nombre plus important de symptômes pourrait indiquer une vulnérabilité accrue au vieillissement cérébral.

Il ne s’agit pas seulement des symptômes, mais aussi de leur impact sur la vie quotidienne. Lorsque les sueurs nocturnes perturbent le sommeil ou que les changements d’humeur mettent à rude épreuve les relations sociales, le stress et la fatigue peuvent être néfastes pour le cerveau.

En résumé, le THM n’est pas un remède miracle contre la démence. Toutefois, la prise en charge des symptômes de la ménopause peut contribuer au bien-être actuel et à la santé cérébrale future des femmes qui souffrent et peuvent avoir recours à ce traitement.

Et la suite ?

L’étude WHIMS a marqué une étape importante dans l’histoire du THM, mais la recherche continue d’évoluer.

Les scientifiques se posent les questions suivantes : quel est le meilleur moment pour entreprendre un THM ? Quelles sont les hormones les plus importantes ? Qui en bénéficie et pourquoi ?


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


La ménopause est différente pour chaque femme. Pour certaines, le traitement hormonal apporte un soulagement et améliore la qualité de vie. Il n’offre toutefois aucune garantie contre la démence. Mais pour les personnes qui en ont besoin, le THM commencé au bon moment peut favoriser un vieillissement cérébral sain, ce qui est encourageant pour la prochaine génération qui entre dans l’âge mûr avec plus de connaissances et de soutien que jamais.

Vous souhaitez participer à l’évolution de la science ? Vous pourriez vous joindre à des études canadiennes telles que CAN-PROTECT ou BAMBI, qui explorent comment le THM et les expériences de la ménopause influencent le vieillissement cérébral.

La Conversation Canada

Zahinoor Ismail reçoit un financement des Instituts de recherche en santé du Canada et de Gordie Howe CARES.

Jasper Crockford reçoit un financement des Instituts de recherche en santé du Canada, de l’unité de soutien SPOR de l’Alberta, de la Fédération canadienne des femmes diplômées des universités, de la plateforme de formation vasculaire et de Brain Health Care Canada.

Maryam Ghahremani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Voici ce que les dernières recherches révèlent sur le traitement hormonal de la ménopause et la santé cognitive – https://theconversation.com/voici-ce-que-les-dernieres-recherches-revelent-sur-le-traitement-hormonal-de-la-menopause-et-la-sante-cognitive-271913