Medir (y entender) la incertidumbre para tomar mejores decisiones

Source: The Conversation – (in Spanish) – By Anabel Forte Deltell, Doctora en Matemáticas y profesora en la Universidad de Valencia, Departamento de Estadística e Investigación Operativa, Universitat de València

Es irremediable, nos inquieta no saber. Es una sensación intrínseca al ser humano que suele poner el foco en el futuro –qué pasará mañana–. Pero la incertidumbre no vive solo en el calendario. También se instala en los porqués, en la comprensión de los procesos que desembocan en lo que sucede: ¿por qué mido 1,65 metros? ¿Qué nos lleva –o no– a desarrollar un cáncer? ¿Qué genes influyen en cierta enfermedad? No es solo preguntarse si, al lanzar una moneda, saldrá cara, sino qué mecanismos físicos y contextuales empujan ese resultado y en qué medida lo hacen.

No hay bola de cristal: la realidad es compleja, ruidosa y a veces caprichosa; y nuestro conocimiento resulta inevitablemente limitado. Lo que sí tenemos es un lenguaje para cuantificar esa falta de certeza y convertirla en algo con lo que podamos tomar decisiones: la probabilidad. Y contamos con una disciplina que ancla ese lenguaje a lo que observamos y medimos: la estadística.

La probabilidad de lo que nos preocupa

Quizás aterrizar la idea en un ejemplo nos ayude a entenderlo mejor. Pensemos en el cáncer de pulmón. La preocupación personal sobre la presencia de esta enfermedad se formula en términos binarios –“¿me tocará o no?”–, pero la respuesta a esta duda razonable la encontramos en la probabilidad. No es lo mismo que nos digan que la probabilidad de que desarrollemos esta dolencia es de un 3 %, de un 20 % o de un 80 %, ¿cierto? Ninguna cifra garantiza el desenlace final, pero cambiará las decisiones que tomemos respecto a la frecuencia con la que nos haremos revisiones, nuestros hábitos y nuestras prioridades.

La cuestión está entonces en cómo determinar esa probabilidad. Podemos centrarnos en la búsqueda de estimaciones construidas con datos de personas con condiciones parecidas de edad, exposición ambiental, hábitos, antecedentes, etc., sin perder de vista que se tratará de eso, de una estimación y, como tal, tendrá asociada, de nuevo, cierta incertidumbre. Así pues, un estudio serio no afirmará “su riesgo es de un 3 %” como si fuera una propiedad revelada, sino, “dadas sus características y los datos disponibles, el riesgo está muy probablemente entre un 1 % y un 5 %”. Además, ese “muy probablemente” también puede cuantificarse, tratando de poner rango y coherencia a lo que sabemos y a lo que no.

¿Y de qué depende la calidad de esa estimación? Pues básicamente de tres pilares. Primero, los datos: no se trata solo de cuántos, sino también de cuán bien representan a la población que nos importa. Segundo, el diseño: cómo se recogen esos datos, con qué controles, con qué cuidado para evitar sesgos. Tercero, el modelo: la simplificación matemática y las técnicas estadísticas que usamos para realizar la estimación y de cuya aplicabilidad dependerá obtener mejores o peores resultados con los mismos datos. Unos datos suficientes, obtenidos con un buen diseño y analizados con la técnica correcta nos llevarán siempre un paso más hacia el éxito.

A partir de aquí, asoma otra pregunta: qué variables están realmente implicadas en el riesgo. Volviendo al cáncer de pulmón, podemos valorar factores como tabaco, contaminación, ocupación, actividad física… Pero, ojo, porque ver que dos cosas se mueven juntas no basta para concluir que una causa la otra. Es posible que un gran estudio observacional encuentre que quienes hacen más deporte tienen menos cáncer de pulmón, pero quizá el vínculo real sea que quienes hacen más deporte no fuman.

Es lo que, en estadística, llamamos confusión. Para despejarla, necesitamos trabajar en ese segundo pilar del que hablábamos: diseños más específicos y exigentes nos permitirán elegir mejor qué variables incluir en el modelo o qué técnicas estadísticas serán más efectivas para dar una mejor respuesta con una mejor medida de la incertidumbre.

¿Cuánto me afecta?

Superada esa fase, la siguiente cuestión es la magnitud. No basta con saber si un factor influye, también necesitamos saber cuánto cambia el riesgo. Aquí conviene distinguir entre riesgo absoluto y relativo. Decir que “fumar duplica el riesgo” es hablar en términos relativos: si una persona no fumadora tiene 10 % de riesgo, duplicarlo lleva al 20 %. Suena igual de contundente cuando el riesgo pasa de 0,5 % a 1 %, pero el impacto práctico es distinto.

En este sentido, al hacer referencia al efecto de tal o cual hábito, puede que, en los medios de comunicación, hablen de riesgos relativos, de probabilidades o de ratio de probabilidades, pero lo verdaderamente importante es que esa jerga acabe convertida en números que quien lo lea pueda situar en su vida.

Y una última obviedad que nunca sobra: al ver escrito uno de estos valores, puede que se presente también un porcentaje. Es importante no confundirlo con una probabilidad y, en ese sentido, la probabilidad nunca supera el 100 %. Dar un valor es fácil. Interpretarlo y entender las reglas que lo rigen, ya no tanto.

Breve guía para entender la probabilidad

Volvamos al momento en que le informan de su probabilidad de sufrir cáncer de pulmón. Lo habitual es verla expresada en porcentajes (entre 0 % y 100 %). También puede expresarse en tanto por uno —3 % es 0,03; 20 % es 0,2— o como “x de cada N” donde, por ejemplo, uno de cada 1 000 equivaldría a 0,1 % (0,001) o tres de cada diez, a un 30 %.

El problema surge cuando, en un mismo texto, se mezclan formatos, ya que tendemos a fijarnos más en el total (N) que en la parte (x) y podemos creer que “uno de cada 1 000” supone un riesgo mayor que “uno de cada 100”, cuando en realidad estamos hablando de un 0,1 % frente a un 1 %.

Entendido el número, toca interpretarlo y, para ello, contamos con dos miradas diferentes. La mirada frecuentista entiende la probabilidad como la frecuencia con que veríamos un evento al repetir el proceso muchas veces. Funciona muy bien en contextos controlables y repetibles. Pero al hablar de la probabilidad de lluvia o de que una persona enferme –donde no podemos “repetir” el mismo día o la misma vida–, resulta más natural la mirada bayesiana, que trata la probabilidad como un grado de credibilidad coherente y actualizable con nueva evidencia mediante el teorema de Bayes.

Estas dos perspectivas también ayudan a entender la incertidumbre de las estimaciones. Los rangos de valores plausibles de los que hablábamos antes reciben el nombre de intervalos de confianza bajo el paradigma frecuentista o de intervalos de credibilidad bajo el bayesiano. En ambos casos, nos ayudan a medir la fiabilidad de la estimación. No es lo mismo un riesgo estimado entre 1 % y 5 % que entre 1 % y 10 %. Quizá ambas cifras nos dejen igual de tranquilos ante la enfermedad, pero el primer intervalo es más preciso y, por tanto, más informativo sobre lo que sabemos e indica, posiblemente, mejores datos o un mejor uso de estos.

En definitiva, la incertidumbre está presente en cualquier proceso cotidiano y no es posible eliminarla, pero sí medirla. Al hacerlo la volvemos visible y honesta. Probabilidad y estadística no prometen certezas, pero sí mejores preguntas y decisiones más conscientes. No se trata de controlar un bosque lleno de rincones oscuros sino de caminar por él con mejor criterio.


La versión original de este artículo ha sido publicada en la revista Telos, de Fundación Telefónica.


The Conversation

Anabel Forte Deltell colabora con Telos, la revista que edita Fundación Telefónica.

ref. Medir (y entender) la incertidumbre para tomar mejores decisiones – https://theconversation.com/medir-y-entender-la-incertidumbre-para-tomar-mejores-decisiones-264928

Ventajas de la realidad virtual para la clase de Educación Física

Source: The Conversation – (in Spanish) – By Salvador Pérez Muñoz, Profesor en el área de Educacion Física y Ciencias del Deporte, Universidad Pontificia de Salamanca

Práctica de voleibol con gafas de realidad virtual. sportoakimirka/Shutterstock

Actualmente, la tecnología ha cambiado muchos aspectos en nuestra vida, desde lo que hacemos cada día hasta cómo aprendemos en el colegio. Incluso la Educación Física está cambiando gracias a nuevas herramientas mezclan lo físico con lo digital.

Según nuestra reciente investigación, la realidad virtual, la realidad aumentada y la realidad mixta pueden ayudar a que los estudiantes se sientan más motivados. También pueden mejorar su forma de moverse y aprender. Además, pueden hacer que todos los alumnos participen, sin importar sus necesidades. Así, la clase se vuelve más inclusiva.

Realidad virtual, aumentada y mixta en educación física

Antes de explicar cómo aplicar estas tecnologías, definamos a qué nos referimos con cada una de ellas:

  • La realidad virtual crea un mundo totalmente digital e inmersivo donde la persona puede moverse e interactuar con lo que ve.

  • La realidad aumentada añade imágenes o sonidos digitales al mundo real. No cambia lo que hay alrededor, solo lo mejora. Así, las personas ven más detalles y sienten más interés.

  • La realidad mixta une lo mejor de las dos anteriores: mezcla objetos digitales con el entorno real. Todo ocurre al mismo tiempo y de forma interactiva.




Leer más:
Seis usos de la realidad aumentada en clase con potencial para transformar la enseñanza


Su uso en Educación Física no supone reemplazar el ejercicio con tecnologías, sino justo lo contrario. Dichas tecnologías sirven para hacer la actividad física más divertida y variada, ayudándonos a movernos más.

¿Cómo usarlas?

Existen programas que permiten correr, hacer yoga o corregir posturas. También ayudan a medir cómo lo estamos haciendo. Incluso es posible convertir el ejercicio en un juego.

Todo esto se hace mientras nos movemos, con la ayuda y la guía de un asistente virtual. La experiencia es activa, realista y muy atractiva.




Leer más:
Cómo dar más autonomía a los alumnos en clase de Educación Física


Por ejemplo, FitXR ofrece la posibilidad de entrenar sin salir de casa utilizando gafas de realidad virtual. Esta aplicación es una opción ideal para quienes no tienen tiempo de ir al gimnasio o no se sienten cómodos en ese entorno. Por su parte, Jumpr, FunFit y Starri utilizan la realidad aumentada para realizar ejercicio físico usando el móvil. Otra aplicación que utiliza la realidad mixta es Holofit, con la que ses realizan carreras o ejercicios en entornos virtuales superpuestos al espacio real.

Los beneficios para la Educación Física

  1. Mejora de habilidades para moverse. varios estudios muestran que usar estas herramientas ayuda a mejorar el movimiento. Por ejemplo, con la realidad aumentada, los estudiantes pueden ver en tiempo real si están colocando correctamente sus cuerpos y pueden corregir errores.

  2. Creación de lugares seguros para practicar deportes difíciles o peligrosos, como esquiar o escalar, gracias a la realidad virtual.

  3. Más motivación y ganas de participar. El elemento tecnológico puede hacer que el ejercicio sea más divertido, ya que introducen elementos lúdicos e interactivos. En este sentido, también se ha descubierto que algunos videojuegos que obligan a moverse aumentan el interés y el compromiso por practicar deportes.

  4. Ayuda para estudiantes con necesidades especiales. Estas tecnologías permiten que todos los alumnos puedan participar, incluso quienes tienen dificultades. Se pueden adaptar las actividades para que sean seguras y efectivas para cada persona. Varios trabajos] [muestran] que usar realidad virtual y aumentada mejora la motivación, la memoria y el control del cuerpo en estudiantes con diversidad funcional.

  5. Diseño de clases de manera más personalizada, adaptando la actividad para cada alumno, según su ritmo y nivel.

  6. Beneficios cognitivos. Este tipo de actividades mejora la atención y la memoria, favorece la interacción y estimula la creatividad. Además, crea un buen contexto para usar metodologías activas en las clases de Educación Física.




Leer más:
¿Qué aporta la realidad virtual a los alumnos con dislexia?


Desafíos y cuestiones a tener en cuenta

El uso de esta tecnología en la clase de Educación Física, o para hacer ejercicio en casa, no debe consistir solamente en ponerse unas gafas de realidad virtual y empezar a hacer ejercicio o dárselas a los estudiantes. Es imprescindible disponer de tecnologías específicas, algo que no está al alcance de todo el mundo, y entender lo suficiente para manejar el software. También se necesita un lugar amplio para usarlas bien y muchas de ellas cuentan con opciones de pago que limitan su potencial en la enseñanza de la Educación Física.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Ventajas de la realidad virtual para la clase de Educación Física – https://theconversation.com/ventajas-de-la-realidad-virtual-para-la-clase-de-educacion-fisica-257664

Más allá del glifosato: radiografía de los pesticidas presentes en los cultivos europeos

Source: The Conversation – (in Spanish) – By Manuel Conde Cid, Investigador postdoctoral en el área de Edafología y Química Agrícola, Universidade de Vigo, Universidade de Vigo

BG Media/Shutterstock

El incremento en la demanda de alimentos debido al crecimiento poblacional, junto con la reducción de tierras cultivables, ha hecho que el uso de pesticidas en agricultura sea esencial para garantizar la seguridad alimentaria. Estos productos desempeñan un papel clave tanto en el aumento del rendimiento agrícola como en la mejora de la calidad de los alimentos. Se estima que reducen en torno a un 30 % las pérdidas de cultivos provocadas por plagas y enfermedades.

Como consecuencia, su uso ha crecido de manera notable en las últimas décadas. A nivel global, el consumo agrícola de pesticidas pasó de 2,8 millones de toneladas en 2010 a 3,5 millones en 2022, lo que supone un incremento del 25 % en apenas 12 años.

El uso de pesticidas en Europa

Según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), los pesticidas se definen como cualquier sustancia o mezcla de sustancias destinada a prevenir, destruir o controlar plagas. Generalmente, se clasifican según el tipo de organismo que controlan. Los principales grupos son: insecticidas, fungicidas, herbicidas, nematicidas, acaricidas, rodenticidas y bactericidas.

El consumo agrícola de pesticidas en la Unión Europea (UE) supone aproximadamente un 13 % del total mundial. Aunque de manera más moderada que lo observado a nivel global, el uso de estos compuestos en Europa también presenta una tendencia creciente, pasando de 402 229 toneladas en 2010 a 449 038 en 2022, lo que supone un incremento del 12 %.

Este aumento más moderado se debe principalmente a las regulaciones más estrictas en Europa. En este sentido, en 2023 la UE disponía de 444 pesticidas autorizados para el control de plagas, mientras que 954 estaban prohibidos o no aprobados y 43 se encontraban en proceso de evaluación.

Impacto en el medio ambiente y la salud

Aunque los pesticidas han contribuido significativamente a aumentar la producción agrícola, su mala utilización y abuso ha generado importantes preocupaciones ambientales y de salud pública.

Se estima que menos del 15 % de los pesticidas aplicados alcanzan la plaga objetivo, mientras que el resto se dispersa en el medio ambiente, contaminando suelos, aguas y aire. Generan así importantes riesgos para la salud ambiental, tales como toxicidad hacia organismos no objetivo, pérdida de biodiversidad y desarrollo de resistencias en plagas, entre otros.

Además, los residuos de pesticidas pueden incorporarse a la cadena alimentaria a través de la ingesta de cultivos y agua, aumentando el riesgo de enfermedades humanas, como trastornos neurodegenerativos, cardiovasculares, endocrinos, respiratorios, renales, reproductivos e incluso cáncer.




Leer más:
Pesticidas y párkinson: una conexión fuera de toda duda


Pesticidas en campos de trigo europeos

El trigo es uno de los cereales más importantes del mundo y constituye la principal fuente de alimento para casi la mitad de la población mundial. Por eso, en el marco del proyecto SoildiverAgro (liderado por David Fernández Calviño, de la Universidad de Vigo), investigadores de distintos países europeos hemos analizado la presencia de 614 pesticidas en 188 campos de trigo (93 convencionales y 95 ecológicos) distribuidos en ocho países con diferentes climas y tipos de suelos.

Nuestros resultados se han publicado recientemente bajo el régimen de libre acceso en la revista Journal of Hazardous Materials.

Mapa de Europa con puntos de colores que indican la situación de los campos de trigo estudiados
Ubicación de los campos de trigo estudiados y zonas pedoclimáticas (definidas según el clima y el suelo) en las que se encuentran.
Fernández Calviño et al., 2025, CC BY-SA

El 99 % de los campos de trigo bajo agricultura convencional presentó al menos un pesticida. En total, se detectaron 73 compuestos diferentes. Los más frecuentes fueron el óxido de fenbutatín (insecticida) y el AMPA (metabolito del glifosato), ambos presentes en el 44 % de las muestras, seguidos por el herbicida glifosato y el fungicida epoxiconazol, presentes en el 39 % de las muestras.

Otros residuos de pesticidas frecuentemente detectados fueron boscalid, tebuconazol, bixafeno, diflufenican y metabolitos del DDT, siendo detectados en más de un 20 % de las muestras.




Leer más:
Por qué no dejamos de usar el glifosato como herbicida pese a ser probablemente cancerígeno


Los resultados mostraron diferencias notables según la región de Europa. La zona continental (Alemania) registró la mayor presencia de residuos de pesticidas, tanto en cantidad (concentración promedio de 0,46 mg/kg), como en diversidad (promedio de 13,5 pesticidas diferentes por parcela). Le siguieron las zonas atlánticas de Dinamarca y Bélgica.

En el extremo opuesto, la región panónica (Hungría y Serbia) mostró los niveles más bajos (promedio de 0,02 mg/kg por parcela).

Químicos que persisten años después de su prohibición

Un hallazgo preocupante fue que en los campos ecológicos también se detectaron residuos de pesticidas. Concretamente 35 pesticidas diferentes, de los cuales solo uno (Spinosad) está autorizado en agricultura orgánica. Esto indica la persistencia durante años de dichos pesticidas una vez cambiado el sistema agrícola de convencional a orgánico, así como la transferencia de residuos de pesticidas entre diferentes campos agrícolas.

Además, 31 de los compuestos detectados estaban prohibidos en el momento de la realización del estudio. Esto confirma la alta persistencia de ciertos pesticidas, detectables incluso más de 40 años después de su prohibición.

También evaluamos el riesgo ecológico de los diferentes pesticidas detectados. Los pesticidas más preocupantes fueron los fungicidas epoxiconazol, boscalid y difenoconazol, y los insecticidas imidacloprid y clothianidin. Por el contrario, herbicidas como el glifosato y su metabolito AMPA, aunque omnipresentes, mostraron un riesgo ecológico relativamente bajo.

Un riesgo para los ecosistemas y las personas

Los resultados de nuestro trabajo demuestran que los residuos de pesticidas están presentes de forma generalizada en los campos agrícolas de Europa y del mundo. Para mejorar esta situación, es fundamental avanzar hacia un uso más sostenible de estos químicos.

En este sentido, la sustitución de compuestos altamente persistentes y tóxicos por alternativas menos dañinas, como bioinsecticidas, productos derivados de plantas y microorganismos benéficos, puede disminuir considerablemente la contaminación del suelo y del agua, así como el impacto sobre la biodiversidad.




Leer más:
Microorganismos “amigos” como alternativa a los pesticidas químicos


Otra vía complementaria es la promoción de prácticas agrícolas que mejoren la salud del suelo y la resistencia natural de los cultivos, como la rotación de cultivos, la labranza reducida, el uso de coberturas vegetales y la agricultura orgánica certificada. Estas medidas no solo ayudan a reducir la necesidad de pesticidas, sino que también facilitan la degradación y eliminación de los residuos existentes en el suelo, limitando su transferencia a otros ecosistemas y a la cadena alimentaria.

La combinación de regulación estricta y adopción de buenas prácticas agrícolas constituye, por tanto, un camino prometedor para minimizar los riesgos de los pesticidas mientras se mantiene la productividad agrícola.

The Conversation

Manuel Conde Cid recibe fondos de Xunta de Galicia (Axudas de apoio á etapa de formación posdoutoral).

ref. Más allá del glifosato: radiografía de los pesticidas presentes en los cultivos europeos – https://theconversation.com/mas-alla-del-glifosato-radiografia-de-los-pesticidas-presentes-en-los-cultivos-europeos-264288

¿Por qué la ciencia y el arte se necesitan?

Source: The Conversation – (in Spanish) – By Elisa Garrido Moreno, Profesora del Departamento de Historia del Arte (UAM), Universidad Autónoma de Madrid

Versión coloreada de la lámina _Universum_, de Camille Flammarion (1842-1925), en _L’atmosphère : météorologie populaire_, Hachette, Paris, 1888. Camille Flammarion.

¿Realmente existe una mirada científica opuesta a una visión artística del mundo? Si repasamos la historia del arte y de la ciencia, encontraremos una respuesta rotunda.

Así, hace décadas que el historiador británico Martin Kemp ha analizado esta cuestión a través de sus estudios sobre la figura de Leonardo da Vinci, que encarna la fusión originaria de ciencia, naturaleza y arte. Sus estudios científicos no solo documentaron el cuerpo humano y la naturaleza con precisión, sino que generaron nuevas perspectivas estéticas en la pintura y la escultura.

Un vínculo muy estrecho

Más tarde, en el Barroco, el entendimiento de la perspectiva y el desarrollo de la óptica matemática permitió a artistas como Caravaggio (1571-1610) o Diego Velázquez (1599-1660) crear efectos dramáticos de luz y espacio.

Ascidiacea o ascidias, recogidas en el libro Kunstformen der Natur (1904).
Ernst Haeckel

Los avances científicos del siglo XIX marcaron profundamente obras como Frankenstein (1816) de Mary Shelley, donde la idea de dar vida a un ser humano a través de la electricidad se basaba en los experimentos de Luigi Galvani (1737-1798).

La observación de formas orgánicas a través del microscopio abrió a algunos artistas, como Joan Miró (1893-1983) o Vasili Kandinsky (1866-1944), una increíble ventana a un universo de formas. Como muestra el documental Proteus, científicos como Ernst Haeckel (1834-1919) popularizarían litografías detalladas de organismos que influirían en el Art Nouveau, el surrealismo y otros movimientos.

Bocetos de las fases lunares.
Galileo Galilei.

Astrónomos que bebieron del arte

Grandes artistas se inspiraron en el conocimiento científico, pero las ramas de la ciencia que tienen mucho que agradecer a las artes no se quedan atrás. Galileo Galilei (1564-1642) no solo observaba los cielos con su telescopio: fue capaz de mostrar con detalle todas las fases de la luna en unas excepcionales acuarelas. Sin ellas, hubiera sido imposible transmitir su conocimiento. De la misma manera, Maria Clara Eimmart (1676-1707), dibujante y astrónoma, nos dejó una importante colección de láminas que nos maravillan por su intersección entre arte y astronomía.

Viaje al interior del cuerpo

A través del lenguaje artístico, también Andrea Vesalio (1514-1564) abrió nuestra visión hacia el interior de esta máquina que es nuestro cuerpo. Su obra De humani corporis fabrica (1543) nos permitió descubrir la anatomía con todo detalle gracias a sus elaborados dibujos.

De humani corporis fabrica (1543) contiene muchos dibujos extremadamente detallados de disecciones humanas, algunos de ellos en posturas alegóricas.
Vesalio.

Siglos después, Santiago Ramón y Cajal (1852-1934) nos mostró por primera vez las neuronas, hasta entonces invisibles para el ojo humano. Con sus dotes para la ciencia y el dibujo, nos enseñó la belleza de las conexiones neuronales.

Mundos lejanos sobre el papel

Además, la exploración de otros mundos y la ciencia de la navegación no hubieran sido posibles sin otra de las grandes artes visuales: la cartografía, que ha dado lugar a lo largo de los siglos a bellas ilustraciones de la Tierra.

Del esplendor de las profundidades del océano se ocupó Marie Tharp (1920-2006), quien creó el primer mapa científico en relieve del fondo del océano Atlántico. Producciones como estas nos demostraron que la naturaleza, además de formar un espacio vital para el desarrollo del conocimiento científico, es una fuente infinita de belleza.

Mapa panorámico de los fondos oceánicos del mundo basado en los apuntes científicos de Marie Tharp and Bruce Heezen, dibujado por Heinrich C. Berann (1977).

Con el desarrollo de las ciencias naturales, también las plantas, flores y animales de las regiones más lejanas llegarán a los gabinetes para poder ser estudiadas en forma de dibujos. Es imposible no maravillarse con las láminas de naturalistas como la científica y exploradora Maria Sibylla Merian (1647-1717), que ilustró, por primera vez, la metamorfosis de los insectos de la forma más bella y detallada.

Metamorphosis insectorum Surinamensium, lámina de Maria Sibylla Merian (1647–1717).
Wikimedia Commons.

La tecnocracia o estancar el saber

A pesar de las evidencias, el imparable camino hacia la hiperespecialización académica, cada vez más arraigada, hace resurgir el debate sobre artes o ciencias una y otra vez. Recientemente, el artículo “Art and Science. A Relationship that Permeates the Construction of Human Knowledge About the World” (Arte y ciencia. Una relación que permea la construcción del conocimiento humano en el mundo, 2024) defendía que la educación artística no solo beneficia al conocimiento de la ciencia en sus aspectos técnicos, sino que también es un factor necesario para comprender su dimensión filosófica y conceptual. La cuestión no es nueva.




Leer más:
Cómo la bomba atómica condicionó nuestra comprensión de la ciencia


En una famosa conferencia, luego publicada con el título The Two Cultures and the Scientific Revolution (Las dos culturas y la revolución científica, 1959), el físico y novelista inglés Charles Percy Snow definió la separación entre artes y ciencias como “las dos culturas”, argumentando que esta ruptura de comunicación entre ciencias y humanidades es una de las principales razones que explican la incapacidad que muestran las naciones para resolver los grandes problemas mundiales.

Poco después, Snow publicó una secuela titulada The Two Cultures: A Second Look (Las dos culturas: una segunda mirada, 1963), donde afirmaba que la falsa creencia de la separación entre ciencias y humanidades se debía a un declive de la educación y el poco interés que había entre investigadores por colaborar entre disciplinas. Y, lo más importante: denunciaba que esta distancia es empobrecedora y limitante.

Progreso en busca de sentido

En el brillante ensayo La utilidad de lo inútil (2013), Nuccio Ordine amplió la cuestión y criticó la errónea consideración de las humanidades como algo prescindible, defendiendo el valor del arte, la literatura y el pensamiento libre frente a una sociedad obsesionada con la tecnocracia, la utilidad inmediata y el beneficio económico.

En palabras de Ordine, “si escuchamos únicamente el mortífero canto de sirenas que nos impele a perseguir el beneficio, sólo seremos capaces de producir una colectividad enferma y sin memoria que, extraviada, acabará por perder el sentido de sí misma y de la vida”.

Como conclusión, más allá de la evidente relación entre ellas, surge una cuestión más relevante: ¿por qué artes y ciencias se necesitan? Todas las investigaciones concluyen en un punto común: cuando personas de distintas disciplinas colaboran, producen interpretaciones más profundas, diversas y sensibles de la realidad. Algo muy necesario en un momento en el que urge que la ciencia y la tecnología asimilen sus sesgos y apelen a su dimensión más ética y humana.

The Conversation

Elisa Garrido Moreno no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Por qué la ciencia y el arte se necesitan? – https://theconversation.com/por-que-la-ciencia-y-el-arte-se-necesitan-264303

¿Cómo llevar a los adultos a ver una película infantil? Poniéndoles su banda sonora

Source: The Conversation – (in Spanish) – By Juan Carlos Montoya Rubio, Especialista en didáctica de la música para el audiovisual. Profesor en la Facultad de Educación, Universidad de Murcia

Imagen de ‘Lilo & Stitch’, la versión animada de 2002, en la que el extraterrestre recibe clases de quién era Elvis. FilmAffinity

Una película de Minecraft, estrenada en abril de 2025, recaudó casi mil millones de dólares en la taquilla, probando su éxito entre el público familiar. Los adultos que hayan ido a verla habrán podido distinguir en su banda sonora una versión instrumental de “Just Can’t Get Enough”, de Depeche Mode.

La elección de esa canción no es casualidad. Desde hace tiempo el cine infantil no puede considerarse únicamente para niños. Es evidente que los argumentos de las películas han evolucionado, dejando de lado miradas ingenuas o inconvenientes con el momento actual.

No se trata solo de un cambio debido a la coyuntura social, sino que la propia manufactura de los filmes para el público infantil es cercana a la de producciones cinematográficas pensadas para otros sectores poblacionales. Esto hace, en ocasiones, que no sea sencillo definir franjas de edades para las películas. Y la música contribuye todavía más a difuminar las barreras entre generaciones.

Las motivaciones de una industria global

Preguntarse por qué interesa ampliar la audiencia de un producto cualquiera es hablar de la necesidad de buscar el éxito comercial, en este caso ligado al cine. Las películas infantiles actuales se consumen, en un porcentaje nada despreciable, en familia, y eso lleva mucha más gente a las salas que si su público objetivo fuese a ver una película solo o en pareja. De este modo, favorecer que el largometraje posea códigos que despierten el interés de los espectadores adultos es una estrategia sumamente acertada.

No cabe duda de que este público conecta de algún modo con los formatos y tramas de muchos contenidos audiovisuales dirigidos al mundo infantil. No obstante, se puede decir que, tras el modelo original de Disney, se produjo una evolución. En este sentido, compañías como DreamWorks remozaron argumentos y modelos de animación en aras de la generalización de las audiencias.

De igual modo, la propia adquisición de Pixar por parte de Disney responde, entre otros factores, a esta necesidad de revitalizar el cine infantil a través de un modelo de éxito probado entre crítica y público como son las producciones del estudio de animación digital.

La música en el cine: una herramienta poderosa

Una de las formas más potentes para cautivar al público adulto es el uso de la música. El cine es un compendio de lenguajes en donde el elemento sonoro penetra inconscientemente en el espectador.

En el plano al que nos estamos refiriendo, una de las formas más habituales y eficaces de atraer a ese público es la utilización de ciertos códigos culturales. Son elementos conocidos por los espectadores adultos que les sirven para generar una comprensión especial de la película.

Algunos de esos códigos se han ido perfilando a lo largo del tiempo y son usados a discreción y sin ningún pudor. Sirvan como ejemplo el uso de la wagneriana “Cabalgata de las Valquirias” ante la aparición de helicópteros en Apocalypse Now; la utilización de la “Tocata y Fuga en Re m.” de Bach para llevarnos a ambientes vinculados a vampiros; o la inclusión de “Pompa y circunstancia” de Elgar en todo tipo de actos académicos…

La ‘Cabalgata de las Valquirias’ de Wagner en Apocalypse Now.

Sin embargo, los que más nos interesan ahora se utilizan de manera puntual para asegurar que los espectadores adultos sigan enganchados a la película. Se trata de hacerles cómplices de su discurso para que lo asimilen mejor.

De Flashdance a Elton John

Son innumerables, y crecientes, los casos en los que los clichés musicales aparecen como elemento clave en las producciones cinematográficas actuales. En gran medida, el éxito a la hora de generar productos intergeneracionales se basa en el uso de estas referencias. No hay más que pensar en el modo en que la serie Los Simpson ha hecho de la alusión un elemento consustancial a su formato.

En las películas dirigidas al público infantil hay apariciones musicales que son clásicas por su nitidez. Por ejemplo, en Shrek 2 (2004), se apunta al mito cinematográfico de los ochenta Flashdance. Y en Gnomeo y Julieta (2011), la música de Elton John –y su propia estética– son un estímulo obvio para la comprensión adulta del largometraje.

‘Don’t Go Breaking My Heart’ de Elton John en Gnomeo y Julieta.

Por su parte, la española El lince perdido (2008) contiene una brillante referencia directa a la música de Antón García Abril (del programa televisivo El hombre y la tierra, de Félix Rodríguez de la Fuente). Este no es sino un guiño a un público que fue niño en la década de los setenta y los ochenta.

Seguimos en la actualidad

En las producciones recientes este proceder es una constante.

Así, por ejemplo, Kung Fu Panda 4 (2024) muestra adaptaciones de la ochentera “Crazy Train” de Ozzy Osbourne, y en Sonic 3 (2024), las niñerías de adultos se ilustran con el tema de los Beach Boys “Wouldn’t It Be Nice”.

No son las únicas. El éxito de Disney de este año Lilo y Stitch recurre, como ya hiciera la versión animada de 2002, a la música de Elvis Presley con una doble finalidad. Por un lado, busca evocar el ambiente hawaiano igual que el sonido de la steel guitar precede a las escenas de Bob Esponja. Por otro, intenta establecer un vínculo entre esa música y las circunstancias que llevan a identificar a Elvis con el archipiélago hawaiano, fundamentalmente el resorte de su éxito con el concierto Aloha from Hawaii.

Clip de una escena (en inglés) de Lilo & Stitch en la que el extraterrestre sirve como aguja y altavoz del tocadiscos para reproducir a Elvis.

En Gru 4, mi villano favorito (2024), los minions hacen referencia a Van Halen igual que en 2015 lo habían hecho con los Beatles. En aquella ocasión, los protagonistas salían por un alcantarillado de Abbey Road mientras los músicos cruzaban el paso peatonal al ritmo de “Love me do”.

Y, en un guiño de música a música, en la última versión de Cómo entrenar a tu dragón se genera una característica sonoridad al estilo del compositor John Williams, creador de las melodías de Star Wars, Indiana Jones o Parque jurásico, entre otras muchas.

Como vemos, la lista de ejemplos multirreferenciales no tendría fin. En esencia, son sonidos que nos abren a un cine para todos los públicos.

The Conversation

Juan Carlos Montoya Rubio recibe fondos del Ministerio de Educación y Formación Profesional a través de la Convocatoria de «Proyectos de Generación de Conocimiento» y a actuaciones para la formación de personal investigador predoctoral asociadas a dichos proyectos, en el marco del Plan Estatal de Investigación Científica, Técnica y de Innovación 2021-2023, como miembro del proyecto “Movimiento y música en el 1er ciclo de Ed. Infantil: diagnóstico y evaluación de la implementación de un programa de prácticas motrices musicalizadas con enfoque de género”

Alba María López Melgarejo y Norberto López Núñez no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. ¿Cómo llevar a los adultos a ver una película infantil? Poniéndoles su banda sonora – https://theconversation.com/como-llevar-a-los-adultos-a-ver-una-pelicula-infantil-poniendoles-su-banda-sonora-264161

New report ranks Philadelphia and Allentown among toughest cities in America for people with asthma

Source: The Conversation – USA (3) – By Ana Santos Rutschman, Professor of Law, Villanova University

The top 5 ‘asthma capitals’ in the U.S. are Detroit, Rochester, Allentown, Philadelphia and Cleveland, according to the Asthma and Allergy Foundation of America’s 2025 report. Terry Vine/DigitalVision Collection via Getty Images

Philadelphia has once again been named one of the “asthma capitals” of the U.S. – ranking No. 4 in a report released on Sept. 9, 2025, by the Asthma and Allergy Foundation of America. Allentown was ranked No. 3, Harrisburg No. 15 and Pittsburgh No. 44.

The AAFA, which is the largest patient group in the country for people with asthma and allergies, ranks cities based on “how challenging they are to live in” for people with asthma. The ranking combines data on asthma prevalence rates, visits to the ER and deaths related to asthma.

Compared with 2024 data, Allentown’s ranking has improved: It went from No. 1, a position now occupied by Detroit, to No. 3. Philadelphia is doing worse, one place higher than in 2024.

I am a health law professor and the director of the Health Innovation Lab at Villanova University, where I have researched ways to make asthma medication more affordable for patients.

Here are some steps that individuals, schools and state leaders in Pennsylvania can take to reduce asthma triggers and the cost of asthma medications in their families and communities.

The September asthma peak in Pennsylvania

The ranking was published at an especially challenging time of the year for many asthma patients.

September is known as the “asthma peak month.” The third week of September typically registers the highest number of asthma attacks, as well as asthma-related hospital and ER visits, nationwide.

Asthma triggers include fall pollen and mold levels, which start increasing in the late summer and stay high through early fall.

Also contributing to the September asthma peak is poor indoor air quality, especially in older or poorly maintained school buildings where children are exposed to concentrated amounts of allergens and irritants.

A report released in August 2025 found that Pennsylvania schools face a variety of asthma triggers, such as exposure to radon, mold and lead paint. Yet, less than 4% of schools in Pennsylvania have an indoor air quality plan. The problem is especially acute in cities like Philadelphia, where many school buildings are over 70 years old and in disrepair.

Solving a problem as complex and widespread as asthma may require taking creative steps. These include initiatives led by schools and students. For example, students in Australia led a successful initiative to improve air quality around their schools by having parents cut down on engine idling time.

Former president Joe Biden speaks at podium alongside digital screen that says 'Lowering the cost of inhalers'
Speaking at the White House in 2024, former President Joe Biden credits Vermont senator Bernie Sanders with helping lower the cost of asthma inhalers from three of the four top companies to just $35 per month.
Chip Somodevilla via Getty Images

Affordable asthma medications

Asthma patients often need medication to manage their symptoms. Yet, over the past 15 years that medication has become increasingly unaffordable.

Last year, some pharmaceutical companies capped the price of their asthma inhalers at US$35 each.

But not all types of inhalers are covered. And other asthma medications, such as some drugs taken orally, remain unaffordable for many patients. Asthma drugs that are not subject to a price cap or other type of price control may cost patients thousands of dollars a year.

There are resources for asthma patients and parents of children with asthma that may help them save some money when filling their prescriptions. A good starting point is GoodRx, a free online platform that allows users to search and compare medication prices across pharmacies. The website currently lists 65 different types of asthma medication and their varying prices.

What Pennsylvania lawmakers can do

Since price caps don’t apply to all types of inhalers and asthma medication, states can pass legislation that imposes such caps, instead of relying solely on industry compliance. Before there was a federal Medicare price cap on insulin, several states took this route and implemented state caps.

Some states have now begun passing similar legislation for certain types of asthma medication. Minnesota, for instance, beginning Jan. 1, 2025, capped inhalers at $25, lower than the industry cap. Pennsylvania could follow suit and even consider asthma medication besides inhalers.

Pennsylvania can also address other facets of the asthma crisis. For instance, the state could offer funding or other incentives for schools to upgrade their ventilation systems or otherwise address poor indoor air quality.

Read more of our stories about Philadelphia.

The Conversation

Ana Santos Rutschman does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. New report ranks Philadelphia and Allentown among toughest cities in America for people with asthma – https://theconversation.com/new-report-ranks-philadelphia-and-allentown-among-toughest-cities-in-america-for-people-with-asthma-264084

Why France’s government collapsed (again), and what Macron might do next

Source: The Conversation – France – By Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne

French Prime Minister François Bayrou on Monday failed to win a confidence vote in parliament (194 votes in favour, 364 against) and has submitted his resignation to President Emmanuel Macron, who will have to appoint a new head of government or dissolve the National Assembly. How may the result of the vote be interpreted? What are the possible scenarios for a way out of the crisis? An interview with political scientist Frédéric Sawicki.


The Conversation: François Bayrou has resigned. What is your assessment of his actions and methods leading up to the vote?

Frédéric Sawicki: How can we understand such a fiasco? How can we understand this political suicide, which is a vote of confidence chosen by the prime minister when he does not have a majority?

By refusing to engage in negotiations since his nomination that could have led to some kind of governing agreement, particularly with the Socialist Party, Bayrou has deprived himself of any chance of political survival. This is a paradox for this Christian democrat who, throughout his political career, has constantly called for the right-left divide to be overcome. Remember that, to this end, in 2002 he refused to join the UMP, then France’s largest centre-right party (which was later rebranded Les Républicains or LR), and called for a vote for Socialist and former president François Hollande in 2012 and a search for compromise.

His leadership as prime minister has also been marked by a series of failures and blunders that have only served to widen the gap with the left, starting with the disastrous handling of the revelations concerning Bétharram, an episode during which Bayrou struggled to clarify his role but, above all, showed little compassion for the victims, appearing to be a man from another era. (Editor’s note: a French parliamentary inquiry found that students at Notre-Dame de Bétharram school had been victims of “physical and sexual violence”, including during a period when Bayrou, some of whose children had attended the school, served as French education minister in the 1990s.) Previously, in January, there was a total omission of climate and environmental issues in his general policy statement, followed by the use of the expression submersion migratoire “migrant flooding”, two strong signals sent to the right and the far right. If these political forces could applaud the adoption of the Duplomb law in unison with the National Federation of Farmers’ Unions (FNSEA), the Socialist Party and the large French trade union CFDT could only note that they had been duped after the failure of the “conclave” on pensions last June.

Finally, after humiliating the left in this way, the prime minister delivered the coup de grâce by announcing a €44 billion austerity plan, mainly borne by employees and pensioners, with the grotesque measure of eliminating two public holidays, which has definitively alienated the National Rally (Rassemblement National or RN), the far-right party with 120 members in the National Assembly.

Beyond Bayrou himself, what are the structural causes of this failure?

F. S.: We must look at Bayrou’s individual responsibility in context, despite his blunders.

The primary reason for this failure lies in the president’s decision to disregard the new balance of power within the National Assembly elected in July 2024. This, it should be remembered, should have led to the appointment of a prime minister from the New Popular Front, even if this government failed and the president then appointed another prime minister. Instead, Emmanuel Macron chose to rely on the Les Républicains (LR) group and its 48 MPs, who had been in opposition until then, by appointing Michel Barnier. In December, Macron did not even pretend to acknowledge his defeat by appointing Bayrou, who, with the MoDem group (36 MPs), has been part of his majority since 2017.

To have had any chance of succeeding, Bayrou and Barnier would have needed to broaden their support beyond their parties and the central bloc. If France were a “classic” parliamentary democracy, there would surely have been extensive negotiations between the parties willing to participate in the government. These negotiations would undoubtedly have taken several weeks, but they would have ensured a degree of stability around a few compromise measures. By appointing a prime minister of his choosing, interfering in the composition of the government and leaving it to them to cobble together a balancing strategy (one move to the left, two or three moves to the right and to the far right), Macron condemned it to failure.

Much criticism has been levelled at the political parties’ lack of a culture of compromise. Is this lack also a reason for this failure?

F. S.: Indeed, but it is less the culture than our institutions that do not encourage actors to act responsibly. The presidential election is always seen as the decisive moment for setting a new course for the next five years. As a result, agreeing to compromises has meant risking being “burned” at the next presidential election. This explains, for example, the attitude of LR in 2022, when it refused to join the majority even though Macron’s programme was largely in line with its own.

Hyper-“presidentialisation” prevents compromise. The freedom given to the president to appoint the prime minister without fully taking into account the results of the vote, as well as the president’s intrusion into government policy even when disavowed by the ballot box, illustrate the perversion of our institutions. They guarantee Macron’s total irresponsibility. Even if voices are beginning to be heard calling for his resignation or impeachment, nothing obliges him to act. The flip side of this irresponsibility is that it creates equally irresponsible parties: they pass the buck back to the president, it’s up to him to find the answers, and see you at the next presidential election!

Finally, the two-round majority voting system for electing MPs does not encourage parties to seek compromise either. On the one hand, the moderate left must join forces with the radical left in order to win seats, while on the other, the right is facing increasing competition from the far right in many constituencies.

What solutions could break this deadlock?

F. S.: I advocate for a proportional voting system that would make political parties and parliamentarians more accountable. Our excessively presidential system and the two-round majority vote not only fail to provide adequate representation of the diversity of political ideas and social interests, but they also no longer produce clear majorities. There are sociological, political and ideological divisions that fracture the country far beyond the old left-right divide. Bipolarisation is not about to happen again, and this is true for many countries today.

Today, these various divisions are not properly reflected in the National Assembly because French citizens are often forced to vote to eliminate one party or another. Proportional representation, on the other hand, encourages people to vote for the programme they feel closest to. It prevents any single party from governing alone and makes it easier for politicians to negotiate policy directions.

But will reforming the legislative election system be enough? Isn’t one of the challenges also to reduce the power of the president?

F. S.: Indeed, there are undoubtedly other projects to be undertaken. Some believe that we should return to a single seven-year term for the president. Others think that the president should no longer have the power to appoint the prime minister, making a vote of confidence by the National Assembly mandatory, as was the case in France’s Third and Fourth Republics. Others would like to develop shared-initiative referendums or citizen-initiated referendums. All of this will have to be discussed during the next presidential election, but in the immediate term, in order to put the Fifth Republic back on a more democratic track and break the current deadlock, proportional representation seems to me to be the first reform to consider. Political scientist Bastien François has proposed a referendum on proportional representation followed by a dissolution that would allow a new assembly to be elected. This reform could also be seen as a bargaining chip in negotiations to form a future government between the centre and the left.

What options are available to Macron today?

F. S.: Macron can now dissolve the Assembly, but this would be a risky move: it would cause his camp to lose votes. Furthermore, in a volatile social climate – with the Bloquons tout movement – dissolution could amplify the vote against the president.

Second scenario: Macron continues along the same lines, hoping that a prime minister from his camp will push the budget through using Article 49.3, even if it means dissolving parliament afterwards. But the National Rally no longer seems willing to play the neutrality game, and the Socialists are unlikely to be any more lenient. This choice would therefore amount to taking a step back in order to take a bigger leap, and would most likely lead to a new vote of no confidence in a few weeks’ time, depriving France of a budget.

Third scenario: Macron gives Olivier Faure, the leader of the Socialist Party, or a left-wing prime minister a chance. It seems to me that this would be the only rational decision to avoid dissolution. The Socialists could push through a few left-wing reforms such as the Zucman tax on ultra-rich individuals, measures that take into account the hardship of retirement, and even measures in favour of hospitals and education, which are widely supported by the French. This would undoubtedly be difficult for Macron to swallow, but he can always hope that the Constitutional Council will prohibit the Zucman tax or that the hard-left party La France insoumise (LFI or France Unbowed), will torpedo the Socialist Party. He could also try to divide the Socialists by proposing a former member of their party, such as Bernard Cazeneuve, for prime minister, but the Socialists seem more united today than they were last December – when the Barnier government collapsed and Bayrou was picked to replace him – and are likely to reject this manoeuvre.

If there is a dissolution, is the National Rally getting closer and closer to power?

F. S.: One might think that the main victims of a dissolution would be the MPs from the presidential camp. For the moment, the left seems to be holding its own in the polls. The National Rally is also holding steady, with around a third of the vote. The question is, what will the parties do? Will Les Républicains definitively shift toward an alliance with the National Rally? Will the left go into these elections united (as in 2022 and 2024), or divided? Will some voters, disappointed with Macronism, turn to the Socialists, who are ultimately considered more responsible and reasonable? It is difficult to predict the current balance of power, as measured by polls, in a context of a two-round majority election and with so many uncertainties.


Interview by David Bornstein.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Why France’s government collapsed (again), and what Macron might do next – https://theconversation.com/why-frances-government-collapsed-again-and-what-macron-might-do-next-264940

L’esclavage moderne, un risque stratégique ignoré par les conseils d’administration

Source: The Conversation – in French – By Julien Le Maux, Professeur titulaire, département de sciences comptables, HEC Montréal

Trente ans après l’assassinat d’Iqbal Masih, enfant esclave du Pakistan devenu symbole mondial, l’esclavage n’a pas disparu. Il se cache aujourd’hui dans les chaînes d’approvisionnement des grandes entreprises, qui doivent désormais rendre des comptes.

Le 16 avril 1995, Iqbal Masih, un enfant pakistanais de 12 ans, était abattu près de son village. Réduit en esclavage dès l’âge de 4 ans dans une fabrique de tapis, il s’était enfui à 10 ans avant de devenir un symbole international de la lutte contre le travail forcé. Si la version officielle a parlé d’un différend local, de nombreuses ONG estiment qu’il a été tué pour avoir dénoncé les fabricants de tapis.

Son courage avait bouleversé le monde. En 1994, il a reçu le Prix Reebok des Droits de la personne, puis en 2000, le Prix des Enfants du Monde pour les Droits de l’Enfant, à titre posthume. Son nom est devenu un symbole de la lutte contre l’exploitation infantile. Mais trente ans plus tard, son combat reste d’actualité.

Professeur titulaire en sciences comptables à HEC Montréal et directeur académique des certifications en ESG et en gouvernance d’entreprise, je mène des recherches sur la qualité de la gouvernance dans les organisations publiques et privées, ainsi que sur l’intégration des facteurs ESG dans leurs décisions stratégiques.

L’esclavage moderne : une réalité cachée

L’esclavage moderne désigne les situations où une personne ne peut pas quitter son travail, retenue par la peur, la violence, la tromperie ou la dette. Selon l’Organisation internationale du travail (OIT), il inclut notamment le travail forcé, la traite des êtres humains, le travail des enfants, et certaines formes de mariage forcé. Derrière des contrats légaux ou des intermédiaires, la réalité reste la même : une vie sans liberté.

Loin d’appartenir au passé, il s’inscrit au cœur de l’économie globale. Dans le monde du travail contemporain, l’esclavage moderne prend souvent la forme d’un emploi imposé par des dettes, de la confiscation de papiers d’identité, de journées interminables dans des conditions dangereuses, ou encore d’une dépendance totale à l’égard d’un employeur.

Pour les entreprises, la définition est claire : toute activité économique qui repose, directement ou par le biais de fournisseurs, sur une privation de liberté au travail, relève de cette catégorie. C’est ce que précisent les normes de l’OIT, notamment la Convention n° 29 sur le travail forcé, et la Convention n° 182 sur les pires formes de travail des enfants, que la plupart des États ont ratifiées.

Une loi qui manque de dents

Entrée en vigueur en janvier 2024, la Loi S-211 canadienne constitue un premier pas vers la responsabilisation des entreprises. Elle oblige les grandes entreprises – et certains ministères fédéraux – à publier un rapport annuel sur les mesures prises pour prévenir le travail forcé et le travail des enfants dans leurs chaînes d’approvisionnement.

Inspirée du modèle britannique (Modern Slavery Act), la loi s’appuie essentiellement sur le principe de transparence volontaire, sans imposer de mécanismes de contrôle ni de sanctions substantielles en cas de manquements.




À lire aussi :
Le comité d’audit : un fourre-tout devenu ingérable ?


En d’autres termes, la loi oblige à « dire », mais pas nécessairement à « agir ». Dans les faits, le Conseil d’administration, pourtant au cœur de la stratégie d’entreprise, n’est pas explicitement visé dans la loi, alors même que ses décisions structurent les risques pris en matière de sous-traitance, de pression sur les coûts ou de politiques d’achat.

Le Canada : un pays vulnérable par ses importations

Selon le rapport le Global slavery index 2023, le Canada se situe dans le top 10 des pays les plus engagés en matière de réponses gouvernementales, mais reste en retard lorsqu’il s’agit de sa propre chaîne d’approvisionnement.

Malgré sa législation, le Canada est fortement exposé via ses importations à des produits issus du travail forcé. Le rapport identifie les principaux produits importés par le Canada associés à un risque d’esclavage moderne : poisson (produits de la mer d’Asie du Sud-Est), vêtements (Bangladesh, Chine, Inde), électronique (semi-conducteurs, batteries), textiles, chocolat, sucre.

Autrement dit, le risque n’est pas théorique : il est déjà présent dans nos assiettes, nos garde-robes et nos téléphones.

La responsabilité des conseils d’administration

En matière de gouvernance, les conseils d’administration ont une responsabilité directe dans la sélection des fournisseurs, la politique d’achat et la gestion du risque éthique.

Selon le rapport de la fondation Walk Free, qui publie le Global Slavery Index, ces recommandations devraient être mises en application par toutes les entreprises :

  • Mettre en place un système de traçabilité complet

  • Inclure l’esclavage moderne dans les rapports de durabilité

  • Former les conseils d’administration et les gestionnaires à identifier les zones à risque

  • Rendre obligatoire l’audit des fournisseurs critiques

  • Fixer des objectifs de réduction du risque par le comité de gouvernance ou de durabilité

Selon une étude internationale, les pressions sur les coûts, les délais et la flexibilité, imposées par les donneurs d’ordre, sont des facteurs structurels qui rendent l’esclavage moderne « fonctionnel ». Tant que les conseils d’administration n’intégreront pas l’esclavage moderne comme un risque stratégique issu de leur propre modèle économique, rien ne changera.

Les auteurs de l’étude montrent également que les dispositifs tels que les « codes de conduite », « audits sociaux » ou « clauses contractuelles » ont montré leurs limites. Leur conclusion : il faut aller au-delà de la case « conformité ». Ils demandent des mécanismes de suivi plus solides, notamment par l’intégration du respect des droits humains dans les comités de gouvernance, la mise en place d’objectifs contraignants pour la haute direction et l’organisation d’un suivi indépendant, co-construit avec la société civile.

Les normes internationales oublient l’essentiel

Alors que les entreprises sont incitées à adopter des cadres normalisés pour rendre compte de leur performance en matière de durabilité, il est frappant de constater que les normes de l’International Sustainability Standards Board (ISSB) – censées définir le socle mondial de l’information sur les critères environnementaux, sociaux et de gouvernance (ESG) – font l’impasse sur les droits humains.

Les deux premières normes publiées en 2023 portent seulement sur les risques climatiques et la gouvernance liée au climat. Elles laissent totalement de côté les enjeux sociaux, pourtant au cœur de l’Agenda 2030 des Nations unies.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En d’autres termes, la qualité de vie des travailleurs, le travail forcé, la traite ou l’esclavage moderne ne figurent tout simplement pas dans les priorités actuelles de l’ISSB. Ce silence en dit long : peut-on vraiment parler de durabilité si la dignité humaine n’en fait pas partie ?

La réalité des entreprises face à ses exigences

Certaines entreprises ont été rattrapées par la réalité qu’elles prétendaient ignorer. En 2020, l’entreprise britannique Boohoo a vu sa valeur en bourse chuter de près de 40 % après la révélation de conditions proches de l’esclavage dans des ateliers de sous-traitance à Leicester. Les salariés étaient payés 3,50 £ de l’heure, dans des locaux insalubres, sans contrat formel.

Même au Canada, certaines entreprises de transformation alimentaire ou de logistique ont vu leurs chaînes d’approvisionnement entachées par des pratiques de sous-traitants douteux. Ces cas montrent que l’absence de vigilance active au niveau du conseil d’administration entraîne des risques réputationnels, juridiques et financiers majeurs.

L’esclavage moderne n’est pas un accident, mais le résultat de choix économiques. Trente ans après Iqbal Masih, il est temps de briser ces chaînes invisibles.

La Conversation Canada

Julien Le Maux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’esclavage moderne, un risque stratégique ignoré par les conseils d’administration – https://theconversation.com/lesclavage-moderne-un-risque-strategique-ignore-par-les-conseils-dadministration-262087

Les bioplastiques, alternative écologique ou solution en sursis ?

Source: The Conversation – in French – By Jean-Philippe Bootz, Chercheur, Université de Strasbourg

Les bioplastiques connaissent actuellement un essor notable en tant qu’alternative au plastique traditionnel, bien qu’ils ne représentent à ce stade qu’une part infime des plastiques utilisés. Leur impact écologique est certes moindre, mais leur développement pose d’autres questions, auxquelles la recherche n’a pas toujours de réponse. Ils ne doivent pas occulter le principal objectif : la réduction à la source de la production de plastiques.


Face à la crise environnementale, les bioplastiques apparaissent comme une alternative prometteuse aux plastiques conventionnels, responsables de multiples externalités négatives.

Les images d’océans jonchés de déchets plastiques, matériau non biodégradable, ainsi que les émissions massives de gaz à effet de serre associées à tout leur cycle de vie ont impulsé la recherche de matériaux plus durables.

Mais dans quelle mesure les bioplastiques répondent-ils efficacement aux enjeux écologiques ? Même si leur développement semble être une étape nécessaire dans la transition vers l’économie circulaire, ces matières suscitent à la fois espoir et scepticisme.




À lire aussi :
Recycler les plastiques pour protéger les océans, une illusion face à la surproduction ?


Les bioplastiques, une définition et des promesses

Commençons par quelques définitions. Le terme de « bioplastiques » cache en réalité trois catégories distinctes :

  • Les plastiques biosourcés non biodégradables : Ces matériaux, issus de ressources renouvelables comme le maïs ou la canne à sucre, peuvent contenir une part variable de composants issus de la pétrochimie. Ils sont parfois critiqués pour leur faible valeur ajoutée écologique en raison de leur incapacité à se dégrader naturellement.



À lire aussi :
Les bioplastiques, une solution bio pas si écolo


  • Les plastiques biodégradables non biosourcés : Provenant de la pétrochimie, ces plastiques peuvent être décomposés par des micro-organismes dans des conditions spécifiques, rendant leur gestion en fin de vie plus acceptable.



À lire aussi :
Les enzymes, ces « nanomachines du vivant » qui pourraient transformer des déchets plastiques en ressources


  • Les bioplastiques à la fois biosourcés et biodégradables : représentés par des matériaux comme le PLA (acide polylactique) ou les PHA (polyhydroxyalcanoates), ils incarnent une promesse de circularité maximale. Ces plastiques s’intègrent dans des cycles de production et de consommation respectueux des limites planétaires.



À lire aussi :
Vers des plastiques biodégradables et recyclables ? La piste des « PHAs » progresse


En France toutefois, la définition stricte du terme « bioplastiques » est réservée aux matières à la fois biosourcées et biodégradables). Seule la troisième des catégories listées plus haut peut donc prétendre à l’appellation de bioplastique sur le territoire français.

Vers des Legos à 100 % en bioplastique en 2030 ?

Depuis les années 1960, la production mondiale de plastique a explosé, passant de 15 millions de tonnes en 1964 à 348 millions de tonnes en 2017.

Les emballages représentent près de 25 % de ces volumes. Malheureusement, sur la période, seuls 9 % des plastiques produits ont été recyclés, tandis que 12 % ont été incinérés. Le reste, soit près de 80 %, s’est accumulé et continue de s’accumuler dans l’environnement (et notamment les océans) ou dans les décharges, où il met plusieurs siècles à se dégrader.

Face à ce constat alarmant, les bioplastiques suscitent un intérêt croissant. En 2024, le marché des bioplastiques dépasse les 7 milliards de dollars et les projections indiquent qu’il avoisinerait les 20 milliards d’ici à 2033. Leur production mondiale était estimée en 2024 à 2,11 millions de tonnes, soit moins de 1 % de l’ensemble des plastiques produits, mais les projections indiquent une croissance rapide. Le marché potentiel est évalué à 3,95 millions de tonnes d’ici 2028.

L’Europe, qui représente une part importante de ce marché, bénéficie de politiques favorisant l’innovation et l’adoption de matériaux durables.

Dans le même temps, de grandes entreprises comme Coca-Cola, Danone ou Lego investissent massivement dans le développement de solutions à base de bioplastiques. Lego prévoit par exemple d’utiliser exclusivement des bioplastiques d’ici à 2030.

Coûts, recyclage, pression foncière… Des obstacles à surmonter

Malgré leur potentiel, les bioplastiques doivent relever plusieurs défis majeurs :

D’abord leur coût élevé. La production de bioplastiques reste en moyenne deux fois plus chère que celle des plastiques classiques. Cette différence s’explique par les coûts des matières premières, la complexité des procédés de fabrication et les investissements nécessaires en recherche et développement. Cependant, les économies d’échelle et les améliorations technologiques pourraient réduire cet écart dans les prochaines années.

D’autre part, une recyclabilité et une biodégradabilité qui restent limitées. La majorité des bioplastiques biodégradables nécessite le plus souvent des conditions de compostage industriel pour se décomposer efficacement. Or, peu d’infrastructures de ce type existent. De plus, lorsqu’ils sont mélangés par erreur avec des plastiques conventionnels dans les filières de tri actuelles, les bioplastiques sont le plus souvent incinérés ou envoyés en décharge.

Enfin, la pression qu’ils exercent sur les terres agricoles, puisque les bioplastiques utilisent des matières premières végétales cultivées sur des terres agricoles. Bien que leur production actuelle mobilise pour l’instant moins de 0,02 % des terres agricoles mondiales, une expansion rapide pourrait entraîner des tensions avec les cultures vivrières.

Cette question soulève des inquiétudes en matière de sécurité alimentaire, d’utilisation d’intrants chimiques et de pression sur les ressources hydriques.

Déchets organiques, algues et solutions technologiques

Pour éviter les dérives liées à une utilisation massive de ressources agricoles, la recherche s’oriente vers des matières premières alternatives.

Par exemple les déchets organiques, en particulier les résidus de récolte et les sous-produits de l’industrie agroalimentaire, qui offrent un potentiel encore largement inexploité.

Toutefois, l’usage d’algues tropicales comme matières premières fait l’objet de recherches prometteuses.

La start-up Sea6 Energy, soutenue par BASF, travaille par exemple sur des bioplastiques à base d’algues, et l’Union européenne a lancé le projet Seabioplas dans le même domaine.

Parallèlement, des solutions technologiques émergent pour améliorer la biodégradation et le recyclage des bioplastiques. Des études récentes montrent que certaines bactéries, comme les platisphères, pourraient contribuer à leur dégradation. Ces résultats restent toutefois à valider dans des environnements naturels.

Enfin, les efforts visant à réduire les coûts de production s’intensifient. L’augmentation des volumes et les améliorations dans les procédés de fabrication rendent les bioplastiques de plus en plus compétitifs face aux plastiques pétroliers, surtout dans un contexte de hausse des prix du pétrole.

Un avenir incertain mais prometteur

Les bioplastiques ne représentent pas une solution universelle aux problèmes environnementaux liés au plastique, mais ils constituent une alternative dans la palette de solutions à explorer. Leur potentiel écologique est indéniable, à condition de relever les défis technologiques et structurels qui freinent encore leur déploiement.

Leur avenir dépendra de plusieurs facteurs.

  • L’évolution des infrastructures, en premier lieu : investir dans des filières de recyclage spécifiques et des installations de compostage industriel est essentiel pour maximiser leur impact positif.

  • Le soutien des politiques publiques, ensuite : des incitations fiscales, des réglementations contraignantes et des investissements dans la recherche et le développement joueront un rôle crucial.

  • Enfin, leur déploiement exige l’adhésion des consommateurs et des entreprises : la sensibilisation des citoyens et l’engagement des grandes marques à adopter des solutions durables seront déterminants.

Les bioplastiques incarnent une étape importante dans la transition vers une économie plus durable et circulaire. Ils ne sont toutefois ni une panacée – ni une solution à court terme – aux problèmes liés aux plastiques. Leur succès reposera sur une approche globale, combinant innovation, infrastructures adaptées et régulations ambitieuses.

En définitive, la véritable question n’est pas de savoir si les bioplastiques remplaceront à terme les plastiques pétroliers, mais comment nous pourrons les intégrer de manière équilibrée dans un modèle économique respectueux de la planète. Et pour autant, cette question ne doit pas éluder le problème de fond qu’est la réduction à la source de la production de plastiques pétrosourcés.

The Conversation

Jean-Philippe Bootz a bénéficié des financements de l’Ademe pour conduire l’étude prospective «économie circulaire et industrie en 2035» menée au sein de l’Observatoire des futurs qu’il dirige au sein de l’EM Strasbourg. Cet article a été réalisé dans le cadre de cette étude.

ref. Les bioplastiques, alternative écologique ou solution en sursis ? – https://theconversation.com/les-bioplastiques-alternative-ecologique-ou-solution-en-sursis-262981

La relation des étudiants à l’IA, entre soutien aux apprentissages et menace pour l’estime de soi

Source: The Conversation – in French – By Giulia Pavone, Artificial Intelligence (AI) and consumers behaviours, technology adoption, conversational agents, autonomous vehicles, ethics of AI, Kedge Business School

Comment intégrer l’IA générative dans l’éducation de manière responsable et efficace, en tenant compte des besoins des étudiants ? C’est un défi auquel les établissements d’enseignement supérieur sont confrontés, sachant que l’IA a non seulement des effets sur les habitudes de travail, mais aussi sur l’estime de soi.


Les outils d’intelligence artificielle générative bouleversent aujourd’hui l’éducation à une vitesse fulgurante. En 2025, 74 % des 18-24 ans en France utiliseraient l’IA générative, soit 19 points de plus que la tranche des 25-34 ans.

En un clic, ces technologies permettent de rédiger un texte, de résumer un concept complexe ou de créer une image inédite. Un véritable atout pour des étudiants en quête d’efficacité, et un support prometteur pour les enseignants désireux de dynamiser leurs cours et de diversifier leurs approches pédagogiques. Mais cette efficience ne cache-t-elle pas certains risques ?




À lire aussi :
« L’envers des mots » : Intelligence artificielle générative


Si l’IA procure des gains immédiats, l’externalisation cognitive pourrait ainsi avoir un coût élevé sur le long terme. Une étude préliminaire du Massachusetts Institute of Technology (MIT) introduit le concept de « dette cognitive », selon lequel plus nous déléguons de tâches à l’IA, plus notre cerveau risque de se mettre au repos, entraînant à terme une atrophie de compétences essentielles à l’apprentissage, telles que la mémorisation et la pensée critique.

Cependant, comme le soulignent certains chercheurs, ces résultats encore préliminaires, tout en ouvrant des pistes de réflexion importantes, pourraient également refléter en partie les spécificités de l’approche méthodologique utilisée.

Cette observation souligne un enjeu central : la nécessité de réfléchir à la relation des étudiants à l’IA et la manière d’intégrer et d’encadrer son usage.

Usage de l’IA et construction de soi

Au-delà de son impact sur l’activité cognitive, l’IA modifie également la relation émotionnelle des étudiants à l’apprentissage. Une étude menée dans une grande école de commerce en France a montré que les étudiants présentant une forte anxiété académique percevaient l’IA comme un soutien indispensable à leur réussite, tout en redoutant que son utilisation soit jugée illégitime ou qu’ils deviennent eux-mêmes remplaçables.

À l’inverse, les étudiants ayant une estime de soi plus élevée remettaient moins en question la légitimité de l’IA et des productions réalisées avec son aide, et exprimaient moins la peur d’être remplacés. Toutefois, eux aussi déclaraient une forte dépendance à ces outils. Pour ces derniers, l’IA est avant tout perçue comme un assistant efficace, tandis que pour les étudiants plus anxieux, elle apparaît à la fois comme une aide incontournable et une menace potentielle.

Cette ambivalence révèle un véritable paradoxe : si l’IA renforce l’efficacité perçue au point de devenir indispensable pour de nombreux étudiants, elle soulève également des inquiétudes profondes quant à la légitimité académique de son usage et à la crainte d’être remplacés à terme.

Ces ressentis témoignent d’une transformation plus globale : l’IA n’est pas qu’un outil neutre, elle s’inscrit dans un rapport de confiance et d’identité qui impacte profondément la construction de soi comme apprenant et futur professionnel.

Un outil aux multiples potentialités

Ces résultats posent une question clé : comment intégrer l’IA générative dans l’éducation de manière responsable et efficace, en tenant compte des besoins cognitifs et émotionnels des étudiants ?

Au-delà des risques qu’elle peut comporter, l’IA permet de personnaliser les parcours pédagogiques en s’adaptant aux besoins, au rythme et au niveau de chaque étudiant. Elle peut fournir des explications supplémentaires, reformuler un concept difficile ou proposer des exemples adaptés, offrant ainsi un soutien permanent, disponible 24h/24. Cette disponibilité permet aux étudiants de progresser en dehors des heures de cours et de renforcer leur autonomie.

Comment l’intelligence artificielle révolutionne le quotidien des enseignants (France 3 Nouvelle-Aquitaine, 2025).

Des études soulignent également que, bien encadrée, l’IA possède un potentiel considérable comme catalyseur de créativité et de performance académique, en générant des synergies inédites entre humain et machine.

Quelles nouvelles compétences pour les étudiants et pour les enseignants ?

L’enjeu est de concevoir l’IA comme un véritable levier pédagogique tout en tenant compte des différences psychologiques et des usages variés selon les étudiants.

Dans ce contexte, le rôle des enseignants est en pleine transformation. Intégrer ces outils dans les cours exige une réflexion pédagogique approfondie pour répondre aux questions de légitimité académique, atténuer les craintes liées au remplacement humain, et surtout faire en sorte que l’IA soit perçue comme un soutien à l’apprentissage, et non comme une menace pour les compétences futures. Par ailleurs, il est essentiel de prévenir les risques de dépendance et d’excès de confiance envers l’IA. Certains chercheurs insistent sur l’importance de développer la métacognition : cette capacité psychologique à observer, analyser et réguler ses propres pensées et comportements.

La métacognition englobe la compréhension explicite que l’on a de soi-même en tant qu’apprenant – ses forces, ses faiblesses, ses stratégies efficaces – ainsi que la capacité à planifier, surveiller et ajuster ses méthodes de travail. Concrètement, elle permet aux étudiants de prendre du recul sur leurs apprentissages, d’évaluer la qualité de leurs raisonnements et de réfléchir à leur vision du monde.

Car dans un monde où la collaboration entre humains et IA devient la norme, il sera plus que jamais nécessaire de cultiver nos compétences et valeurs profondément humaines. À cet égard, le « Future of Jobs Report 2025 » du World Economic Forum souligne que, bien au-delà des compétences techniques, des aptitudes telles que la pensée créative, la résilience, la flexibilité, l’empathie, la curiosité et la capacité à apprendre tout au long de la vie occuperont une place plus centrale que jamais.

The Conversation

Giulia Pavone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La relation des étudiants à l’IA, entre soutien aux apprentissages et menace pour l’estime de soi – https://theconversation.com/la-relation-des-etudiants-a-lia-entre-soutien-aux-apprentissages-et-menace-pour-lestime-de-soi-261402