¿Escuchar música o tenerla de fondo? La educación musical en tiempos de ‘streaming’

Source: The Conversation – (in Spanish) – By Paloma Bravo-Fuentes, Profesora sustituta interina del área de Didáctica de la Expresión Musical, Universidad de Jaén

Yullia Lypai / Shutterstock

Vivimos rodeados de música. Nos acompaña en el supermercado, en el coche, mientras estudiamos, trabajamos o incluso, descansamos. Gracias a plataformas de escucha en streaming y redes sociales, nunca antes había sido tan fácil tener acceso a cualquier canción en cualquier momento. Sin embargo, ¿estamos realmente escuchando? ¿O simplemente dejamos que la música suene como un fondo más en nuestra vida saturada de estímulos?

Algunas investigaciones apuntan a que plataformas como Spotify fomentan una forma de escucha predominantemente pasiva. En lugar de elegir qué oír, muchos usuarios se limitan a escuchar listas de reproducción generadas algorítmicamente o diseñadas para ambientes específicos (como “música para estudiar”), lo que convierte a la música en un mero fondo sonoro. Esta práctica despoja a la música de su papel como objeto de atención, relegándola a un acompañamiento funcional que apenas requiere implicación emocional o cognitiva por parte del oyente.




Leer más:
¿Cómo socializamos con la música?


Muchos estudios han analizado cómo la era del streaming ha transformado nuestra relación con la música, instaurando un modelo de consumo fragmentado y efímero. La accesibilidad inmediata a millones de canciones no se ha traducido en una mayor profundidad de escucha, sino en una sobrecarga de disponibilidad que banaliza la experiencia auditiva. La música está más presente que nunca en nuestras vidas, pero es posible que la estemos escuchando menos atenta o reflexivamente.

Fragmentos virales en Tiktok

Este fenómeno se acentúa en redes sociales como TikTok, donde la música se convierte en un recurso visual y emocional al servicio de contenidos breves, pensados para captar la atención en apenas unos segundos. Los fragmentos musicales más virales suelen ser de apenas 15 o 30 segundos, y su función no es tanto ser escuchados como generar impacto inmediato, facilitar un reto viral o acompañar una coreografía, independientemente del contenido de las letras de las canciones que incluye.

Así, la música deja de ser un fin en sí mismo y se convierte en un medio para otros fines, lo que contribuye aún más a su descontextualización y a la pérdida de profundidad en la experiencia estética.




Leer más:
12 discos para escuchar en vacaciones sin hacer nada más


La escucha activa y la atención

En este contexto de abundancia musical y dependencia del algoritmo, la educación musical puede y debe ayudarnos a reaprender a escuchar de manera crítica y consciente. Escuchar críticamente no significa convertirnos en expertos, sino prestar atención activa a lo que oímos, reflexionar sobre las letras y entender el contexto cultural de cada canción.

Hoy más que nunca, es necesario cultivar esa escucha atenta. Las plataformas priorizan algoritmos que nos proponen canciones similares a lo que ya escuchamos, creando burbujas musicales que limitan nuestra exposición a la diversidad musical.

La importancia de la letra

Muchas canciones que triunfan en listas de éxitos incluyen letras que reproducen estereotipos de género, mensajes de violencia o modelos de relaciones tóxicas y que, sin embargo, consiguen viralizarse en las redes.




Leer más:
Diccionario para bichotes: Cómo evitar malentendidos al escuchar reguetón


La escucha crítica permite darse cuenta de estos contenidos y decidir de manera consciente si la queremos consumir y compartir.

Actividades para fomentar la curiosidad musical

En las aulas, la educación musical ofrece un espacio privilegiado para entrenar esta escucha activa. A través de actividades sencillas se puede fomentar en niños y jóvenes la curiosidad, el pensamiento crítico y el gusto estético musical.

Por ejemplo: analizar las letras de canciones que escuchan los propios alumnos y alumnas a diario, proponiéndoles identificar qué emociones transmiten, qué valores promueven y si existen estereotipos o mensajes problemáticos.

Otra opción consiste en comparar dos canciones que aborden un mismo tema (como el amor, el éxito o el cuerpo), pero desde perspectivas opuestas. A partir de esta comparación, se puede reflexionar sobre el impacto que sus mensajes pueden tener en quienes las escuchan, además de comprender distintas formas de narrar una misma realidad.

Escucha activa en casa

Esta tarea no es exclusiva de la escuela: también en casa podemos hacer el ejercicio de detenernos a escuchar con atención, conversar sobre lo que transmite una canción, e incluso descubrir nuevos géneros musicales.

Por ello, es fundamental ir más allá de la teoría y proponer ejemplos concretos que ayuden a ejercitar esta escucha activa, especialmente en relación con las letras de las canciones que consumimos de forma automática.




Leer más:
Los estudiantes no pueden vivir sin música: cómo acercar la que enseñamos a la que escuchan


Escuchar juntos una canción que les guste, leer su letra en voz alta y preguntarse qué dice realmente la canción (y si estamos de acuerdo con lo que plantea) permite abrir un espacio de conversación y desarrollo de la conciencia crítica sobre lo que se consume a diario a nivel musical. Esta toma de conciencia no busca censurar sino empoderar al oyente para decidir qué música quiere incorporar en su día a día.

En definitiva, aprender a escuchar en este mundo saturado de música es una habilidad valiosa que permite disfrutar de lo que oímos y desarrollar un pensamiento crítico en un entorno donde muchas veces simplemente oímos pero no escuchamos.

The Conversation

Paloma Bravo-Fuentes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Escuchar música o tenerla de fondo? La educación musical en tiempos de ‘streaming’ – https://theconversation.com/escuchar-musica-o-tenerla-de-fondo-la-educacion-musical-en-tiempos-de-streaming-262577

Esperando a las Perseidas: qué ver en el cielo de una noche de verano

Source: The Conversation – (in Spanish) – By Víctor Lanchares Barrasa, Profesor de Matemática Aplicada, Universidad de La Rioja

Lluvia de meteoros Perseidas atraviesan un cielo en 2024. A la izquierda, el resplandor rosáceo de la aurora. La galaxia de Andrómeda aparece en la parte superior, justo a la izquierda del centro NASA/Preston Dyches, CC BY

A partir del 11 de agosto llegará el gran momento de Las Perseidas, el sueño popular de las estrellas fugaces. Nada mejor que una noche templada de verano, lejos de las luces de la ciudad, al amparo de la mayor oscuridad posible, para esperarlas. El paso de las horas, mientras llegan, hará que desfilen ante nosotros seres mitológicos en forma de constelaciones, que nuestros antepasados dibujaron entre las estrellas y les sirvieron como brújula, reloj y calendario.

Algunas apps ayudan a interpretar lo que vemos y nos permiten localizar objetos celestes desde el móvil de modo muy sencillo. Entre ellas Sky view para IOS/Android, Stellarium para IOS/Android (esta tiene una versión para ordenador y tablet completísima) y Google Sky Map para Android.

La espina dorsal del cielo

Con ayuda de una de estas aplicaciones o sin ella, destaca en estas noches estivales la espina dorsal del cielo, una banda de un resplandor suave, que se extiende desde el noreste hasta el sur-suroeste. Se trata de la Vía Láctea. Debe su nombre a un mito griego según el cual no es más que la leche derramada por la diosa Hera cuando apartó a Heracles mientras mamaba con fuerza de su pecho.

El nacimiento de la Vía Láctea del pintor Peter Paul Rubens (1636), que se encuentra en el Museo del Prado.
Wikimedia commons, CC BY

En realidad, la Vía Láctea es una agrupación de miles de millones de estrellas que conforman la galaxia en la que vivimos. Nosotros nos encontramos dentro del disco que contiene la mayoría de las estrellas y, cuando miramos en la dirección de este disco, lo vemos como una franja de brillo tenue generada por la combinación de la luz de innumerables estrellas, demasiado distantes como para ser detectadas individualmente a simple vista.

Esta banda es más brillante en el cielo de verano, cuando miramos hacia el centro de la galaxia, que se encuentra en la constelación de Sagitario, cerca del horizonte, en dirección sur-suroeste. Aquí arranca el segmento más brillante de la Vía Láctea, que se extiende hasta la constelación del Cisne, cerca del punto más alto del cielo.

La Vía Láctea desde un lugar sin contaminación lumínica.
Pexels, CC BY

Miles de soles, de Sagitario a Cisne

Sagitario y Cisne tienen estrellas brillantes y patrones estelares sorprendentes a simple vista, pero también albergan muchas maravillas adicionales.

No hay nada que nos pueda causar mayor satisfacción como observadores que recorrer lentamente el camino que va de Sagitario al Cisne con unos prismáticos. De hecho, ninguna constelación en ningún otro lugar del cielo puede igualar a estas dos en cuanto a cantidad de nebulosas y estrellas en el campo de visión de un pequeño instrumento óptico. Con su ayuda, descubriremos un asombroso panorama de miles de soles, adornado de nubes brillantes e increíbles enjambres y racimos de estrellas que seguro no nos dejarán indiferentes.

Localizada la constelación del Cisne, si pudiéramos ver con ojos de grandes telescopios, observaríamos este complejo nebuloso, NGC 6914, a unos 6.000 años luz de distancia, en las profundidades de la Vía Láctea.
Fundación Descubre , CAHA , OAUV , DSA , Vicent Peris ( OAUV ), Jack Harvey ( SSRO ), Juan Conejero ( PixInsight ), CC BY

El triángulo del verano: Lira, Águila y Deneb

El Triángulo del verano: Vega, Deneb y Altair se convierten en las superestrellas del hemisferio norte durante las noches de agosto.
IAC/Vicent Peris, CC BY

Entre Sagitario y el Cisne se sitúan las constelaciones de la Lira y el Águila, que reconoceremos gracias a sus estrellas principales, Vega y Altair.

Vega, en la Lira, es la quinta estrella más brillante del cielo. La encontraremos casi encima de nuestra cabeza en una orilla de la Vía Láctea. En la otra orilla, en el Águila, se encuentra Altair, la duodécima en cuanto a brillo de todas las estrellas y cuyo nombre asociamos a uno de los caballos de Ben Hur. Vega y Altair, junto a Deneb, la estrella principal del Cisne, forman lo que se denomina el triángulo de verano, un patrón de estrellas fácilmente reconocible que preside las noches estivales.

Casiopea, la esposa de un rey etíope

Casiopea y varios de sus objetos, imagen de la app Stellarium.
Stellarium, CC BY

Siguiendo la Vía Láctea hacia el horizonte noreste, a poca altura a primera hora de la noche pero elevándose a medida que pasan las horas, se encuentra la constelación de Casiopea. Recibe su nombre de la esposa bella y vanidosa del rey etíope Cefeo, que reina junto a ella muy cerca del polo celeste, donde se encuentra la estrella polar.

No es ésta una estrella muy brillante, y para localizarla se usa la constelación más emblemática del hemisferio norte, la Osa Mayor. Suele verse como un carro formado por siete estrellas brillantes que nunca se oculta bajo el horizonte. Prolongando unas cinco veces la distancia que une las dos estrellas más alejadas de la vara del carro, se llega a la estrella polar, dentro de la Osa Menor, que tiene una configuración similar a la Osa Mayor, pero con estrellas más débiles.

A partir de la Osa Mayor, y siempre mediante alineaciones de estrellas, es posible recorrer el resto del cielo de verano. Así, prolongando el arco que forma la vara del carro, llegamos a Arcturus, una estrella de color anaranjado, la cuarta más brillante de todas, y usada en la antigüedad para las labores agrícolas. En la obra “Los trabajos y los días” de Hesíodo podemos leer:

Cuando Orión y Sirio lleguen al centro del cielo, y Aurora de dedos rosados vea a Arturo, ¡oh Perses!, entonces corta todos los racimos y llévalos a casa.

El reino de Arcturus

El tamaño de Arcturus en comparación con el Sol. A esta escala la Tierra es invisible.
Wikimedia commons, CC BY

Arcturus está en la constelación del Boyero, que nos servirá de trampolín para ir a la Corona Boreal, Hércules y a la zodiacal Virgo, ya desapareciendo por el oeste.

Camino para encontrar a Arcturus en el cielo nocturno a partir de la Osa Mayor.
Wikimedia commons, CC BY

Desde aquí, siguiendo hacia el este por el horizonte, nos encontraremos con Libra, con sus dos estrellas principales con los sugerentes nombres Zubenelgenubi y Zubeneschamali, literalmente las pinzas del escorpión. Antiguamente, estas dos estrellas formaban parte de la vecina Escorpio, donde destaca el brillo anaranjado de Antares, una supergigante roja, con un tamaño tan grande que, puesta en lugar del Sol, su borde exterior se extendería más allá de la órbita de Marte.

Continuando hacia el este, regresaríamos a Sagitario, donde hemos comenzado nuestro recorrido. Por el camino hemos dejado algunas constelaciones como el Dragón, el Delfín, Ofiuco y otras más, que con el tiempo podremos aprender a identificar.

Recreación de la gigante roja Antares, en la constelación de Escorpio. La estrella agonizante que se está convirtiendo en supernova.
ESO, CC BY

Y, al fin, la llegada de Las Perseidas

Además de las constelaciones y las maravillas que se ocultan tras la Vía Láctea, las noches de agosto nos pueden brindar la oportunidad de ver una buena cantidad de estrellas fugaces, principalmente procedentes de la región entre Perseo y Casiopea. Son las Perseidas.

Aunque el máximo de actividad se alcanza entre el 12 y 13 de agosto, este año el brillo de la Luna nos impedirá disfrutar de su momento álgido. Sin embargo, las Perseidas seguirán activas hasta finales de agosto y, una vez la Luna mengüe lo suficiente, aún tendremos oportunidad de ver unas cuantas estrellas fugaces. Tantas más cuanto más alto se encuentre en el cielo Perseo, que alcanza su máxima altura alrededor de las 4 de la madrugada, no mucho antes de que comience el crepúsculo matutino en las latitudes medias del norte.

Y mientras observamos estas veloces estelas, podemos reflexionar sobre el hecho de que estos meteoros son restos del cometa Swift-Tutlle, probablemente el objeto más peligroso conocido por la humanidad.

Visto por última vez en su regreso de 1992, su trayectoria podría hacerlo chocar con la Tierra en el futuro. Los expertos aseguran que esto no sucederá en los próximos miles de años. Pero si su núcleo llegase a impactar, probablemente causaría una destrucción mayor que el cometa o asteroide que acabó con los dinosaurios y la mayoría de las especies, hace 65 millones de años.

Con la espera de las estrellas fugaces, la noche de observación se habrá alargado y el paso del tiempo hará que las constelaciones otoñales tomen protagonismo, entre ellas Andrómeda. Aquí se encuentra el objeto más distante visible a simple vista, la galaxia de Andrómeda, a más de dos millones de años luz de distancia. Su contemplación puede ser el mejor cierre para una noche de estrellas de verano.

The Conversation

Víctor Lanchares Barrasa no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Esperando a las Perseidas: qué ver en el cielo de una noche de verano – https://theconversation.com/esperando-a-las-perseidas-que-ver-en-el-cielo-de-una-noche-de-verano-261395

No solo sufren las playas del Mediterráneo: estos son los impactos que amenazan los arenales de Galicia

Source: The Conversation – (in Spanish) – By Pablo Pita, Investigador en socioecología marina, Universidade da Coruña

Playa de Riazor (La Coruña), en la que ondea una bandera azul, un distintivo de calidad. Pablo Pita, CC BY-SA

Las playas son lugares hermosos que invitan al descanso y la diversión. En ellas se realizan todo tipo de actividades de ocio, que van desde relajarse tomando el sol hasta practicar deportes acuáticos como el esnórquel o el surf. Por ello, y a pesar del aumento de la oferta de actividades alternativas en España en los últimos años –como el turismo cultural y gastronómico, las rutas de senderismo o las visitas a entornos rurales–, las playas, junto con el buen clima, siguen siendo el principal atractivo turístico para los visitantes, tanto nacionales como extranjeros.

Además de ser espacios de recreo, las playas son ecosistemas costeros de gran valor ecológico que albergan una notable biodiversidad. Esta riqueza biológica se debe al elevado dinamismo de estas áreas, sometidas al constante impacto del oleaje, al desplazamiento de los sedimentos y a la alternancia entre la exposición al aire y al sol, y la inmersión en agua salada.

Por su condición de ecotonos, es decir, fronteras entre el mar y la tierra, las playas son el hogar de numerosas especies de animales y plantas altamente especializadas y resistentes, la mayor parte de las cuales no se encuentran en ningún otro lugar.

A ello se suma el hecho de que las playas y la naturaleza que albergan brindan diversas e importantes contribuciones a las personas, como la protección frente al oleaje y la erosión costera, así como la producción de alimentos.

Banderas azules, banderas negras

Muchos de los animales que habitan las playas, al pasar buena parte de su vida enterrados en la arena o tener hábitos nocturnos, suelen pasar desapercibidos para los visitantes. Por esta razón, la biodiversidad no suele ser uno de los valores que los bañistas tienen en cuenta al elegir qué playa visitar.

En cambio, lo habitual es que seleccionen el arenal en función de criterios de funcionalidad como la cercanía, la accesibilidad, los servicios disponibles o la seguridad, y no por motivos medioambientales, con la posible excepción de la calidad del agua de baño.

Por ello, las banderas azules, un galardón otorgado por un consorcio de entidades privadas previa solicitud de las Administraciones públicas locales, resultan convenientes para muchos, ya que se centran en la evaluación de los servicios básicos y de la calidad del agua de baño, especialmente en lo que respecta a la contaminación fecal.

Desgraciadamente, la contaminación por aguas fecales, ya sea a causa de vertidos procedentes de depuradoras deficientes o de vertidos incontrolados, es un problema habitual en muchas zonas costeras de España, incluida Galicia. Esta situación afecta incluso a playas que ondean banderas azules, tal y como expone la ONG ambientalista Ecologistas en Acción en su informe Banderas negras 2025.

Sobrepesca y contaminación industrial

A pesar de su impacto evidente sobre las personas y los ecosistemas, la contaminación fecal no es el problema más grave que afecta a las playas del norte de España. Los ecosistemas litorales sufren una amplia variedad de amenazas que, en conjunto, comprometen seriamente su viabilidad ecológica y socioeconómica.

Entre estas amenazas destacan la sobrepesca y el furtivismo (también de bañistas), la destrucción de hábitats y la alteración de las corrientes costeras provocada por infraestructuras como puertos, embalses y diques, así como por actividades de extracción de arenas y dragados. A ello se suma un turismo creciente que presiona tanto los ecosistemas como los servicios básicos y es fuente de conflictos en muchas áreas costeras.

Una mención especial merece la contaminación industrial, que con frecuencia alcanza el mar a través de los ríos, una situación especialmente preocupante en Galicia. Un caso emblemático es el de la papelera de la multinacional española ENCE, que ha ocupado durante décadas el dominio público marítimo-terrestre en la ría de Pontevedra, vertiendo residuos industriales y contribuyendo tanto a la degradación de los ecosistemas costeros como al deterioro de la calidad de vida en la zona.

Además, esta empresa ha favorecido la expansión del monocultivo de eucalipto, una especie que empobrece la biodiversidad y altera el equilibrio hidrológico.




Leer más:
¿Encajan los eucaliptos necesarios para una macrofábrica de celulosa en el paisaje y la biodiversidad de Galicia?


A esta situación se suma una nueva amenaza: la posible instalación de una nueva planta de celulosa de la multinacional portuguesa ALTRI, que ha recibido recientemente una declaración de impacto ambiental favorable por parte de la Xunta de Galicia para ubicarse a orillas del río Ulla.

Mariscadora recogiendo moluscos en la ría de Arousa
Mariscadora en la ría de Arousa, la más productiva de Galicia.
Pablo Pita, CC BY-SA

Este río desemboca en la ría de Arousa, la más productiva en términos de marisqueo. La planta vertería en ella millones de litros de aguas residuales al día, lo que podría agravar la crisis de productividad que el marisqueo en la ría ya viene sufriendo desde hace décadas como consecuencia de múltiples impactos humanos.

Esta crisis se ha visto intensificada por desembalses catastróficos de agua dulce y por los efectos del calentamiento del agua asociado al cambio climático.




Leer más:
El Ulla se une a los ríos que exigen sus derechos


Los invisibles habitantes de las playas

Si bien una playa con bandera azul podría parecer una opción adecuada en entornos urbanos, esta distinción resulta claramente insuficiente para la inmensa mayoría de las playas. En realidad, normas como la ISO 14001 o el sistema europeo EMAS ofrecen estándares de calidad ambiental más completos y exigentes, y ya están siendo adoptados por algunas Administraciones locales comprometidas con la sostenibilidad.

Sin embargo, más allá de sellos y certificaciones, es fundamental reaprender a mirar las playas como lo que realmente son: lugares hermosos porque los compartimos con una multitud de seres vivos que, aunque a menudo pasen desapercibidos, están ahí, entregados a sus actividades cotidianas a nuestro alrededor.

Sepia bajo el agua sobre el fondo arena
Sepia común (Sepia officinalis) en el submareal arenoso de una playa.
Pablo Pita, CC BY-SA

Las pulgas de mar que se refugian bajo los arribazones de algas, los gusanos que dejan sus pequeños fideos de arena enroscada sobre la superficie, los diminutos gobios que nadan en la misma orilla, una sepia que adhiere sus huevos en las hojas de una hierba marina o el vuelo de una gaviota recortándose sobre el azul del cielo son solo algunas de esas pequeñas maravillas.

Pez con la boca roja y cuerpo de tonos violetas en el fondo sobre las rocas
Gobio de boca roja (Gobius cruentatus), frecuente a poca profundidad en las costas gallegas.
Pablo Pita, CC BY-SA

Tomar conciencia de la presencia de esa vida por momentos invisible es un primer paso esencial para transformar nuestra relación con las playas y contribuir a su protección como legado para las generaciones futuras. Al fin y al cabo, nuestros antepasados probablemente dieron sus primeros pasos vacilantes en una playa olvidada hace millones de años. Se lo debemos.

The Conversation

Pablo Pita recibe fondos del Plan Estatal de Investigación Científica y Técnica y de Innovación del Ministerio de Ciencia, Innovación y Universidades, convocatoria Ramón y Cajal 2022 (RYC2022-035937-I), y de los Proxectos de Excelencia. Año 2024, de la Xunta de Galicia (ED431F 2024/09).

ref. No solo sufren las playas del Mediterráneo: estos son los impactos que amenazan los arenales de Galicia – https://theconversation.com/no-solo-sufren-las-playas-del-mediterraneo-estos-son-los-impactos-que-amenazan-los-arenales-de-galicia-259071

En la antigua Roma ya existían bomberos y medidas de prevención de incendios

Source: The Conversation – (in Spanish) – By Tewise Yurena Ortega González, Profesora Ayudante Doctor de Derecho Romano, Universidad de Las Palmas de Gran Canaria

_El incendio de Roma_, de Hubert Robert. MuMa Le Havre / Florian Kleinefenn

La expansión de los edificios en la antigua Roma hizo necesario gestionar eficazmente los riesgos derivados de fenómenos naturales y accidentes como terremotos, inundaciones e incendios. En respuesta, la administración romana demostró una organización propia de una estructura institucional avanzada y una adaptación coherente a los desafíos de una ciudad en constante crecimiento.

Cada uno de estos eventos catastróficos dio lugar a ambiciosas intervenciones de reconstrucción por la magnitud de los efectos, así como a la adopción de medidas legislativas y de gestión pública. En particular, en este artículo describiré aquellas aplicadas en el caso de los incendios.

Causas de incendios en la Antigua Roma

El fuego podía generarse por causas naturales, esto es, por fenómenos climáticos adversos como sequías o tormentas eléctricas, o por desastres naturales como terremotos.

Asimismo, los incendios podían originarse por causas accidentales, principalmente atribuibles a la negligencia humana, tanto en el ámbito doméstico –debido a descuidos durante actividades cotidianas como la preparación de alimentos o el uso de fuentes de iluminación– como en el entorno laboral, donde ciertos oficios requerían el uso directo del fuego, como la herrería, la alfarería o incluso la cremación de cadáveres y bienes.

Por otra parte, factores como el diseño urbano y arquitectónico, el uso de materiales inflamables en las construcciones, así como la comisión de actos delictivos, el vandalismo, las disputas personales y los conflictos políticos también contribuían significativamente a la proliferación de incendios en la ciudad.

Medidas preventivas

Al contrario de lo que ocurría con las inundaciones, donde la acción pública era más reactiva que preventiva, la gestión de incendios en Roma destacaba por la implementación de medidas preventivas.

Así, al margen de la creación del cuerpo de bomberos o vigiles, se adoptaron medidas que sirvieron para prevenir no sólo los sucesos sino también los efectos. Destacaba el empleo de materiales resistentes al fuego, el control de los depósitos de aguas destinadas a la extinción por parte del poder público, la recomendación a la ciudadanía de contar con depósitos en los hogares o el establecimiento de rondas de vigilancia nocturna para una actuación inminente en caso de incendios.

También se propuso la posibilidad de demoler los edificios con riesgo de derrumbe y la creación de cortafuegos para evitar la propagación empleando para ello a personal de origen militar como los ballistari.

Una de las medidas más relevantes fue la limitación de las alturas de los edificios y el establecimiento de distancias mínimas entre las edificaciones. La alta demanda habitacional de la época debido al crecimiento económico de la urbe favoreció la construcción de insulae o edificios con varias alturas hechos de forma precipitada empleando materiales de mala calidad, que permitían aglutinar a un mayor número de personas en pequeñas habitaciones o cenaculi.

A raíz del incendio acaecido en el año 64, el emperador Nerón adoptó medidas urbanísticas y de seguridad para garantizar la reconstrucción ordenada de la ciudad y prevenir eventos futuros. Estas fueron expuestas de forma detallada por el historiador Tácito.

Así ordenó una reconstrucción planificada con calles amplias, edificios de menor altura y espacios abiertos empleando materiales ignífugos. Prohibió muros compartidos y acciones que pudieran derivar el flujo del agua por parte de los particulares, mejoró el suministro de agua y estableció, entre otras, la necesidad de que cada edificio contara con su propio equipo de lucha contra incendios.

Pintura que muestra a un hombre con túnica y corona de flores y soldados y otras personas con túnicas rojas en primer plano y llamas al fondo
Nerón contempla el incendio de Roma, por Carl Theodor von Piloty (1826-1886).
Wikimedia Commons, CC BY-SA

Bombas hidráulicas y cubos para apagar el fuego

Antes de la creación del cuerpo de bomberos, en la República se crearon los tresviri capitales, los cuales desarrollaron labores de orden público y de prevención y extinción de incendios utilizando para ello a esclavos y funcionarios entrenados.

Los vigiles comenzaron en Roma como un cuerpo de 600 esclavos estatales que Augusto estableció hacia el 22 a.e.c., siendo en el año 6 cuando adopta la denominación de militia vigilum y pasa a estar compuesta mayoritariamente por libertos. En ese momento, se organiza la urbe en siete cohortes que actúan en dos regiones cada una.

Como elemento imprescindible para mitigar y extinguir el fuego contaron en primer lugar con el agua y las infraestructuras hidráulicas existentes. Además, empleaban herramientas e instrumentos que son utilizados por los bomberos en la actualidad, como martillos, hachas, sierras, hamae o cubos hechos con cuerdas, las perticae o pértigas para sostener paredes en peligro de colapso o para derribar estructuras en llamas, las spongiae o esponjas que podrían servir para humedecer las superficies, las scalae o escaleras, así como bombas hidráulicas portátiles como los siphos.

Asimismo, para protegerse del fuego usaban los centones, o mantas hechas de retales de telas que bañaban previamente en vinagre o acetum. Estas sirvieron no sólo para favorecer la intervención en los lugares sin sufrir quemaduras, debido al efecto retardante, sino también para frenar la propagación de las llamas al colocar las mantas con vinagre en lugares específicos.

La extinción de incendios a partir del siglo V

Durante los siglos IV y V, el cuerpo de vigiles entró en un proceso de decadencia hasta su práctica desaparición. A pesar de los esfuerzos para darles continuidad, las limitaciones técnicas y logísticas hacían poco operativas sus intervenciones, siendo su mantenimiento relativamente costoso para las arcas públicas.

Tras su desaparición, las funciones de extinción de incendio fueron asumidas por encargo del poder público al colegium fabri, que aglutinaba a diversas categorías profesionales de la época. Estos, gracias a la experiencia técnica adquirida por el desarrollo de sus actividades profesionales, prestaban apoyo puntual y coordinado interviniendo en las tareas de extinción de incendios. Actuaban de manera similar a los actuales voluntarios de protección civil, que si bien intervienen y apoyan a las autoridades competentes en los casos de emergencia, no tienen atribuida institucionalmente dicha función.

En definitiva, la antigua Roma desarrolló una gestión integral del fuego priorizando el interés social, la sostenibilidad territorial y la corresponsabilidad ciudadana, aplicando medidas de prevención y extinción.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. En la antigua Roma ya existían bomberos y medidas de prevención de incendios – https://theconversation.com/en-la-antigua-roma-ya-existian-bomberos-y-medidas-de-prevencion-de-incendios-261194

Trump administration cuts to terrorism prevention departments could leave Americans exposed

Source: The Conversation – USA – By Kris Inman, Professor of African Studies and Security Studies, Georgetown University

Ghanaian special forces take part in U.S. military-led counterterrorism training near Jacqueville, Ivory Coast, on Feb. 16, 2022. AP Photo/Sylvain Cherkaoui

Staff at the State Department’s Office of Countering Violent Extremism and Bureau of Conflict and Stabilization Operations, which led U.S. anti-violent extremism efforts, were laid off, the units shuttered, on July 11, 2025.

This dismantling of the country’s terrorism and extremism prevention programs began in February 2025. That’s when staff of USAID’s Bureau of Conflict Prevention and Stabilization were put on leave.

In March, the Center for Prevention Programs and Partnerships at the Department of Homeland Security, which worked during the Biden administration to prevent terrorism with a staff of about 80 employees, laid off about 30% of its staff. Additional cuts to the center’s staff were made in June.

And on July 11, the countering violent extremism team at the U.S. Institute of Peace, a nonpartisan organization established by Congress, was laid off. The fate of the institute is pending legal cases and congressional funding.

President Donald Trump in February had called for nonstatutory components and functions of certain government entities, including the U.S. Institute of Peace, to “be eliminated to the maximum extent consistent with applicable law.”

These cuts have drastically limited the U.S. government’s terrorism prevention work. What remains of the U.S. capability to respond to terrorism rests in its military and law enforcement, which do not work on prevention. They react to terrorist events after they happen.

As a political scientist who has worked on prevention programs for USAID, the U.S. Institute for Peace, and as an evaluator of the U.S. strategy that implemented the Global Fragility Act, I believe recent Trump administration cuts to terrorism prevention programs risk setting America’s counterterrorism work back into a reactive, military approach that has proven ineffective in reducing terrorism.

The US war against terrorism

Between 9/11 and 2021, the cost of the U.S. war on terrorism was $8 trillion and 900,000 deaths, according to a Brown University study. Nonetheless, terrorism has continued to expanded in geographic reach, diversity and deadliness.

Though it was territorially defeated in Syria in 2019, the Islamic State – designated a foreign terrorist organization by the U.S. government – has expanded globally, especially in Africa. Its nine affiliates on the continent have joined several al-Qaida-linked groups such as al-Shabab.

The Islamic State has expanded through a decentralized model of operations. It has networks of affiliates that operate semi-autonomously and exploit areas of weak governance in places such as Mali and Burkina Faso. That makes them difficult to defeat militarily.

A building with an arched rood and multiple windows.
The U.S. Institute of Peace in Washington, D.C., on March 18, 2025.
Roberto Schmidt/AFP via Getty Images

These terrorist organizations threaten the U.S. through direct attacks, such as the ISIS-linked attack in New Orleans on Jan. 1, 2025, that killed 14 people.

These groups also disrupt the global economy, such as Houthi attacks on trade routes in the Red Sea.

To understand why terrorism and extremism continue to grow, and to examine what could be done, Congress charged the U.S. Institute of Peace in 2017 to convene the Task Force on Extremism in Fragile States.

This bipartisan task force found that while the U.S. military had battlefield successes, “after each supposed defeat, extremist groups return having grown increasingly ambitious, innovative, and deadly.”

The task force recommended prioritizing and investing in prevention efforts. Those include strengthening the ability of governments to provide social services and helping communities identify signs of conflict – and helping to provide tools to effectively respond when they see the signs.

The report contributed to the Global Fragility Act, which Trump signed in 2019 to fund $1.5 billion over five years of prevention work in places such as Libya, Mozambique and coastal West Africa.

Programs funded by the Global Fragility Act included USAID’s Research for Peace, which monitored signs of terrorism recruitment, trained residents in Côte d’Ivoire on community dialogue to resolve disputes, and worked with local leaders and media to promote peace. All programming under the act has shut down due to the elimination of prevention offices and bureaus.

What the US has lost

The State Department issued a call for funding in July 2025 for a contractor to work on preventing terrorists from recruiting young people online. It stated: “In 2024, teenagers accounted for up to two-thirds of ISIS-linked arrests in Europe, with children as young as 11 involved in recent terrorist plots.”

In the same month, the department canceled the program due to a loss of funding.

It’s the kind of program that the now defunct Office of Countering Violent Extremism would have overseen. The government evidently recognizes the need for prevention work. But it dismantled the expertise and infrastructure required to design and manage such responses.

Lost expertise

The work done within the prevention infrastructure wasn’t perfect. But it was highly specialized, with expertise built over 2½ decades.

Chris Bosley, a former interim director of the violence and extremism program at the U.S. Institute of Peace who was laid off in July, told me recently, “Adequate investment in prevention programs isn’t cheap, but it’s a hell of a lot cheaper than the decades of failed military action, and more effective than barbed wire – tools that come too late, cost too much, and add fuel to the very conditions that perpetuate the threats they’re meant to address.”

For now, the U.S. has lost a trove of counterterrorism expertise. And it has removed the guardrails – community engagement protocols and conflict prevention programs – that helped avoid the unintended consequences of U.S. military responses.

Without prevention efforts, we risk repeating some of the harmful outcomes of the past. Those include military abuses against civilians, prisoner radicalization in detention facilities and the loss of public trust, such as what happened in Guantanamo Bay, in Bagram, Afghanistan, and at various CIA black sites during the George W. Bush administration.

Counterterrorism prevention experts expect terrorism to worsen. Dexter Ingram, the former director of the State Department’s Office of Countering Violent Extremism who was laid off in July, told me: “It seems like we’re now going to try shooting our way out of this problem again, and it’s going to make the problem worse.”

Four men dressed in military gear walk along a city street.
Federal agents patrol New Orleans, La., following a terrorist attack on Jan. 1, 2025.
Andrew Caballero-Reynolds/AFP via Getty Images

What can be done?

Rebuilding a prevention-focused approach with expertise will require political will and bipartisan support.

U.S. Reps. Sara Jacobs, a Democrat from California, and Mike McCaul, a Texas Republican, have introduced a bill that would reauthorize the Global Fragility Act, extending it until 2030. It would allow the U.S. government to continue preventing conflicts, radicalization and helping unstable countries. The measure would also improve the way various government agencies collaborate to achieve these goals.

But its success hinges on securing funding and restoring or creating new offices with expert staff that can address the issues that lead to terrorism.

This analysis was developed with research contributions from Saroy Rakotoson and Liam Painter at Georgetown University.

The Conversation

Kris Inman does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump administration cuts to terrorism prevention departments could leave Americans exposed – https://theconversation.com/trump-administration-cuts-to-terrorism-prevention-departments-could-leave-americans-exposed-261630

The bacteria killing sea stars in the Pacific: How our team uncovered a decade-long mystery

Source: The Conversation – Canada – By Melanie Prentice, Research Associate, University of British Columbia

A sunflower sea star in Knight Inlet on the British Columbia coast. (Grant Callegari/Hakai Institute)

In 2013, a mysterious epidemic swept across the Pacific Coast of North America, rapidly turning billions of sea stars from Mexico to Alaska into goo.

Its name, sea star wasting disease (SSWD), describes what you might have seen if you wandered the shores of the Pacific Northwest at that time: contorted sea star bodies and fragmented arms littered the sea floor, as the tissues of sea stars melted away within a matter of days.

In the more than 10 years that has followed, SSWD has been described as the largest epidemic ever recorded in a wild marine species, and one of the 10 greatest unsolved ocean mysteries. Attempts to identify the pathogen responsible have turned up more questions than answers, until now.

We have recently published the findings of our five-year research project into the cause of SSWD.

Our team included multi-national and multi-disciplinary researchers from academic, government and non-profit institutions, a collaboration that was critical for the success of this work.

Together, we conducted laboratory experiments and analyzed data from wild outbreaks of SSWD to identify the pathogen responsible: a novel strain of the bacterium Vibrio pectenicida.

The significance of sea stars

An explainer on sea star wasting disease. (Hakai Institute).

Aside from the devastating loss of these charismatic rocky-shore inhabitants, the implications of this epidemic reverberate throughout the ecosystems sea stars inhabit.

More than two dozen species appear to be afflicted by SSWD, which vary in their susceptibility to the disease. Most susceptible is the sunflower sea star, a voracious marine predator and the largest species of sea star. They can grow to the size of a bicycle tire and have as many as 24 arms.

Almost six billion sunflower sea stars have been lost to SSWD, placing them on the critically endangered species list. With them, the kelp forest ecosystems they help to regulate have disappeared.

Sunflower sea stars keep kelp forests thriving by preying on sea urchins. With the rapid disappearance of these predators, unchecked urchin populations increased rapidly, mowing down kelp forests and replacing these lush, biodiverse ecosystems with urchin barrens.

The loss of kelp has had knock-on effects for the numerous species that rely on it for food and habitat. Alongside this staggering loss of biodiversity, millions of dollars from fishing and tourism are lost to impacted communities.

Although harder to quantify, the ecosystem services of kelp forests are also impacted, including water filtration which improves water quality, sediment stabilization that protects coastlines from erosion and storms, and carbon capture that helps mitigate the effects of climate change.

Recovery of kelp forests, and the species reliant upon them, requires a deeper understanding of SSWD and the sea stars devastated by it. The first step in our research was to identify the culprit responsible, however, the task proved more difficult than we initially anticipated.

a group or large starfish with several arms
A group of sunflower sea stars with SSWD in Knight Inlet, B.C.
(Grant Callegari/Hakai Institute)

A pathogen is revealed

Among the many possible pathogens suspected of causing the SSWD epidemic, it is unsurprising that the culprit turned out to be in the Vibrio species group.

From multiple diseases in corals to cholera in humans, the abundance of harmful Vibrio species in our oceans is on the rise with climate change as these bacteria favour warmer waters.

However, narrowing in on the specific culprit was not an easy undertaking. Vibrio pectenicida has some unusual characteristics not observed in other Vibrio species, allowing it to evade detection for more than a decade.

This was originally considered a risky and potentially unanswerable question. However, years of laboratory experiments and field sampling recently culminated in successful mortality-inducing experiments using a pure culture isolated by Amy Chan, a research scientist at the University of British Columbia, of the novel Vibrio pectenicida strain.

Named FHCF-3, it stands apart from previously identified strains (different genetic variants) by less than three per cent of its genome. Such strains have been isolated from diseased scallop larvae in France, crabs in the United Kingdom and, most recently, geoduck larvae from the Pacific Northwest.

Whether or not these strains can cause SSWD remains to be answered, but the potential implications are clear; with a large host range, broad geographic distribution, and propensity for warm seawater temperatures anticipated with advancing climate change, this pathogen is one to watch.

a five armed starfish on a rock underwater, some of its arms are disintegrating.
A cookie sea star with SSWD near Calvert Island, B.C.
(Grant Callegari/Hakai Institute)

No time to waste

Like removing a blindfold, the identification of the pathogen causing SSWD unveils new opportunities for research and management of the species and ecosystems affected.

First on the list is developing a diagnostic test that can detect the genetic sequence of the pathogen. This would allow researchers to test sea star or seawater samples for its presence.

Much like the COVID-19 test eased humanity out of lockdowns, this test will help inform marine management by helping diagnose healthy versus sick sea stars, and identifying locations best suited for reintroduction efforts.

Another target of future research is to identify resilient sea stars (those that can either prevent infection entirely or fight it off once it takes hold) for conservation breeding.

Resilient individuals, particularly of highly vulnerable species like sunflower sea stars, will be vital for recovery efforts in a warming ocean where Vibrio pectenicida is already widespread.

Despite the odds, the identification of the SSWD pathogen provides a new hopeful vision for our oceans and their inhabitants; one where disease-resilient sunflower sea stars once again roam the sea floor among thriving kelp forests replete with vibrant marine life.

The Conversation

Melanie Prentice receives funding from The Tula Foundation and The Nature Conservancy of California.

Alyssa-Lois Gehman receives funding from the Tula Foundation and The Nature Conservancy. She is affiliated with the Hakai Institute

Drew Harvell receives funding from The Nature Conservancy.

Grace Crandall receives funding from The Nature Conservancy.

ref. The bacteria killing sea stars in the Pacific: How our team uncovered a decade-long mystery – https://theconversation.com/the-bacteria-killing-sea-stars-in-the-pacific-how-our-team-uncovered-a-decade-long-mystery-259875

Eddington ends with a dark joke about disability – but its punchline is centuries old

Source: The Conversation – Canada – By Billie Anderson, Ph.D. Candidate, Media Studies, Western University

Joaquin Phoenix, left, who plays small-town sheriff Joe Cross, and Pedro Pascal, who plays the town’s mayor, Ted Garcia, in a scene from Ari Aster’s film ‘Eddington.’ (A24)

This story contains spoilers about ‘Eddington,’ ‘Midsommar’ and ‘Hereditary.’

Ari Aster’s new film Eddington is a political satire set in a small American town, where a feud between Sheriff Joe Cross (Joaquin Phoenix) and Mayor Ted Garcia (Pedro Pascal) begins with disagreement over pandemic policy, but quickly escalates into a chaotic, paranoid power struggle. What starts as a clash of ego spirals into increasingly violent and absurd confrontations.

In the film’s closing minutes, Joe is abruptly stabbed in the head by someone described as “anti-fascist terrorist” after an extended shootout. He survives, and the next time we see him he’s a quadriplegic wheelchair user and non-verbal.

By the end, Joe has been appointed mayor, either by default or out of public pity. The last shot leaves him as the town’s figurehead alongside a giant AI data centre in the desert: a monument to the forces that now shape human life, governance and identity.

It’s brutal, cynical, mean-spirited and a tad esoteric. But Aster seems to be offering a scathing portrait of American politics and the men like Joe who populate it: stubborn, self-righteous, vaguely libertarian; men clinging to authority, even as the world moves on without them.

There’s irony in the film’s portrayal of anarchic protesters, live-streamers and the failed machismo of Joe’s character arc. But when the laughter of the climax fades, what remains is something all too familiar: disability as the poetic consequence of bad behaviour. Not as an ongoing human experience, but as karmic spectacle.

Disability as consequence, not condition

Joe’s fate follows a centuries-old narrative pattern in which disability is framed as punishment, poetic justice or moral revelation. From medieval Christian theology to contemporary satire, bodily difference has long been used to symbolize inner failing. Impairment stands in for sin, ego, corruption or spiritual deficiency.

Enlightenment rationalism and eugenics-era pseudoscience cemented this association, casting disabled bodies as physically manifest proof of social and moral inferiority.

Cinema inherited these tropes, and still leans on them. As disability studies scholars David Mitchell and Sharon Snyder argue, disability is often introduced not to explore a character’s complexity, but to serve as a metaphorical crutch or shortcut to meaning.

Cinematic trailer for Ari Aster’s 2025 film ‘Eddington.’

The disabled body often appears when something needs to be revealed, resolved or punished. In Eddington, Joe’s fate is exactly that.

Disability arrives not as an opening to new experience but as closure: a visual and symbolic transformation from dangerous man to inner object. Joe is no longer speaking, acting or choosing.

The film seems to punish him, not for a single action, but for what he represents: a particular kind of white male authority figure that is combative, self-righteous and increasingly out of touch.

While Joe does oppose the mayor’s early pandemic policies, including mask mandates, his real “crime” in the film is his stubbornness and inflated self-control. He doubles down on personal power, even as systems collapse around him. His disability, then, functions as justice: a final, ironic version of the control he fought so hard to maintain.

He has become a site for meaning-making — a silent figure whose stillness now says everything about the futility of power, the absurdity of authority, the fall of the American sheriff, the political centrist.

Familiar patterns in Aster’s work

Ari Aster’s earlier films follow similar patterns. In Hereditary (2018) Charlie’s facial difference and neurodivergence signal otherness and fragility; her death becomes the hinge on which the horror turns.

In Midsommar (2019), Ruben, a disabled oracle, is portrayed as both holy and someone without personal agency: a vessel for prophecy rather than a fully developed character.

Across Aster’s filmography, disability tends to show up not as life, but as a symbol; as curse, as mysticism, as moral sign. Eddington takes that formula and strips it down even further: Joe becomes disabled at the moment the movie decides he’s no longer needed. It’s efficient, final and familiar.

Disability as visual rhetoric

As disability studies scholar Rosemarie Garland-Thomson writes, disabled bodies are often positioned as visual rhetoric. They are something to be interpreted, not inhabited.

Joe’s silence and stillness as a result of him becoming disabled don’t invite audiences to understand his experience; they invite us to read him, as if his body were a sentence the director had written.

We do see a glimpse of care: Joe appears to be tended to by a man who is now also his mother-in-law’s partner. But even this is played for laughs.

There’s no reckoning with long-term adaptation, no real engagement with the material realities of disability. The body remains an object, not a subject, and once it serves a rhetorical function, the camera moves on.

The real pandemic disabled millions

The symbolic use of disability hits differently given the film’s setting. Eddington is a pandemic movie — a chaotic satire of COVID-era paranoia, misinformation and isolation.

But COVID-19 hasn’t just destabilized governments, upended social norms and exacerbated online political turmoilit has disabled people.

Millions globally now live with long COVID, facing chronic pain, fatigue, cognitive impairment and dramatic changes to their work, social lives and health-care access.




Read more:
People with long COVID continue to experience medical gaslighting more than 3 years into the pandemic


The pandemic is a mass disabling event, not a metaphor. And yet, Eddington engages with disability only as a punchline. It becomes an ironic punishment for a man too arrogant to admit his limits. The joke lands harder when it treats disability as poetic justice instead of ongoing reality.

Toward fuller representation

Disability studies invites us to consider disability not as a narrative end point, but as a relational and continuous experience shaped by care networks, access barriers, evolving identities and collective adaptation.

What if Eddington had stayed with Joe after his injury? What if it explored his new position not through silence or shame, but through the messy human realities of interdependence?

What if the satire had gone further, asking not just what happens to a sheriff when he’s taken down, but what happens to power when it must rely on care? What if Joe had died and his mother-in-law had become mayor as a serious disruption of legacy politics?

Absurdism and dark comedy about the body aren’t the problem. But the symbolic shorthand of disability as justice carries weight, especially when disabled people continue to be marginalized, disbelieved and erased in the very real world that Eddington pretends to parody.

A sharper satire would engage with disability as part of the social fabric that challenges the audience to reckon with embodiment, dependence and mutual obligation. It could surprise audiences by refusing the easy exit of moral symbolism. It could be more rewarding, radical — and frankly, more intellectual — than another joke equating impairment with comeuppance.

The portrayal of disability in Eddington is not malicious, but it is predictable. It continues a long tradition of using disability to signal judgement, irony or narrative finality.

But real life doesn’t offer such clean punctuation. Disability is not the end of a story, but the start of a more complex, embodied and political one. Until cinema catches up, satires like Eddington will continue to undermine what they claim to critique.

The Conversation

Billie Anderson does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Eddington ends with a dark joke about disability – but its punchline is centuries old – https://theconversation.com/eddington-ends-with-a-dark-joke-about-disability-but-its-punchline-is-centuries-old-262780

‘Better Than Chocolate’ highlights lost 90s decade of lesbian Canadian cinema

Source: The Conversation – Canada – By Tamara de Szegheo Lang, Adjunct Assistant Professor, Department of Film and Media, Queen’s University, Ontario

“If coming out of the closet was really as much fun as it is for the sexually adventurous youths in Better Than Chocolate, then everybody would be doing it, even straight people.”

So wrote film critic Bruce Kirkland in his 1999 review of the lesbian romantic comedy by Canadian filmmaker Anne Wheeler.

film poster showing a woman's naked back who is being embraced by another woman
‘Better Than Chocolate’ was released in 1999.
(Wikipedia/Trimark Pictures/IMBD)

Kirkland pointed out that real life for queer and trans community members was “tougher, harsher and nastier” than portrayed in the 90-minute romp, but also wrote: “To hell with reality, at least for an hour-and-a-half. This movie is a little treasure and offers a lot of pleasure.”

The endearing rom-com won audience choice awards at a number of gay and lesbian film festivals, including in its hometown of Vancouver.

Today, more than a quarter century later, with hate crimes against queer and trans people on the rise and legal protections, especially in the United States, being threatened or ripped away, the film’s lens on romance — and the joy, safety and complications of being in community — may resonate with contemporary viewers and offer a brief reprieve from the heaviness of the political fight.

Like many Canadian lesbian-driven films from the 1990s, it also serves as an example of filmmakers working in queer communities to highlight once-censored voices, and reflects the sheer ingenuity and creative force of community collaboration in this moment — something that has been underrepresented in broader histories of queer and Canadian national cinema.

Whirlwind romance

In Better Than Chocolate, bookstore employee Maggie (Karyn Dwyer) and nomadic artist Kim (Christina Cox) start a whirlwind romance, moving in together within a matter of hours (echoing the classic U-Haul lesbian stereotype).

Their love story is complicated by the arrival of Maggie’s mother Lila (Wendy Crewson), a judgmental woman fresh off a divorce who doesn’t know her daughter is a lesbian. Comedic chaos ensues as the two young lovebirds navigate romantic, familial and community conflicts, all of which are neatly wrapped up by the end.

Though Better Than Chocolate may ultimately be a feel-good comedy, the film captures a community under attack from outside and within.

Skinheads harass Maggie and Kim, culminating in violence. Judy (Peter Outerbridge) is accosted for being transgender and is consistently misgendered by other lesbians.

The Canadian Border Services Agency purposefully targets neurotic bookstore owner, Frances (played by actor, author, playwright and Canadian lesbian icon Ann-Marie Macdonald), for selling queer literature.

Lesbian-centred 90s film

Better Than Chocolate is only one in a wave of lesbian-centred 90s films made in Canada. In this decade, creatives produced at least 12 narrative feature-length lesbian-centred films, several documentaries and over 400 short films.

Some echo Better Than Chocolate’s romantic tone, but the wave includes a diversity of genres – including erotic thrillers, family dramas and experimental dreamscapes.

Some of these films are well-recognized in the Canadian film canon, including Deepa Mehta’s Fire (1996) and Patricia Rozema’s When Night is Falling (1995), while others have been largely forgotten and prove hard to access today, like Patricia Rivera Spencer’s Dreamers of the Day (1990) and Jeanne Crépeau’s Revoir Julie (1998).

Ecosystem behind lesbian Canadian film

Canadian economic, social and artistic contexts offered a vital creative ecosystem that facilitated such a vibrant era of lesbian-driven cinema.

Feminist filmmaking collectives in the 1970s — like Women in Focus (Vancouver), intervisions/ARC (Toronto) and Reel Life (Halifax) — alongside the launch of Studio D at the National Film Board of Canada in 1974 — provided dedicated space for training talent and for producing films about women’s issues.

A woman smiling.
Anne Wheeler.
(www.annewheeler.com)

Wheeler came up through Studio D, co-directing the studio’s first film in 1975.

Canadian artists also had access to several funding sources, including federal, provincial and local arts councils. Beginning in the late 80s, such funding sources were soliciting more diverse content, a result of community activism driven by marginalized artists.

Importantly, a growing network of queer film festivals aided the development of an invested audience willing to pay to watch queer stories.

From 1985 to 2000, at least 11 annual queer festivals were founded in Canada, including Reel Pride (Winnipeg, 1985); Out on Screen (Vancouver, 1988); image+nation (Montréal, 1989); London Lesbian Film Festival (London, 1991); and Inside Out (Toronto, 1991).

With increasing venues to screen queer work and growing audiences came the demand for more films.

A Vancouver lesbian story

Alongside the broader Canadian context, local contexts also encouraged more filmmakers to tell lesbian stories.

Wheeler had long been committed to making films about lesser-represented Western Canada. While most of her films were set in Alberta, Better Than Chocolate moved her focus to Vancouver and its local queer politics.

The dramatic subplot between bookstore owner Frances and the Canada Border Services Agency (CBSA) is a clear reference to the then-ongoing Supreme Court of Canada case involving Little Sister’s Book and Art Emporium in Vancouver.

Little Sister’s, a queer bookstore, had been targeted for years by the CBSA, which would delay shipments while confiscating and sometimes damaging materials that it considered obscene.

The film publicized the homophobia of the CBSA, with Frances comedically demanding to know why books such as Little Red Riding Hood had been confiscated.

As we discovered in our archival research, Janine Fuller, the manager of Little Sister’s, provided feedback on an early draft of the screenplay. A flyer from the film’s production company was also used to raise the visibility of the court case.

Local community ties

The film’s community ties extended further. As noted in archival documents and the film’s press package, Canadian trans activist and performance artist Star Maris inspired the filmmakers when crafting the character of Judy. Her song, “I’m Not a Fucking Drag Queen,” was solicited for use within the film.

Vancouver’s lesbian community was invited to participate as extras in a bar scene, with an advertisement stating, “This is an excellent opportunity to meet new friends, party with old ones, have much fun being in a movie.”

Finally, as Anne Wheeler told Eye Weekly in 1999: “Right from the development phase on, we had a group of 12 young lesbian women whom we consulted with and they told us very specifically what they did and didn’t want to see. … So we set out very intentionally to break the mould and dispose of the old perceptions about gay women.”

In returning to Better Than Chocolate and other films, queer audiences may find entertaining gems, but may also be reminded of the power of survival of queer communities.

Better Than Chocolate is now available on CTV. Don’t stop there! In addition to films named above, check out these other Canadian lesbian-centred 90s feature films.

Tokyo Cowboy (1994)

Skin Deep (1994)

Devotion (1995)

Cat Swallows Parakeet and Speaks (1996)

High Art (1998)

2 Seconds (1998)

Emporte-Moi (1999)

The Conversation

Tamara de Szegheo Lang receives funding from the Social Sciences and Humanities Research Council of Canada (SSHRC)
for the project “Bodies on Fire: Rekindling Canada’s Decade of Lesbian-Driven Filmmaking.”

Dan Vena receives funding from the Social Sciences and Humanities Research Council of Canada (SSHRC) for the project “Bodies on Fire: Rekindling Canada’s Decade of Lesbian-Driven Filmmaking.”

ref. ‘Better Than Chocolate’ highlights lost 90s decade of lesbian Canadian cinema – https://theconversation.com/better-than-chocolate-highlights-lost-90s-decade-of-lesbian-canadian-cinema-259494

As the status quo shifts, we’re becoming more forgiving when algorithms mess up

Source: The Conversation – Canada – By Hamza Tariq, PhD Student, Cognitive Psychology, University of Waterloo

New inventions — like the printing press, magnetic compasses, steam engines, calculators and the internet — can create radical shifts in our everyday lives. Many of these new technologies were met with some degree of skepticism by those who lived through the transition.

Over the past 30 years alone, we’ve seen our relationship with the internet transform dramatically — it’s fundamentally changed how we search for, remember and learn information; how we evaluate and trust information; and, more recently, how we encounter and interact with artificial intelligence.




Read more:
AI can be responsibly integrated into classrooms by answering the ‘why’ and ‘when’


As new technologies and ways of doing things emerge, we fixate on their flaws and errors, and judge them more harshly than what we’re already familiar with. These apprehensions are not unwarranted. Today, important debates continue around accountability, ethics, transparency and fairness in the use of AI.

But how much of our aversion is really about the technology itself, and how much is driven by the discomfort of moving away from the status quo?

Algorithm aversion

As a PhD student in cognitive psychology, I study human judgment and decision-making, with a focus on how we evaluate mistakes, and how context, like the status quo, can shape our biases.

In my research with cognitive psychologists Jonathan A. Fugelsang and Derek J. Koehler, we tested how people evaluate errors made by humans versus algorithms depending on what they saw as the norm.

Despite algorithms’ track record of consistently outperforming humans in several prediction and judgment tasks, people have been hesitant to use algorithms. This mistrust goes back as far as the 1950s, when psychologist Paul Meehl argued that simple statistical models could make more accurate predictions than trained clinicians. Yet the response from experts at the time was far from welcoming. As psychologist Daniel Kahneman would later put it, the reaction was marked by “hostility and disbelief.”

That early resistance continues to echo in more recent research, which shows that when an algorithm makes a mistake, people tend to judge and punish it more harshly than when a human makes the same error. This phenomenon is now called algorithm aversion.

Defining convention

We examined this bias by asking participants to evaluate mistakes made by either a human or by an algorithm. Before seeing the error, we told them which option was considered the conventional one — described as being historically dominant, widely used and typically relied upon in that scenario.

In half the trials, the task was said to be traditionally done by humans. In the other half, we reversed the roles, indicating that the role had traditionally been done by an algorithmic agent.

When humans were framed as the norm, people judged algorithmic errors more harshly. But when algorithms were framed as the norm, people’s evaluations shifted. They were now more forgiving of algorithmic mistakes, and harsher on humans making the same mistakes.

This suggests that people’s reactions may have less to do with algorithms versus humans, and more to do with whether something fits their mental picture of how things are supposed to be done. In other words, we’re more tolerant when the culprit is also the status quo. And we’re tougher on mistakes that come from what feels new or unfamiliar.

Intuition, nuance and skepticism

Yet, explanations for algorithm aversion continue to make intuitive sense. A human decision-maker, for instance, might be able to consider the nuances of real life like an algorithmic system never could.

But is this aversion really just about the non-human limitations of algorithmic technologies? Or is part of the resistance rooted in something broader — something about shifting from one status quo to another?

These questions, viewed through the historic lens of human relationships with past technologies, led us to revisit common assumptions about why people are often skeptical and less forgiving of algorithms.

Signs of that transition are all around us. After all, debates around AI haven’t slowed its adoption. And for a few decades now, algorithmic tech has already been helping us navigate traffic, find dates, detect fraud, recommend music and movies, and even help diagnose illnesses.

And while many studies document algorithm aversion, recent ones also show algorithm appreciation — where people actually prefer or defer to algorithmic advice in a variety of different situations.

We’re increasingly leaning on algorithms, especially when they’re faster, easier and appear just as (or more) reliable. As that reliance grows, a shift in how we view technologies like AI — and their errors — seems inevitable.

This shift from outright aversion to increasing tolerance suggests that how we judge mistakes may have less to do with who makes them and more to do with what we’re accustomed to.

The Conversation

Hamza Tariq has received funding from the Natural Sciences and Engineering Council (NSERC) of Canada.

ref. As the status quo shifts, we’re becoming more forgiving when algorithms mess up – https://theconversation.com/as-the-status-quo-shifts-were-becoming-more-forgiving-when-algorithms-mess-up-261166

Photovoltaïque et réseau électrique : comment une IA fiable et transparente pourrait faciliter la décarbonation

Source: The Conversation – France in French (2) – By Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris – PSL

Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.


Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.

Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.

Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.

L’intégration des renouvelables au réseau électrique : des défis maîtrisables

Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.

L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.

Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.

Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.

Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).

Comment répertorie-t-on aujourd’hui les systèmes installés ?

Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.

L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.

Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.

Quels sont les freins à l’adoption de l’IA comme outil d’aide à la cartographie des systèmes photovoltaïque ?

Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.

Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.

Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.

comment l’IA identifie un panneau solaire
Un exemple de détection expliquée par notre méthode d’explicabilité. À gauche se trouve l’image de panneau, telle que vue par le modèle. Les zones de cette image importantes pour la prédiction du modèle sont surimposées avec des couleurs chaudes (B). Cependant, cette surimposition n’indique pas quels sont les éléments importants dans ces régions. Sur l’animation (C), nous utilisons notre méthode d’explicabilité pour filtrer progressivement l’image jusqu’à ne retenir que ce qui est nécessaire pour que le modèle fasse sa prédiction. Ce filtrage montre que le modèle a besoin du motif en grilles (plutôt que la couleur ou la forme générale du panneau) pour identifier un panneau.
Kasmi et collaborateurs, études de 2024 et 2025, Fourni par l’auteur

Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.

Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.

Qu’est-ce que l’IA explicable ?

  • Les algorithmes de deep learning atteignent des performances remarquables dans de nombreuses applications. Ils sont néanmoins très complexes et donc difficiles à interpréter : on parle ainsi souvent de “boîtes noires”.
  • L’IA explicable (XAI) désigne l’ensemble des outils et méthodes permettant de décrire le fonctionnement d’un algorithme de deep learning de manière compréhensible pour un humain. Ces méthodes visent ainsi à améliorer la transparence des algorithmes, faciliter leur débogage, prévoir leurs cas d’échecs ou encore encourager leur adoption par des utilisateurs non spécialistes.
  • Dans notre cas, l’XAI nous a permis d’identifier un processus de décision (le modèle entraîné traduit souvent la présence d’un panneau PV avec un motif en forme de grille sur l’image), ce qui nous a permis d’identifier des cas d’échecs potentiels : la confusion de verrières pour des panneaux solaires.

Comment faire en sorte que l’IA reste fiable alors que les systèmes à détecter évoluent ?

Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.

Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.

L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.

The Conversation

Gabriel Kasmi a reçu des financements de RTE et de l’Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d’une convention Cifre). Il est membre du think tank Zenon.

ref. Photovoltaïque et réseau électrique : comment une IA fiable et transparente pourrait faciliter la décarbonation – https://theconversation.com/photovolta-que-et-reseau-electrique-comment-une-ia-fiable-et-transparente-pourrait-faciliter-la-decarbonation-261681