¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien?

Source: The Conversation – (in Spanish) – By Enrique Balmaseda Maestu, Profesor Titular de Lengua Española en la Universidad de La Rioja, Universidad de La Rioja

Cuando hablamos cualquier idioma, pronunciamos con mayor intensidad determinadas sílabas de la cadena de palabras. A dicha intensidad se la llama acento prosódico y a las palabras que lo contienen, tónicas. En español, lengua de acento libre, las palabras tónicas pueden portar su acento en diversas posiciones silábicas (NÚmero / nuMEro / numeRÓ). Por el contrario, el francés, de acento fijo, siempre lo lleva en su última sílaba (comMENT, exacteMENT).

Ahora bien, solo en algunas lenguas se marca la vocal tónica con una tilde o acento gráfico (´) para destacarla visualmente de las otras. Y dentro de estas, el español se rige por una serie de reglas que limita el uso de dichas marcas. No escribimos “dáme ún póco de léche”, sino “dame un poco de leche”. Las normas ortográficas para el uso de tildes tienen en cuenta que la mayoría de las palabras del español son llanas (es decir, su sílaba tónica es la penúltima) y terminan en “n”, “s” o vocal, por lo que ninguna de las palabras que tienen estas características necesitan tilde.

Si este “manual de instrucciones” para usar la tilde correctamente es relativamente sencillo, ¿por qué cometen tantos errores los estudiantes? En las últimas oposiciones de Enseñanza Secundaria en España, realizadas en julio de 2025, las faltas de ortografía han sido uno de los factores más polémicos del alto porcentaje de suspensos. Solo en Andalucía se han invalidado por su causa 4000 exámenes, incluida la ausencia o descolocación del acento gráfico.

¿Cómo de importantes son las tildes?

En una comunicación básica, quizá no pasa nada especialmente grave si, por desconocimiento o descuido, se omite la tilde o se coloca incorrectamente, porque nuestra gramática interna o mental nos permite interpretar correctamente enunciados de escritura incorrecta como Papa la tomo de la mano.

A eso parecía referirse García Márquez en su famoso discurso del Congreso de Zacatecas (1997): “Nadie ha de leer lagrima donde diga lágrima ni confundirá revólver con revolver”. Ciertos estudios lo corroboran al constatar que el tiempo de fijación de la mirada en palabras aisladas es igual tanto si llevan tilde como si no la llevan.

Eficacia comunicativa

¿Por qué entonces conviene usar las tildes adecuadamente? Por varias razones: unas, digamos, por autoimagen y prestigio cultural; otras, por competencia y eficacia comunicativa. Frente a la provocación de García Márquez, lo cierto es que un texto bien redactado y sin errores ortográficos denota rigor mental, disciplina intelectual, elegancia… La precisión acentual también es indicio del gusto por el detalle y el buen hacer.

Por otra parte, la acentuación correcta, cuando se trata de enunciados y no de palabras aisladas, nos ayuda a comprender lo leído más deprisa y a deshacer posibles ambigüedades. Y también a pronunciar bien otras voces poco conocidas (buerdégano, barbián, bahorrina…) o variantes lingüísticas del español (tú cantas / vos cantás, cóctel / coctel, vídeo / video, etc.).

Además, la funcionalidad y economía de las reglas de acentuación en nuestra lengua contribuyen a la unidad lingüística en el registro formal de todo el ámbito hispanohablante. En definitiva, tildar correctamente nos permite distinguir las palabras y entender e interpretar la escritura adecuadamente, con precisión y con mínimo esfuerzo mental.

El origen de las reglas actuales

La primera Ortografía académica (1741) fijó unas normas de acentuación gráfica donde ya prevalecía el principio de economía basado en las características acentuales del español: es decir, las normas se diseñaron para que las palabras con tilde fueran las menos posibles.

Como la mayor parte de sus palabras son llanas (62 %) y agudas (29 %), al tiempo que las sílabas suelen terminar en vocal (69 %) y en –n o –s, la RAE estableció unas reglas básicas para escribir sin tilde casi todas las palabras: las monosílabas, las llanas terminadas en vocal, –n y –s, y las agudas que acaben en consonantes que no sean las anteriores (Los peces nadan con calma en el mar azul). El resto debían ser tildadas (El biólogo encontró un fósil junto a un camarón en el océano).




Leer más:
¿Guapa? ¡Guapa! o ¡¡¡Guapa!!! La importancia de la puntuación en la expresión escrita


¿Todas las lenguas usan tildes?

Podría haber sido de otra manera. No hay más que echar un vistazo a la escritura de otras lenguas: en inglés no se marca ninguna tilde, salvo en unos pocos extranjerismos, por lo que es preciso saber previamente la pronunciación de las voces (por ejemplo, animal o acupuncture, donde el acento recae sobre la primera a).

El italiano, aún más parco en tildes que el español, solo marca las palabras agudas, distinguiendo el grado de abertura vocálica (caffè / perché) y unas pocas monosílabas ( ‘da’ / da ‘de’), mientras que no aparece en las esdrújulas (fabbrica) ni en las sobreesdrújulas (lasciatemelo).

Por el contrario, el griego moderno marca con tilde todos los acentos prosódicos (παιδί ‘niño’, βιβλιοθήκη ‘biblioteca’), salvo las palabras monosílabas, aunque también en estas se usa tilde diacrítica para distinguir las tónicas de las átonas.

¿Por qué se cometen errores?

Entre docentes existe la idea generalizada de que muchos estudiantes preuniversitarios, e incluso universitarios, muestran una ortografía mala o mejorable, en particular, respecto a las tildes, algo corroborado por algunos estudios.

Las causas apuntadas son varias: desconocimiento de las reglas, desdén hacia la escritura correcta por prejuicios diversos, falta de lecturas valiosas y de atención al escribir, pérdida de prestigio de las normas académicas, influencia de ciertas convenciones asociadas a la tecnología, tipo de relación con los destinatarios de los escritos, etc.

Pero también influye la ineficacia de los métodos de enseñanza, excesivamente memorísticos, que ponen el foco en el error y generan dudas ante los huecos en blanco.




Leer más:
¿Por qué los dictados tradicionales no enseñan ortografía?


Competencias necesarias para usar bien las tildes

Las reglas generales de acentuación, aparentemente sencillas, requieren automatizar competencias complejas: discriminar las palabras tónicas de las átonas, separarlas en sílabas, apreciar el acento de intensidad, determinar el tipo de palabra según la sílaba en que recaiga… Y, teniendo en cuenta su terminación, aplicar dichas reglas para poner o no las tildes.

A todo ello se añaden particularidades como la acentuación de hiatos, diptongos y triptongos, la de los adverbios en -mente, la variedad de porqués o la mencionada tilde diacrítica.

Y qué decir de la confusión y reticencia de muchos hispanohablantes cuando la norma ortográfica contradice nuestra intuición (como, por ejemplo, cuando se nos dice que palabras como guion o truhan no deben llevar tilde por ser monosílabas, a efectos ortográficos); cuando establece distinciones sutiles (la opción de tildar o no ciertos pronombres según su función sintáctica: qué/que, quién/quien, dónde/donde…); o, frente a una costumbre muy arraigada, indica que no debemos tildar el adverbio solo y los demostrativos este, ese o aquel (y sus flexiones).

Acentuar gráficamente las palabras implica articular un conjunto de competencias que van más allá de la simple memorización: adquirir saberes y técnicas para ejercitarlos de manera automática. Pero, como en toda disciplina intelectual, se pueden alcanzar aunando voluntad, reflexión, práctica y métodos didácticos adecuados.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien? – https://theconversation.com/por-que-tiene-tildes-el-espanol-y-por-que-nos-cuesta-tanto-usarlas-bien-260455

Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio

Source: The Conversation – (in Spanish) – By Juan Pablo Fernández-Cortés, Profesor investigador. Departamento Interfacultivo de Música, Universidad Autónoma de Madrid

Gustavo Pittaluga (en el centro, de pie), junto al ‘Grupo de los cinco’ (de izquierda a derecha): Julián Bautista, Rodolfo Halffter, Fernando Remacha y Salvador Bacarisse. Biblioteca Virtual de Prensa Histórica, CC BY

El 8 de octubre de 1975, pocas semanas antes de la muerte de Franco, fallecía en Madrid Gustavo Pittaluga González del Campillo (1906-1975). Su entierro en el Cementerio Civil fue sobrio, sin homenajes. Como si con él se sepultara también la memoria de una modernidad interrumpida por la guerra y la dictadura.

En su biografía se cruzan nombres esenciales de la cultura española –su amigo Federico García Lorca, el cineasta Luis Buñuel o el poeta Rafael Alberti, entre otros– y el itinerario compartido por una generación que hizo de la creación artística un acto de resistencia y de libertad. El exilio llevó a Pittaluga de París a Estados Unidos, Cuba, México y otros países de América Latina, donde mantuvo viva la llama de la cultura de la República.

Medio siglo después, su figura, aún pendiente de un estudio riguroso, reclama su lugar en la memoria cultural de la España del siglo XX.

Los años de la guerra

Retrato de un hombre de traje apoyado en una balaustrada.
Retrato de Gustavo Pittaluga González del Campillo.
Miquelopezgarcia/Wikimedia Commons, CC BY-SA

Antes del estallido de la Guerra Civil, Pittaluga era ya una de las voces más prometedoras de la renovación musical española. Discípulo de Manuel de Falla y cofundador del Grupo de los Ocho, compartía escena con los hermanos Ernesto y Rodolfo Halffter, Fernando Remacha, Salvador Bacarisse o Rosa García Ascot en la defensa de una música abierta a la modernidad europea y alejada del academicismo. Dirigía conciertos, escribía críticas, componía ballets exitosos como La romería de los cornudos –fruto de su colaboración con García Lorca y el también dramaturgo Cipriano Rivas Cherif para la bailarina “La Argentinita”– y proyectaba y difundía en París y Madrid la música de los jóvenes compositores españoles.

Todo se quebró con la sublevación militar. Pittaluga abandonó su actividad artística e ingresó como diplomático en el Ministerio de Estado. Poco después, en el verano de 1937 fue destinado a Washington como secretario de la embajada dirigida por Fernando de los Ríos. Allí defendió la legitimidad del gobierno republicano y, en silencio, comenzó a concebir un homenaje a su amigo Lorca, asesinado en Granada el año anterior, un lamento íntimo que cristalizaría en una obra musical de alto contenido simbólico.

Nueva York: Lorca y Calder en el MoMA

En 1941 llega a Nueva York y se reencuentra con Luis Buñuel, que trabajaba en el departamento de cine del Museum of Modern Art (MoMA). Allí, se integró en su equipo como adaptador cinematográfico, una labor discreta que le permitió acceder al circuito cultural neoyorquino y establecer vínculos con las vanguardias internacionales.

En ese mismo espacio Pittaluga estrenó su Llanto por Federico García Lorca. Escrita para voz recitada y orquesta de cámara a partir de fragmentos de Bodas de sangre, es una partitura madurada en silencio durante los años más inciertos de la guerra y el exilio.

El estreno, del que hasta ahora se desconocía la fecha y el lugar, tuvo lugar el 27 de abril de 1943 en el ciclo Serenade, organizado por la violinista y mecenas Yvonne Giraud, marquesa de Casa Fuerte, bajo la dirección de Vladimir Golschmann con el título abreviado de Elegy. La obra compartió programa con Profiteroles, del compositor estadounidense Theodore Chanler, y la primera interpretación en Nueva York de Les Danses Concertantes de Ígor Stravinsky, lo que situó de manera explícita el homenaje lorquiano en el corazón mismo del debate musical contemporáneo.

Mientras el franquismo imponía el silencio sobre Lorca, Pittaluga lo rescataba en Estados Unidos y convertía su memoria en un acto de resistencia y un puente hacia la modernidad.

Fuentes hemerográficas que han pasado inadvertidas hasta la fecha, revelan otro episodio desconocido de la estancia neoyorquina de Pittaluga: la participación, en 1944, en el documental Sculpture and Constructions dedicado al escultor Alexander Calder. Para este cortometraje, producido por el MoMA, el compositor escribió una breve partitura para piano, de gran economía expresiva, que apoyaba el movimiento rítmico e inestable de los móviles de Calder.

El documental Sculpture and Constructions, dirigido por Herbert Matter.

Muchas de las obras que Pittaluga compuso en los primeros años de su exilio muestran también su diálogo con la literatura contemporánea y su empeño por mantener viva la memoria republicana. Sobre poemas de Rafael Alberti escribió Metamorfosis del clavel (1943), un ciclo de canciones para voz y guitarra. Poco después creó el Homenaje a Díez Canedo (1944), basado en el poema Merendero del escritor extremeño Enrique Díez-Canedo, exiliado y fallecido ese mismo año en México. En esta obra, recitador y piano dialogan en clave expresionista sobre ritmos de chotis y habanera que traducen las tensiones del deseo, el desarraigo y la vida urbana del exilio.

Latinoamérica

Tras instalarse en México en 1945, el camino de Gustavo Pittaluga volvió a cruzarse con el de su amigo Luis Buñuel, esta vez en el cine. La música de Los olvidados (1950) y Subida al cielo (1952) lleva su firma –aunque en los créditos de la primera apareció acompañada de Rodolfo Halffter para sortear trabas sindicales–. En Los olvidados, la sonoridad áspera y tensa potencia la crudeza del retrato de la miseria urbana; en Subida al cielo, reelabora con ironía moderna las músicas populares rurales, fundiendo tradición y vanguardia.

Dos hombres mirando los fotogramas de una película en una imagen en blanco y negro.
Gustavo Pittaluga (derecha) en una imagen de 1950.
Archivo Emilio Casares/Base de datos de Iconografía Musical

El largo exilio de Pittaluga sigue siendo uno de los capítulos menos explorados de su biografía. En La Habana, Lima, Guatemala, Buenos Aires, Brasil o Ciudad de México desplegó una actividad incansable como conferenciante, director y divulgador. En cada escenario combinaba en sus programas a Isaac Albéniz, Enrique Granados y Falla con estrenos de sus obras y de otros autores españoles, trazando un puente entre la tradición y las nuevas corrientes de la modernidad.

El retorno

En 1958 Pittaluga volvió a España. El regreso, sin embargo, no significó la reintegración plena. La dictadura franquista imponía silencios y él optó por trabajar al margen de las instituciones oficiales. Se refugió en la música para teatro, cine y ballet, con colaboraciones discretas pero significativas como la banda sonora para El baile de Edgar Neville (1960) o la selección musical realizada para Viridiana de Buñuel (1961).

En 1960, la familia de García Lorca le confió la edición de las Canciones del teatro de García Lorca, reconstruidas a partir de los recuerdos de Concha e Isabel García Lorca y del escenógrafo Santiago Ontañón. El gesto era, además, un acto de reparación simbólica.

“He aquí los textos impresos. Tremendo es no tener los verbales”, escribió Pittaluga al prologar la edición de las Canciones españolas antiguas que se publicaron un año después. Ese mismo año armonizó canciones para Yerma, dirigida por Luis Escobar, primera representación comercial de Lorca en la España franquista. Le siguieron Bodas de sangre (1962) y La zapatera prodigiosa (1965), todas con música incidental suya.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


En los últimos años de su vida, se enfrentó a una profunda crisis personal y emocional. Según relató Rafael Alberti en una entrevista con Max Aub en 1969, Pittaluga se encontraba en un estado de grave deterioro físico y mental, “muy borracho, muy enfermo, muy perdido”. Alberti recordó también haberlo visto en Buenos Aires en una situación de descontrol, llegando a romper los cristales del hotel donde vivía y a tener que pagar constantemente por los daños ocasionados.

Su tumba en el Cementerio Civil de Madrid resume su destino: sencillo y coherente. Un final que contrasta con la intensidad de una vida atravesada por guerras, exilios y pérdidas, pero fiel hasta el final a la música, a sus amigos y a la memoria republicana.

The Conversation

Juan Pablo Fernández-Cortés no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio – https://theconversation.com/se-cumplen-50-anos-de-la-muerte-de-gustavo-pittaluga-el-compositor-que-protegio-la-memoria-de-espana-en-el-exilio-266735

Cuando Colón confundió lo que era una milla y llegó a América

Source: The Conversation – (in Spanish) – By J. Guillermo Sánchez León, Instituto Universitario de Física Fundamental y Matemáticas (IUFFyM), Universidad de Salamanca

Pintura romántica de la llegada de Cristóbal Colón a América (Dióscoro Puebla, 1862). Museo del Prado / Wikimedia Commons.

En 1999, la sonda espacial Mars Climate Orbiter de EE. UU. se precipitó sobre Marte al utilizar sus programadores, por error, el pie en lugar del metro. Colón tuvo más suerte: cinco siglos antes asignó un valor equivocado a la milla árabe y el error le llevó descubrir un nuevo continente.

Un marino en Salamanca

A finales de 1486, Cristóbal Colón se trasladó a Salamanca, sabiendo que los Reyes Católicos residirían temporalmente en esta ciudad. En aquella época, la corte no tenía una sede fija. Esperaba convencerles de que apoyasen su proyecto de alcanzar las Indias siguiendo una ruta directa a través del Atlántico, como alternativa al itinerario portugués que bordeaba África. Esta misma propuesta ya se la había presentado al rey de Portugal Juan II, que la había rechazado, probablemente aconsejado por el astrónomo salmantino Diego Ortiz de Calzadilla (o de Villegas).

En la biografía Vida y viajes de Cristóbal Colón (1828), Washington Irving cuenta que, en Salamanca, el navegante se enfrentó “a una imponente hilera de maestros, frailes y dignatarios eclesiásticos” que ridiculizaron su idea de la redondez de la Tierra: “¿Habrá alguno tan necio que crea que hay antípodas con los pies opuestos a los nuestros…?”. Sin embargo, los profesores de Salamanca en el siglo XV no cuestionaban que la Tierra era esférica, pero sí tenían motivos para desaconsejar la propuesta de Colón.

La Tierra era una esfera

Desde al menos el siglo VI a. e. c., filósofos y astrónomos griegos como Pitágoras, Platón y Aristóteles sostenían que la Tierra era una esfera, tanto por razones filosóficas (la esfera era considerada la figura geométrica perfecta), como por evidencias empíricas.

Durante los eclipses de Luna, la sombra de la Tierra era siempre circular. Además, los marinos observaban que, en la ruta desde el sur de Grecia a Alejandría, iban apareciendo en el horizonte nuevas constelaciones, lo que era explicable en una Tierra redonda.

El método de Eratóstenes.
Francesco De Lorenzo / Sociedad Geográfica Española (Boletín 76 ), CC BY

El reto de medir su tamaño

Eratóstenes de Cirene (276–194 a. C.) fue más lejos: midió el tamaño de la Tierra, comparando, en el solsticio de verano, las sombras del Sol al mediodía en Siena (actual Asuán) y en Alejandría. En Siena, el Sol estaba en el cénit y no proyectaba sombra, mientras que en Alejandría un gnomon –aguja que marca la sombra en un reloj de sol– sí la proyectaba, formando un ángulo cincuenta veces menor que el de una circunferencia.

Para calcular el perímetro de la Tierra solo tenía que multiplicar por 50 la distancia entre Siena y Alejandría –que estimó en 5 000 estadios–, con lo que obtuvo un total de 250 000 estadios (unidad de medida de longitud en la Antigüedad). Frecuentemente se dice ese valor es muy próximo al real.

En cualquier caso, su medida no fue la que se popularizó. Durante siglos, el tamaño de la Tierra aceptado fue el descrito por Claudio Ptolomeo (siglo II d. C.) en su Geographia. Le otorgó un perímetro de 180 000 estadios egipcios (unos 28 350 km, un 30 % menor que el real), basado en las medidas de Posidonio (c. 100 a. e. c.).

Este había observado que la estrella Canopus se veía en el horizonte en Rodas, mientras que en Alejandría se encontraba en un ángulo equivalente a 1/48 la longitud de la circunferencia. Multiplicando 48 por la distancia entre ambas ciudades, que se estimó en 3 750 estadios, resultan los 180 000 estadios.

El mundo según Ptolomeo (reconstrucción de Johannes de Armsshein. Ulm.1482).
Wikipedia, CC BY

Los errores de Colón

En el siglo IX, el astrónomo persa Al-Farghānī, al servicio del califa Al-Mamun, escribía en su Compendio de Astronomía: “la longitud de un grado en la circunferencia de la Tierra es de 56 millas y dos tercios de una milla […]. Este cálculo fue aceptado y validado por numerosos sabios. Por lo tanto, cuando multiplicamos la longitud de un grado de la circunferencia por el total del círculo, es decir, 360 grados, obtenemos que la circunferencia total de la Tierra es de 20 400 millas”.

Colón consideró relevante esta información, como hace constar en una nota manuscrita a su ejemplar del Imago mundi de Pedro d’Ailly (disponible en la Biblioteca Colombina).

El problema surge al interpretar el valor de 1 milla. Al-Farghānī empleaba la unidad árabe de Al-Mamun, que sabemos equivale a 1 973 metros (m). Por tanto, 20 400 millas son 40 248 km, muy próximo al real (unos 40 000 km).

En la Europa medieval, a menudo, se interpretó erróneamente esa milla como romana (1 481 m), con lo que el perímetros equivaldría según estos calculos a 30 212 km.

Colón, por su parte, empleó una equivalencia de unos 1 250 m, similar a la usada en las cartas portulanas o manuales de navegación medieval, como recoge Adan Szaszdi en su ensayo La legua y la milla de Colón (1958). Ello reducía la circunferencia terrestre a 25 500 km.

Reconstrucción del Mapa de por un autor alemán en 1867.
Wikipedia

De Canarias a Japón

Aunque menor a los 30 000 km, valor más aceptado en su época, lo que hacía distinta la propuesta de Colón era su convicción de que Asia se extendía hacia el este más de lo que entonces se creía y que, tras ella, se encontraba Cipango (Japón). Pensó que podía llegar a Asia navegando hacia el oeste en pocos miles de kilómetros. Esta idea probablemente la había tomado de Toscanelli.

Los profesores de Salamanca no aceptaban esta heterodoxa propuesta; en consecuencia, desaconsejaron el viaje. Sin embargo, el dominico fray Diego de Deza, catedrático de Prima de Teología y maestro del príncipe don Juan, le brindó su apoyo. Mientras estuvo en Salamanca, Colón se hospedó en el convento dominico de San Esteban. En los años siguientes, la influencia de Deza fue decisiva para que lograse finalmente el respaldo de Isabel la Católica, lo que le abriría el camino hacia el Nuevo Mundo.

Colón había supuesto un tamaño de la Tierra menor del real, pero no muy distinta a la que sus contemporáneos asumían. Su error fundamental fue atribuir a Asia una extensión mucho mayor de la que tiene, lo que reducía sustancialmente la distancia a navegar. Pocas meteduras de pata en la historia han tenido consecuencias tan trascendentales. Habría que esperar a la vuelta al mundo de Magallanes-Elcano para conocer la verdadera dimensión de la Tierra.

The Conversation

J. Guillermo Sánchez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando Colón confundió lo que era una milla y llegó a América – https://theconversation.com/cuando-colon-confundio-lo-que-era-una-milla-y-llego-a-america-266086

Grandes incendios… ¿forestales?

Source: The Conversation – (in Spanish) – By Rafael Delgado Artés, Profesor Univeritat Politècnica de València. Prevención y Extinción de Incendios Forestales, Universitat Politècnica de València

Tierras de cultivo y encinas quemadas tras el incendio de Molezuelas de la Carballeda en agosto de 2025, que afectó a las provincias de Zamora y León. LFRabanedo/Shutterstock

Los actuales grandes incendios forestales evolucionan muy rápido, de manera que a menudo la terminología que usamos para definirlos deja incluso de ser válida en poco tiempo. Hemos ido superando etapas a medida que la realidad se impone sobre las etiquetas.

Superamos la primera definición de gran incendio forestal y ahora hablamos de incendios de sexta generación. También los dejamos de medir en hectáreas, y ahora lo hacemos en términos de emergencias. O por poner otro ejemplo, hace tiempo que los expertos advierten que la era de la extinción debe acabar porque ha demostrado su ineficacia y una vez constatada la paradoja de la extinción, que supone que al eliminar los incendios menos graves, se fomenta que en el futuro sean más extremos.

Los grandes incendios ya no son solo “forestales”

También este verano de 2025 –desgraciadamente– hemos podido ver novedades en el comportamiento del fuego y extraer enseñanzas. Una de las más notorias es que todo parece indicar que pronto deberemos dejar de calificar estos incendios como forestales y tendremos que buscar un adjetivo más adecuado para la actual problemática, una vez quede claro que ya no estamos enfrentándonos exclusivamente a fuegos que afectan a terrenos forestales.

Lo anterior quedó demostrado, por ejemplo, en el incendio del pasado mes de agosto en Molezuelas de la Carballeda (Zamora), con más de 13 000 ha agrícolas –o agrícolas abandonadas– quemadas. No era, por tanto, un área forestal. Aunque este fenómeno, que parece que ahora será habitual, ya se había observado en el incendio ocurrido en la comarca del Alto Palancia (Castellón) en 2009.

Otro argumento todavía de mayor peso que apoyaría este cambio de denominación es que el terreno forestal, en otras palabras, el bosque, ya no es el sujeto principal a proteger contra el fuego. La realidad de los sucesos se impone y hemos aprendido que el auténtico sujeto de protección –como en cualquier otro riesgo natural– ha de ser la comunidad humana, con sus vidas (incluyendo las del operativo de extinción), bienes e infraestructuras.

Niveles de la defensa contra el fuego

En cualquier caso, hay que aceptar que los incendios son riesgos que están en plena evolución. Y si aceptamos esto y definimos con la mayor nitidez posible el sujeto y el objeto del riesgo, la construcción de la defensa será mucho más sencilla y eficiente.

Así, cualquier riesgo tiene tres componentes. El primero, la peligrosidad. Es decir, la potencia destructora del evento de acuerdo con el período de retorno esperable. En segundo lugar está la exposición (el número de personas expuestas) y finalmente la vulnerabilidad, que es la susceptibilidad de los afectados frente a la emergencia.

Sabiendo esto, la defensa contra el riesgo de incendio se puede (y se debe) enfocar desde distintos niveles de manera coordinada: la mitigación es una estrategia a largo plazo que incide sobre la reducción del peligro actual. Para los incendios, habría que reducir la carga de combustible disponible, mejorar la salud de los bosques, mitigar el cambio climático… Hablamos, en definitiva, de grandes acciones.




Leer más:
Podemos gestionar los incendios para que convivan con el paisaje mediterráneo


En un nivel inferior, la adaptación es una táctica que persigue reducir el riesgo con la disminución de la exposición del sujeto a proteger. En nuestro caso, consistiría en el alejamiento, en la medida de lo posible, de cualquier comunidad de un posible fuego. Esta es una medida efectiva y, aunque muy difícil de cumplir a rajatabla, hay que tenerla en cuenta en los futuros planes de ordenación del territorio, especialmente en zonas periurbanas.

Finalmente, la protección (y la autoprotección) actúa sobre la vulnerabilidad de la comunidad. No es sencillo ser exhaustivo y sintético a la vez, pero supone un amplio abanico de acciones posibles: alejar suficientemente la vegetación de las edificaciones (de manera que las llamas, y principalmente el humo, en caso de incendio, no suponga una amenaza), prever vías seguras de entrada y salida al núcleo urbanizado en caso de emergencia, tener equipos e infraestructuras, convertir las viviendas y las parcelas urbanizadas en espacios seguros o defendibles… Y sobre todo, formar a la comunidad expuesta a este riesgo en lo que tiene que hacer y cómo, y muy especialmente en lo que no tiene que hacer.




Leer más:
Incendios en España: ¿por qué ahora? ¿Por qué allí?


Otras medidas necesarias consisten en la preparación de la respuesta operativa una vez la emergencia se produce, para que esta respuesta pueda ser lo más segura, eficiente y eficaz. El mantenimiento de las infraestructuras y la asunción de protocolos por todas las partes implicadas son dos de estas medidas, pero no las únicas.

No existe el riesgo cero

No obstante, también habrá que aceptar que simplemente no hay ni habrá soluciones únicas ni mágicas que nos permitan eliminar el riesgo de incendios, porque en emergencias el riesgo cero no existe. Sí tenemos la posibilidad de desarrollar planes realistas con estrategias y tácticas que nos permiten minimizarlo, y es en lo que debemos trabajar. Especialmente debemos priorizar las acciones a medio y largo plazo para mejorar la resiliencia de nuestra estructura socioterritorial frente a la rápida y constante evolución del riesgo que plantea el fuego en nuestro tiempo.

The Conversation

Rafael Delgado Artés es miembro de Plataforma Forestal Valenciana y Profesor de la Universitat Politècnica de València

ref. Grandes incendios… ¿forestales? – https://theconversation.com/grandes-incendios-forestales-266818

Federal shutdown deals blow to already hobbled cybersecurity agency

Source: The Conversation – USA – By Richard Forno, Teaching Professor of Computer Science and Electrical Engineering, and Associate Director, UMBC Cybersecurity Institute, University of Maryland, Baltimore County

The federal cybersecurity agency is crippled by layoffs and shutdown furloughs. The Conversation, CC BY-ND

As the United States experiences its latest government shutdown, most of the daily operations of the federal government have ground to a halt. This includes much of the day-to-day work done by federal information technology and cybersecurity employees, including those at the nation’s leading civilian cybersecurity agency, the Cybersecurity and Infrastructure Security Agency.

CISA is among the entities that will see the deepest staffing reductions during the shutdown that began Oct. 1, 2025, according to Department of Homeland Security documentation. Only about one-third of its employees remain on the job after federal employees were furloughed. As if cybersecurity wasn’t challenging enough, fewer CISA employees are being asked to do more and more work protecting American cyberspace during the shutdown. And they’ll be working with the promise of getting paid for their efforts at some date in the future once the shutdown ends.

The current CISA situation is grim, from my vantage point as a cybersecurity researcher and former industry practitioner. The agency was already experiencing deep cuts to its staff and resources before the shutdown. And now, coinciding with the shutdown, a key law that enabled the agency to facilitate information-sharing with the private sector has expired.

Taken together, the cyberdefense agency is being hobbled at a time when the need for its services has never been greater, from the ongoing China-led Salt Typhoon attack on U.S. telecommunications networks to ransomware, data breaches and threats to infrastructure.

CISA was created in 2007 within the Department of Homeland Security. As its name implies, the agency is charged with digital security matters across the federal government. The agency also works with the companies that operate and secure the numerous critical infrastructure sectors of the American economy, such as phone networks, the electric grid and energy pipelines. Additionally, it helps state and local governments across the country secure their vulnerable networks and data.

CISA also publishes threat and vulnerability alerts for the government and cybersecurity community and engages with public and private stakeholders on best practices in response to emerging vulnerabilities. Prior to the recent expiration of the 2015 Cybersecurity Information Sharing Act, the agency also made it easier for organizations to share useful information with the government to help cybersecurity teams better protect their systems.

Shutdown-mandated furloughs at the nation’s cybersecurity agency present an opportunity for malicious hackers.

Political football

The agency takes a nonpartisan approach to cybersecurity matters. However, some politicians have accused the agency of political bias for its work helping states protect their voting infrastructure from cyberattacks and external influence. Specifically, the agency was repeatedly maligned for calling the 2020 election the “most secure” in history. For some in elected office, this work on election security has tarnished CISA’s reputation and perhaps explains recent budgetary actions taken against the agency.

Since the Trump administration took office in January 2025, nearly 1,000 CISA employees have departed the agency through voluntary buyouts or deferred resignations. By the end of May 2025, nearly all of CISA’s senior leadership had resigned or had announced plans to do so.

For 2026, the president’s draft budget proposes to reduce CISA’s head count by nearly one-third, dramatically cutting staff from its risk management and stakeholder engagement divisions. Other cuts will significantly reduce the agency’s collaboration activities and funding for CISA’s various cybersecurity education and training programs.

Making the problem worse, the government shutdown began at the same time that Congress failed to renew the Cybersecurity Information Sharing Act. This law provided a legal shield that allowed companies and infrastructure operators to share timely and often sensitive information with CISA about the cyberattacks, vulnerabilities and incidents that they were encountering.

In the wake of the law’s expiration, prudent companies may consider restricting what information they share with the government. Without the indemnification provided by CISA, many companies will likely have their legal teams review any information to be shared with the government. And that takes time.

Unfortunately, adversaries do not reduce their attacks against the U.S. based on available federal cyber defense funding or the status of cybersecurity laws. In fact, malicious hackers often strike when their target’s guard is down.

Charting a better course

Early in my career I had to work through a prolonged government shutdown. I’ve also participated in and developed assorted public-private information-sharing environments to exchange intelligence and analysis on cyber- and national security matters. And having been in the D.C. area for over 30 years, I’ve seen how government works. So I have a good idea of what’s needed to improve American cybersecurity. The following suggestions are a starting point.

First, Congress could ensure that critical security agencies such as CISA are immune from the threat of recurring federal government shutdowns. If it desired, Congress could set budgets for America’s security agencies on a biennial basis – as 16 states already do for their entire budgets.

In terms of cybersecurity funding, the White House’s proposed 2026 budget reduces research and education on cybersecurity. For example, the nation’s premiere federal cybersecurity scholarship program to recruit, educate and place future federal cybersecurity workers would be reduced by over 60%. Protecting this funding would allow CISA and the federal government to maintain the pipeline for a robust and capable cybersecurity workforce both today and into the future.

Companies could develop new or expand existing nongovernmental information-sharing networks that are not completely dependent on the government to facilitate or fund, such as the Cyber Threat Alliance or the Center for Internet Security. Cybersecurity relies on trust. But right now, the instability of the federal government makes it difficult to rely on any entity under its policy or funding influence, no matter how well time-tested and trusted. Regardless, without legal protections, the information-sharing utility of these services will be limited.

Cybersecurity risks remain even if the federal government shuts down. So this is another reminder that each of us is responsible for our own cybersecurity. Individual users should continue to remain vigilant, follow accepted best practices for cybersecurity and always be mindful about online risks.

It’s ironic that the federal government is shutting down, CISA is being eviscerated and the Cybersecurity Information Sharing Act has expired just as the country begins to observe national Cybersecurity Awareness Month – another collaborative public engagement activity that CISA promotes to help improve cybersecurity for all Americans.

The Conversation

Richard Forno has received funding related to cybersecurity research and education from the National Science Foundation (NSF), the Department of Defense (DOD), the US Army, State of Maryland, and private companies during his academic career since 2010. From 2012-2025 he co-directed UMBC’s Scholarship For Service program.

ref. Federal shutdown deals blow to already hobbled cybersecurity agency – https://theconversation.com/federal-shutdown-deals-blow-to-already-hobbled-cybersecurity-agency-266862

AI tools promise efficiency at work, but they can erode trust, creativity and agency

Source: The Conversation – Canada – By Jordan Loewen-Colón, Adjunct Assistant Professor, Smith School of Business, Queen’s University, Ontario

What if your biggest competitive asset is not how fast AI helps you work, but how well you question what it produces?

Business leaders tend to prioritize efficiency and compliance in the workplace. It’s one of the reasons why so many are drawn toward incorporating generative AI technologies into their workflows. A recent survey found 63 per cent of global IT leaders worry their companies will be left behind without AI adoption.

But in the rush to adopt AI, some organizations are overlooking the real impact it can have on workers and company culture.

Most organizational strategies focus on AI’s short-term efficiencies, such as automation, speed and cost saving. What tends to be overlooked are the impacts AI has on cognition, agency and cultural norms. AI is fundamentally restructuring not only what we know, but how we know it.

As AI becomes more integrated, it will continue to influence organizational tone, pace, communication style and decision-making norms. This is why leaders must set deliberate boundaries and consciously shape organizational culture in relation to AI integration.

Once embedded into workflows, AI influences workplace defaults: which sources appear first, what tone a memo takes and where managers set the bar for “good enough.” If people don’t set these defaults, tools like AI will instead.

As researchers who study AI, psychology, human-computer interaction and ethics, we are deeply concerned with the hidden effects and consequences of AI use.

Psychological effects of AI at work

Researchers are beginning to document a number of psychological effects associated with AI use in the workplace. These impacts expose current gaps in epistemic awareness — how we know what we know — and how those gaps can weaken emotional boundaries.

Such shifts can affect how people make decisions, calibrate trust and maintain psychological safety in AI-mediated environments.

One of the most prominent effects is known as “automation bias.” Once AI is integrated into a company’s workflow, its outputs are often internalized as authoritative sources of truth.

Because AI-generated outputs appear fluent and objective, they can be accepted uncritically, creating an inflated sense of confidence and a dangerous illusion of competence.

One recent study found that in 40 per cent of tasks, knowledge workers — those who turn information into decisions or deliverables, like writers, analysts and designers — accepted AI outputs uncritically with zero scrutiny.




Read more:
AI is reshaping the workplace – but what does it mean for the health and well-being of workers?


The erosion of self-trust

A second concern is the erosion of self-trust. Continuous engagement with AI-generated content leads workers to second-guess their instincts and over-rely on AI guidance, often without realizing it. Over time, work shifts from generating ideas to merely approving AI-generated ones. This results in the diminishing of personal judgment, creativity and original authorship.

One study found that users have a tendency to follow AI advice even when it contradicts their own judgment, resulting in a decline in confidence and autonomous decision-making. Other research shows that when AI systems provide affirming feedback — even for incorrect answers — users become more confident in their decisions, which can distort their judgment.

Workers can end up deferring to AI as an authority despite its lack of lived experience, moral reasoning or contextual understanding. Productivity may appear higher in the short term, but the quality of decisions, self-trust and ethical oversight may ultimately suffer.

Emerging evidence also points to neurological effects of over-reliance on AI use. One recent emerging study tracked professionals’ brain activity over four months and found that ChatGPT users exhibited 55 per cent less neural connectivity compared to those working unassisted. They struggled to remember the essays they just co-authored moments later, as well reduced creative engagement.

So what can leaders and managers do about it?

What leaders and managers can do

Resilience has become something of a corporate buzzword, but genuine resilience can help organizations adapt to AI.

Resilient organizations teach employees to effectively collaborate with AI without over-relying on its outputs. This requires systematic training in interpretive and critical skills to build balanced and ethical human-AI collaboration.

Organizations that value critique over passive acceptance will become better at thinking critically, adapting knowledge effectively and will build stronger ethical capacity. One way of achieving this is by shifting from a growth-oriented mindset to an adaptive one. Which, practically speaking, means workplaces should seek to do the following:

  1. Train people to separate fluency from accuracy and to ask where information comes from rather than just being passive consumers of it. With better epistemic awareness, workers become active interpreters understanding what an AI tool is saying, as well as how and why it’s saying it.

  2. Teach people to monitor their thinking processes and question knowledge sources. A recent study showed professionals with strong metacognitive practices, like planning, self-monitoring and prompt revision, achieved significantly higher creativity when using AI tools, while others saw no benefit. That means metacognition could be the “missing link” for productive LLM use.

  3. Avoid a one-size-fits-all approach and consider levels of automation by task stages. AI tool developers should be encouraged to define clear roles for when the model drafts or analyzes, when the human leads and when verification is mandatory. Consider adding things like AI-use to responsibility and accountability charts.

  4. Create workplace cultures that encourage workers to question AI outputs, track those challenges as quality signals and budget time for verification. Workplaces should publish style norms for AI-assisted writing, set confidence thresholds and evidence requirements by function, and specify who signs off at each risk level.

  5. Hold quarterly “drift reviews” to spot shifts in tone, reliance or bias, before they calcify into organizational culture.

Efficiency will not decide the winners

As we are starting to see, the drive for efficiency will not decide which firms are most successful; the ability to interpret and critically assess AI outputs will.

The companies that pair speed with skepticism and protect judgment as a first-class asset will handle volatility better than those that treat AI as an autopilot. Speed may get you to the next decision, but judgment keeps you in business.

Ethical intelligence in organizations requires an ongoing investment in epistemic awareness, interpretive skill, psychological safety and active value-driven design.

Companies capable of balancing technological innovation with critical thinking and deep ethical understanding will be the ones to thrive in the AI era.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. AI tools promise efficiency at work, but they can erode trust, creativity and agency – https://theconversation.com/ai-tools-promise-efficiency-at-work-but-they-can-erode-trust-creativity-and-agency-264865

Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais

Source: The Conversation – in French – By Melchisedek Chétima, Professor of African History, Université du Québec à Montréal (UQAM)

La récente inscription du paysage culturel de Diy-Giɗ-Biy (DGB) au patrimoine mondial de l’UNESCO marque une victoire historique pour le Cameroun, mais elle perpétue aussi un héritage colonial : ces ruines exceptionnelles continuent d’être désignées par un nom que les communautés locales rejettent.

Situé dans l’Extrême-Nord du pays, le site archéologique des Diy-Giɗ-Biy (se prononce « Dii-Guiɗ-Bii ») s’étend sur une vingtaine de kilomètres carrés et abrite seize monuments en pierre sèche répartis dans sept villages, au cœur d’une chaîne montagneuse que l’institution, et avant elle, la communauté des chercheurs dont je fais partie, désigne comme « monts Mandara ».

Son inscription sur la liste du patrimoine mondial a été saluée à juste titre comme une rare victoire pour les patrimoines matériels africains, trop longtemps marginalisés dans les grandes instances patrimoniales internationales. Pourtant, au-delà de l’apparente consécration, un débat de fond émerge : à qui appartient ce patrimoine ? Et pourquoi persiste-t-on à nommer les montagnes qui les abritent « monts Mandara », une appellation dans laquelle les locaux ne se reconnaissent pas ?

Professeur d’histoire africaine à l’Université du Québec à Montréal, mes travaux de recherche portent sur des thèmes variés tels que la culture matérielle, l’esclavage, ainsi que les dynamiques identitaires et politiques dans l’espace communément désigné sous le nom de « monts Mandara ». Mon approche allie l’étude des sources orales, écrites et archéologiques, ce qui me permet de proposer une compréhension fine et nuancée de cette région et de ses populations.

Des montagnes-refuges

Selon l’UNESCO, les DGB se distinguent par leur ancienneté (XIIe–XVIIe siècles) et leurs terrasses agricoles. Les populations locales les appellent Giy-Deδ-Bay (« ruine de la demeure du chef ») ou Diy-Giɗ-Biy (« l’œil du chef au-dessus »), termes qui reflètent leur dimension spirituelle et politique.

Mais en parlant de « monts Mandara », l’institution reconduit une méprise héritée de l’époque coloniale.

Le terme prend racine dans les récits européens du XVIIIe siècle, qui l’utilisaient pour désigner le royaume islamisé du Wandala ou Mandara, établi dans les plaines et prospérant grâce aux échanges commerciaux avec le Kanem-Bornu. Ce dernier, grand État sahélien et acteur majeur du commerce esclavagiste, a profondément marqué les dynamiques sociales et politiques de toute la région du bassin tchadien.

Longtemps vassal du Bornu, le Wandala s’est progressivement émancipé au XVIIIe siècle, en partie grâce à son islamisation, ce qui lui a permis de mener ses propres campagnes esclavagistes contre les groupes montagnards. Pour se protéger de ces raids, ces communautés se sont réfugiées dans les massifs, où elles ont développé des architectures défensives dont les Diy-Giɗ-Biy sont particulièrement révélateurs.

Cette dynamique de pouvoir entre le Wandala, le Bornu et les Montagnards s’inscrit dans une histoire plus ancienne. Sur sa mappemonde de 1459, Fra Mauro, moine italien réputé pour son expertise géographique, identifiait déjà les Wandala comme un groupe ethnique distinct.

Les Montagnards ne font donc pas partie du groupe Mandara. Ce dernier, sous l’influence du Bornu, les a en fait soumis à ses campagnes esclavagistes, établissant une relation de domination plutôt qu’une intégration politique ou culturelle. De plus, les Montagnards ne dénomment pas leurs massifs « monts-Mandara ». Ils s’auto-identifient littéralement comme « gens du rocher » – duw kunde en langue plata ou encore nda məndə dzaŋa en langue podokwo. Une telle auto-identification traduit un rapport intime à leurs montagnes et affirme une identité politique et culturelle distincte des populations musulmanes des plaines environnantes.

Dans un entretien récent que j’ai réalisé à Mokolo avec un chef mafa, celui-ci m’expliquait : « Nous ne sommes pas Mandara, nous sommes les enfants de la montagne, et les rochers font partie de notre existence en tant que peuple ».

La cartographie coloniale et ses héritages persistants

L’analyse proposée ici s’organise autour de deux dimensions. D’une part, elle examine comment l’imaginaire colonial continue de structurer notre perception du territoire. Les appellations coloniales comme « monts Mandara », employées par les administrateurs allemands puis britanniques et français, relevaient surtout de commodités classificatoires, ignorant la complexité sociale et culturelle des communautés montagnardes.

D’autre part, cette appellation produit une dépossession symbolique. De fait, inscrire le patrimoine des « gens de la montagne » sous un nom qui n’est pas le leur revient à effacer leurs voix. En reprenant cette terminologie, l’UNESCO, même involontairement, perpétue un cadre de lecture hérité de la colonisation et réduit la diversité des sociétés montagnardes à l’ombre d’un pouvoir étatique qui les avait jadis dominées.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Il convient de rappeler que les terrasses agricoles évoquées par l’UNESCO ne sont pas seulement des dispositifs fonctionnels d’aménagement du sol. Elles sont également porteuses de significations sociales et culturelles, en lien avec des systèmes de croyances où l’organisation de l’espace traduit une cosmologie de l’ordre et du dialogue constant entre les vivants et leurs ancêtres. Comme le fait remarquer l’archéologue canadien Scott MacEachern, les Diy-Giɗ-Biy s’insèrent dans un paysage déjà habité, cultivé, peut-être même ritualisé.

Leurs constructeurs maîtrisaient avec une grande expertise la technique de la pierre sèche. Tout porte ainsi à croire que ces sites sont le fruit d’un processus d’occupation, d’adaptation et d’élaboration proprement montagnard. Rien n’indique une origine issue des plaines.

La kirditude comme résistance

La reconnaissance internationale des Diy-Gid-Biy par l’UNESCO est certes importante, mais elle demeure partielle tant qu’elle ne respecte pas les termes choisis par les communautés pour s’autodésigner.

Dans ce contexte, de plus en plus de chercheurs et d’activistes locaux plaident pour l’adoption de l’appellation « monts Kirdi ». Historiquement, le terme kirdi, utilisé dans les récits des royaumes musulmans des plaines, portait une connotation péjorative d’infidèle, de non-musulman et d’esclave potentiel.

Toutefois, dans un processus de réappropriation décoloniale, les Montagnards ont transformé ce stigmate en instrument de résistance culturelle et de revendication politique. Ils ont notamment intégré le concept de « kirditude » du sociologue camerounais Jean-Marc Ela pour affirmer leur fierté d’un fond kirdi et défendre leur position face à l’exclusion et à la discrimination dont ils font l’objet dans l’espace politique régional et national.

Renommer les « monts Mandara » en « monts Kirdi » représenterait ainsi une véritable justice symbolique, en reconnaissant que le patrimoine est aussi un champ de luttes et de mémoire. Cela permettrait aux Montagnards de nommer leur propre monde, ce qui enrichirait notre compréhension collective de ce patrimoine vivant et pluriel que sont les DGB.

Rompre avec la neutralité coloniale du patrimoine

Au-delà d’une simple question d’étiquette, le débat sur la toponymie soulève des enjeux cruciaux de reconnaissance des droits épistémiques des peuples autochtones. Quelle valeur peut en effet avoir une politique de valorisation du patrimoine si elle continue de marginaliser la voix de ceux qui en sont les principaux acteurs ?

En maintenant l’usage du terme « monts Mandara », les institutions patrimoniales internationales risquent de perpétuer une mémoire dominante, issue de récits de pouvoirs externes, au détriment des histoires et réalités plurielles des peuples montagnards.

Par ailleurs, renommer les massifs ne signifie en aucun cas effacer l’histoire. Il s’agit au contraire de réhabiliter des récits jusqu’ici occultés. Le patrimoine mondial ne peut véritablement refléter son rôle que s’il devient le théâtre de luttes pour les récits marginalisés et pour les peuples dont la parole a été confisquée au profit de narrations dominantes.

La Conversation Canada

Melchisedek Chétima ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais – https://theconversation.com/quand-lunesco-efface-sans-le-vouloir-la-voix-des-gens-de-la-montagne-camerounais-262085

Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique

Source: The Conversation – in French – By Nina Klioueva, Université de Montréal

Dans un monde dominé par les aliments ultra-transformés et le manque de temps, grandir sans savoir cuisiner n’est plus rare. Mais cette perte de savoir-faire n’est pas neutre : elle fragilise la santé, l’autonomie et même notre rapport collectif à l’alimentation.

Et si réapprendre à cuisiner devenait un choix de société ?

Depuis quelques décennies, les repas faits maison ont été peu à peu remplacés par des plats prêts-à-manger et des produits très transformés. Au Canada, plus de la moitié de ce que mangent les enfants et les adolescents vient de ces aliments ultra-transformés. Cette tendance a des effets directs sur la santé : plus de maladies chroniques comme le diabète de type 2, et une perte d’autonomie alimentaire, puisque cuisiner est parfois vu comme une option, et non comme une compétence de base.

Dans ce contexte, apprendre à cuisiner dès l’enfance n’est pas seulement un plaisir ou une tradition familiale. C’est un véritable outil de santé publique. Cuisiner aide à mieux comprendre comment faire des choix alimentaires pour soi et pour la planète, à prévenir certaines maladies et à développer une relation positive et durable avec la nourriture. En tant que nutritionnistes et chercheuses en nutrition, nous nous intéressons à la littératie alimentaire chez les adolescents et considérons ce sujet d’autant plus d’actualité face aux défis alimentaires contemporains.

La littératie alimentaire : plus que savoir cuisiner

Apprendre à cuisiner tôt ne se limite pas à acquérir une habileté pratique. C’est une porte d’entrée vers la littératie alimentaire, un ensemble de connaissances, de compétences et d’attitudes qui permettent de bien se repérer dans un monde alimentaire de plus en plus complexe. Elle développe aussi l’autonomie, la confiance et la motivation pour faire des choix qui favorisent la santé et le bien-être.

La littératie alimentaire, ce n’est pas seulement être capable de préparer un repas nutritif. C’est aussi célébrer et transmettre nos traditions culinaires, soutenir des systèmes alimentaires plus justes et durables, et développer une relation positive avec la nourriture.

Il est important de rappeler que savoir cuisiner ne suffit pas tout seul. La cuisine est un élément central, mais la littératie alimentaire est beaucoup plus large. Comme le soulignent les chercheuses Helen Anna Vidgen et Danielle Gallegos, de la Queensland University of Technology, en Australie, elle regroupe un ensemble de compétences liées entre elles : planifier ses repas, gérer un budget et réduire le gaspillage, choisir des aliments nutritifs et sécuritaires malgré le marketing, préparer des repas de base et adopter une alimentation équilibrée et culturellement signifiante.

Ainsi, cuisiner devient une porte d’entrée concrète vers plusieurs de ces dimensions. Quand un enfant met la main à la pâte, il n’apprend pas seulement des gestes techniques. Il apprend aussi à planifier, à s’organiser, à résoudre des problèmes réels et à réfléchir de façon critique à ce qu’il mange. Ces compétences, acquises petit à petit et adaptées à son âge, deviennent la base d’une autonomie alimentaire durable.

Des bénéfices observés dès le plus jeune âge

Les recherches montrent que les enfants qui participent à la préparation des repas mangent une portion supplémentaire de fruits et légumes, et consomment généralement une alimentation de meilleure qualité que ceux qui ne cuisinent pas.

Les habitudes alimentaires acquises tôt ont tendance à rester à l’âge adulte. Initier les enfants à la cuisine, c’est donc poser les bases de comportements qui protègent leur santé à long terme. Par exemple, le simple fait de cuisiner à la maison est lié à une alimentation moins riche en sucres ajoutés et en gras saturés, deux éléments directement associés aux maladies cardiovasculaires et au diabète de type 2.

Des enjeux d’équité en santé

Il faut aussi reconnaître que tout le monde n’a pas le même accès à la cuisine ou aux compétences culinaires. Certaines familles manquent de temps, d’espace ou de moyens financiers pour cuisiner. Dans ce contexte, l’éducation culinaire à l’école ou dans la communauté devient essentielle.

Des programmes comme Apprenti en Action ou Chefs en Action, des initiatives canadiennes via les milieux scolaires, ont montré qu’apprendre à cuisiner dans un cadre éducatif peut augmenter la confiance des jeunes, améliorer leurs connaissances en nutrition et les amener à adopter de meilleures habitudes alimentaires. Ces initiatives représentent une façon d’outiller les jeunes, surtout ceux qui viennent de milieux plus vulnérables, et de réduire les inégalités de santé.

Malheureusement, les programmes de cuisine et d’éducation alimentaire en milieu scolaire restent marginaux et tributaires de financements limités et instables, ce qui contribue à creuser encore les écarts sociaux et de santé. Parallèlement, le système alimentaire est dominé par des régimes industrialisés et des produits ultra-transformés, promus par de puissantes entreprises transnationales, alors que peu de politiques publiques canadiennes visent à améliorer les systèmes alimentaires et, par ricochet, les habitudes alimentaires.

Cette double dynamique accentue les inégalités : les jeunes issus de milieux moins favorisés disposent de moins d’occasions d’apprendre à cuisiner et de développer leur autonomie alimentaire, tout en étant plus exposés aux produits ultra-transformés.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une compétence citoyenne

Enfin, il ne faut pas oublier la dimension sociale et culturelle de la cuisine. Apprendre à cuisiner, c’est aussi apprendre à partager, à transmettre des traditions, à découvrir d’autres cultures et à créer une relation positive avec l’alimentation. Pour un enfant, préparer un repas avec ses proches peut être une expérience valorisante, qui renforce les liens familiaux et la confiance en soi.

Au-delà des chiffres, cette transformation de nos habitudes alimentaires touche aussi notre culture et nos liens sociaux. Les recettes transmises de génération en génération disparaissent parfois, et avec elles, une partie de notre patrimoine culinaire. Par exemple, en Ontario, des écoles primaires qui ont introduit des ateliers de cuisine ont vu leurs élèves essayer de nouveaux légumes et en parler fièrement à leurs familles, montrant qu’un simple geste peut déclencher un réel changement.

La cuisine devient ainsi une compétence citoyenne, à la croisée de la santé, de l’éducation, de la culture et de l’environnement. Initier les enfants à ce savoir-faire, à la fois pratique et symbolique, c’est leur donner les outils pour se débrouiller dans un monde alimentaire complexe et, en même temps, contribuer à une société plus en santé et plus durable.

La Conversation Canada

Nina Klioueva a reçu des financements sous forme de bourse de maîtrise en recherche pour titulaires d’un diplôme professionnel – volet régulier du FRQ, ainsi qu’une Bourse d’études supérieures du Canada – maîtrise (BESC M) des IRSC.

Maude Perreault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique – https://theconversation.com/pourquoi-apprendre-a-cuisiner-des-lenfance-est-un-outil-de-sante-publique-265942

Lecornu, Bayrou, Barnier: how the resignation of three French prime ministers signals a profound crisis in democracy

Source: The Conversation – France – By Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille

France has been experiencing an unprecedented political crisis since President Emmanuel Macron dissolved parliament in June 2024. For political scientist Rémi Lefebvre, this deadlock is not only institutional: it reveals a crisis of representative governance fuelled by mistrust, social fragmentation and the erosion of majority rule.

Following the dissolution and the legislative elections that followed it, the governments of prime ministers Michel Barnier, François Bayrou and Sébastien Lecornu have all been unable to govern. Many commentators have suggested that this deadlock could be linked to a lack of compromise among political parties, or to unhelpful institutional rules. On the contrary, it seems that the disruption runs much deeper. The relationship with politics in France has changed in recent decades, and the current crisis is merely a symptom of the erosion and breakdown of the link between voter and representative itself.

A disrupted political routine

In France, particularly since the 1970s, we have become accustomed to the “majority system”: the president was elected by direct universal suffrage and needed a majority in parliament, which he generally obtained. Political life had a routine rhythm of alternating majorities. Then this system gradually broke down.

The lack of alternatives to this rhythm has led to a proliferation of political parties, creating chronic disillusionment in each political camp. The rise of the far right, which claims to embody a new path, is associated with the blurring of the left-right divide. In 2017, the arrival of Macron was seen as the result of the exhaustion of this divide and a response to the democratic crisis, driven by a rhetoric of “transcendence”.

But the president has exacerbated the crisis by pushing the margins to extremes and, ultimately, polarising political life while shifting his own position to the right. Macron has fuelled the far right, and he has weakened the left. While there are strong calls for compromise, on the left, the Socialist Party (PS) is under the thumb of La France Insoumise (France Unbowed or LFI) and constantly exposed to accusations of “treason”. The difficulty in building majorities, linked to the tripartite nature of political life, is exacerbated by internal fragmentation within each bloc.

However, this crisis cannot be understood solely in terms of political manoeuvring. We must also take into account changes in the relationship between voters and politics. Since the early 2000s, the very mechanism of elections has been called into question. The legitimacy given to those in power by elections is increasingly weak, as explained by historian Pierre Rosanvallon. This is reinforced by the widespread development of strategic voting: people are increasingly voting “usefully” in order to eliminate candidates, but voters are no longer really expressing their preferences, which weakens their commitment to the appointment of a representative and the legitimacy of that representative. Thus, the electoral process is fundamentally flawed: this is referred to as “negative” democracy. We eliminate more than we choose.

Fragmentation of society

Furthermore, the fragmentation of political identities partly reflects the fragmentation of society itself. The crisis of governance or governability is linked to a more individualised and fragmented society, exacerbated by inequalities and a form of separatism. Identities and divisions are more complex and less structured by homogeneous class identities, as explained by sociologist Gérard Mauger.

If political parties are unwilling to compromise, it is also because they do not want to disappoint the divided social groups that still support them and because they fear “betraying” distrustful voters and increasingly volatile and narrow electoral constituencies. Society is more polarised (the emotional polarisation caused by social media is undeniable), which also makes political compromises more difficult. We could add that the fragmentation and splintering of voters’ political identities is exacerbated by the weakness of the parties and their large number – there are now 11 parliamentary groups in the National Assembly, which is a record. One of the major consequences is that political parties are no longer able to organise public debate around a few coherent and simple visions.

Could the current political impasse be resolved by dissolution, negotiations, new parliamentary elections or even a presidential election? It is doubtful. Ultimately, it is possible that the carte blanche given to a French president, which comes via legislative elections that follow presidential polls, will no longer exist in the future. Political majorities are nowhere to be found, but perhaps neither are social and electoral majorities (ie alliances of social groups large enough to support political majorities).

Mistrust and disillusionment

The economic crisis we have been experiencing for the past year is part of an even broader trend, namely a considerable increase in mistrust of politics.

According to the 2025 barometer of political trust published by the Centre of Political Research at Sciences Po (CEVIPOF), around 20% of French people trust politicians. The French therefore consider the political class incapable of solving problems. They even consider it unworthy. It must be said that the spectacle on offer is rather unattractive, and it can be argued that the calibre of politicians is declining. Political scientist Luc Rouban has shown that this phenomenon fuels a desire to retreat into the private sphere along the lines of “leave us alone, we don’t care about politics”. The current crisis is therefore the product of this mistrust, and the political class’s inability to resolve it reinforces the phenomenon.

Disappointment and disillusionment have been building up for decades. The weakening of the left-right alternation that used to punctuate political life runs deep. Former president Nicolas Sarkozy served only one term, as did his successor François Hollande: both campaigned on volontarisme (the idea that the human will is capable of imposing change), but quickly disappointed. They pursued liberal economic policies that undermined the idea that politics could change things. Macron, who was re-elected, also disappointed. He fuelled the anti-elite sentiment that manifested itself powerfully during the “yellow vest” protests.

Ultimately, each camp is marked by disenchantment and produces mechanisms of polarisation. Thus, the Socialists produced LFI, which was the result of disappointment with the left in power. The far right is also, to a large extent, the result of political disillusionment. These two forces, LFI and Rassemblement National (the far-right National Rally), are hostile to any compromise.

Unavoidable challenges

This mistrust of politics is not specific to France, as political scientist Pierre Martin has shown in his analysis of the crisis facing governing parties. These mechanisms are present everywhere, in Europe and the US. Since the work of Colin Crouch, political scientists have even begun to talk about “post-democratic” regimes, where decisions are increasingly beyond the control of political power.

Globalisation, Europeanisation, and the power of large financial groups and lobbies have devalued political power and reduced its room for manoeuvre. However, politics raises expectations, and politicians attempt to re-enchant the electoral process by making promises at every election.

This situation is particularly difficult to accept in France, where there is a culture of very high expectations of the state. This crisis of volontarisme politique (which sees political leaders saying they will be capable of imposing change, but then failing to do so) is causing repeated disappointment. The latest CEVIPOF survey shows that mistrust is growing and is associated with a feeling of governmental and electoral impotence. The French believe that politics no longer serves any purpose: the sterile game of politics is spinning its wheels, with no impact on reality.

The current situation plays into the hands of the far right, as mistrust of politics fuels anti-parliamentarianism and also reinforces the idea that a political force that has not held office can be a solution.

In addition, a part of society finds itself aligned with right-wing issues: immigration, security, rejection of environmentalism, etc. In this context, the victory of the far right may seem inevitable. It has happened in the US, and it is difficult to imagine France escaping it, given the great fragmentation of the left, its pitfalls and its dead ends. However, if the far right comes to power – which would be a dramatic turn of events – it will also face the test of power and will certainly disappoint, without resolving the political crisis we are currently experiencing. Its electorate, which is very interclass (working class in the north, more middle class in the southeast), has contradictory expectations and it will be difficult to satisfy them.

Rebalancing democracy?

It would be naïve to believe in an “institutional solutionism” that would resolve this political crisis. Democracy cannot be reduced to electoral rules and institutional mechanisms. It is underpinned by values, culture, practices and behaviours.

Given this, a change to proportional representation would encourage voters to vote according to their convictions and marginalise “tactical voting”. The aim would be to better reflect voters’ political preferences through the voting system and to re-legitimise the electoral process.

A Sixth Republic would certainly help to regenerate institutions linked to an exhausted presidential system, as demonstrated by political scientist Bastien François. Nowadays, the verticality of power no longer works in a society shaped by horizontal dynamics. The image associated with the French president accentuates disappointment by creating a providential figure who cannot keep his promises. While the French are not in favour of abolishing direct universal suffrage for presidential elections, it is possible to limit the powers of the president – just as it is possible to reverse the calendar with legislative elections preceding presidential ones.

Many works, such as those by political scientist Loïc Blondiaux, also propose ways of thinking about a new balance between representative democracy and participatory democracy, a more continuous democracy that is less focused on elections. For a long time, elections were sufficient to ensure democracy, but that cycle is now over. This means tinkering and experimenting – with referendums, citizens’ conventions, etc. – in order to find a new balance between participation and representation. However, these solutions are complex to implement, whereas democracy through voting alone was very simple. Finally, democracy is a culture, and it is necessary to encourage participation at all levels by promoting a more inclusive, less competitive society, particularly in schools and businesses.

Another issue is that of political parties: citizens no longer join them because they are perceived as unattractive. Some studies suggest that they should be reformed and that their public funding, for example, should be rethought, with funding being made conditional on the diversity of elected representatives.

Democracy and the economy

Finally, a major democratic challenge is to regain control over the economic sphere. The debate on the Zucman tax highlights the political barrier that needs to be broken down: the power of the financial oligarchy. As long as political power has to bow down to finance, the deceptive logic of post-democracy will continue. However, inequalities have increased to such an extent that societies could demand a rebalancing. In this sense, post-democracy is not inevitable.

Economic forces will attempt to protect their positions and power, but, as political sociologist Vincent Tibérj shows, there is a very strong commitment to social justice and redistribution in France, even among the far right. Under pressure, the elites could therefore be forced to give in.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lecornu, Bayrou, Barnier: how the resignation of three French prime ministers signals a profound crisis in democracy – https://theconversation.com/lecornu-bayrou-barnier-how-the-resignation-of-three-french-prime-ministers-signals-a-profound-crisis-in-democracy-266955

1 gene, 1 disease no more – acknowledging the full complexity of genetics could improve and personalize medicine

Source: The Conversation – USA (3) – By Santhosh Girirajan, Professor of Biochemistry, Molecular Biology and Genomics, Penn State

A whole lot more than just one genetic mutation determines whether and how disease develops. lvcandy/DigitalVision Vectors via Getty Images

Genetic inheritance may sound straightforward: One gene causes one trait or a specific illness. When doctors use genetics, it’s usually to try to identify a disease-causing gene to help guide diagnosis and treatment. But for most health conditions, the genetics is far more complicated than how clinicians are currently looking at it in diagnosis, counseling and treatment.

Your DNA carries millions of genetic variants you inherit from your parents or develop by chance. Some are common variants, shared by many people. Others are rare variants, found in very few people or even unique to a family. Together, these variants shape who you are – from visible traits such as height or eye color to health conditions such as diabetes or heart disease.

In our newly published research in the journal Cell, my team and I found that a genetic mutation involved in neurodevelopmental and psychiatric conditions such as autism and schizophrenia is affected by multiple other genetic variants, changing how these conditions develop. Our findings support the idea that, rather than focusing on single genes, taking the whole genome into account would provide insight into how researchers understand what makes someone genetically predisposed to certain diseases and how those diseases develop.

Primary and secondary variants

Certain rare variants can cause problems on their own, such as the genetic mutations that cause sickle cell anemia and cystic fibrosis. But in many cases, whether someone actually develops symptoms of disease depends on what else is happening across the genome.

While a primary variant might trigger a disease, secondary variants can alter how that disease develops and progresses. Think of it like a song: The melody (primary variant) is the main part of the song, but the bassist and drummer (secondary variants) can change its groove and rhythm.

That’s why two people with the same genetic mutation can seem so different. One person might have severe symptoms, another person mild symptoms, and another none at all. These variations can even occur within the same family. This phenomenon, called variable expressivity, arises from differences in the secondary variants a person has. In most cases, these variants amplify the effects of the primary mutation. A higher number of secondary variants on top of a primary variant generally leads to more severe disease.

Mutations are a source of genetic variation.

Sometimes, a primary variant and a secondary variant together can cause two different disorders in the same person, such as Prader-Willi syndrome and Pitt-Hopkins syndrome. Other times, secondary variants have no obvious effect on their own but together can tip the balance of whether and how a disease will appear, even in the absence of a primary variant. This can be seen in the development of heart disease in children.

Insights from a missing piece of a chromosome

My team and I studied a genetic change known as a 16p12.1 deletion, where a small piece of chromosome 16 is missing. Researchers have linked this mutation to developmental delay, intellectual disability and psychiatric conditions such as schizophrenia. Yet most children inherit this genetic variant from a parent who has milder symptoms, different symptoms or sometimes no symptoms at all.

To understand why this happens, we analyzed 442 individuals from 124 families carrying this genetic mutation. We found that children lacking this piece of chromosome 16 had more secondary variants elsewhere in the genome compared to their carrier parents. These secondary variants took many forms, including both small changes and large deletions, duplications and expansions of their DNA.

Diagram
Two types of chromosomal mutations include deletion and duplication.
Gandawijaya et al./Biorender via Frontiers in Cellular Neuroscience, CC BY-SA

Each type of secondary variant was associated with different health outcomes. Some were linked to smaller head size and reduced cognitive function, while others contributed to higher rates of psychiatric or developmental symptoms. This suggests that while a 16p12.1 deletion makes the genome more sensitive to neurodevelopmental disorders, which symptoms manifest depends on which other variants are present.

The story gets even more complex when considering the fact that children not only inherit a 16p12.1 deletion from one parent but also inherit secondary variants from both parents.

My team and I found that the symptoms of the parent with this genetic mutation often match those of their spouse. For example, a parent with a 16p12.1 deletion who shows signs of anxiety or depression is more likely to have a partner who also has these symptoms. This pattern, called assortative mating, means that when parents with overlapping genetic risks have children, those risks can combine and accumulate.

Over generations, this stacking of secondary variants can lead to children who have more severe symptoms than their parents.

Biases in genetics research

One reason why scientific understanding of secondary variants has lagged is that genetic research often depends on who is recruited to participate in these studies and how researchers recruit them.

Most studies recruit patients affected with a particular disease. Families recruited from genetic clinics typically have children with severe versions of the disease. But if studies focus only on patients with the most acute symptoms, researchers may overestimate the effects of primary variants and miss the subtler role that secondary variants may play in how a disease develops.

But if researchers were to study people drawn from the general population – say, by recruiting people from a large shopping mall – some might carry the same primary variant but have far milder symptoms or none at all. This variability allows researchers to better dissect how different parts of the genome interact with each other and affect how a disease develops.

In our study, for example, we found that people with a 16p12.1 deletion who were recruited from the general population often had milder symptoms and different patterns of secondary variants compared to those who were recruited in a clinic.

Person in white coat pipetting a sample into a vial, a DNA readout on a screen in the backdrop
Who’s included in genetics research influences how scientists understand disease.
Cavan Images/iStock via Getty Images Plus

Embracing complexity in genetics

Instead of a deterministic view where one mutation equals one outcome, a more complex model accounts for the fact that whether and how a disease develops depends on the interplay between different genetic variants and environment. This has implications for how genetics is used in the clinic.

Currently, a child who tests positive for a genetic variant might be diagnosed with a disease tied to that mutation. In the future, doctors might also examine the child’s broader genetic profile to better predict their developmental trajectory, psychiatric risk or response to therapies. Families could be counseled with a more realistic picture of their child’s probability of developing a disease, rather than assuming every person with the same genetic variant will share the same outcome.

The science is still emerging. Larger and more diverse datasets and models that can better capture the subtle effects of genetic variants and environmental factors are still needed. But what’s clear is that secondary variants are not secondary in importance.

By embracing this complexity, I believe genetics can move closer to its ultimate promise: not just explaining why disease happens, but predicting who is most at risk and personalizing care for each individual.

The Conversation

Santhosh Girirajan receives funding from the National Institutes of Health.

ref. 1 gene, 1 disease no more – acknowledging the full complexity of genetics could improve and personalize medicine – https://theconversation.com/1-gene-1-disease-no-more-acknowledging-the-full-complexity-of-genetics-could-improve-and-personalize-medicine-266558