Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio

Source: The Conversation – (in Spanish) – By Juan Pablo Fernández-Cortés, Profesor investigador. Departamento Interfacultivo de Música, Universidad Autónoma de Madrid

Gustavo Pittaluga (en el centro, de pie), junto al ‘Grupo de los cinco’ (de izquierda a derecha): Julián Bautista, Rodolfo Halffter, Fernando Remacha y Salvador Bacarisse. Biblioteca Virtual de Prensa Histórica, CC BY

El 8 de octubre de 1975, pocas semanas antes de la muerte de Franco, fallecía en Madrid Gustavo Pittaluga González del Campillo (1906-1975). Su entierro en el Cementerio Civil fue sobrio, sin homenajes. Como si con él se sepultara también la memoria de una modernidad interrumpida por la guerra y la dictadura.

En su biografía se cruzan nombres esenciales de la cultura española –su amigo Federico García Lorca, el cineasta Luis Buñuel o el poeta Rafael Alberti, entre otros– y el itinerario compartido por una generación que hizo de la creación artística un acto de resistencia y de libertad. El exilio llevó a Pittaluga de París a Estados Unidos, Cuba, México y otros países de América Latina, donde mantuvo viva la llama de la cultura de la República.

Medio siglo después, su figura, aún pendiente de un estudio riguroso, reclama su lugar en la memoria cultural de la España del siglo XX.

Los años de la guerra

Retrato de un hombre de traje apoyado en una balaustrada.
Retrato de Gustavo Pittaluga González del Campillo.
Miquelopezgarcia/Wikimedia Commons, CC BY-SA

Antes del estallido de la Guerra Civil, Pittaluga era ya una de las voces más prometedoras de la renovación musical española. Discípulo de Manuel de Falla y cofundador del Grupo de los Ocho, compartía escena con los hermanos Ernesto y Rodolfo Halffter, Fernando Remacha, Salvador Bacarisse o Rosa García Ascot en la defensa de una música abierta a la modernidad europea y alejada del academicismo. Dirigía conciertos, escribía críticas, componía ballets exitosos como La romería de los cornudos –fruto de su colaboración con García Lorca y el también dramaturgo Cipriano Rivas Cherif para la bailarina “La Argentinita”– y proyectaba y difundía en París y Madrid la música de los jóvenes compositores españoles.

Todo se quebró con la sublevación militar. Pittaluga abandonó su actividad artística e ingresó como diplomático en el Ministerio de Estado. Poco después, en el verano de 1937 fue destinado a Washington como secretario de la embajada dirigida por Fernando de los Ríos. Allí defendió la legitimidad del gobierno republicano y, en silencio, comenzó a concebir un homenaje a su amigo Lorca, asesinado en Granada el año anterior, un lamento íntimo que cristalizaría en una obra musical de alto contenido simbólico.

Nueva York: Lorca y Calder en el MoMA

En 1941 llega a Nueva York y se reencuentra con Luis Buñuel, que trabajaba en el departamento de cine del Museum of Modern Art (MoMA). Allí, se integró en su equipo como adaptador cinematográfico, una labor discreta que le permitió acceder al circuito cultural neoyorquino y establecer vínculos con las vanguardias internacionales.

En ese mismo espacio Pittaluga estrenó su Llanto por Federico García Lorca. Escrita para voz recitada y orquesta de cámara a partir de fragmentos de Bodas de sangre, es una partitura madurada en silencio durante los años más inciertos de la guerra y el exilio.

El estreno, del que hasta ahora se desconocía la fecha y el lugar, tuvo lugar el 27 de abril de 1943 en el ciclo Serenade, organizado por la violinista y mecenas Yvonne Giraud, marquesa de Casa Fuerte, bajo la dirección de Vladimir Golschmann con el título abreviado de Elegy. La obra compartió programa con Profiteroles, del compositor estadounidense Theodore Chanler, y la primera interpretación en Nueva York de Les Danses Concertantes de Ígor Stravinsky, lo que situó de manera explícita el homenaje lorquiano en el corazón mismo del debate musical contemporáneo.

Mientras el franquismo imponía el silencio sobre Lorca, Pittaluga lo rescataba en Estados Unidos y convertía su memoria en un acto de resistencia y un puente hacia la modernidad.

Fuentes hemerográficas que han pasado inadvertidas hasta la fecha, revelan otro episodio desconocido de la estancia neoyorquina de Pittaluga: la participación, en 1944, en el documental Sculpture and Constructions dedicado al escultor Alexander Calder. Para este cortometraje, producido por el MoMA, el compositor escribió una breve partitura para piano, de gran economía expresiva, que apoyaba el movimiento rítmico e inestable de los móviles de Calder.

El documental Sculpture and Constructions, dirigido por Herbert Matter.

Muchas de las obras que Pittaluga compuso en los primeros años de su exilio muestran también su diálogo con la literatura contemporánea y su empeño por mantener viva la memoria republicana. Sobre poemas de Rafael Alberti escribió Metamorfosis del clavel (1943), un ciclo de canciones para voz y guitarra. Poco después creó el Homenaje a Díez Canedo (1944), basado en el poema Merendero del escritor extremeño Enrique Díez-Canedo, exiliado y fallecido ese mismo año en México. En esta obra, recitador y piano dialogan en clave expresionista sobre ritmos de chotis y habanera que traducen las tensiones del deseo, el desarraigo y la vida urbana del exilio.

Latinoamérica

Tras instalarse en México en 1945, el camino de Gustavo Pittaluga volvió a cruzarse con el de su amigo Luis Buñuel, esta vez en el cine. La música de Los olvidados (1950) y Subida al cielo (1952) lleva su firma –aunque en los créditos de la primera apareció acompañada de Rodolfo Halffter para sortear trabas sindicales–. En Los olvidados, la sonoridad áspera y tensa potencia la crudeza del retrato de la miseria urbana; en Subida al cielo, reelabora con ironía moderna las músicas populares rurales, fundiendo tradición y vanguardia.

Dos hombres mirando los fotogramas de una película en una imagen en blanco y negro.
Gustavo Pittaluga (derecha) en una imagen de 1950.
Archivo Emilio Casares/Base de datos de Iconografía Musical

El largo exilio de Pittaluga sigue siendo uno de los capítulos menos explorados de su biografía. En La Habana, Lima, Guatemala, Buenos Aires, Brasil o Ciudad de México desplegó una actividad incansable como conferenciante, director y divulgador. En cada escenario combinaba en sus programas a Isaac Albéniz, Enrique Granados y Falla con estrenos de sus obras y de otros autores españoles, trazando un puente entre la tradición y las nuevas corrientes de la modernidad.

El retorno

En 1958 Pittaluga volvió a España. El regreso, sin embargo, no significó la reintegración plena. La dictadura franquista imponía silencios y él optó por trabajar al margen de las instituciones oficiales. Se refugió en la música para teatro, cine y ballet, con colaboraciones discretas pero significativas como la banda sonora para El baile de Edgar Neville (1960) o la selección musical realizada para Viridiana de Buñuel (1961).

En 1960, la familia de García Lorca le confió la edición de las Canciones del teatro de García Lorca, reconstruidas a partir de los recuerdos de Concha e Isabel García Lorca y del escenógrafo Santiago Ontañón. El gesto era, además, un acto de reparación simbólica.

“He aquí los textos impresos. Tremendo es no tener los verbales”, escribió Pittaluga al prologar la edición de las Canciones españolas antiguas que se publicaron un año después. Ese mismo año armonizó canciones para Yerma, dirigida por Luis Escobar, primera representación comercial de Lorca en la España franquista. Le siguieron Bodas de sangre (1962) y La zapatera prodigiosa (1965), todas con música incidental suya.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


En los últimos años de su vida, se enfrentó a una profunda crisis personal y emocional. Según relató Rafael Alberti en una entrevista con Max Aub en 1969, Pittaluga se encontraba en un estado de grave deterioro físico y mental, “muy borracho, muy enfermo, muy perdido”. Alberti recordó también haberlo visto en Buenos Aires en una situación de descontrol, llegando a romper los cristales del hotel donde vivía y a tener que pagar constantemente por los daños ocasionados.

Su tumba en el Cementerio Civil de Madrid resume su destino: sencillo y coherente. Un final que contrasta con la intensidad de una vida atravesada por guerras, exilios y pérdidas, pero fiel hasta el final a la música, a sus amigos y a la memoria republicana.

The Conversation

Juan Pablo Fernández-Cortés no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio – https://theconversation.com/se-cumplen-50-anos-de-la-muerte-de-gustavo-pittaluga-el-compositor-que-protegio-la-memoria-de-espana-en-el-exilio-266735

Cuando Colón confundió lo que era una milla y llegó a América

Source: The Conversation – (in Spanish) – By J. Guillermo Sánchez León, Instituto Universitario de Física Fundamental y Matemáticas (IUFFyM), Universidad de Salamanca

Pintura romántica de la llegada de Cristóbal Colón a América (Dióscoro Puebla, 1862). Museo del Prado / Wikimedia Commons.

En 1999, la sonda espacial Mars Climate Orbiter de EE. UU. se precipitó sobre Marte al utilizar sus programadores, por error, el pie en lugar del metro. Colón tuvo más suerte: cinco siglos antes asignó un valor equivocado a la milla árabe y el error le llevó descubrir un nuevo continente.

Un marino en Salamanca

A finales de 1486, Cristóbal Colón se trasladó a Salamanca, sabiendo que los Reyes Católicos residirían temporalmente en esta ciudad. En aquella época, la corte no tenía una sede fija. Esperaba convencerles de que apoyasen su proyecto de alcanzar las Indias siguiendo una ruta directa a través del Atlántico, como alternativa al itinerario portugués que bordeaba África. Esta misma propuesta ya se la había presentado al rey de Portugal Juan II, que la había rechazado, probablemente aconsejado por el astrónomo salmantino Diego Ortiz de Calzadilla (o de Villegas).

En la biografía Vida y viajes de Cristóbal Colón (1828), Washington Irving cuenta que, en Salamanca, el navegante se enfrentó “a una imponente hilera de maestros, frailes y dignatarios eclesiásticos” que ridiculizaron su idea de la redondez de la Tierra: “¿Habrá alguno tan necio que crea que hay antípodas con los pies opuestos a los nuestros…?”. Sin embargo, los profesores de Salamanca en el siglo XV no cuestionaban que la Tierra era esférica, pero sí tenían motivos para desaconsejar la propuesta de Colón.

La Tierra era una esfera

Desde al menos el siglo VI a. e. c., filósofos y astrónomos griegos como Pitágoras, Platón y Aristóteles sostenían que la Tierra era una esfera, tanto por razones filosóficas (la esfera era considerada la figura geométrica perfecta), como por evidencias empíricas.

Durante los eclipses de Luna, la sombra de la Tierra era siempre circular. Además, los marinos observaban que, en la ruta desde el sur de Grecia a Alejandría, iban apareciendo en el horizonte nuevas constelaciones, lo que era explicable en una Tierra redonda.

El método de Eratóstenes.
Francesco De Lorenzo / Sociedad Geográfica Española (Boletín 76 ), CC BY

El reto de medir su tamaño

Eratóstenes de Cirene (276–194 a. C.) fue más lejos: midió el tamaño de la Tierra, comparando, en el solsticio de verano, las sombras del Sol al mediodía en Siena (actual Asuán) y en Alejandría. En Siena, el Sol estaba en el cénit y no proyectaba sombra, mientras que en Alejandría un gnomon –aguja que marca la sombra en un reloj de sol– sí la proyectaba, formando un ángulo cincuenta veces menor que el de una circunferencia.

Para calcular el perímetro de la Tierra solo tenía que multiplicar por 50 la distancia entre Siena y Alejandría –que estimó en 5 000 estadios–, con lo que obtuvo un total de 250 000 estadios (unidad de medida de longitud en la Antigüedad). Frecuentemente se dice ese valor es muy próximo al real.

En cualquier caso, su medida no fue la que se popularizó. Durante siglos, el tamaño de la Tierra aceptado fue el descrito por Claudio Ptolomeo (siglo II d. C.) en su Geographia. Le otorgó un perímetro de 180 000 estadios egipcios (unos 28 350 km, un 30 % menor que el real), basado en las medidas de Posidonio (c. 100 a. e. c.).

Este había observado que la estrella Canopus se veía en el horizonte en Rodas, mientras que en Alejandría se encontraba en un ángulo equivalente a 1/48 la longitud de la circunferencia. Multiplicando 48 por la distancia entre ambas ciudades, que se estimó en 3 750 estadios, resultan los 180 000 estadios.

El mundo según Ptolomeo (reconstrucción de Johannes de Armsshein. Ulm.1482).
Wikipedia, CC BY

Los errores de Colón

En el siglo IX, el astrónomo persa Al-Farghānī, al servicio del califa Al-Mamun, escribía en su Compendio de Astronomía: “la longitud de un grado en la circunferencia de la Tierra es de 56 millas y dos tercios de una milla […]. Este cálculo fue aceptado y validado por numerosos sabios. Por lo tanto, cuando multiplicamos la longitud de un grado de la circunferencia por el total del círculo, es decir, 360 grados, obtenemos que la circunferencia total de la Tierra es de 20 400 millas”.

Colón consideró relevante esta información, como hace constar en una nota manuscrita a su ejemplar del Imago mundi de Pedro d’Ailly (disponible en la Biblioteca Colombina).

El problema surge al interpretar el valor de 1 milla. Al-Farghānī empleaba la unidad árabe de Al-Mamun, que sabemos equivale a 1 973 metros (m). Por tanto, 20 400 millas son 40 248 km, muy próximo al real (unos 40 000 km).

En la Europa medieval, a menudo, se interpretó erróneamente esa milla como romana (1 481 m), con lo que el perímetros equivaldría según estos calculos a 30 212 km.

Colón, por su parte, empleó una equivalencia de unos 1 250 m, similar a la usada en las cartas portulanas o manuales de navegación medieval, como recoge Adan Szaszdi en su ensayo La legua y la milla de Colón (1958). Ello reducía la circunferencia terrestre a 25 500 km.

Reconstrucción del Mapa de por un autor alemán en 1867.
Wikipedia

De Canarias a Japón

Aunque menor a los 30 000 km, valor más aceptado en su época, lo que hacía distinta la propuesta de Colón era su convicción de que Asia se extendía hacia el este más de lo que entonces se creía y que, tras ella, se encontraba Cipango (Japón). Pensó que podía llegar a Asia navegando hacia el oeste en pocos miles de kilómetros. Esta idea probablemente la había tomado de Toscanelli.

Los profesores de Salamanca no aceptaban esta heterodoxa propuesta; en consecuencia, desaconsejaron el viaje. Sin embargo, el dominico fray Diego de Deza, catedrático de Prima de Teología y maestro del príncipe don Juan, le brindó su apoyo. Mientras estuvo en Salamanca, Colón se hospedó en el convento dominico de San Esteban. En los años siguientes, la influencia de Deza fue decisiva para que lograse finalmente el respaldo de Isabel la Católica, lo que le abriría el camino hacia el Nuevo Mundo.

Colón había supuesto un tamaño de la Tierra menor del real, pero no muy distinta a la que sus contemporáneos asumían. Su error fundamental fue atribuir a Asia una extensión mucho mayor de la que tiene, lo que reducía sustancialmente la distancia a navegar. Pocas meteduras de pata en la historia han tenido consecuencias tan trascendentales. Habría que esperar a la vuelta al mundo de Magallanes-Elcano para conocer la verdadera dimensión de la Tierra.

The Conversation

J. Guillermo Sánchez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando Colón confundió lo que era una milla y llegó a América – https://theconversation.com/cuando-colon-confundio-lo-que-era-una-milla-y-llego-a-america-266086

Grandes incendios… ¿forestales?

Source: The Conversation – (in Spanish) – By Rafael Delgado Artés, Profesor Univeritat Politècnica de València. Prevención y Extinción de Incendios Forestales, Universitat Politècnica de València

Tierras de cultivo y encinas quemadas tras el incendio de Molezuelas de la Carballeda en agosto de 2025, que afectó a las provincias de Zamora y León. LFRabanedo/Shutterstock

Los actuales grandes incendios forestales evolucionan muy rápido, de manera que a menudo la terminología que usamos para definirlos deja incluso de ser válida en poco tiempo. Hemos ido superando etapas a medida que la realidad se impone sobre las etiquetas.

Superamos la primera definición de gran incendio forestal y ahora hablamos de incendios de sexta generación. También los dejamos de medir en hectáreas, y ahora lo hacemos en términos de emergencias. O por poner otro ejemplo, hace tiempo que los expertos advierten que la era de la extinción debe acabar porque ha demostrado su ineficacia y una vez constatada la paradoja de la extinción, que supone que al eliminar los incendios menos graves, se fomenta que en el futuro sean más extremos.

Los grandes incendios ya no son solo “forestales”

También este verano de 2025 –desgraciadamente– hemos podido ver novedades en el comportamiento del fuego y extraer enseñanzas. Una de las más notorias es que todo parece indicar que pronto deberemos dejar de calificar estos incendios como forestales y tendremos que buscar un adjetivo más adecuado para la actual problemática, una vez quede claro que ya no estamos enfrentándonos exclusivamente a fuegos que afectan a terrenos forestales.

Lo anterior quedó demostrado, por ejemplo, en el incendio del pasado mes de agosto en Molezuelas de la Carballeda (Zamora), con más de 13 000 ha agrícolas –o agrícolas abandonadas– quemadas. No era, por tanto, un área forestal. Aunque este fenómeno, que parece que ahora será habitual, ya se había observado en el incendio ocurrido en la comarca del Alto Palancia (Castellón) en 2009.

Otro argumento todavía de mayor peso que apoyaría este cambio de denominación es que el terreno forestal, en otras palabras, el bosque, ya no es el sujeto principal a proteger contra el fuego. La realidad de los sucesos se impone y hemos aprendido que el auténtico sujeto de protección –como en cualquier otro riesgo natural– ha de ser la comunidad humana, con sus vidas (incluyendo las del operativo de extinción), bienes e infraestructuras.

Niveles de la defensa contra el fuego

En cualquier caso, hay que aceptar que los incendios son riesgos que están en plena evolución. Y si aceptamos esto y definimos con la mayor nitidez posible el sujeto y el objeto del riesgo, la construcción de la defensa será mucho más sencilla y eficiente.

Así, cualquier riesgo tiene tres componentes. El primero, la peligrosidad. Es decir, la potencia destructora del evento de acuerdo con el período de retorno esperable. En segundo lugar está la exposición (el número de personas expuestas) y finalmente la vulnerabilidad, que es la susceptibilidad de los afectados frente a la emergencia.

Sabiendo esto, la defensa contra el riesgo de incendio se puede (y se debe) enfocar desde distintos niveles de manera coordinada: la mitigación es una estrategia a largo plazo que incide sobre la reducción del peligro actual. Para los incendios, habría que reducir la carga de combustible disponible, mejorar la salud de los bosques, mitigar el cambio climático… Hablamos, en definitiva, de grandes acciones.




Leer más:
Podemos gestionar los incendios para que convivan con el paisaje mediterráneo


En un nivel inferior, la adaptación es una táctica que persigue reducir el riesgo con la disminución de la exposición del sujeto a proteger. En nuestro caso, consistiría en el alejamiento, en la medida de lo posible, de cualquier comunidad de un posible fuego. Esta es una medida efectiva y, aunque muy difícil de cumplir a rajatabla, hay que tenerla en cuenta en los futuros planes de ordenación del territorio, especialmente en zonas periurbanas.

Finalmente, la protección (y la autoprotección) actúa sobre la vulnerabilidad de la comunidad. No es sencillo ser exhaustivo y sintético a la vez, pero supone un amplio abanico de acciones posibles: alejar suficientemente la vegetación de las edificaciones (de manera que las llamas, y principalmente el humo, en caso de incendio, no suponga una amenaza), prever vías seguras de entrada y salida al núcleo urbanizado en caso de emergencia, tener equipos e infraestructuras, convertir las viviendas y las parcelas urbanizadas en espacios seguros o defendibles… Y sobre todo, formar a la comunidad expuesta a este riesgo en lo que tiene que hacer y cómo, y muy especialmente en lo que no tiene que hacer.




Leer más:
Incendios en España: ¿por qué ahora? ¿Por qué allí?


Otras medidas necesarias consisten en la preparación de la respuesta operativa una vez la emergencia se produce, para que esta respuesta pueda ser lo más segura, eficiente y eficaz. El mantenimiento de las infraestructuras y la asunción de protocolos por todas las partes implicadas son dos de estas medidas, pero no las únicas.

No existe el riesgo cero

No obstante, también habrá que aceptar que simplemente no hay ni habrá soluciones únicas ni mágicas que nos permitan eliminar el riesgo de incendios, porque en emergencias el riesgo cero no existe. Sí tenemos la posibilidad de desarrollar planes realistas con estrategias y tácticas que nos permiten minimizarlo, y es en lo que debemos trabajar. Especialmente debemos priorizar las acciones a medio y largo plazo para mejorar la resiliencia de nuestra estructura socioterritorial frente a la rápida y constante evolución del riesgo que plantea el fuego en nuestro tiempo.

The Conversation

Rafael Delgado Artés es miembro de Plataforma Forestal Valenciana y Profesor de la Universitat Politècnica de València

ref. Grandes incendios… ¿forestales? – https://theconversation.com/grandes-incendios-forestales-266818

El auge del anime: de fenómeno ‘otaku’ a cultura global

Source: The Conversation – (in Spanish) – By Antonio Horno López, Profesor Titular de Universidad, Universidad de Jaén

Fotograma de _Guardianes de la noche: La fortaleza infinita_. IMDB

En apenas unos años, el anime ha pasado de ser un producto de nicho, asociado casi en exclusiva a los aficionados más apasionados –los llamados otaku–, a convertirse en un fenómeno cultural de alcance global. El reciente estreno de la película Guardianes de la noche: la fortaleza infinita, que ha superado los 640 millones de dólares de recaudación global, así lo demuestra.

Para comprender esta transformación, diversos autores han propuesto una clasificación en distintas generaciones que permite analizar con mayor claridad su evolución a lo largo del tiempo.

La denominada “Pregeneración” del anime (1910-1950) engloba los primeros experimentos animados realizados en Japón. Con la “Primera Generación” (1950-1970) surgen las series televisivas y se define un estilo gráfico propio, aunque orientado al público infantil. La “Segunda Generación” (1970-1983) amplía horizontes al introducir tramas más adultas, consolidando al anime como medio narrativo versátil. La “Tercera Generación” (1983-1995), conocida como la “Edad de Oro”, diversifica géneros y formatos, incorpora los vídeos domésticos (OVA) y conquista por primera vez al público occidental. En esta etapa se estrenan internacionalmente series de anime reconocidas como Sailor Moon, Campeones: Oliver y Benji, Los caballeros del zodiaco y, por supuesto, Dragon Ball.




Leer más:
El legado de Akira Toriyama en España: la generación ‘Dragon Ball’


Y, finalmente, la “Cuarta Generación” (1995-actualidad) se caracteriza por la digitalización y la globalización, que consolidan al anime como una industria de alcance mundial.

La evolución tecnológica

Sin embargo, lo que vemos hoy en pantalla va más allá de aquel inicio digital de los años noventa, cuando el anime circulaba sobre todo en páginas no oficiales de internet o en algunos canales privados.

La irrupción de las plataformas de streaming ha transformado radicalmente su distribución y producción. Netflix, entre otras, no solo ha multiplicado su audiencia, sino que ha impulsado nuevas creaciones con total libertad estilística. Títulos como Devilman Crybaby (2018) y Aggretsuko (2020) evidencian esa diversidad, combinando elementos visuales y temáticos que desafían las categorías tradicionales.

También podemos mencionar Made in Abyss (2017), donde la estética infantil contrasta con su crudeza narrativa, logrando una propuesta madura y emocionalmente intensa.

Imagen de una serie de anime.
Ilustración de la serie Made in Abyss.
Netflix

Entre los títulos que marcaron un punto de inflexión destaca Shingeki no Kyojin (Ataque a los titanes, 2013), cuya narrativa épica y violencia estilizada atrajeron a un público nuevo, incluso ajeno al anime. Esta serie podría considerarse la cabeza visible de una nueva era: una animación japonesa más ambiciosa, global y emocionalmente compleja.

En la misma línea de evolución técnica y visual se encuentra DoroHeDoro (2020), adaptación del manga de la dibujante Q Hayashida. Su producción fue posible gracias al avance de las imágenes generadas por ordenador (CGI), que permitió trasladar con fidelidad los intrincados escenarios y personajes del manga. El estudio MAPPA combinó modelado tridimensional con texturas bidimensionales, consiguiendo un estilo híbrido que preserva la esencia del dibujo original. Este logro marcó un precedente en este tipo de obras que inicialmente fueron consideradas “inadaptables”.

Llegan los primeros cazadores de demonios

Como decíamos al inicio, otro fenómeno reciente es Guardianes de la noche: Kimetsu no Yaiba, cuyo éxito explotó tras la adaptación animada del manga homónimo iniciada en 2019 por el estudio Ufotable. La historia de los hermanos Tanjirō y Nezuko contra los demonios combina acción y emoción, logrando resonar con audiencias de todas las edades. El episodio 19, con la espectacular “Danza del Dios del Fuego”, es ya un referente por su técnica de animación a mano y el uso magistral de la técnica de la rotoscopia.

Su secuela cinematográfica, Tren infinito (2020), arrasó en taquilla, pero ha sido La fortaleza infinita (2025) la que, hasta el momento, ha pulverizado todos los récords, convirtiéndose en la película de anime más taquillera de la historia.

Producida por Sony, Ufotable y Aniplex, esta nueva entrega combina animación 2D y 3D con una precisión visual sobresaliente. Este hecho le ha valido el premio a la “Mejor Animación Internacional 2025” en los Critics Choice Awards. Así mismo, el uso del color como elemento distintivo de cada personaje enriquece la puesta en escena y facilita la comprensión dentro de la abundancia visual. El resultado es un espectáculo vibrante que convierte cada secuencia en un despliegue tan vertiginoso y cautivador que resulta imposible apartar la vista.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


K-Pop y demonios, una combinación de oro

Dentro de este panorama globalizado destaca también Las guerreras del K-Pop (2025), una coproducción de Sony Pictures Animation y Netflix, dirigida por Maggie Kang y Chris Appelhans. La cinta fusiona el fenómeno musical coreano con la acción sobrenatural, narrando la historia de un grupo de cantantes que también son cazadoras de demonios. Bajo su estética colorida y musical, la película aborda temas universales como la amistad, la identidad y la aceptación personal.

Aunque no es un anime japonés en sentido estricto, su lenguaje visual –colores intensos, expresividad chibi y dinamismo en las escenas de combate– bebe claramente de esta estética. Su éxito fue inmediato: se convirtió en la película animada más vista de Netflix, con varias canciones en el la lista Billboard Hot 100, incluida “Golden”, que alcanzó el número uno. Su impacto confirma la expansión del “espíritu anime” más allá de las producciones japonesas, en una animación global e híbrida. Es lo que algunos autores ya denominan “animesque”.

Videoclip de ‘Golden’, el gran éxito musical de Las guerreras del K-Pop.

Este tipo de obras demuestra que el anime ha dejado de ser un producto cultural limitado a su país de origen o a un público específico. Hoy forma parte del lenguaje del entretenimiento contemporáneo, donde la animación oriental y occidental se influyen mutuamente. Producciones japonesas que rompen con los cánones tradicionales conviven con creaciones occidentales que adoptan su estética hasta volverse casi indistinguibles.

La ‘Quinta Generación’ del anime

Todo ello apunta a que nos encontramos ante una “Quinta Generación” del anime: una etapa definida no solo por los avances técnicos y el aprovechamiento de la animación híbrida, sino también por una voluntad de desdibujar fronteras y explorar nuevas formas de contar historias.

En definitiva, el anime ha dejado de ser una expresión reservada a un público concreto para convertirse en una de las voces más poderosas e influyentes de la cultura del entretenimiento. Un territorio fértil donde, paradójicamente, lo mainstream y lo otaku se encuentran para dar forma a un lenguaje común que trasciende fronteras y generaciones.

The Conversation

Antonio Horno López no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El auge del anime: de fenómeno ‘otaku’ a cultura global – https://theconversation.com/el-auge-del-anime-de-fenomeno-otaku-a-cultura-global-266540

Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento

Source: The Conversation – (in Spanish) – By Carmen María León Márquez, Profesora e Investigadora en Criminología, Universidad de Castilla-La Mancha

Los ultraprocesados ocupan buena parte de los anaqueles en los supermercados. Leona Octavii/Shutterstock

El intento de explicar las causas de la violencia suele centrarse en factores sociales, económicos o psicológicos: la desigualdad, la exclusión, los traumas infantiles o el consumo de sustancias… Pero ¿y si algo tan cotidiano como la alimentación también influyera en cómo regulamos nuestro comportamiento?

La creciente presencia de alimentos ultraprocesados en nuestra dieta, caracterizados por su pobre valor nutricional y su alto contenido en azúcares añadidos, grasas transgénicas y aditivos, está transformando nuestros hábitos alimentarios. Y aunque su impacto en enfermedades metabólicas como la obesidad o la diabetes está bien documentado, investigaciones recientes sugieren que también podrían influir en funciones cerebrales relacionadas con el control emocional y la impulsividad, dos dimensiones vinculadas al comportamiento violento.




Leer más:
¿Qué es el comer emocional y por qué ahora es más peligroso?


Cerebro y alimentación: una relación compleja

Numerosos estudios han demostrado que la nutrición tiene un efecto directo sobre el funcionamiento del sistema nervioso central. Dietas ricas en ultraprocesados y pobres en nutrientes esenciales se asocian con alteraciones en la microbiota intestinal, inflamación crónica y disfunciones en regiones clave, como la corteza prefrontal, implicada en el control de impulsos y la toma de decisiones.

Por ejemplo, un estudio publicado en The American Journal of Psychiatry encontró que hábitos de vida poco saludables –como una dieta deficiente en nutrientes esenciales y la falta de actividad física– se asocian con un aumento de marcadores inflamatorios, los cuales pueden afectar negativamente a la salud mental.

Desde una perspectiva psicológica, diversos trabajos han vinculado el consumo habitual de ultraprocesados con síntomas como impulsividad, hostilidad y malestar emocional.

Así, un estudio longitudinal realizado con adultos con sobrepeso y síndrome metabólico en 2019 reveló que niveles más altos de impulsividad se relacionaban con una menor adherencia a patrones dietéticos saludables y una mayor preferencia por dietas occidentales, caracterizadas por alimentos ultraprocesados ricos en grasas transgénicas y azúcares.

Aunque estos factores no implican violencia de manera directa, sí aumentan su probabilidad, especialmente en contextos de vulnerabilidad.

Como ejemplo de esto, un estudio con adolescentes españoles encontró que un mayor consumo de alimentos ultraprocesados se asociaba con un incremento en dificultades emocionales y conductuales, como ansiedad, problemas de atención y comportamientos disruptivos. Aunque los resultados son correlacionales (es decir, no permiten establecer una relación causa-efecto), sugieren que ciertos hábitos alimentarios pueden afectar la estabilidad emocional y la capacidad de autorregulación, elementos clave en el surgimiento de conductas conflictivas.




Leer más:
Alexitimia: cómo nos afecta la incapacidad para identificar emociones


Intervenciones nutricionales en entornos carcelarios

Pero ¿puede la alimentación promover directamente comportamientos violentos? Algunos estudios pioneros han explorado esta relación en contextos controlados, como las prisiones.

En uno de los primeros ensayos clínicos realizados en Reino Unido, los investigadores administraron suplementos nutricionales (vitaminas, minerales y ácidos grasos esenciales) a un grupo de jóvenes adultos en prisión. Los resultados fueron sorprendentes: quienes recibieron esos suplementos cometieron un 26,3 % menos de infracciones disciplinarias en comparación con el grupo placebo. Además, en los participantes que tomaron los suplementos durante al menos dos semanas, la reducción promedio alcanzó un 35,1 %.

Este estudio fue replicado años más tarde en los Países Bajos con una muestra más amplia, obteniendo resultados similares: la administración de suplementos redujo significativamente las infracciones disciplinarias en prisión. La hipótesis que sustenta estos hallazgos es que un mejor aporte nutricional favorece una función cerebral más óptima, mejorando la autorregulación y disminuyendo la reactividad emocional.

Es importante subrayar que estas investigaciones no implican que una alimentación de baja calidad nutricional cause directamente la violencia, sino que puede actuar como un factor modulador del comportamiento, especialmente en individuos con condiciones preexistentes de impulsividad, estrés crónico o deterioro emocional.




Leer más:
¿Qué son las adicciones comportamentales y por qué se ceban con la adolescencia?


Ultraprocesados y patrones de consumo adictivo

Parte del problema es que los alimentos ultraprocesados no solo tienen un pobre valor nutricional, sino que también pueden generar patrones de consumo adictivo. Su diseño industrial, hiperpalatable (que resulta sumamente grato al paladar), con combinaciones específicas de aditivos artificiales, grasas transgénicas y azúcares añadidos, activa los circuitos de recompensa del cerebro del mismo modo que lo hacen ciertas sustancias psicoactivas, como la cocaína.

Esto puede dar lugar a una relación compleja que derive en compulsividad y falta de control sobre el consumo de estos productos.

Una vía para la prevención

Si lo que comemos influye en nuestra regulación emocional, entonces la nutrición podría ser una herramienta complementaria para prevenir el comportamiento violento. Esta idea ya se está aplicando en algunos contextos, desde programas piloto en prisiones hasta intervenciones en escuelas ubicadas en zonas vulnerables, con el objetivo no solo de mejorar la salud física, sino también el bienestar socioemocional.

No se trata de caer en reduccionismos: la violencia es un fenómeno complejo, y ningún enfoque por sí solo puede explicarla o erradicarla. Sin embargo, ignorar el papel de la alimentación supondría omitir un factor clave en el análisis criminológico.

Entonces, ¿somos lo que comemos?

Tal vez no del todo, pero sí más de lo que creemos. Nuestra alimentación influye directamente en la manera en que pensamos, sentimos y actuamos. En un mundo donde los ultraprocesados predominan en la dieta de millones de personas, quizás debamos empezar a preguntarnos si una parte de la violencia que nos rodea podría estar gestándose, en silencio, en nuestros platos.

The Conversation

Carmen María León Márquez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento – https://theconversation.com/asi-podria-influir-el-consumo-de-alimentos-ultraprocesados-en-el-comportamiento-violento-266115

¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien?

Source: The Conversation – (in Spanish) – By Enrique Balmaseda Maestu, Profesor Titular de Lengua Española en la Universidad de La Rioja, Universidad de La Rioja

Cuando hablamos cualquier idioma, pronunciamos con mayor intensidad determinadas sílabas de la cadena de palabras. A dicha intensidad se la llama acento prosódico y a las palabras que lo contienen, tónicas. En español, lengua de acento libre, las palabras tónicas pueden portar su acento en diversas posiciones silábicas (NÚmero / nuMEro / numeRÓ). Por el contrario, el francés, de acento fijo, siempre lo lleva en su última sílaba (comMENT, exacteMENT).

Ahora bien, solo en algunas lenguas se marca la vocal tónica con una tilde o acento gráfico (´) para destacarla visualmente de las otras. Y dentro de estas, el español se rige por una serie de reglas que limita el uso de dichas marcas. No escribimos “dáme ún póco de léche”, sino “dame un poco de leche”. Las normas ortográficas para el uso de tildes tienen en cuenta que la mayoría de las palabras del español son llanas (es decir, su sílaba tónica es la penúltima) y terminan en “n”, “s” o vocal, por lo que ninguna de las palabras que tienen estas características necesitan tilde.

Si este “manual de instrucciones” para usar la tilde correctamente es relativamente sencillo, ¿por qué cometen tantos errores los estudiantes? En las últimas oposiciones de Enseñanza Secundaria en España, realizadas en julio de 2025, las faltas de ortografía han sido uno de los factores más polémicos del alto porcentaje de suspensos. Solo en Andalucía se han invalidado por su causa 4000 exámenes, incluida la ausencia o descolocación del acento gráfico.

¿Cómo de importantes son las tildes?

En una comunicación básica, quizá no pasa nada especialmente grave si, por desconocimiento o descuido, se omite la tilde o se coloca incorrectamente, porque nuestra gramática interna o mental nos permite interpretar correctamente enunciados de escritura incorrecta como Papa la tomo de la mano.

A eso parecía referirse García Márquez en su famoso discurso del Congreso de Zacatecas (1997): “Nadie ha de leer lagrima donde diga lágrima ni confundirá revólver con revolver”. Ciertos estudios lo corroboran al constatar que el tiempo de fijación de la mirada en palabras aisladas es igual tanto si llevan tilde como si no la llevan.

Eficacia comunicativa

¿Por qué entonces conviene usar las tildes adecuadamente? Por varias razones: unas, digamos, por autoimagen y prestigio cultural; otras, por competencia y eficacia comunicativa. Frente a la provocación de García Márquez, lo cierto es que un texto bien redactado y sin errores ortográficos denota rigor mental, disciplina intelectual, elegancia… La precisión acentual también es indicio del gusto por el detalle y el buen hacer.

Por otra parte, la acentuación correcta, cuando se trata de enunciados y no de palabras aisladas, nos ayuda a comprender lo leído más deprisa y a deshacer posibles ambigüedades. Y también a pronunciar bien otras voces poco conocidas (buerdégano, barbián, bahorrina…) o variantes lingüísticas del español (tú cantas / vos cantás, cóctel / coctel, vídeo / video, etc.).

Además, la funcionalidad y economía de las reglas de acentuación en nuestra lengua contribuyen a la unidad lingüística en el registro formal de todo el ámbito hispanohablante. En definitiva, tildar correctamente nos permite distinguir las palabras y entender e interpretar la escritura adecuadamente, con precisión y con mínimo esfuerzo mental.

El origen de las reglas actuales

La primera Ortografía académica (1741) fijó unas normas de acentuación gráfica donde ya prevalecía el principio de economía basado en las características acentuales del español: es decir, las normas se diseñaron para que las palabras con tilde fueran las menos posibles.

Como la mayor parte de sus palabras son llanas (62 %) y agudas (29 %), al tiempo que las sílabas suelen terminar en vocal (69 %) y en –n o –s, la RAE estableció unas reglas básicas para escribir sin tilde casi todas las palabras: las monosílabas, las llanas terminadas en vocal, –n y –s, y las agudas que acaben en consonantes que no sean las anteriores (Los peces nadan con calma en el mar azul). El resto debían ser tildadas (El biólogo encontró un fósil junto a un camarón en el océano).




Leer más:
¿Guapa? ¡Guapa! o ¡¡¡Guapa!!! La importancia de la puntuación en la expresión escrita


¿Todas las lenguas usan tildes?

Podría haber sido de otra manera. No hay más que echar un vistazo a la escritura de otras lenguas: en inglés no se marca ninguna tilde, salvo en unos pocos extranjerismos, por lo que es preciso saber previamente la pronunciación de las voces (por ejemplo, animal o acupuncture, donde el acento recae sobre la primera a).

El italiano, aún más parco en tildes que el español, solo marca las palabras agudas, distinguiendo el grado de abertura vocálica (caffè / perché) y unas pocas monosílabas ( ‘da’ / da ‘de’), mientras que no aparece en las esdrújulas (fabbrica) ni en las sobreesdrújulas (lasciatemelo).

Por el contrario, el griego moderno marca con tilde todos los acentos prosódicos (παιδί ‘niño’, βιβλιοθήκη ‘biblioteca’), salvo las palabras monosílabas, aunque también en estas se usa tilde diacrítica para distinguir las tónicas de las átonas.

¿Por qué se cometen errores?

Entre docentes existe la idea generalizada de que muchos estudiantes preuniversitarios, e incluso universitarios, muestran una ortografía mala o mejorable, en particular, respecto a las tildes, algo corroborado por algunos estudios.

Las causas apuntadas son varias: desconocimiento de las reglas, desdén hacia la escritura correcta por prejuicios diversos, falta de lecturas valiosas y de atención al escribir, pérdida de prestigio de las normas académicas, influencia de ciertas convenciones asociadas a la tecnología, tipo de relación con los destinatarios de los escritos, etc.

Pero también influye la ineficacia de los métodos de enseñanza, excesivamente memorísticos, que ponen el foco en el error y generan dudas ante los huecos en blanco.




Leer más:
¿Por qué los dictados tradicionales no enseñan ortografía?


Competencias necesarias para usar bien las tildes

Las reglas generales de acentuación, aparentemente sencillas, requieren automatizar competencias complejas: discriminar las palabras tónicas de las átonas, separarlas en sílabas, apreciar el acento de intensidad, determinar el tipo de palabra según la sílaba en que recaiga… Y, teniendo en cuenta su terminación, aplicar dichas reglas para poner o no las tildes.

A todo ello se añaden particularidades como la acentuación de hiatos, diptongos y triptongos, la de los adverbios en -mente, la variedad de porqués o la mencionada tilde diacrítica.

Y qué decir de la confusión y reticencia de muchos hispanohablantes cuando la norma ortográfica contradice nuestra intuición (como, por ejemplo, cuando se nos dice que palabras como guion o truhan no deben llevar tilde por ser monosílabas, a efectos ortográficos); cuando establece distinciones sutiles (la opción de tildar o no ciertos pronombres según su función sintáctica: qué/que, quién/quien, dónde/donde…); o, frente a una costumbre muy arraigada, indica que no debemos tildar el adverbio solo y los demostrativos este, ese o aquel (y sus flexiones).

Acentuar gráficamente las palabras implica articular un conjunto de competencias que van más allá de la simple memorización: adquirir saberes y técnicas para ejercitarlos de manera automática. Pero, como en toda disciplina intelectual, se pueden alcanzar aunando voluntad, reflexión, práctica y métodos didácticos adecuados.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien? – https://theconversation.com/por-que-tiene-tildes-el-espanol-y-por-que-nos-cuesta-tanto-usarlas-bien-260455

Federal shutdown deals blow to already hobbled cybersecurity agency

Source: The Conversation – USA – By Richard Forno, Teaching Professor of Computer Science and Electrical Engineering, and Associate Director, UMBC Cybersecurity Institute, University of Maryland, Baltimore County

The federal cybersecurity agency is crippled by layoffs and shutdown furloughs. The Conversation, CC BY-ND

As the United States experiences its latest government shutdown, most of the daily operations of the federal government have ground to a halt. This includes much of the day-to-day work done by federal information technology and cybersecurity employees, including those at the nation’s leading civilian cybersecurity agency, the Cybersecurity and Infrastructure Security Agency.

CISA is among the entities that will see the deepest staffing reductions during the shutdown that began Oct. 1, 2025, according to Department of Homeland Security documentation. Only about one-third of its employees remain on the job after federal employees were furloughed. As if cybersecurity wasn’t challenging enough, fewer CISA employees are being asked to do more and more work protecting American cyberspace during the shutdown. And they’ll be working with the promise of getting paid for their efforts at some date in the future once the shutdown ends.

The current CISA situation is grim, from my vantage point as a cybersecurity researcher and former industry practitioner. The agency was already experiencing deep cuts to its staff and resources before the shutdown. And now, coinciding with the shutdown, a key law that enabled the agency to facilitate information-sharing with the private sector has expired.

Taken together, the cyberdefense agency is being hobbled at a time when the need for its services has never been greater, from the ongoing China-led Salt Typhoon attack on U.S. telecommunications networks to ransomware, data breaches and threats to infrastructure.

CISA was created in 2007 within the Department of Homeland Security. As its name implies, the agency is charged with digital security matters across the federal government. The agency also works with the companies that operate and secure the numerous critical infrastructure sectors of the American economy, such as phone networks, the electric grid and energy pipelines. Additionally, it helps state and local governments across the country secure their vulnerable networks and data.

CISA also publishes threat and vulnerability alerts for the government and cybersecurity community and engages with public and private stakeholders on best practices in response to emerging vulnerabilities. Prior to the recent expiration of the 2015 Cybersecurity Information Sharing Act, the agency also made it easier for organizations to share useful information with the government to help cybersecurity teams better protect their systems.

Shutdown-mandated furloughs at the nation’s cybersecurity agency present an opportunity for malicious hackers.

Political football

The agency takes a nonpartisan approach to cybersecurity matters. However, some politicians have accused the agency of political bias for its work helping states protect their voting infrastructure from cyberattacks and external influence. Specifically, the agency was repeatedly maligned for calling the 2020 election the “most secure” in history. For some in elected office, this work on election security has tarnished CISA’s reputation and perhaps explains recent budgetary actions taken against the agency.

Since the Trump administration took office in January 2025, nearly 1,000 CISA employees have departed the agency through voluntary buyouts or deferred resignations. By the end of May 2025, nearly all of CISA’s senior leadership had resigned or had announced plans to do so.

For 2026, the president’s draft budget proposes to reduce CISA’s head count by nearly one-third, dramatically cutting staff from its risk management and stakeholder engagement divisions. Other cuts will significantly reduce the agency’s collaboration activities and funding for CISA’s various cybersecurity education and training programs.

Making the problem worse, the government shutdown began at the same time that Congress failed to renew the Cybersecurity Information Sharing Act. This law provided a legal shield that allowed companies and infrastructure operators to share timely and often sensitive information with CISA about the cyberattacks, vulnerabilities and incidents that they were encountering.

In the wake of the law’s expiration, prudent companies may consider restricting what information they share with the government. Without the indemnification provided by CISA, many companies will likely have their legal teams review any information to be shared with the government. And that takes time.

Unfortunately, adversaries do not reduce their attacks against the U.S. based on available federal cyber defense funding or the status of cybersecurity laws. In fact, malicious hackers often strike when their target’s guard is down.

Charting a better course

Early in my career I had to work through a prolonged government shutdown. I’ve also participated in and developed assorted public-private information-sharing environments to exchange intelligence and analysis on cyber- and national security matters. And having been in the D.C. area for over 30 years, I’ve seen how government works. So I have a good idea of what’s needed to improve American cybersecurity. The following suggestions are a starting point.

First, Congress could ensure that critical security agencies such as CISA are immune from the threat of recurring federal government shutdowns. If it desired, Congress could set budgets for America’s security agencies on a biennial basis – as 16 states already do for their entire budgets.

In terms of cybersecurity funding, the White House’s proposed 2026 budget reduces research and education on cybersecurity. For example, the nation’s premiere federal cybersecurity scholarship program to recruit, educate and place future federal cybersecurity workers would be reduced by over 60%. Protecting this funding would allow CISA and the federal government to maintain the pipeline for a robust and capable cybersecurity workforce both today and into the future.

Companies could develop new or expand existing nongovernmental information-sharing networks that are not completely dependent on the government to facilitate or fund, such as the Cyber Threat Alliance or the Center for Internet Security. Cybersecurity relies on trust. But right now, the instability of the federal government makes it difficult to rely on any entity under its policy or funding influence, no matter how well time-tested and trusted. Regardless, without legal protections, the information-sharing utility of these services will be limited.

Cybersecurity risks remain even if the federal government shuts down. So this is another reminder that each of us is responsible for our own cybersecurity. Individual users should continue to remain vigilant, follow accepted best practices for cybersecurity and always be mindful about online risks.

It’s ironic that the federal government is shutting down, CISA is being eviscerated and the Cybersecurity Information Sharing Act has expired just as the country begins to observe national Cybersecurity Awareness Month – another collaborative public engagement activity that CISA promotes to help improve cybersecurity for all Americans.

The Conversation

Richard Forno has received funding related to cybersecurity research and education from the National Science Foundation (NSF), the Department of Defense (DOD), the US Army, State of Maryland, and private companies during his academic career since 2010. From 2012-2025 he co-directed UMBC’s Scholarship For Service program.

ref. Federal shutdown deals blow to already hobbled cybersecurity agency – https://theconversation.com/federal-shutdown-deals-blow-to-already-hobbled-cybersecurity-agency-266862

AI tools promise efficiency at work, but they can erode trust, creativity and agency

Source: The Conversation – Canada – By Jordan Loewen-Colón, Adjunct Assistant Professor, Smith School of Business, Queen’s University, Ontario

What if your biggest competitive asset is not how fast AI helps you work, but how well you question what it produces?

Business leaders tend to prioritize efficiency and compliance in the workplace. It’s one of the reasons why so many are drawn toward incorporating generative AI technologies into their workflows. A recent survey found 63 per cent of global IT leaders worry their companies will be left behind without AI adoption.

But in the rush to adopt AI, some organizations are overlooking the real impact it can have on workers and company culture.

Most organizational strategies focus on AI’s short-term efficiencies, such as automation, speed and cost saving. What tends to be overlooked are the impacts AI has on cognition, agency and cultural norms. AI is fundamentally restructuring not only what we know, but how we know it.

As AI becomes more integrated, it will continue to influence organizational tone, pace, communication style and decision-making norms. This is why leaders must set deliberate boundaries and consciously shape organizational culture in relation to AI integration.

Once embedded into workflows, AI influences workplace defaults: which sources appear first, what tone a memo takes and where managers set the bar for “good enough.” If people don’t set these defaults, tools like AI will instead.

As researchers who study AI, psychology, human-computer interaction and ethics, we are deeply concerned with the hidden effects and consequences of AI use.

Psychological effects of AI at work

Researchers are beginning to document a number of psychological effects associated with AI use in the workplace. These impacts expose current gaps in epistemic awareness — how we know what we know — and how those gaps can weaken emotional boundaries.

Such shifts can affect how people make decisions, calibrate trust and maintain psychological safety in AI-mediated environments.

One of the most prominent effects is known as “automation bias.” Once AI is integrated into a company’s workflow, its outputs are often internalized as authoritative sources of truth.

Because AI-generated outputs appear fluent and objective, they can be accepted uncritically, creating an inflated sense of confidence and a dangerous illusion of competence.

One recent study found that in 40 per cent of tasks, knowledge workers — those who turn information into decisions or deliverables, like writers, analysts and designers — accepted AI outputs uncritically with zero scrutiny.




Read more:
AI is reshaping the workplace – but what does it mean for the health and well-being of workers?


The erosion of self-trust

A second concern is the erosion of self-trust. Continuous engagement with AI-generated content leads workers to second-guess their instincts and over-rely on AI guidance, often without realizing it. Over time, work shifts from generating ideas to merely approving AI-generated ones. This results in the diminishing of personal judgment, creativity and original authorship.

One study found that users have a tendency to follow AI advice even when it contradicts their own judgment, resulting in a decline in confidence and autonomous decision-making. Other research shows that when AI systems provide affirming feedback — even for incorrect answers — users become more confident in their decisions, which can distort their judgment.

Workers can end up deferring to AI as an authority despite its lack of lived experience, moral reasoning or contextual understanding. Productivity may appear higher in the short term, but the quality of decisions, self-trust and ethical oversight may ultimately suffer.

Emerging evidence also points to neurological effects of over-reliance on AI use. One recent emerging study tracked professionals’ brain activity over four months and found that ChatGPT users exhibited 55 per cent less neural connectivity compared to those working unassisted. They struggled to remember the essays they just co-authored moments later, as well reduced creative engagement.

So what can leaders and managers do about it?

What leaders and managers can do

Resilience has become something of a corporate buzzword, but genuine resilience can help organizations adapt to AI.

Resilient organizations teach employees to effectively collaborate with AI without over-relying on its outputs. This requires systematic training in interpretive and critical skills to build balanced and ethical human-AI collaboration.

Organizations that value critique over passive acceptance will become better at thinking critically, adapting knowledge effectively and will build stronger ethical capacity. One way of achieving this is by shifting from a growth-oriented mindset to an adaptive one. Which, practically speaking, means workplaces should seek to do the following:

  1. Train people to separate fluency from accuracy and to ask where information comes from rather than just being passive consumers of it. With better epistemic awareness, workers become active interpreters understanding what an AI tool is saying, as well as how and why it’s saying it.

  2. Teach people to monitor their thinking processes and question knowledge sources. A recent study showed professionals with strong metacognitive practices, like planning, self-monitoring and prompt revision, achieved significantly higher creativity when using AI tools, while others saw no benefit. That means metacognition could be the “missing link” for productive LLM use.

  3. Avoid a one-size-fits-all approach and consider levels of automation by task stages. AI tool developers should be encouraged to define clear roles for when the model drafts or analyzes, when the human leads and when verification is mandatory. Consider adding things like AI-use to responsibility and accountability charts.

  4. Create workplace cultures that encourage workers to question AI outputs, track those challenges as quality signals and budget time for verification. Workplaces should publish style norms for AI-assisted writing, set confidence thresholds and evidence requirements by function, and specify who signs off at each risk level.

  5. Hold quarterly “drift reviews” to spot shifts in tone, reliance or bias, before they calcify into organizational culture.

Efficiency will not decide the winners

As we are starting to see, the drive for efficiency will not decide which firms are most successful; the ability to interpret and critically assess AI outputs will.

The companies that pair speed with skepticism and protect judgment as a first-class asset will handle volatility better than those that treat AI as an autopilot. Speed may get you to the next decision, but judgment keeps you in business.

Ethical intelligence in organizations requires an ongoing investment in epistemic awareness, interpretive skill, psychological safety and active value-driven design.

Companies capable of balancing technological innovation with critical thinking and deep ethical understanding will be the ones to thrive in the AI era.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. AI tools promise efficiency at work, but they can erode trust, creativity and agency – https://theconversation.com/ai-tools-promise-efficiency-at-work-but-they-can-erode-trust-creativity-and-agency-264865

Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais

Source: The Conversation – in French – By Melchisedek Chétima, Professor of African History, Université du Québec à Montréal (UQAM)

La récente inscription du paysage culturel de Diy-Giɗ-Biy (DGB) au patrimoine mondial de l’UNESCO marque une victoire historique pour le Cameroun, mais elle perpétue aussi un héritage colonial : ces ruines exceptionnelles continuent d’être désignées par un nom que les communautés locales rejettent.

Situé dans l’Extrême-Nord du pays, le site archéologique des Diy-Giɗ-Biy (se prononce « Dii-Guiɗ-Bii ») s’étend sur une vingtaine de kilomètres carrés et abrite seize monuments en pierre sèche répartis dans sept villages, au cœur d’une chaîne montagneuse que l’institution, et avant elle, la communauté des chercheurs dont je fais partie, désigne comme « monts Mandara ».

Son inscription sur la liste du patrimoine mondial a été saluée à juste titre comme une rare victoire pour les patrimoines matériels africains, trop longtemps marginalisés dans les grandes instances patrimoniales internationales. Pourtant, au-delà de l’apparente consécration, un débat de fond émerge : à qui appartient ce patrimoine ? Et pourquoi persiste-t-on à nommer les montagnes qui les abritent « monts Mandara », une appellation dans laquelle les locaux ne se reconnaissent pas ?

Professeur d’histoire africaine à l’Université du Québec à Montréal, mes travaux de recherche portent sur des thèmes variés tels que la culture matérielle, l’esclavage, ainsi que les dynamiques identitaires et politiques dans l’espace communément désigné sous le nom de « monts Mandara ». Mon approche allie l’étude des sources orales, écrites et archéologiques, ce qui me permet de proposer une compréhension fine et nuancée de cette région et de ses populations.

Des montagnes-refuges

Selon l’UNESCO, les DGB se distinguent par leur ancienneté (XIIe–XVIIe siècles) et leurs terrasses agricoles. Les populations locales les appellent Giy-Deδ-Bay (« ruine de la demeure du chef ») ou Diy-Giɗ-Biy (« l’œil du chef au-dessus »), termes qui reflètent leur dimension spirituelle et politique.

Mais en parlant de « monts Mandara », l’institution reconduit une méprise héritée de l’époque coloniale.

Le terme prend racine dans les récits européens du XVIIIe siècle, qui l’utilisaient pour désigner le royaume islamisé du Wandala ou Mandara, établi dans les plaines et prospérant grâce aux échanges commerciaux avec le Kanem-Bornu. Ce dernier, grand État sahélien et acteur majeur du commerce esclavagiste, a profondément marqué les dynamiques sociales et politiques de toute la région du bassin tchadien.

Longtemps vassal du Bornu, le Wandala s’est progressivement émancipé au XVIIIe siècle, en partie grâce à son islamisation, ce qui lui a permis de mener ses propres campagnes esclavagistes contre les groupes montagnards. Pour se protéger de ces raids, ces communautés se sont réfugiées dans les massifs, où elles ont développé des architectures défensives dont les Diy-Giɗ-Biy sont particulièrement révélateurs.

Cette dynamique de pouvoir entre le Wandala, le Bornu et les Montagnards s’inscrit dans une histoire plus ancienne. Sur sa mappemonde de 1459, Fra Mauro, moine italien réputé pour son expertise géographique, identifiait déjà les Wandala comme un groupe ethnique distinct.

Les Montagnards ne font donc pas partie du groupe Mandara. Ce dernier, sous l’influence du Bornu, les a en fait soumis à ses campagnes esclavagistes, établissant une relation de domination plutôt qu’une intégration politique ou culturelle. De plus, les Montagnards ne dénomment pas leurs massifs « monts-Mandara ». Ils s’auto-identifient littéralement comme « gens du rocher » – duw kunde en langue plata ou encore nda məndə dzaŋa en langue podokwo. Une telle auto-identification traduit un rapport intime à leurs montagnes et affirme une identité politique et culturelle distincte des populations musulmanes des plaines environnantes.

Dans un entretien récent que j’ai réalisé à Mokolo avec un chef mafa, celui-ci m’expliquait : « Nous ne sommes pas Mandara, nous sommes les enfants de la montagne, et les rochers font partie de notre existence en tant que peuple ».

La cartographie coloniale et ses héritages persistants

L’analyse proposée ici s’organise autour de deux dimensions. D’une part, elle examine comment l’imaginaire colonial continue de structurer notre perception du territoire. Les appellations coloniales comme « monts Mandara », employées par les administrateurs allemands puis britanniques et français, relevaient surtout de commodités classificatoires, ignorant la complexité sociale et culturelle des communautés montagnardes.

D’autre part, cette appellation produit une dépossession symbolique. De fait, inscrire le patrimoine des « gens de la montagne » sous un nom qui n’est pas le leur revient à effacer leurs voix. En reprenant cette terminologie, l’UNESCO, même involontairement, perpétue un cadre de lecture hérité de la colonisation et réduit la diversité des sociétés montagnardes à l’ombre d’un pouvoir étatique qui les avait jadis dominées.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Il convient de rappeler que les terrasses agricoles évoquées par l’UNESCO ne sont pas seulement des dispositifs fonctionnels d’aménagement du sol. Elles sont également porteuses de significations sociales et culturelles, en lien avec des systèmes de croyances où l’organisation de l’espace traduit une cosmologie de l’ordre et du dialogue constant entre les vivants et leurs ancêtres. Comme le fait remarquer l’archéologue canadien Scott MacEachern, les Diy-Giɗ-Biy s’insèrent dans un paysage déjà habité, cultivé, peut-être même ritualisé.

Leurs constructeurs maîtrisaient avec une grande expertise la technique de la pierre sèche. Tout porte ainsi à croire que ces sites sont le fruit d’un processus d’occupation, d’adaptation et d’élaboration proprement montagnard. Rien n’indique une origine issue des plaines.

La kirditude comme résistance

La reconnaissance internationale des Diy-Gid-Biy par l’UNESCO est certes importante, mais elle demeure partielle tant qu’elle ne respecte pas les termes choisis par les communautés pour s’autodésigner.

Dans ce contexte, de plus en plus de chercheurs et d’activistes locaux plaident pour l’adoption de l’appellation « monts Kirdi ». Historiquement, le terme kirdi, utilisé dans les récits des royaumes musulmans des plaines, portait une connotation péjorative d’infidèle, de non-musulman et d’esclave potentiel.

Toutefois, dans un processus de réappropriation décoloniale, les Montagnards ont transformé ce stigmate en instrument de résistance culturelle et de revendication politique. Ils ont notamment intégré le concept de « kirditude » du sociologue camerounais Jean-Marc Ela pour affirmer leur fierté d’un fond kirdi et défendre leur position face à l’exclusion et à la discrimination dont ils font l’objet dans l’espace politique régional et national.

Renommer les « monts Mandara » en « monts Kirdi » représenterait ainsi une véritable justice symbolique, en reconnaissant que le patrimoine est aussi un champ de luttes et de mémoire. Cela permettrait aux Montagnards de nommer leur propre monde, ce qui enrichirait notre compréhension collective de ce patrimoine vivant et pluriel que sont les DGB.

Rompre avec la neutralité coloniale du patrimoine

Au-delà d’une simple question d’étiquette, le débat sur la toponymie soulève des enjeux cruciaux de reconnaissance des droits épistémiques des peuples autochtones. Quelle valeur peut en effet avoir une politique de valorisation du patrimoine si elle continue de marginaliser la voix de ceux qui en sont les principaux acteurs ?

En maintenant l’usage du terme « monts Mandara », les institutions patrimoniales internationales risquent de perpétuer une mémoire dominante, issue de récits de pouvoirs externes, au détriment des histoires et réalités plurielles des peuples montagnards.

Par ailleurs, renommer les massifs ne signifie en aucun cas effacer l’histoire. Il s’agit au contraire de réhabiliter des récits jusqu’ici occultés. Le patrimoine mondial ne peut véritablement refléter son rôle que s’il devient le théâtre de luttes pour les récits marginalisés et pour les peuples dont la parole a été confisquée au profit de narrations dominantes.

La Conversation Canada

Melchisedek Chétima ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’UNESCO efface sans le vouloir la voix des « gens de la montagne » camerounais – https://theconversation.com/quand-lunesco-efface-sans-le-vouloir-la-voix-des-gens-de-la-montagne-camerounais-262085

Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique

Source: The Conversation – in French – By Nina Klioueva, Université de Montréal

Dans un monde dominé par les aliments ultra-transformés et le manque de temps, grandir sans savoir cuisiner n’est plus rare. Mais cette perte de savoir-faire n’est pas neutre : elle fragilise la santé, l’autonomie et même notre rapport collectif à l’alimentation.

Et si réapprendre à cuisiner devenait un choix de société ?

Depuis quelques décennies, les repas faits maison ont été peu à peu remplacés par des plats prêts-à-manger et des produits très transformés. Au Canada, plus de la moitié de ce que mangent les enfants et les adolescents vient de ces aliments ultra-transformés. Cette tendance a des effets directs sur la santé : plus de maladies chroniques comme le diabète de type 2, et une perte d’autonomie alimentaire, puisque cuisiner est parfois vu comme une option, et non comme une compétence de base.

Dans ce contexte, apprendre à cuisiner dès l’enfance n’est pas seulement un plaisir ou une tradition familiale. C’est un véritable outil de santé publique. Cuisiner aide à mieux comprendre comment faire des choix alimentaires pour soi et pour la planète, à prévenir certaines maladies et à développer une relation positive et durable avec la nourriture. En tant que nutritionnistes et chercheuses en nutrition, nous nous intéressons à la littératie alimentaire chez les adolescents et considérons ce sujet d’autant plus d’actualité face aux défis alimentaires contemporains.

La littératie alimentaire : plus que savoir cuisiner

Apprendre à cuisiner tôt ne se limite pas à acquérir une habileté pratique. C’est une porte d’entrée vers la littératie alimentaire, un ensemble de connaissances, de compétences et d’attitudes qui permettent de bien se repérer dans un monde alimentaire de plus en plus complexe. Elle développe aussi l’autonomie, la confiance et la motivation pour faire des choix qui favorisent la santé et le bien-être.

La littératie alimentaire, ce n’est pas seulement être capable de préparer un repas nutritif. C’est aussi célébrer et transmettre nos traditions culinaires, soutenir des systèmes alimentaires plus justes et durables, et développer une relation positive avec la nourriture.

Il est important de rappeler que savoir cuisiner ne suffit pas tout seul. La cuisine est un élément central, mais la littératie alimentaire est beaucoup plus large. Comme le soulignent les chercheuses Helen Anna Vidgen et Danielle Gallegos, de la Queensland University of Technology, en Australie, elle regroupe un ensemble de compétences liées entre elles : planifier ses repas, gérer un budget et réduire le gaspillage, choisir des aliments nutritifs et sécuritaires malgré le marketing, préparer des repas de base et adopter une alimentation équilibrée et culturellement signifiante.

Ainsi, cuisiner devient une porte d’entrée concrète vers plusieurs de ces dimensions. Quand un enfant met la main à la pâte, il n’apprend pas seulement des gestes techniques. Il apprend aussi à planifier, à s’organiser, à résoudre des problèmes réels et à réfléchir de façon critique à ce qu’il mange. Ces compétences, acquises petit à petit et adaptées à son âge, deviennent la base d’une autonomie alimentaire durable.

Des bénéfices observés dès le plus jeune âge

Les recherches montrent que les enfants qui participent à la préparation des repas mangent une portion supplémentaire de fruits et légumes, et consomment généralement une alimentation de meilleure qualité que ceux qui ne cuisinent pas.

Les habitudes alimentaires acquises tôt ont tendance à rester à l’âge adulte. Initier les enfants à la cuisine, c’est donc poser les bases de comportements qui protègent leur santé à long terme. Par exemple, le simple fait de cuisiner à la maison est lié à une alimentation moins riche en sucres ajoutés et en gras saturés, deux éléments directement associés aux maladies cardiovasculaires et au diabète de type 2.

Des enjeux d’équité en santé

Il faut aussi reconnaître que tout le monde n’a pas le même accès à la cuisine ou aux compétences culinaires. Certaines familles manquent de temps, d’espace ou de moyens financiers pour cuisiner. Dans ce contexte, l’éducation culinaire à l’école ou dans la communauté devient essentielle.

Des programmes comme Apprenti en Action ou Chefs en Action, des initiatives canadiennes via les milieux scolaires, ont montré qu’apprendre à cuisiner dans un cadre éducatif peut augmenter la confiance des jeunes, améliorer leurs connaissances en nutrition et les amener à adopter de meilleures habitudes alimentaires. Ces initiatives représentent une façon d’outiller les jeunes, surtout ceux qui viennent de milieux plus vulnérables, et de réduire les inégalités de santé.

Malheureusement, les programmes de cuisine et d’éducation alimentaire en milieu scolaire restent marginaux et tributaires de financements limités et instables, ce qui contribue à creuser encore les écarts sociaux et de santé. Parallèlement, le système alimentaire est dominé par des régimes industrialisés et des produits ultra-transformés, promus par de puissantes entreprises transnationales, alors que peu de politiques publiques canadiennes visent à améliorer les systèmes alimentaires et, par ricochet, les habitudes alimentaires.

Cette double dynamique accentue les inégalités : les jeunes issus de milieux moins favorisés disposent de moins d’occasions d’apprendre à cuisiner et de développer leur autonomie alimentaire, tout en étant plus exposés aux produits ultra-transformés.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une compétence citoyenne

Enfin, il ne faut pas oublier la dimension sociale et culturelle de la cuisine. Apprendre à cuisiner, c’est aussi apprendre à partager, à transmettre des traditions, à découvrir d’autres cultures et à créer une relation positive avec l’alimentation. Pour un enfant, préparer un repas avec ses proches peut être une expérience valorisante, qui renforce les liens familiaux et la confiance en soi.

Au-delà des chiffres, cette transformation de nos habitudes alimentaires touche aussi notre culture et nos liens sociaux. Les recettes transmises de génération en génération disparaissent parfois, et avec elles, une partie de notre patrimoine culinaire. Par exemple, en Ontario, des écoles primaires qui ont introduit des ateliers de cuisine ont vu leurs élèves essayer de nouveaux légumes et en parler fièrement à leurs familles, montrant qu’un simple geste peut déclencher un réel changement.

La cuisine devient ainsi une compétence citoyenne, à la croisée de la santé, de l’éducation, de la culture et de l’environnement. Initier les enfants à ce savoir-faire, à la fois pratique et symbolique, c’est leur donner les outils pour se débrouiller dans un monde alimentaire complexe et, en même temps, contribuer à une société plus en santé et plus durable.

La Conversation Canada

Nina Klioueva a reçu des financements sous forme de bourse de maîtrise en recherche pour titulaires d’un diplôme professionnel – volet régulier du FRQ, ainsi qu’une Bourse d’études supérieures du Canada – maîtrise (BESC M) des IRSC.

Maude Perreault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi apprendre à cuisiner dès l’enfance est un outil de santé publique – https://theconversation.com/pourquoi-apprendre-a-cuisiner-des-lenfance-est-un-outil-de-sante-publique-265942