Un microbio dio origen a la tradición de tallar calabazas en Halloween

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

Bogdan Sonjachnyj/Shutterstock

El elemento visual más icónico de la festividad de Halloween es, sin duda, la Jack O’Lantern, una calabaza vaciada y tallada con apariencia de rostro, a menudo de aspecto grotesco o sonriente, que sirve de linterna. En el interior hueco de la calabaza se coloca una fuente de luz, tradicionalmente una vela, cuyo parpadeo proyecta sombras fantasmales y da vida a la mueca tallada, creando una atmósfera inconfundible de misterio y celebración.

La especie de calabaza más utilizada para Halloween –contracción de la expresión inglesa All Hallows’ Eve, que significa “víspera de Todos los Santos”– es la Cucurbita pepo; por ejemplo, las variedades Connecticut field o Jack O’Lantern. Debido a su color, forma redondeada y corteza resistente, resulta ideal para tallar. Pero ojo, porque no siempre se utilizó una calabaza: al principio se tallaban otras hortalizas. Concretamente, nabos.

Jack, el Tacaño

La leyenda más famosa asociada con el origen de la tradición de las hortalizas talladas de Halloween nos lleva a la Irlanda del siglo XVIII y está vinculada a una figura del folclore irlandés conocida como Jack el Tacaño, aunque también recibe los nombres de Jack el Herrero, Jack el Borracho o Jack el Excéntrico.

Jack engañó al diablo dos veces. Primero le convenció para que se transformara en una moneda con la que pagar una última bebida antes de llevárselo al infierno, y después lo dejó atrapado en la copa de un árbol. Para conseguir la libertad, el diablo tuvo que prometer a Jack que jamás volvería a reclamar su alma.

Sin embargo, cuando Jack murió, no pudo entrar en el cielo debido a su vida pecaminosa. El diablo cumplió el trato y nuestro hombre quedó condenado a vagar por la Tierra en la oscuridad eterna, sin poder descansar ni en el cielo ni en el infierno. El maligno, a modo de burla, le arrojó una brasa encendida del averno para que iluminara su camino. Jack puso la brasa dentro de un nabo hueco, que usó a modo de linterna. Y así quedó convertido en Jack O’Lantern (Jack, el de la linterna).

Samhain, la festividad gaélica

La celebración de Halloween tiene raíces arcaicas vinculadas, en gran parte, al festival celta conocido como Samhain, que marcaba el final de la temporada de cosechas y el comienzo del año nuevo celta. En el siglo XVIII, mucha gente de Irlanda celebraba el Samhain, la festividad gaélica, con sus rituales de ir de casa en casa en busca de comida y bebida. De ahí la tradición del “truco o trato”.

Como en la Irlanda preindustrial reinaba la oscuridad, muchos tallaban nabos, patatas y otras hortalizas de raíz y les añadían carbón o velas para crear faroles improvisados que sirvieran de guía a los asistentes. En ocasiones, incluso tallaban rostros en ellas.

Además, existía la creencia antigua que, en la noche de Halloween, la frontera entre el mundo de los vivos y el de los muertos se debilitaba, permitiendo a los espíritus buenos y malos regresar. Por esta razón, esa noche las linternas vegetales eran colocadas en las ventanas o entradas de las casas para ahuyentar a esos espíritus, incluido el de Jack O’Lantern. Con el tiempo, los lugareños comenzaron a tallar caras terroríficas en los nabos para ahuyentar a los espíritus malignos.

Un microorganismo cambió los nabos y las patatas por calabazas

La Gran Hambruna irlandesa, también conocida como “hambruna de la patata”, fue un periodo devastador de inanición, enfermedad y migraciones masivas que afectó a Irlanda entre 1845 y 1849, aunque las consecuencias se extendieron hasta 1852.

Aunque se desconocen las cifras exactas, los registros apuntan que al menos se produjeron 1 100 000 de muertes y una emigración masiva de otro millón de personas, lo que supuso un descenso poblacional de casi el 30 %. En realidad, el funesto desenlace del acontecimiento fue multifactorial: confluyeron motivos políticos, religiosos, económicos y, sobre todo, microbiológicos. En concreto, una plaga provocada por el oomiceto Phytophthora infestans, conocido como tizón tardío, destruyó la cosecha de patatas, el alimento básico para gran parte de la población irlandesa pobre. El patógeno es muy agresivo, y los vegetales y cultivos más importantes a los que afecta son la patata y el tomate.

Para desgracia de los irlandeses, el oomiceto se estableció en el suelo. Los siguientes años fueron demoledores, ya que el patógeno persistía y las patatas desaparecían o malograban. Por entonces, no existían sustancias químicas ni métodos genéticos para combatir a Phytophthora. La hambruna y las enfermedades asociadas se cebaron con los más pobres. La desnutrición facilitó la incidencia de infecciones severas como la fiebre tifoidea, la tuberculosis, la difteria o el cólera. Cientos de miles de personas no pudieron superar la debacle y perecieron.

Los irlandeses llevaron Halloween a Estados Unidos

Los más afortunados consiguieron emigrar en busca de nuevas oportunidades, aunque muchos lo hicieron en condiciones deplorables y sucumbieron durante la travesía. La colonia de emigrantes irlandeses más numerosa se estableció en Estados Unidos, un país de mayoría protestante. Sin embargo, más del 90 % de los migrantes irlandeses eran católicos, lo que supuso un impacto notable en la sociedad estadounidense.

De hecho, con los emigrantes irlandeses muchas tradiciones cruzaron el Atlántico. Cuando llegó el momento de celebrar Halloween, hubo un problema de gran magnitud: en América los nabos no eran fáciles de encontrar. Por suerte, los irlandeses inmigrantes encontraron una hortaliza nativa, mucho más grande, llamativa, abundante en otoño y fácil de vaciar y tallar: la calabaza. De inmediato, ésta sustituyó a los nabos y a cualquier otra hortaliza candidata.

Las calabazas talladas con rostros espeluznantes no tardaron en volverse esenciales en las celebraciones de Halloween. Aunque inicialmente servían para ahuyentar el espíritu de Jack y otras almas errantes, con el tiempo, la Jack O’Lantern evolucionó a un simple símbolo festivo. Hoy adorna las casas, mezclando terror y diversión durante todo el mes de octubre.

Calabazas divertidas, pero también peligrosas

Pero ojo, porque las calabazas pueden esconder un peligro. Un estudio publicado en el año 2006, analizó la rápida descomposición fúngica de las calabazas de Halloween (Cucurbita pepo) en Irlanda del Norte durante octubre de 2005. Encontraron que, tras ser talladas y exhibidas, desarrollaban un notorio deterioro microbiano. La investigación reveló la presencia de al menos cinco géneros de hongos (Penicillium, Gibberella, Mucor, Nectria y Fusarium), tres de ellos conocidos por causar infecciones en personas inmunocomprometidas, un riesgo que no había sido documentado previamente.

Por lo tanto, aunque estas hortalizas pueden seguir siendo parte de las festividades, en entornos sanitarios con pacientes vulnerables se recomienda la inspección periódica de las calabazas talladas para procurar minimizar la dispersión de esporas y realizar su descarte inmediato si se observa contaminación fúngica.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Un microbio dio origen a la tradición de tallar calabazas en Halloween – https://theconversation.com/un-microbio-dio-origen-a-la-tradicion-de-tallar-calabazas-en-halloween-268602

¿Qué hacer cuando mi hijo no quiere salir porque está enganchado a los videojuegos?

Source: The Conversation – (in Spanish) – By Dominica Díez Marcet, Doctora en Psicología. Psicóloga Clínica responsable de la Unidad de Adicciones Comportamentales de la Fundació Althaia, Xarxa Assistencial Universitària de Manresa. Profesora asociada de la UVic-UCC., Universitat de Vic – Universitat Central de Catalunya

La adicción a los videojuegos está reconocida en el Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-V). Kelly Sikkema / Unsplash., CC BY

Hoy en día, jugar a videojuegos se ha convertido en una práctica habitual dentro de las actividades de ocio de muchos niños y adolescentes. Es frecuente que los padres duden sobre la conveniencia de permitirles jugar a demanda, así como el tiempo aconsejado y en qué momentos. ¿Dejarlos jugar durante la semana o únicamente el fin de semana? ¿Después de los deberes o antes, para que no los haga deprisa y corriendo?

También refieren lo complicado que es lidiar con los argumentos de los menores: “si todos mis amigos juegan a este juego, ¿por qué a mí no me dejáis?”. A menudo, el miedo de los padres a que su hijo quede excluido del grupo hace que se sean más permisivos de lo que en realidad desearían respecto a los horarios y el tipo de juego.

De este modo, empiezan a consentir que los videojuegos se vayan convirtiendo en un hábito, a pesar de que tengan el convencimiento o duden sobre si no sería mejor que jugaran a otras cosas, leyeran o salieran más de casa.

Así, progresivamente, si no se marcan límites, se va generando una adicción. Es posible empezamos a observar un cambio en el carácter: “está más irritable”, “va más a la suya que antes”,“ parece que no le importa nada”, “cada vez que sale menos con amigos”.

Los videojuegos con más potencial adictivo son los juegos de rol online. Son juegos multijugador en los que se realizan tareas en equipos, también llamados guild. Están diseñados utilizando técnicas psicológicas para que el jugador pase el máximo tiempo conectado. Por ejemplo, el refuerzo intermitente propio de las cajas botín es el mismo mecanismo que el utilizado en las máquinas tragaperras.

El papel de los padres

Es importante, cuando vemos que nuestro hijo empieza a estar más tiempo jugando, intentar respondernos a estas tres cuestiones:

  • ¿Ha perdido interés por actividades que antes hacía (académicas, extraescolares, salir con amigos, colaborar en casa…)?

  • ¿Sabemos si le ha pasado alguna cosa en la vida “real” de la cual necesite evadirse? En este caso tendremos que actuar sobre la causa y, si es necesario, buscar ayuda especializada.

  • ¿Se irrita con más frecuencia y pasa más de las cosas?

Después de reflexionar sobre estas preguntas, nos centraremos en dos conceptos esenciales que guían cómo nos posicionamos respecto a nuestros hijos: vínculo afectivo y autoridad (que no es lo mismo que el autoritarismo).

Lazos de confianza y autoridad

El vínculo afectivo hace referencia a los lazos de amor que se establecen entre padres e hijos y que son la base para generar confianza y bienestar. Hablamos de autoridad respecto a la responsabilidad de los padres para tomar todas las decisiones necesarias para el bienestar de sus hijos e hijas. De hecho, la patria potestad otorga a los padres ese derecho. Ello implica establecer reglas, expectativas y límites y, al mismo tiempo, guiar y enseñar a los niños sobre comportamientos y valores aceptables, así como protegerlos de lo que no les conviene.

Por otra parte, “la autoridad se tiene, no se gana”, en palabras de un amigo mío profesor de adolescentes. Es algo intrínseco al papel de ser padres, para quienes es un derecho y un deber aplicarla.

¿Qué podemos hacer para ayudarlo a recuperar su bienestar?

El primer consejo es mantener una conversación tranquila, incluyendo a otros familiares significativos para él o ella. Debemos evitar juicios y podemos interesarnos por el juego y compartir qué hemos observado (pérdida de intereses, cambio carácter, menos comunicación etc.).

Podemos proponer, con cariño y decisión, establecer unas normas y horarios de juego que preserven los espacios familiares (hora desconexión noche, comidas juntos, tareas casa, etc.).

También es útil facilitar alternativas al juego individuales y familiares, pueden incluir actividades con pantallas juntos.

Sabemos que a los hijos les importa la opinión que los padres y madres tienen sobre ellos, pero ¿qué pasa si no quiere escucharnos y sigue manteniendo la conducta de juego?

Cuando no escuchan

Cuando no escucha, será nuestra responsabilidad ayudar al menor activamente a desengancharse. Es importante recordar el principio de autoridad, para evitar que el uso de videojuegos se convierta en una conducta adictiva con serias implicaciones para su salud, tanto cognitiva como emocional, física y social.

Unos padres que acudían a nuestra consulta habían intentado todo tipo de estrategias para desenganchar a su hijo de 15 años de los videojuegos. Hasta que un día, sacaron el ordenador de la habitación con buen humor y determinación y le dijeron: “el ordenador se ha ido de vacaciones”. Comentaron que fue el mejor verano de los últimos años. El chico estuvo de mal humor tres días, pero rápidamente observaron un cambio de carácter. Fue recuperando la empatía que aparentemente había perdido y retomando los intereses que había aparcado los últimos meses. Explicaron en consulta: “ya vuelve a ser él”, un comentario frecuente de padres que han pasado por procesos similares.

No obstante, debemos tener en cuenta que no siempre es posible, sobre todo, cuando observamos una escalada a nivel de agresividad o cuando se ha intentado varias veces sin conseguir un cambio. Asimismo debemos tener en cuenta que diversos trastornos de salud mental como el TDAH o TEA pueden predisponer a generar una adicción a videojuegos.

Será necesario, en estos casos, buscar ayuda psicológica especializada para recibir la orientación necesaria y poder aplicar las estrategias adecuadas para ayudarlo, cuanto antes mejor.

The Conversation

Dominica Díez Marcet no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué hacer cuando mi hijo no quiere salir porque está enganchado a los videojuegos? – https://theconversation.com/que-hacer-cuando-mi-hijo-no-quiere-salir-porque-esta-enganchado-a-los-videojuegos-247375

‘Tú y la bomba atómica’: George Orwell predijo en 1945 la Guerra Fría y la proliferación nuclear

Source: The Conversation – (in Spanish) – By Ibrahim Al-Marashi, Adjunct Professor, IE School of Humanities, IE University; California State University San Marcos

Bombardero estadounidense Boeing B-29 Superfortress, igual que los que lanzaron las bombas atómicas sobre Hiroshima y Nagasaki, dirigiéndose a bombardear Osaka en 1945. United States Army Air Force

En agosto de 2025 se cumplieron 80 años de los bombardeos atómicos de Hiroshima y Nagasaki. Apenas un mes después de los ataques, el 19 de octubre de 1945, George Orwell publicó un ensayo en el London Tribune titulado Tú y la bomba atómica. En él, planteaba la hipótesis de qué pasaría si “las grandes naciones llegaran a un acuerdo tácito para no utilizar nunca la bomba atómica entre ellas”. Escribió que lo que surgiría sería una “paz que no es paz” y un “estado permanente de ‘guerra fría’”, introduciendo una metáfora perdurable que definiría la geopolítica durante décadas.

En el ensayo, Orwell también predijo la proliferación nuclear: “La bomba es increíblemente cara y su fabricación exige un enorme esfuerzo industrial, del que solo son capaces tres o cuatro países en el mundo”. De hecho, los cinco miembros permanentes del Consejo de Seguridad de las Naciones Unidas (ONU), que también se creó hace 80 años, tienen ahora “la bomba”. La URSS fue la segunda en conseguirla, en 1949.

George Orwell.
Branch of the National Union of Journalists

Desde entonces, su amenaza ha configurado y justificado los conflictos mundiales. Tanto Irak como Irán han sido acusados de buscar la bomba, pero en lugar de la no proliferación diplomática, Estados Unidos e Israel han utilizado la fuerza armada para impedir que estas naciones obtengan armas nucleares.

Una de las razones por las que la ONU aprobó la Guerra del Golfo de 1991 fue la existencia de información de inteligencia que indicaba que Irak tenía un programa de armas nucleares. En 2003, Estados Unidos y Reino Unido intentaron que la organización aprobara una guerra similar para desmantelar las supuestas armas nucleares de Irak, basándose en información errónea que había sido plagiada de mi propia tesis de la Universidad de Oxford.

En junio de 2025, Israel atacó Irán por supuestamente buscar un arma nuclear, también basándose en informes de “inteligencia”. El mundo contuvo la respiración durante los 12 días que duró la guerra, que fácilmente podría haber degenerado en un conflicto nuclear.

Hoy en día, la inteligencia artificial (IA) puede permitir a una nación o a un grupo terrorista construir una bomba atómica de formas que los contemporáneos de Orwell, como Einstein y Oppenheimer, nunca hubieran podido imaginar.

Las novelas y la Guerra Fría

En 1949, solo cuatro años después de Tú y la bomba atómica, Orwell publicó 1984. Se trata de una novela distópica que presagia la Guerra Fría que él había predicho en 1945, con tres bloques geopolíticos ficticios –Oceanía (América del Norte y Gran Bretaña), Eurasia (URSS y Europa) y Eastasia (China y sus vecinos)– que forman una serie de alianzas siempre cambiantes para controlar los “territorios en disputa”.

Edición en español de 1984 de George Orwell.

Penguin Libros

La novela fue profética, ya que se escribió antes de la creación de la Organización del Tratado del Atlántico Norte (OTAN) y del Pacto de Varsovia, y antes de que se acuñaran términos como “Primer”, “Segundo” y “Tercer Mundo”.

Sin embargo, fue su contemporáneo, el oficial británico de Inteligencia Naval durante la Segunda Guerra Mundial Ian Fleming, quien consiguió adivinar en sus novelas una faceta diferente de la dinámica del poder en el siglo XXI. En su exitosa serie de James Bond (y sus aún más populares adaptaciones cinematográficas), la mayor amenaza para la seguridad mundial no son los gobiernos nacionales como la URSS, sino actores individuales superpoderosos, como el genio criminal Ernst Stavro Blofeld y el científico Dr. No.

En las últimas décadas, esta visión de un poder concentrado en una persona como corazón de la amenaza geopolítica se ha materializado una y otra vez. En 2001, Osama bin Laden desencadenó la guerra contra el terrorismo, que duró 20 años. El magnate de los medios de comunicación Rupert Murdoch ejerce un poder desmesurado sobre la política internacional, influyendo en elecciones y votaciones importantes, como el Brexit de 2016. Y fue Elon Musk, no la NASA, quien creó un programa espacial y proporcionó conexión a internet a Ucrania tras la invasión rusa de 2022, lo que otorgó a SpaceX un poder sin precedentes desde los tiempos de la Compañía Británica de las Indias Orientales.

IA atómica y bombas sucias

El camino para obtener un arma nuclear no ha cambiado mucho desde Hiroshima, aunque la IA podría ayudar a los Estados que buscan bombas atómicas. Los avances en inteligencia artificial también pueden facilitar a los grupos terroristas la producción y detonación de explosivos convencionales combinados con material radiactivo, también conocidos como “bombas sucias”, lo que causaría enormes trastornos psicológicos y económicos.

Los escritos de Orwell ponen de manifiesto la hipocresía de este término, ya que nos obliga a preguntarnos si eso significa que las armas nucleares normales son, por defecto, “bombas limpias”. Sin embargo, a pesar del temor a un ataque terrorista improvisado con una bomba sucia, las más sucias son las que están recubiertas de uranio empobrecido (DU), ampliamente utilizadas por las fuerzas militares occidentales.

El DU se produjo inicialmente hace 80 años como un subproducto “residual” del enriquecimiento de uranio durante el Proyecto Manhattan. Sus científicos descubrieron que podía utilizarse para crear armas perforantes.

Estados Unidos y Reino Unido utilizaron estas armas durante la Guerra del Golfo de 1991 y la Guerra de Irak de 2003. Todavía contaminan el suelo, provocando cáncer, defectos congénitos y otras enfermedades. Hoy en día, Ucrania sufre las consecuencias de Chernóbil, pero además, tanto este país como Rusia, han utilizado armas perforantes desde 2022.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Noticias falsas en 1945

Si bien la IA ha potenciado lo que normalmente consideramos orwelliano (estados de vigilancia como los descritos en 1984), Orwell también escribió sobre cómo la tecnología permitía la desinformación. En 1944, cuestionó las noticias falsas de inexistentes ataques aéreos alemanes sobre Gran Bretaña que se emitieron en la radio nazi, y destacó su valor como propaganda en caso de una posible victoria alemana.

Hoy, 80 años después, sigue ocurriendo lo mismo. En junio de 2025, durante la guerra de 12 días entre Israel e Irán, se difundieron vídeos deepfake fabricados por IA que mostraban nubes nucleares en forma de hongo detonando sobre instalaciones atómicas iraníes destruidas.

Algunos sostienen que la guerra fría entre Washington y Moscú nunca terminó, lo que da a la metáfora de Orwell un legado perdurable. No obstante, se suele atribuir al escritor y comentarista político estadounidense Walter Lippman la invención del término en 1947, lo que demuestra la afirmación de Orwell en la novela 1984: “Quien controla el pasado controla el futuro; quien controla el presente controla el pasado”.

The Conversation

Ibrahim Al-Marashi no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ‘Tú y la bomba atómica’: George Orwell predijo en 1945 la Guerra Fría y la proliferación nuclear – https://theconversation.com/tu-y-la-bomba-atomica-george-orwell-predijo-en-1945-la-guerra-fria-y-la-proliferacion-nuclear-268252

El nivel del mar está subiendo, pero no al mismo ritmo en todas partes: el caso de Perú

Source: The Conversation – (in Spanish) – By Juan J. Muñoz, Profesor de Ingeniería Costera, Universidad de Cádiz

Costa de Paracas, Perú. Wikimedia Commons., CC BY

La subida del nivel del mar es uno de los efectos más visibles del cambio climático. Pero, aunque solemos pensar en un fenómeno global, cada región del planeta vive su propia historia.

En la costa peruana, esa historia empieza a contarse en 1942, cuando se instalaron los primeros mareógrafos –instrumento que registra y mide las oscilaciones del nivel del mar (mareas) de forma automática– en Talara, Callao y Matarani. Desde entonces, esas estaciones han registrado casi ocho décadas de variaciones del nivel del mar. Hoy, gracias a ese archivo único, podemos afirmar con claridad que el mar está subiendo en Perú, y que lo hace de manera desigual según la región y el periodo analizado.

Los diferentes niveles de referencia vertical en cada una de las estaciones. Alturas de cada uno de los niveles utilizados están referidas al punto de referencia mareográfico del Callao.
Bismarck J. A. et al.

Una tendencia clara, con altibajos marcados

Un equipo de investigadores de la Universidad de Cádiz comprobamos en un estudio reciente que, entre 1942 y 2019, el nivel del mar ha subido en los tres puntos estudiados. Sin embargo, la magnitud del aumento depende del intervalo que se mire. En algunos periodos, la subida fue moderada (menos de 1 mm por año), mientras que en otros llegó a ser muy acelerada, con valores de más de 10 mm anuales, especialmente en los años más recientes.

Esto significa que no basta con hablar de un único valor promedio. La subida del mar en el Perú es un proceso altamente variable, que responde tanto a tendencias globales como a fenómenos regionales y locales.

El impacto de El Niño

Una de las razones de esa variabilidad es bien conocida por los peruanos: el fenómeno de El Niño. Durante los eventos extraordinarios de 1982-83 y 1997-98, el mar en Talara, Callao y Matarani llegó a elevarse hasta 40 centímetros por encima de su promedio normal.

Consecuencias de las inundaciones traídas por El Niño en 1983 en Perú.
IDESEP.

Estos picos temporales muestran cómo la interacción entre el clima y el océano puede intensificar los riesgos de inundaciones costeras y erosión.

De hecho, el análisis estadístico confirma una fuerte correlación entre la temperatura y el nivel del mar en la costa peruana: cuando sube la temperatura superficial, también lo hace el mar. Y cuando las aguas se enfrían (como en los episodios de La Niña), el nivel tiende a descender.

Perú frente a los reportes del IPCC

Si comparamos los resultados con los informes del Panel Intergubernamental sobre Cambio Climático (IPCC), encontramos coincidencias y también diferencias. Hasta comienzos de los años 2000, las tasas de aumento en Perú eran algo menores que el promedio global. Sin embargo, en la última década analizada (2006-2015) ocurrió lo contrario: los registros de Talara, Callao y Matarani muestran un aumento mucho más rápido que la media mundial reportada por el IPCC.

Esto nos recuerda que las cifras globales sirven como referencia, pero las decisiones de gestión costera deben basarse en estudios locales. El mar no sube al mismo ritmo en todas partes.

Resumen gráfico del trabajo realizado, donde se muestra el mapa de la costa peruana y la ubicaión de las tres estaciones utilizadas (Talara, Callao, Matarani). La gráfica de barras muestra la comparativa en las tres estaciones, de las variaciones del aumento del nivel del mar (SLR) de los datos obtenidos
C. Estrada, B. Jigena-Antelo, J. J. Muñoz-Pérez.

¿Por qué importa?

La costa peruana concentra gran parte de la población y de la infraestructura crítica del país. La subida del nivel del mar amenaza puertos, viviendas, playas, humedales y acuíferos. También puede agravar los impactos de tsunamis y tormentas.

Para planificar defensas costeras, gestionar el agua o proteger los ecosistemas, es vital contar con información detallada y específica, como la que aportan estas series de mareógrafos.

Mirando al futuro

Nuestro estudio no solo confirma la tendencia ascendente, sino que también muestra que los cambios pueden ser bruscos en lapsos cortos, asociados a ciclos climáticos como El Niño o la Oscilación Decadal del Pacífico. Esto significa que los próximos años podrían traer tanto aceleraciones como pausas temporales en la subida del mar, pero la tendencia de fondo es clara: el océano está ganando terreno.

La conclusión es ineludible: Perú necesita políticas costeras basadas en datos locales, que consideren la variabilidad natural y el impacto del cambio climático global. Solo así se podrán anticipar riesgos y reducir la vulnerabilidad de millones de personas que viven frente al Pacífico.

The Conversation

Bismarck Jigena Antelo recibió fondos de Universidad de Cádiz, para realizar una estancia en la Dirección de Hidrografía y Navegación de la Marina del Perú (DHNM).
Los datos de niveles del mar de los mareografos de Talara, Callao y Matarani, que se utilizaron en el artículo de investigación fueron cedidos por la DHNM.
¿Es posible incluir a un tercer autor, la Ing. Carol Estrada Ludeña, funcionaria de la DHNM.

Juan J. Muñoz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El nivel del mar está subiendo, pero no al mismo ritmo en todas partes: el caso de Perú – https://theconversation.com/el-nivel-del-mar-esta-subiendo-pero-no-al-mismo-ritmo-en-todas-partes-el-caso-de-peru-266603

Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

El 9 octubre de 2025, Italia dio un paso sin precedentes en Europa al aprobar una ley que reconoce legalmente la obesidad como una enfermedad crónica, progresiva y con tendencia a la recaída. Su entrada en vigor se produjo el pasado 25 de octubre.

Hasta la fecha, ningún otro país europeo ha promulgado una ley nacional que reconociera la obesidad con tal amplitud: como una patología crónica y con garantías específicas de prevención, tratamiento y seguimiento incluidas en la atención sanitaria pública.

Pasos en la misma dirección

No obstante, algunos países del entorno también han avanzado parcialmente en la misma dirección. Así, mediante el Despacho n.º 12634/2023, Portugal aprobó en diciembre de 2023 implementar un Modelo Integrado de Cuidados para la Prevención y Tratamiento de la Obesidad, dentro de su Servicio Nacional de Salud. Aunque no se trata de una ley, la define como un problema crónico de salud pública e impulsa redes especializadas de tratamiento.

En Alemania, el Bundestag la reconoció en 2020 como una enfermedad en sentido médico y social, dentro de la Estrategia Nacional contra la Diabetes y la Obesidad, aunque sin dotarla aún de un marco legal que garantice prestaciones o cobertura sanitaria específica.

Y, por último, Reino Unido tampoco cuenta con una ley como la de Italia, pero su Servicio Nacional de Salud sí incluye la obesidad entre las condiciones crónicas de manejo prioritario, con énfasis en la prevención y el tratamiento a largo plazo.

De “culpa personal” a problema estructural

En consecuencia, la legislación italiana, a la que la revista The Lancet Diabetes & Endocrinology le ha dedicado unas páginas en el número de este mes, marca un antes y un después en Europa: es la primera que convierte en norma legal al máximo nivel una visión médica y social moderna de la obesidad.

Durante décadas, la acumulación anormal de grasa en el cuerpo fue interpretada como una consecuencia de malos hábitos, falta de disciplina o elecciones alimentarias equivocadas. Sin embargo, la evidencia científica ha demostrado que su origen es complejo, resultado de la interacción entre factores genéticos, ambientales, metabólicos y sociales.

La nueva legislación italiana asume esa visión moderna, y al hacerlo, rompe con el estigma que ha acompañado a millones de personas. Reconocer la obesidad como enfermedad significa reconocer también que requiere atención médica especializada, no juicios morales.

Una pandemia silenciosa

La Organización Mundial de la Salud ha calificado la expansión de la obesidad como “globesidad”, una pandemia en constante aumento. El World Obesity Atlas 2025 estima que su prevalencia mundial habrá aumentado entre 2010 y 2030 más de un 115 %. Si no se mejoran las medidas de prevención y tratamiento, el coste económico podría alcanzar 4,32 billones de dólares anuales en 2035, casi el 3 % del PIB mundial. Esta cifra es comparable al impacto de la covid-19 en 2020, o al del cambio climático en la actualidad.

Este problema no se limita a la salud individual: está asociado a un incremento sustancial en enfermedades cardiovasculares, metabólicas y oncológicas. Los investigadores incluso han introducido un nuevo término, adiponcosis, para describir la relación entre exceso de tejido adiposo y el desarrollo de hasta 13 tipos de cáncer.

Más allá de la atención médica

Al reconocer la obesidad como una enfermedad crónica con implicaciones sanitarias, sociales y económicas, la Ley n. º 149 del 3 de octubre de 2025 también impulsa políticas integradas para su prevención y tratamiento. Su enfoque combina prevención, educación, investigación y asistencia, mediante la creación de un programa nacional y un observatorio especializado

Entre sus disposiciones, promueve campañas de información y educación sobre alimentación saludable y actividad física, así como iniciativas comunitarias y escolares destinadas a crear entornos que favorezcan estilos de vida sanos. Aunque no contempla medidas fiscales ni de etiquetado, la norma sienta las bases para una estrategia nacional multisectorial.

Cambio de mentalidad

El reconocimiento de la obesidad como una enfermedad crónica con repercusiones sociales y sanitarias implica un cambio simbólico importante: las personas afectadas pasan a ser consideradas sujetos de derecho sanitario, merecedores de atención y respeto. La nueva norma promueve la educación, sensibilización y formación profesional para mejorar la comprensión social del problema, sentando las bases para reducir el estigma y fomentar una visión más sensible y estructurada de la obesidad.

En definitiva, el reconocimiento oficial puede contribuir a cambiar el discurso público, promoviendo empatía y comprensión en lugar de juicio y culpa.

Un modelo para el mundo

Ahora, el desafío radica en implantar con eficacia y sostenidamente las medidas que impulsa, garantizando la coordinación entre los niveles institucionales y el seguimiento continuo de los resultados. Pero si el modelo tiene éxito, podría inspirar una transformación global en la manera de entender y afrontar la obesidad.

Como concluyen los autores del artículo en The Lancet, la decisión italiana “representa un paso crucial para reducir los costes del tratamiento y frenar la mortalidad”.

En una época en la que las enfermedades crónicas amenazan la sostenibilidad de los sistemas sanitarios, reconocer la obesidad como una enfermedad es, ante todo, un acto de realismo y de justicia sanitaria, que debe ser tratada por los profesionales de la nutrición.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública – https://theconversation.com/italia-reconoce-la-obesidad-como-enfermedad-cronica-un-paso-historico-en-la-salud-publica-268403

Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine

Source: The Conversation – (in Spanish) – By Lara López Millán, Docente Universitaria de Artes y Educación, Universidad Camilo José Cela

Oscar Isaac en una imagen del último _Frankenstein_ dirigido por Guillermo del Toro. Netflix

El miedo siempre estuvo ahí, pero el cine lo convirtió en espectáculo. Desde las primeras proyecciones, el público acudió a las salas para sentir esa descarga controlada de adrenalina.

Cuando Nosferatu (1922) extendió su sombra, no fue sólo un vampiro lo que hizo que la audiencia se estremeciese: era la Europa de entreguerras viéndose reflejada en una criatura enfermiza y extranjera, una amenaza que llegaba de fuera para romper un orden social que ya tambaleaba. Desde entonces, cada generación ha encontrado su propio engendro en la pantalla.

Sombras y mutaciones

El terror funciona como un espejo. Los castillos en ruinas y las nieblas góticas de los años treinta no eran simples decorados: representaban un mundo que parecía haberse detenido, que miraba con nostalgia y temor al pasado.

Los monstruos de Universal –Drácula (1931), Frankenstein (1931), El hombre lobo (1941)– eran a la vez temibles y fascinantes, porque encarnaban miedos muy contemporáneos: la ciencia que se descontrola, el cuerpo que enferma, lo diferente que amenaza lo familiar. La gente entraba en el cine buscando escalofríos, pero salía habiéndose enfrentado, de forma simbólica, a sus propias ansiedades.

Un hombre deforme yace en el suelo y otro con joroba lo observa iluminándose con una antorcha.
Fotograma de Frankenstein (James Whale, 1931).
Universal Pictures

Con el tiempo, las nieblas se despejaron y el terror empezó a mirar hacia el futuro. Las décadas de posguerra trajeron un pánico nuevo, más tecnológico, más científico. De pronto, las amenazas venían del espacio exterior o de laboratorios secretos: alienígenas, mutantes, experimentos que se salían de control.

Películas como Ultimátum a la Tierra (1951) y El enigma de otro mundo (1951) capturaban la paranoia de un planeta dividido en bloques, mientras que La humanidad en peligro (1954) y Godzilla (1954) daban forma grotesca a la amenaza nuclear con hormigas gigantes y criaturas surgidas de la radiación. La bomba atómica estaba en la mente de todos, y el cine lo canalizó en forma de invasiones, mutaciones y sospechas colectivas.

El enemigo está en casa

El susto más inquietante todavía estaba por llegar: el que no depende de criaturas sobrenaturales.

Cuando Alfred Hitchcock estrenó Psicosis (1960), el público descubrió que el peligro podía estar en la puerta de al lado. Norman Bates era un hombre normal, tímido, amable. No necesitaba colmillos ni garras para matar. Se plasmaba así la incertidumbre de una época marcada por cambios sociales y la erosión de la confianza en las instituciones: los años sesenta traían consigo tensiones urbanas, movimientos sociales y la sensación de que la amenaza podía venir del vecino o el propio núcleo familiar.

Un hombre mira a cámara con la cabeza baja y sonríe.
Anthony Perkins interpretando a Norman Bates, un hombre… ¿normal?
Paramount Pictures

A partir de ese momento, el horror se volvió más íntimo: el motel de carretera, la casa suburbana y la niñez misma podían convertirse en escenarios de pesadilla. Películas como La matanza de Texas (1974) o Halloween (1978) consolidaron esa sensación. Su violencia evidenciaba la desconfianza y el malestar de Estados Unidos tras la guerra de Vietnam y la crisis económica de los setenta: lo que parecía seguro –el hogar, la comunidad– podía volverse mortal.

Esa invasión de lo cotidiano continuó durante los ochenta, una década de consumismo, cultura pop y miedo al crimen urbano, donde el género se llenó de ruido, sangre y espectáculo. Freddy Krueger, Jason Voorhees o el muñeco Chucky se convirtieron en iconos de la cultura pop, con máscaras y frases ingeniosas incluidas.

Pero en medio del exceso, hubo cineastas que exploraron terrores más psicológicos: El resplandor (1980) convirtió a un padre en monstruo, miesntras que La cosa (1982) reflejó la paranoia y el aislamiento propios de la Guerra Fría, donde el enemigo podía estar más cerca de lo que pensábamos. Lo verdaderamente espeluznante no era la criatura, sino la posibilidad de que estuviera dentro de nosotros.

A finales de los noventa, este cine se tornó autorreflexivo. Scream (1996) jugaba con los clichés y los convertía en parte de la diversión; el espectador ya era un cómplice. Este conocimiento de las reglas del juego preparó el terreno para un nuevo tipo de terror: el que utilizaba la cámara y la estructura narrativa para hacer que el miedo pareciera más real y cercano al espectador.

En el nuevo milenio el género empezó a experimentar con nuevas formas de asustar. Surgió el found footage (metraje encontrado) con El proyecto de la bruja de Blair (1999) y después Paranormal Activity (2007), que hicieron que el espanto fuese casi documental, revelando la ansiedad de una sociedad cada vez más vigilada, hiperconectada y acostumbrada a consumir imágenes de lo real a través de cámaras y móviles.

También hubo un auge de remakes estadounidenses de clásicos japoneses como The Ring (2002) o El grito (2004), que introdujeron a Occidente en un miedo atmosférico, más basado en el silencio y la sugerencia que en el susto fácil. Esto coincidió con la apertura cultural global y el interés por historias que venían de fuera, mostrando un mundo interconectado donde lo desconocido podía llegar de cualquier parte.

El arte de atemorizar hoy

Así, tras la experimentación formal de los primeros años del milenio, el género se abrió a propuestas en las que no solo se sobresaltaba al espectador, sino que también se comentaba la sociedad y se exploraba la psicología humana.

La década de 2010 supuso un punto de inflexión. Productoras como A24 y Blumhouse apostaron por un terror más ambicioso y autoral. Por ejemplo, Déjame salir (2017) convirtió el miedo en un comentario social directo sobre los conflictos raciales y la polarización política.

Hereditary (2018) y Midsommar (2019), por el contrario, llevaron el género a un horror casi operístico, en el que la fractura familiar y las dinámicas comunitarias provocan espanto, un espejo de sociedades contemporáneas cada vez más fragmentadas e impacientes. The Babadook (2014) e It Follows (2014) se encargaron de explorar el trauma, la ansiedad y la transmisión del pavor como si fueran enfermedades. Incluso el slasher regresó en versiones más sofisticadas como X (2022) y Pearl (2022), que mezclan nostalgia y reflexión metacinematográfica.

En los años 2020, el género sigue expandiéndose en todas direcciones. Películas como Barbarian (2022) o Háblame (2023) juegan con las expectativas del espectador, construyendo giros radicales en un contexto de incertidumbre global: pandemias, crisis climáticas y cambios tecnológicos acelerados. También vemos un resurgir del folk horror en propuestas como Men (2022) o The Witch (2015), donde lo rural y lo ancestral vuelven a ser fuente de amenaza, recordando cómo la modernidad puede despertar miedos arcaicos.

En los tres últimos años el género ha seguido explorando nuevas formas de provocar escalofríos: It Lives Inside (2023) combina terror sobrenatural y exploración cultural, mientras que La sustancia (2024) ofrece una sátira que critica la industria del bienestar. Incluso Robert Eggers presentó su reinterpretación gótica del clásico Nosferatu (2024) y, en 2025, Weapons introdujo una narrativa fragmentada sobre la desaparición de niños, mezclando horror psicológico y social mientras hablaba de la infancia, la vigilancia y la seguridad en la vida cotidiana.

Un niño con una sonrisa pintada mira a cámara mientras sus compañeros duermen sobre los pupitres.
Imagen de Weapons, de Zach Cregger (2025).
Warner Bros.

Estas producciones demuestran que el cine de terror continúa adaptándose, mostrando ansiedades contemporáneas y ofreciendo nuevas perspectivas al público. Lo que se mantiene constante es nuestra necesidad de mirar, tal vez porque lo consideramos un laboratorio emocional. Nos permite ensayar el miedo sin consecuencias, sentirlo de manera segura y controlada. Cuando las luces se apagan, podemos enfrentarnos a aquello que más nos perturba –la muerte, el caos, la desintegración de la familia, el fin del mundo– y salir ilesos.

En un presente lleno de amenazas difusas, desde pandemias hasta crisis climáticas, el género sigue evolucionando para darles forma. Así, cada Halloween volvemos a las salas buscando ese escalofrío. Puede que ya no haya vampiros con capa ni lobos aullando a la luna, pero el vecino inquietante, el monstruo invisible o el silencio en una casa demasiado tranquila siguen funcionando. Y quizás por eso el terror nunca muere: porque siempre encuentra un nuevo rostro para nuestros miedos.

The Conversation

Lara López Millán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine – https://theconversation.com/del-vampiro-al-vecino-inquietante-como-ha-cambiado-nuestra-forma-de-asustarnos-en-el-cine-265552

El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA

Source: The Conversation – (in Spanish) – By Mauro Hernández, Profesor Titular de Historia Económica, UNED – Universidad Nacional de Educación a Distancia

_El líder de los luditas_, grabado de 1813. Wikimedia Commons, CC BY

En los tiempos que corren, cualquiera que se atreva a cuestionar las ventajas de la innovación tecnológica se arriesga a ser tachado de ludita. En la imagen popular, el ludita es un personaje agrio, reaccionario, visceralmente opuesto a cualquiera de los inventos que supuestamente nos mejoran la vida –del teléfono móvil a la roomba–, y que se resiste más o menos activamente a usarlas, e incluso a que las usen los demás.

Inglaterra, comienzos del XIX: el ludismo

Sin embargo, hubo un tiempo en que el ludismo y los luditas significaron algo muy distinto. Ser ludita en la Inglaterra de las primeras décadas del siglo XIX era una cosa muy seria, y a menudo peligrosa. Pero la imagen que circula de estos “destructores de máquinas” de la primera Revolución Industrial es inexacta e inmerecida.

El mítico Ned Ludd, alias General Ludd o Rey Ludd –de cuyo nombre deriva el término luditas–, probablemente no fue una persona de carne y hueso. Pero sus seguidores formaron a comienzos de la década de 1810 un auténtico ejército de trabajadores, la mayoría de ellos artesanos cualificados, embarcados en una campaña de asaltos a fábricas textiles y destrucción de maquinaria.

Esta movilización alcanzó su apogeo entre 1811 y 1813, pero sus ecos perdurarían. Unos veinte años después, las multitudinarias revueltas del capitán Swing de 1830-1831, movilizaron en veinte condados del sur de Inglaterra a miles de trabajadores agrarios que buscaban mejorar sus salarios destruyendo trilladoras mecánicas. Estos disturbios se saldaron con más de 2 000 detenciones, 500 encarcelados y 19 ejecutados.

Pero la destrucción de máquinas o el asalto a fábricas, como la que defendió a tiros Edmund Cartwright, inventor del primer telar mecánico, eran sólo una parte del repertorio de la protesta ludita. En realidad, combinaban la acción política (peticiones al Parlamento), la sindical (sociedades de socorro mutuo, negociación con los patronos) y la violencia tumultuaria.

La destrucción de unos 1 000 telares llevó al gobierno inglés a movilizar tropas (en plena guerra con Napoleón fueron enviados a Nottingham 2 000 soldados) y castigar la destrucción de maquinaria con pena de muerte. Ser ludita no era cosa de broma.

Ludismo: un movimiento no tan irracional

Aunque los movimientos luditas se han contemplado a menudo como una reacción desesperada contra un progreso inexorable, tenían una racionalidad mucho mayor de la que se les suele reconoce.

Para empezar, formaban parte de acciones de negociación salarial (o de precios, pues muchos artesanos trabajaban a destajo para fabricantes o comerciantes). En ocasiones estaban conectados a corrientes revolucionarias clandestinas como el jacobinismo, inspirado en las ideas de la Revolución francesa, o bien movimientos de corte democrático reformista como el cartismo que allanó el camino para la gran confederación de las Trade Unions (sindicatos obreros) en 1834.

Los luditas representaban, sobre todo, la lucha de muchos trabajadores y sus familias para influir en el reparto del pastel de los beneficios de la mecanización. En ese sentido, alcanzaron algunos éxitos y abrieron el camino a muchas décadas de lucha obrera.

Todo esto lo conocen bien los historiadores, especialmente los británicos, que han dedicado amplia atención al fenómeno, desde los clásicos E. P. Thompson o Eric Hobsbawm hasta más recientemente Brian Merchant, cuyo apasionante libro Sangre en las máquinas acaba de ser publicado en español por una editorial llamada (¿casualmente?) Capitán Swing.

¿Qué es el neoludismo del siglo XXI?

A día de hoy, el término puede utilizarse en dos sentidos. Despectivamente, para retratar a personas refractarias a la tecnología en general, y en especial a la que tiene que ver con la computación (IA incluida) y las comunicaciones móviles. Es casi un epíteto burlón, que abarca tanto al boomer que “pasa de WhatsApp” como a quienes niegan a sus hijos el acceso libre a las pantallas (algo que no necesariamente hacen, pese a lo que a veces se dice, los magnates de las tecnologías. Gente opuesta al progreso, incluso partidarios del decrecimiento económico, a quienes acabará barriendo el viento de la historia.

Desde otro punto de vista, también se reivindican como neoluditas sesudos analistas de las repercusiones indeseadas de las tecnologías, especialmente la IA.

Para estos expertos, a menudo conocedores de primera mano del mundo de los gigantes tecnológicos, la tecnología no siempre significa progreso. La IA generativa, por ejemplo, es una herramienta potentísima para la educación, pero que puede emplearse para estudiar menos.

También puede funcionar como un potenciador y acelerador en el análisis de pruebas médicas pero, a la vez, desplegar sesgos notables, probablemente por el origen de los datos con que se entrena. Eso puede provocar errores en los diagnósticos que varían según el género, la etnia, la edad o, incluso, el nivel socioeconómico.

Valiosa aliada en la lucha contra el crimen o la corrupción, la IA puede ser un arma igualmente poderosa para la persecución política.

También está la espinosa cuestión de cómo se ha alimentado la IA con una ingente masa de materiales que tienen creadores concretos cuyos derechos de autor fueron vulnerados. En el debate sobre estas y otras muchas cuestiones, ciertos neoluditas tienen mucho que decir.




Leer más:
Por qué es tan relevante la demanda de The New York Times contra OpenAI y Microsoft por usar sus contenidos sin permiso


La tecnología no es el problema

Ni las caricaturas de los luditas de la Inglaterra de la Revolución Industrial ni las de los neoluditas de nuestros días hacen justicia a sus reivindicaciones. Unos neoluditas que, por ejemplo, plantean el debate sobre los costes medioambientales de ciertas tecnologías, la regulación de las llamadas tecnologías destructivas, los riesgos de los oligopolios del sector, los efectos sobre derechos y libertades básicos o la participación ciudadana en las decisiones sobre el desarrollo tecnológico. Se trata de debates imprescindibles desde el punto de vista político, ético, social y medioambiental.

Las tecnologías en sí mismas no son casi nunca el problema, pero sí su uso y cómo se reparte el pastel que generan. Los luditas de 1810 lo sabían. A nosotros nos toca decidir, y empieza a ser urgente, cómo va a regularse la inteligencia artificial y cómo van a asignarse los costes y beneficios de su implantación.

The Conversation

Mauro Hernández recibe fondos de la Agencia Estatal de Investigación (Ministerio de Ciencia e Innovación) como investigador del proyecto “Transformaciones sociales en Madrid y la Monarquía hispánica en la edad moderna. Movimientos ascendentes y descendentes. Entre cambios y resistencias” (PID2022-142050NB-C22) coordinado por José Antolín Nieto (UAM).

ref. El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA – https://theconversation.com/el-legado-de-los-luditas-de-la-destruccion-de-telares-al-cuestionamiento-de-la-ia-268041

Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo)

Source: The Conversation – (in Spanish) – By Valentín Iglesias Sarmiento, Profesor, Universidade de Vigo

shutterstock Billion Photos

Aprender matemáticas supone un desafío particular, diferente al otras materias escolares.

En primer lugar, requiere mucho más que memorizar estrategias o recordar fórmulas: implica poner en marcha procesos mentales complejos y coordinarlos. A diferencia de otras asignaturas o contenidos, en los que puede bastar con comprender o recordar información, las matemáticas exigen transformar datos, establecer relaciones abstractas y planificar diferentes pasos para llegar a una solución.

En este proceso, la memoria de trabajo desempeña un papel fundamental porque permite mantener y manipular la información necesaria mientras se resuelve una tarea matemática, y la velocidad de procesamiento ayuda a realizar con agilidad las operaciones básicas.

Matemáticas y funciones ejecutivas

También intervienen otras funciones ejecutivas: la planificación (determinar los pasos que se deben seguir, organizarlos en un orden lógico y supervisar el progreso para evaluar posibles soluciones); la inhibición (frenar respuestas impulsivas o automáticas y resistirse a elementos externos que puedan distraer durante la resolución); y la flexibilidad (cambiar de estrategia cuando el procedimiento inicial no conduce al resultado esperado).

A todo ello se suma el razonamiento no verbal, entendido como la capacidad de reconocer patrones y establecer relaciones entre elementos para guiar las estrategias de solución.

El lenguaje también resulta clave a medida que las tareas se vuelven más complejas. Para resolver un problema correctamente es necesario comprender el significado de las palabras y expresiones que aparecen en el enunciado. Por ejemplo, términos como “aumentar”, “quitar” o “repartir en partes iguales” implican operaciones matemáticas concretas, y si el alumnado no domina ese vocabulario puede tener dificultades para entender qué se le pide.

Esta interacción entre componentes lingüísticos, conocimientos matemáticos y procesos cognitivos de carácter más general explica por qué son frecuentes las dificultades en matemáticas y por qué persisten aunque los alumnos se esfuercen.

Un problema que comienza temprano

La evidencia científica indica que las dificultades no dependen únicamente de la inteligencia o la perseverancia (ni de dificultades específicas como la discalculia), sino de la interacción de múltiples factores educativos, cognitivos, matemáticos, lingüísticos y socioafectivos. Es importante detectar cuáles son y cómo se combinan, pues de lo contrario las dificultades se acumulan y se mantienen a lo largo de toda la etapa escolar.

Las dificultades en matemáticas aparecen ya en Educación Infantil y se consolidan en Educación Primaria. No se trata de un simple “despiste”: los niños con bajo rendimiento inicial suelen mantenerlo durante años.




Leer más:
¿Problemas con los números? Herramientas para detectar y tratar la discalculia


Tradicionalmente, un bajo rendimiento en matemáticas respecto al cociente intelectual se asociaba con la citada discalculia. Hoy se sabe que este criterio es limitado: aunque esta dificultad puede estar detrás en algunas ocasiones, en otras las causas responden a una combinación de factores diferente.

Retos a abordar en el aprendizaje matemático

Las habilidades necesarias para tener un buen rendimiento matemático va evolucionando a lo largo de la escolarización. Algunas tareas, como el cálculo, se apoyan sobre todo en la memoria de trabajo y en habilidades matemáticas tempranas como el conteo. Otras, como la resolución de problemas que hemos comentado, exigen una mayor comprensión verbal y presentan demandas cognitivas más complejas.

Por eso, no todos los estudiantes se enfrentan a las mismas dificultades ni por las mismas razones. Algunos tienen problemas para memorizar las tablas aritméticas, otros tropiezan al seguir los pasos de un procedimiento o al aplicarlo en situaciones nuevas. Estas dificultades pueden estar relacionadas con limitaciones en procesos generales, como la memoria o la atención, con dificultades en las habilidades lingüísticas necesarias para comprender enunciados o con carencias en los conocimientos matemáticos previos.

Una enseñanza flexible y personalizada

Reconocer esta diversidad implica que la enseñanza no puede ser uniforme ni basarse en estrategias idénticas para todo el alumnado. Debe ser flexible y adaptarse a las necesidades específicas de cada niño, lo que supone observar cómo aprende cada estudiante, proponer actividades variadas en función de sus fortalezas y debilidades y ofrecer apoyos ajustados cuando sea necesario.

Muchos docentes ya trabajan en esta dirección, aunque los programas y currículos escolares no siempre facilitan este enfoque. Por ello es importante incorporar esta diversidad en las programaciones didácticas y en la formación del profesorado.

Diferentes tipos de apoyos

Las dificultades en matemáticas no son estáticas ni se ajustan a un enfoque categórico simple. No existen únicamente dos grupos –los que “entienden” y los que “no entienden”–, sino que hay muchos niveles intermedios. Algunos estudiantes pueden mostrar problemas puntuales que desaparecen con pequeñas ayudas, mientras que otros necesitan apoyos más intensos y prolongados a lo largo del tiempo.

También es habitual que las dificultades no se distribuyan de forma uniforme entre las distintas áreas: por ejemplo, un alumno puede dominar el cálculo pero tener dificultades al aplicar sus conocimientos en contextos nuevos o en tareas más complejas, como la resolución de problemas.




Leer más:
¿Qué es el método ABN de matemáticas?


Por todo ello, resulta fundamental realizar un seguimiento del progreso del alumnado durante periodos prolongados, más allá de un curso escolar o de una evaluación puntual. Solo mediante una observación continua es posible comprender cómo evolucionan sus habilidades, por qué algunas dificultades persisten y qué tipo de enseñanza o intervención resulta más eficaz para superarlas.

Estrategias de actuación basadas en la evidencia

De acuerdo con nuestros estudios, más de una cuarta parte de los niños que presenta dificultades en el aprendizaje de las matemáticas en Educación Infantil continúa con ellas al finalizar la etapa de Educación Primaria.

Enfoques educativos como el modelo de Respuesta a la Intervención (RtI) o, de forma más amplia, los Sistemas Multinivel de Apoyo (MTSS) han demostrado ser enfoques eficaces para organizar el trabajo en el aula.

Estos sistemas parten de un mismo principio: ofrecer diferentes niveles de apoyo en función de las necesidades de cada estudiante, que son detectadas de forma temprana a través de instrumentos de cribado. Cada nivel ofrece diferentes tipos de instrucción, evaluación, intervención y apoyos, con niveles más intensivos a medida que se avanza en el sistema.

Combinar estrategias

Los hallazgos recientes también sugieren que los programas que combinan entrenamiento de procesos cognitivos con habilidades matemáticas concretas tienen mayor potencial que los que se centran en un solo aspecto.

Estrategias como la identificación y construcción de esquemas de problemas, la enseñanza explícita de secuencias de estrategias cognitivas y metacognitivas, y el uso de materiales manipulativos para reducir la carga de abstracción han demostrado ser eficaces para ayudar a los estudiantes con debilidades cognitivas y lingüísticas.

Integrar sistemáticamente estos enfoques en la escuela no solo mejora la adquisición de habilidades matemáticas, sino que también favorece la confianza y autonomía de los estudiantes, aspectos fundamentales para su desarrollo académico y emocional.

En definitiva, la combinación de detección temprana, intervenciones estructuradas e integradoras y personalización según el perfil del alumno es la forma más eficaz de abordar las dificultades matemáticas persistentes.

Más allá del aula: un reto social

Comprender por qué algunos niños tropiezan en matemáticas no es solo un asunto académico: estas dificultades tienen un impacto directo en las oportunidades futuras de los escolares, tanto educativas como laborales y sociales.

La evidencia indica que la detección temprana y las intervenciones adecuadas pueden marcar una diferencia significativa. El desafío actual es trasladar este conocimiento a las aulas, asegurando que ningún niño quede rezagado en el aprendizaje de un área tan esencial como las matemáticas.

The Conversation

Valentín Iglesias Sarmiento recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores Longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-I00.

Leire Pérez Pérez recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-100.

ref. Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo) – https://theconversation.com/por-que-algunos-ninos-tienen-dificultades-con-las-matematicas-desde-el-inicio-y-no-es-por-falta-de-esfuerzo-266683

Después de la dana: cuando el agua se retira, el daño psicológico permanece

Source: The Conversation – (in Spanish) – By Paula Collazo Castiñeira, Personal Docente Investigador, Universidad Pontificia Comillas

CMG_IG/Shutterstock

En octubre de 2024, hace hoy un año, una dana golpeó con fuerza la Comunidad Valenciana. La tragedia dejó numerosas víctimas mortales y cientos de heridos, pero hubo un aspecto menos evidente e igualmente devastador: el impacto psicológico en las personas afectadas. Multitud de ciudadanos vieron sus hogares y barrios inundados y cubiertos de barro mientras eran testigos de cómo sus vecinos y familiares sufrían, sin poder hacer nada por ayudarles. En muchos casos no podían regresar a sus casas, ni contactar con sus familiares o con los servicios de emergencia.

Esa desconexión, impotencia y desamparo marcaron profundamente la vivencia de muchas víctimas, a lo que se sumó la percepción de abandono: no hubo un aviso temprano del riesgo extremo, y la gestión inmediata de la tragedia fue percibida por los afectados como lenta y claramente insuficiente.

Semanas después, investigadoras de la Universidad Pontificia Comillas y la Universidad de Zaragoza realizamos un estudio en el que se evaluó a 72 víctimas y 69 voluntarios. Se analizaron síntomas de ansiedad, depresión y estrés postraumático, así como el grado de satisfacción con distintas fuentes de apoyo. También se les dio la opción de compartir sus experiencias.

Aunque el artículo científico todavía no está publicado, sus respuestas han permitido poner cifras y palabras a algo que suele quedar oculto: la huella emocional de los desastres naturales.

Víctimas: el peso de lo perdido

Según el estudio, el 82 % de las víctimas presentaban síntomas moderados o graves de estrés postraumático. Es la huella psicológica que deja vivir o presenciar un evento extremadamente impactante o amenazante para la vida. No se trata solo de recuerdos desagradables: implica revivir mentalmente la experiencia mediante flashbacks o pesadillas, mantenerse en constante alerta, sufrir sobresaltos ante estímulos que recuerdan al suceso y sentir que el peligro sigue presente.

En este sentido, muchas víctimas confiesan que no lo van a olvidar nunca. Algunos tienen pesadillas y recuerdos que, refieren, se repiten en su cabeza sin que puedan evitarlo. Otros narran los acontecimientos con tal nivel de detalle que parece que los estuviesen reviviendo. Por ejemplo, relataron el recuerdo vívido del ruido ensordecedor del agua y de las imágenes de la tragedia, como el abundante barro o ver a otras personas sufriendo. También evocan el miedo que sienten cada vez que vuelve a llover.

A esto se suman altos niveles de ansiedad y depresión: entre un 40 % y un 46 % de los encuestados presentaron estos síntomas. El impacto fue más severo en quienes padecieron daños físicos, tuvieron desperfectos en su domicilio o lo perdieron, o presenciaron cómo otras personas sufrían. También influyeron experiencias emocionales como el miedo a sufrir daños ellos mismos o sus familiares, el temor a fallecer, la sensación de abandono y la indefensión, que agravaron las secuelas psicológicas de la tragedia.

Estos resultados ponen de manifiesto la necesidad de que las víctimas reciban atención psicológica adecuada y sostenida en el tiempo, y de que se visibilice su sufrimiento como parte esencial de la recuperación tras una catástrofe.




Leer más:
Valencia embarrada y en pie: cómo sanar el duelo comunitario tras la DANA


Voluntarios: el impacto psicológico de ayudar

Durante los primeros días tras la catástrofe, los voluntarios fueron esenciales: rescataron, asistieron y acompañaron a numerosas personas afectadas sin medios ni formación para intervenir en una emergencia de tal magnitud. Por ello también se evaluó cómo les había afectado psicológicamente haber sido testigos directos del desastre.

Los resultados muestran que la exposición a escenas de destrucción y sufrimiento, el esfuerzo físico y la tensión dejaron huella: el 68 % presentó sintomatología significativa de estrés postraumático. Entre los factores más asociados al malestar destacaron participar en rescates, ver fallecidos, presenciar saqueos o tener seres queridos afectados o en paradero desconocido.

Personas limpiando el barro en una calle inundada
Voluntarios y vecinos ayudando a limpiar el barro de las aceras en Valencia.
Pacopac/Wikimedia Commons, CC BY-SA

La respuesta solidaria de la ciudadanía fue admirable y las víctimas la recuerdan con profundo agradecimiento, tal y como reflejan nuestros resultados. Sin embargo, cuando la primera reacción ante una emergencia depende de civiles sin entrenamiento ni apoyo psicológico, es esperable que su salud mental se vea afectada. Por ello, resulta fundamental ofrecer atención y acompañamiento especializado también a quienes, con la mejor de las intenciones, se convirtieron en los primeros en ayudar.

La otra inundación: la gestión institucional

Otro hallazgo clave, en línea con las numerosas protestas y reclamos de las víctimas, fue la baja satisfacción con la respuesta institucional: apenas 1,7 en una escala de 1 a 5, frente a los altos niveles de apoyo percibido de familia, amigos, vecinos y voluntarios (entre 4,2 y 4,7). Tampoco sorprende el extremo descontento sobre el aviso de la tragedia (1,2 sobre 5), que llegó cuando el nivel del agua había alcanzado niveles catastróficos.

La insatisfacción con el apoyo institucional y la percepción de lentitud en la implementación de las medidas posteriores se relacionaron con peor salud mental en las víctimas. Sentirse abandonadas por las instituciones ante la tragedia no solo debilita la confianza en las autoridades, sino que les hizo sentir desprotegidas ante futuras emergencias, poniendo en serio peligro la salud psicológica a medio y largo plazo.

Qué podemos aprender

En ocho de cada diez víctimas, la dana ha dejado una huella emocional clara: miedo, dificultad para seguir con la vida cotidiana, ansiedad y tristeza. Si no se atienden, estos síntomas pueden cronificarse y afectar gravemente a la calidad de vida.

Aunque se han puesto en marcha iniciativas de apoyo psicológico, la magnitud del impacto hace necesario reforzarlas y avanzar hacia un sistema de cuidado en salud mental que sea accesible, gratuito y sostenido en el tiempo.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Después de la dana: cuando el agua se retira, el daño psicológico permanece – https://theconversation.com/despues-de-la-dana-cuando-el-agua-se-retira-el-dano-psicologico-permanece-268611

La huella de las inundaciones en la salud mental: cómo atenuar el impacto

Source: The Conversation – (in Spanish) – By Alicia Padrón-Monedero, Directora de Programa en la Escuela Nacional de Salud Pública, Instituto de Salud Carlos III

Detalle del manto floral de Nuestra Señora de los Desamparados en las Fallas de Valencia, donde se rendía homenaje a los voluntarios y las víctimas de la dana. Maria Albi/Shutterstock

Hace un año, el 29 de octubre de 2024, una dana arrasó la costa mediterránea española y diversas áreas del interior. Las inundaciones por el desbordamiento de cauces afectaron a 78 municipios en tres comunidades autónomas (Castilla-La Mancha, Andalucía y, sobre todo, la Comunidad Valenciana), causando la muerte de 236 personas y dejando numerosos heridos y daños materiales.

Dada la magnitud de la tragedia, y con el objetivo de obtener información reciente y contrastada que pudiese mejorar la asistencia a los supervivientes, hemos realizado una revisión sistemática de más de 800 trabajos publicados en prestigiosas revistas de investigación. Toda la información se presentará al detalle en una monografía que será publicada en abierto durante el mes de noviembre.

Efectos duraderos

Los estudios revisados evidencian que este tipo de inundaciones repentinas tienen efectivamente un gran impacto en la salud mental de los afectados y que los problemas pueden persistir al menos tres años. Aunque su prevalencia disminuye con el tiempo, en algunos casos se cronifican.

Los problemas más estudiados han sido el trastorno de estrés postraumático (TEPT), la ansiedad y la depresión. Una interesante investigación de Public Health England evidenció que, después de un año, el porcentaje de casos de TEPT era del 36,2 % en las personas cuyo hogar había sido inundado respecto al 7,9 % en aquellos cuya vida no había sido alterada. En el caso de la ansiedad fue del 28,3 % respecto del 6,5 %, y en el de la depresión, del 20,1% respecto al 5,8%.

La práctica totalidad de los artículos revisados reflejan el incremento de estos tres problemas de salud mental, pero la magnitud del aumento varía mucho según las investigaciones.

Los más vulnerables

Adicionalmente, algunos grupos sociodemográficos son más sensibles al impacto de las inundaciones. Entre ellos se encuentran las mujeres, los niños, los adolescentes, los colectivos con menor nivel socioeconómico y con menor educación y las personas desempleadas. La información sobre las consecuencias en algunos grupos específicos, como las personas mayores, es limitada.

También son más vulnerables aquellas personas con problemas de salud mental y otros trastornos de salud previos. Es interesante señalar que el apoyo familiar y social puede mitigar los efectos.

Por otro lado, los factores estresantes secundarios derivados de las inundaciones –dificultades financieras, daños en el hogar, percances con seguros (incluyendo problemas administrativos y burocráticos), preocupación por la salud de miembros de la familia, interrupción de vida cotidiana, pérdida de servicios…– ejercen también un gran impacto en la salud mental, por lo que resulta necesario evitar que se prolonguen en el tiempo.

¿Cómo hay que actuar?

Los trabajos revisados recomiendan las siguientes medidas para minimizar el daño en la salud mental de los afectados:

  • Los departamentos encargados del manejo del medio natural (responsables de la prevención) deben trabajar con todos los organismos encargados de la respuesta ante inundaciones. Las medidas preventivas no sólo tienen una importancia crucial en sí mismas por causas obvias, sino que, además, los estudios sugieren que la adecuada preparación ante inundaciones futuras reduce los síntomas de estrés postraumático en los supervivientes.

  • La coordinación entre los diversos departamentos intra e inter gubernamentales, las empresas de gestión de seguros y de reconstrucción y los servicios sociosanitarios deben estar perfectamente detallados en las políticas, planes y programas contra las inundaciones. El objetivo será que el proceso de actuación inmediata y de reconstrucción se desarrolle de la forma más precoz posible. Así se conseguiría una pronta intervención, además de atenuar o erradicar los estresores secundarios que hemos visto antes.

  • Los comités que planifican la intervención ante emergencias deben incluir entre sus asesores a representantes de las sociedades de epidemiología y psiquiatría y salud mental.

  • Se debe contar con una dotación de profesionales especializados en salud mental suficiente para el manejo de una potencial catástrofe y seguirse un modelo de atención sociosanitaria escalonada e integrada: fuentes de apoyo, atención sociosanitaria, atención primaria, recursos especializados de salud mental…

  • Los sistemas de vigilancia de salud pública deben incluir los trastornos mentales y del comportamiento. Esto podría ayudar a que se planificaran correctamente los recursos y a que se realizara una adecuada investigación del impacto en salud mental y los factores asociados.

  • Las medidas de reconstrucción y asistencia tienen que combinarse y mantenerse a medio y largo plazo, además de ir adaptándose al contexto.

En resumen, la evidencia científica disponible revela una gran carga de problemas de salud mental en relación con las inundaciones súbitas, y que puede persistir al menos tres años. Adicionalmente, los problemas secundarios asociados al desastre generan un considerable estrés y también tienen un impacto importante a medio y largo plazo. Por eso es fundamental prepararse adecuadamente ante futuros eventos como el que estamos rememorando estos días.

The Conversation

Cristina Linares Gil recibe fondos de Instituto de Salud Carlos III (ENPY 204/25)

Julio Díaz recibe fondos del ISCIII. Proyecto ENPY 436/21

Alicia Padrón-Monedero, Daniel Cuesta Lozano, Isabel Noguer Zambrano, José Antonio López Bueno y Miguel Ángel Navas Martín no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. La huella de las inundaciones en la salud mental: cómo atenuar el impacto – https://theconversation.com/la-huella-de-las-inundaciones-en-la-salud-mental-como-atenuar-el-impacto-268506