Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

El 9 octubre de 2025, Italia dio un paso sin precedentes en Europa al aprobar una ley que reconoce legalmente la obesidad como una enfermedad crónica, progresiva y con tendencia a la recaída. Su entrada en vigor se produjo el pasado 25 de octubre.

Hasta la fecha, ningún otro país europeo ha promulgado una ley nacional que reconociera la obesidad con tal amplitud: como una patología crónica y con garantías específicas de prevención, tratamiento y seguimiento incluidas en la atención sanitaria pública.

Pasos en la misma dirección

No obstante, algunos países del entorno también han avanzado parcialmente en la misma dirección. Así, mediante el Despacho n.º 12634/2023, Portugal aprobó en diciembre de 2023 implementar un Modelo Integrado de Cuidados para la Prevención y Tratamiento de la Obesidad, dentro de su Servicio Nacional de Salud. Aunque no se trata de una ley, la define como un problema crónico de salud pública e impulsa redes especializadas de tratamiento.

En Alemania, el Bundestag la reconoció en 2020 como una enfermedad en sentido médico y social, dentro de la Estrategia Nacional contra la Diabetes y la Obesidad, aunque sin dotarla aún de un marco legal que garantice prestaciones o cobertura sanitaria específica.

Y, por último, Reino Unido tampoco cuenta con una ley como la de Italia, pero su Servicio Nacional de Salud sí incluye la obesidad entre las condiciones crónicas de manejo prioritario, con énfasis en la prevención y el tratamiento a largo plazo.

De “culpa personal” a problema estructural

En consecuencia, la legislación italiana, a la que la revista The Lancet Diabetes & Endocrinology le ha dedicado unas páginas en el número de este mes, marca un antes y un después en Europa: es la primera que convierte en norma legal al máximo nivel una visión médica y social moderna de la obesidad.

Durante décadas, la acumulación anormal de grasa en el cuerpo fue interpretada como una consecuencia de malos hábitos, falta de disciplina o elecciones alimentarias equivocadas. Sin embargo, la evidencia científica ha demostrado que su origen es complejo, resultado de la interacción entre factores genéticos, ambientales, metabólicos y sociales.

La nueva legislación italiana asume esa visión moderna, y al hacerlo, rompe con el estigma que ha acompañado a millones de personas. Reconocer la obesidad como enfermedad significa reconocer también que requiere atención médica especializada, no juicios morales.

Una pandemia silenciosa

La Organización Mundial de la Salud ha calificado la expansión de la obesidad como “globesidad”, una pandemia en constante aumento. El World Obesity Atlas 2025 estima que su prevalencia mundial habrá aumentado entre 2010 y 2030 más de un 115 %. Si no se mejoran las medidas de prevención y tratamiento, el coste económico podría alcanzar 4,32 billones de dólares anuales en 2035, casi el 3 % del PIB mundial. Esta cifra es comparable al impacto de la covid-19 en 2020, o al del cambio climático en la actualidad.

Este problema no se limita a la salud individual: está asociado a un incremento sustancial en enfermedades cardiovasculares, metabólicas y oncológicas. Los investigadores incluso han introducido un nuevo término, adiponcosis, para describir la relación entre exceso de tejido adiposo y el desarrollo de hasta 13 tipos de cáncer.

Más allá de la atención médica

Al reconocer la obesidad como una enfermedad crónica con implicaciones sanitarias, sociales y económicas, la Ley n. º 149 del 3 de octubre de 2025 también impulsa políticas integradas para su prevención y tratamiento. Su enfoque combina prevención, educación, investigación y asistencia, mediante la creación de un programa nacional y un observatorio especializado

Entre sus disposiciones, promueve campañas de información y educación sobre alimentación saludable y actividad física, así como iniciativas comunitarias y escolares destinadas a crear entornos que favorezcan estilos de vida sanos. Aunque no contempla medidas fiscales ni de etiquetado, la norma sienta las bases para una estrategia nacional multisectorial.

Cambio de mentalidad

El reconocimiento de la obesidad como una enfermedad crónica con repercusiones sociales y sanitarias implica un cambio simbólico importante: las personas afectadas pasan a ser consideradas sujetos de derecho sanitario, merecedores de atención y respeto. La nueva norma promueve la educación, sensibilización y formación profesional para mejorar la comprensión social del problema, sentando las bases para reducir el estigma y fomentar una visión más sensible y estructurada de la obesidad.

En definitiva, el reconocimiento oficial puede contribuir a cambiar el discurso público, promoviendo empatía y comprensión en lugar de juicio y culpa.

Un modelo para el mundo

Ahora, el desafío radica en implantar con eficacia y sostenidamente las medidas que impulsa, garantizando la coordinación entre los niveles institucionales y el seguimiento continuo de los resultados. Pero si el modelo tiene éxito, podría inspirar una transformación global en la manera de entender y afrontar la obesidad.

Como concluyen los autores del artículo en The Lancet, la decisión italiana “representa un paso crucial para reducir los costes del tratamiento y frenar la mortalidad”.

En una época en la que las enfermedades crónicas amenazan la sostenibilidad de los sistemas sanitarios, reconocer la obesidad como una enfermedad es, ante todo, un acto de realismo y de justicia sanitaria, que debe ser tratada por los profesionales de la nutrición.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Italia reconoce la obesidad como enfermedad crónica: un paso histórico en la salud pública – https://theconversation.com/italia-reconoce-la-obesidad-como-enfermedad-cronica-un-paso-historico-en-la-salud-publica-268403

Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine

Source: The Conversation – (in Spanish) – By Lara López Millán, Docente Universitaria de Artes y Educación, Universidad Camilo José Cela

Oscar Isaac en una imagen del último _Frankenstein_ dirigido por Guillermo del Toro. Netflix

El miedo siempre estuvo ahí, pero el cine lo convirtió en espectáculo. Desde las primeras proyecciones, el público acudió a las salas para sentir esa descarga controlada de adrenalina.

Cuando Nosferatu (1922) extendió su sombra, no fue sólo un vampiro lo que hizo que la audiencia se estremeciese: era la Europa de entreguerras viéndose reflejada en una criatura enfermiza y extranjera, una amenaza que llegaba de fuera para romper un orden social que ya tambaleaba. Desde entonces, cada generación ha encontrado su propio engendro en la pantalla.

Sombras y mutaciones

El terror funciona como un espejo. Los castillos en ruinas y las nieblas góticas de los años treinta no eran simples decorados: representaban un mundo que parecía haberse detenido, que miraba con nostalgia y temor al pasado.

Los monstruos de Universal –Drácula (1931), Frankenstein (1931), El hombre lobo (1941)– eran a la vez temibles y fascinantes, porque encarnaban miedos muy contemporáneos: la ciencia que se descontrola, el cuerpo que enferma, lo diferente que amenaza lo familiar. La gente entraba en el cine buscando escalofríos, pero salía habiéndose enfrentado, de forma simbólica, a sus propias ansiedades.

Un hombre deforme yace en el suelo y otro con joroba lo observa iluminándose con una antorcha.
Fotograma de Frankenstein (James Whale, 1931).
Universal Pictures

Con el tiempo, las nieblas se despejaron y el terror empezó a mirar hacia el futuro. Las décadas de posguerra trajeron un pánico nuevo, más tecnológico, más científico. De pronto, las amenazas venían del espacio exterior o de laboratorios secretos: alienígenas, mutantes, experimentos que se salían de control.

Películas como Ultimátum a la Tierra (1951) y El enigma de otro mundo (1951) capturaban la paranoia de un planeta dividido en bloques, mientras que La humanidad en peligro (1954) y Godzilla (1954) daban forma grotesca a la amenaza nuclear con hormigas gigantes y criaturas surgidas de la radiación. La bomba atómica estaba en la mente de todos, y el cine lo canalizó en forma de invasiones, mutaciones y sospechas colectivas.

El enemigo está en casa

El susto más inquietante todavía estaba por llegar: el que no depende de criaturas sobrenaturales.

Cuando Alfred Hitchcock estrenó Psicosis (1960), el público descubrió que el peligro podía estar en la puerta de al lado. Norman Bates era un hombre normal, tímido, amable. No necesitaba colmillos ni garras para matar. Se plasmaba así la incertidumbre de una época marcada por cambios sociales y la erosión de la confianza en las instituciones: los años sesenta traían consigo tensiones urbanas, movimientos sociales y la sensación de que la amenaza podía venir del vecino o el propio núcleo familiar.

Un hombre mira a cámara con la cabeza baja y sonríe.
Anthony Perkins interpretando a Norman Bates, un hombre… ¿normal?
Paramount Pictures

A partir de ese momento, el horror se volvió más íntimo: el motel de carretera, la casa suburbana y la niñez misma podían convertirse en escenarios de pesadilla. Películas como La matanza de Texas (1974) o Halloween (1978) consolidaron esa sensación. Su violencia evidenciaba la desconfianza y el malestar de Estados Unidos tras la guerra de Vietnam y la crisis económica de los setenta: lo que parecía seguro –el hogar, la comunidad– podía volverse mortal.

Esa invasión de lo cotidiano continuó durante los ochenta, una década de consumismo, cultura pop y miedo al crimen urbano, donde el género se llenó de ruido, sangre y espectáculo. Freddy Krueger, Jason Voorhees o el muñeco Chucky se convirtieron en iconos de la cultura pop, con máscaras y frases ingeniosas incluidas.

Pero en medio del exceso, hubo cineastas que exploraron terrores más psicológicos: El resplandor (1980) convirtió a un padre en monstruo, miesntras que La cosa (1982) reflejó la paranoia y el aislamiento propios de la Guerra Fría, donde el enemigo podía estar más cerca de lo que pensábamos. Lo verdaderamente espeluznante no era la criatura, sino la posibilidad de que estuviera dentro de nosotros.

A finales de los noventa, este cine se tornó autorreflexivo. Scream (1996) jugaba con los clichés y los convertía en parte de la diversión; el espectador ya era un cómplice. Este conocimiento de las reglas del juego preparó el terreno para un nuevo tipo de terror: el que utilizaba la cámara y la estructura narrativa para hacer que el miedo pareciera más real y cercano al espectador.

En el nuevo milenio el género empezó a experimentar con nuevas formas de asustar. Surgió el found footage (metraje encontrado) con El proyecto de la bruja de Blair (1999) y después Paranormal Activity (2007), que hicieron que el espanto fuese casi documental, revelando la ansiedad de una sociedad cada vez más vigilada, hiperconectada y acostumbrada a consumir imágenes de lo real a través de cámaras y móviles.

También hubo un auge de remakes estadounidenses de clásicos japoneses como The Ring (2002) o El grito (2004), que introdujeron a Occidente en un miedo atmosférico, más basado en el silencio y la sugerencia que en el susto fácil. Esto coincidió con la apertura cultural global y el interés por historias que venían de fuera, mostrando un mundo interconectado donde lo desconocido podía llegar de cualquier parte.

El arte de atemorizar hoy

Así, tras la experimentación formal de los primeros años del milenio, el género se abrió a propuestas en las que no solo se sobresaltaba al espectador, sino que también se comentaba la sociedad y se exploraba la psicología humana.

La década de 2010 supuso un punto de inflexión. Productoras como A24 y Blumhouse apostaron por un terror más ambicioso y autoral. Por ejemplo, Déjame salir (2017) convirtió el miedo en un comentario social directo sobre los conflictos raciales y la polarización política.

Hereditary (2018) y Midsommar (2019), por el contrario, llevaron el género a un horror casi operístico, en el que la fractura familiar y las dinámicas comunitarias provocan espanto, un espejo de sociedades contemporáneas cada vez más fragmentadas e impacientes. The Babadook (2014) e It Follows (2014) se encargaron de explorar el trauma, la ansiedad y la transmisión del pavor como si fueran enfermedades. Incluso el slasher regresó en versiones más sofisticadas como X (2022) y Pearl (2022), que mezclan nostalgia y reflexión metacinematográfica.

En los años 2020, el género sigue expandiéndose en todas direcciones. Películas como Barbarian (2022) o Háblame (2023) juegan con las expectativas del espectador, construyendo giros radicales en un contexto de incertidumbre global: pandemias, crisis climáticas y cambios tecnológicos acelerados. También vemos un resurgir del folk horror en propuestas como Men (2022) o The Witch (2015), donde lo rural y lo ancestral vuelven a ser fuente de amenaza, recordando cómo la modernidad puede despertar miedos arcaicos.

En los tres últimos años el género ha seguido explorando nuevas formas de provocar escalofríos: It Lives Inside (2023) combina terror sobrenatural y exploración cultural, mientras que La sustancia (2024) ofrece una sátira que critica la industria del bienestar. Incluso Robert Eggers presentó su reinterpretación gótica del clásico Nosferatu (2024) y, en 2025, Weapons introdujo una narrativa fragmentada sobre la desaparición de niños, mezclando horror psicológico y social mientras hablaba de la infancia, la vigilancia y la seguridad en la vida cotidiana.

Un niño con una sonrisa pintada mira a cámara mientras sus compañeros duermen sobre los pupitres.
Imagen de Weapons, de Zach Cregger (2025).
Warner Bros.

Estas producciones demuestran que el cine de terror continúa adaptándose, mostrando ansiedades contemporáneas y ofreciendo nuevas perspectivas al público. Lo que se mantiene constante es nuestra necesidad de mirar, tal vez porque lo consideramos un laboratorio emocional. Nos permite ensayar el miedo sin consecuencias, sentirlo de manera segura y controlada. Cuando las luces se apagan, podemos enfrentarnos a aquello que más nos perturba –la muerte, el caos, la desintegración de la familia, el fin del mundo– y salir ilesos.

En un presente lleno de amenazas difusas, desde pandemias hasta crisis climáticas, el género sigue evolucionando para darles forma. Así, cada Halloween volvemos a las salas buscando ese escalofrío. Puede que ya no haya vampiros con capa ni lobos aullando a la luna, pero el vecino inquietante, el monstruo invisible o el silencio en una casa demasiado tranquila siguen funcionando. Y quizás por eso el terror nunca muere: porque siempre encuentra un nuevo rostro para nuestros miedos.

The Conversation

Lara López Millán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Del vampiro al vecino inquietante: cómo ha cambiado nuestra forma de asustarnos en el cine – https://theconversation.com/del-vampiro-al-vecino-inquietante-como-ha-cambiado-nuestra-forma-de-asustarnos-en-el-cine-265552

El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA

Source: The Conversation – (in Spanish) – By Mauro Hernández, Profesor Titular de Historia Económica, UNED – Universidad Nacional de Educación a Distancia

_El líder de los luditas_, grabado de 1813. Wikimedia Commons, CC BY

En los tiempos que corren, cualquiera que se atreva a cuestionar las ventajas de la innovación tecnológica se arriesga a ser tachado de ludita. En la imagen popular, el ludita es un personaje agrio, reaccionario, visceralmente opuesto a cualquiera de los inventos que supuestamente nos mejoran la vida –del teléfono móvil a la roomba–, y que se resiste más o menos activamente a usarlas, e incluso a que las usen los demás.

Inglaterra, comienzos del XIX: el ludismo

Sin embargo, hubo un tiempo en que el ludismo y los luditas significaron algo muy distinto. Ser ludita en la Inglaterra de las primeras décadas del siglo XIX era una cosa muy seria, y a menudo peligrosa. Pero la imagen que circula de estos “destructores de máquinas” de la primera Revolución Industrial es inexacta e inmerecida.

El mítico Ned Ludd, alias General Ludd o Rey Ludd –de cuyo nombre deriva el término luditas–, probablemente no fue una persona de carne y hueso. Pero sus seguidores formaron a comienzos de la década de 1810 un auténtico ejército de trabajadores, la mayoría de ellos artesanos cualificados, embarcados en una campaña de asaltos a fábricas textiles y destrucción de maquinaria.

Esta movilización alcanzó su apogeo entre 1811 y 1813, pero sus ecos perdurarían. Unos veinte años después, las multitudinarias revueltas del capitán Swing de 1830-1831, movilizaron en veinte condados del sur de Inglaterra a miles de trabajadores agrarios que buscaban mejorar sus salarios destruyendo trilladoras mecánicas. Estos disturbios se saldaron con más de 2 000 detenciones, 500 encarcelados y 19 ejecutados.

Pero la destrucción de máquinas o el asalto a fábricas, como la que defendió a tiros Edmund Cartwright, inventor del primer telar mecánico, eran sólo una parte del repertorio de la protesta ludita. En realidad, combinaban la acción política (peticiones al Parlamento), la sindical (sociedades de socorro mutuo, negociación con los patronos) y la violencia tumultuaria.

La destrucción de unos 1 000 telares llevó al gobierno inglés a movilizar tropas (en plena guerra con Napoleón fueron enviados a Nottingham 2 000 soldados) y castigar la destrucción de maquinaria con pena de muerte. Ser ludita no era cosa de broma.

Ludismo: un movimiento no tan irracional

Aunque los movimientos luditas se han contemplado a menudo como una reacción desesperada contra un progreso inexorable, tenían una racionalidad mucho mayor de la que se les suele reconoce.

Para empezar, formaban parte de acciones de negociación salarial (o de precios, pues muchos artesanos trabajaban a destajo para fabricantes o comerciantes). En ocasiones estaban conectados a corrientes revolucionarias clandestinas como el jacobinismo, inspirado en las ideas de la Revolución francesa, o bien movimientos de corte democrático reformista como el cartismo que allanó el camino para la gran confederación de las Trade Unions (sindicatos obreros) en 1834.

Los luditas representaban, sobre todo, la lucha de muchos trabajadores y sus familias para influir en el reparto del pastel de los beneficios de la mecanización. En ese sentido, alcanzaron algunos éxitos y abrieron el camino a muchas décadas de lucha obrera.

Todo esto lo conocen bien los historiadores, especialmente los británicos, que han dedicado amplia atención al fenómeno, desde los clásicos E. P. Thompson o Eric Hobsbawm hasta más recientemente Brian Merchant, cuyo apasionante libro Sangre en las máquinas acaba de ser publicado en español por una editorial llamada (¿casualmente?) Capitán Swing.

¿Qué es el neoludismo del siglo XXI?

A día de hoy, el término puede utilizarse en dos sentidos. Despectivamente, para retratar a personas refractarias a la tecnología en general, y en especial a la que tiene que ver con la computación (IA incluida) y las comunicaciones móviles. Es casi un epíteto burlón, que abarca tanto al boomer que “pasa de WhatsApp” como a quienes niegan a sus hijos el acceso libre a las pantallas (algo que no necesariamente hacen, pese a lo que a veces se dice, los magnates de las tecnologías. Gente opuesta al progreso, incluso partidarios del decrecimiento económico, a quienes acabará barriendo el viento de la historia.

Desde otro punto de vista, también se reivindican como neoluditas sesudos analistas de las repercusiones indeseadas de las tecnologías, especialmente la IA.

Para estos expertos, a menudo conocedores de primera mano del mundo de los gigantes tecnológicos, la tecnología no siempre significa progreso. La IA generativa, por ejemplo, es una herramienta potentísima para la educación, pero que puede emplearse para estudiar menos.

También puede funcionar como un potenciador y acelerador en el análisis de pruebas médicas pero, a la vez, desplegar sesgos notables, probablemente por el origen de los datos con que se entrena. Eso puede provocar errores en los diagnósticos que varían según el género, la etnia, la edad o, incluso, el nivel socioeconómico.

Valiosa aliada en la lucha contra el crimen o la corrupción, la IA puede ser un arma igualmente poderosa para la persecución política.

También está la espinosa cuestión de cómo se ha alimentado la IA con una ingente masa de materiales que tienen creadores concretos cuyos derechos de autor fueron vulnerados. En el debate sobre estas y otras muchas cuestiones, ciertos neoluditas tienen mucho que decir.




Leer más:
Por qué es tan relevante la demanda de The New York Times contra OpenAI y Microsoft por usar sus contenidos sin permiso


La tecnología no es el problema

Ni las caricaturas de los luditas de la Inglaterra de la Revolución Industrial ni las de los neoluditas de nuestros días hacen justicia a sus reivindicaciones. Unos neoluditas que, por ejemplo, plantean el debate sobre los costes medioambientales de ciertas tecnologías, la regulación de las llamadas tecnologías destructivas, los riesgos de los oligopolios del sector, los efectos sobre derechos y libertades básicos o la participación ciudadana en las decisiones sobre el desarrollo tecnológico. Se trata de debates imprescindibles desde el punto de vista político, ético, social y medioambiental.

Las tecnologías en sí mismas no son casi nunca el problema, pero sí su uso y cómo se reparte el pastel que generan. Los luditas de 1810 lo sabían. A nosotros nos toca decidir, y empieza a ser urgente, cómo va a regularse la inteligencia artificial y cómo van a asignarse los costes y beneficios de su implantación.

The Conversation

Mauro Hernández recibe fondos de la Agencia Estatal de Investigación (Ministerio de Ciencia e Innovación) como investigador del proyecto “Transformaciones sociales en Madrid y la Monarquía hispánica en la edad moderna. Movimientos ascendentes y descendentes. Entre cambios y resistencias” (PID2022-142050NB-C22) coordinado por José Antolín Nieto (UAM).

ref. El legado de los luditas: de la destrucción de telares al cuestionamiento de la IA – https://theconversation.com/el-legado-de-los-luditas-de-la-destruccion-de-telares-al-cuestionamiento-de-la-ia-268041

Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo)

Source: The Conversation – (in Spanish) – By Valentín Iglesias Sarmiento, Profesor, Universidade de Vigo

shutterstock Billion Photos

Aprender matemáticas supone un desafío particular, diferente al otras materias escolares.

En primer lugar, requiere mucho más que memorizar estrategias o recordar fórmulas: implica poner en marcha procesos mentales complejos y coordinarlos. A diferencia de otras asignaturas o contenidos, en los que puede bastar con comprender o recordar información, las matemáticas exigen transformar datos, establecer relaciones abstractas y planificar diferentes pasos para llegar a una solución.

En este proceso, la memoria de trabajo desempeña un papel fundamental porque permite mantener y manipular la información necesaria mientras se resuelve una tarea matemática, y la velocidad de procesamiento ayuda a realizar con agilidad las operaciones básicas.

Matemáticas y funciones ejecutivas

También intervienen otras funciones ejecutivas: la planificación (determinar los pasos que se deben seguir, organizarlos en un orden lógico y supervisar el progreso para evaluar posibles soluciones); la inhibición (frenar respuestas impulsivas o automáticas y resistirse a elementos externos que puedan distraer durante la resolución); y la flexibilidad (cambiar de estrategia cuando el procedimiento inicial no conduce al resultado esperado).

A todo ello se suma el razonamiento no verbal, entendido como la capacidad de reconocer patrones y establecer relaciones entre elementos para guiar las estrategias de solución.

El lenguaje también resulta clave a medida que las tareas se vuelven más complejas. Para resolver un problema correctamente es necesario comprender el significado de las palabras y expresiones que aparecen en el enunciado. Por ejemplo, términos como “aumentar”, “quitar” o “repartir en partes iguales” implican operaciones matemáticas concretas, y si el alumnado no domina ese vocabulario puede tener dificultades para entender qué se le pide.

Esta interacción entre componentes lingüísticos, conocimientos matemáticos y procesos cognitivos de carácter más general explica por qué son frecuentes las dificultades en matemáticas y por qué persisten aunque los alumnos se esfuercen.

Un problema que comienza temprano

La evidencia científica indica que las dificultades no dependen únicamente de la inteligencia o la perseverancia (ni de dificultades específicas como la discalculia), sino de la interacción de múltiples factores educativos, cognitivos, matemáticos, lingüísticos y socioafectivos. Es importante detectar cuáles son y cómo se combinan, pues de lo contrario las dificultades se acumulan y se mantienen a lo largo de toda la etapa escolar.

Las dificultades en matemáticas aparecen ya en Educación Infantil y se consolidan en Educación Primaria. No se trata de un simple “despiste”: los niños con bajo rendimiento inicial suelen mantenerlo durante años.




Leer más:
¿Problemas con los números? Herramientas para detectar y tratar la discalculia


Tradicionalmente, un bajo rendimiento en matemáticas respecto al cociente intelectual se asociaba con la citada discalculia. Hoy se sabe que este criterio es limitado: aunque esta dificultad puede estar detrás en algunas ocasiones, en otras las causas responden a una combinación de factores diferente.

Retos a abordar en el aprendizaje matemático

Las habilidades necesarias para tener un buen rendimiento matemático va evolucionando a lo largo de la escolarización. Algunas tareas, como el cálculo, se apoyan sobre todo en la memoria de trabajo y en habilidades matemáticas tempranas como el conteo. Otras, como la resolución de problemas que hemos comentado, exigen una mayor comprensión verbal y presentan demandas cognitivas más complejas.

Por eso, no todos los estudiantes se enfrentan a las mismas dificultades ni por las mismas razones. Algunos tienen problemas para memorizar las tablas aritméticas, otros tropiezan al seguir los pasos de un procedimiento o al aplicarlo en situaciones nuevas. Estas dificultades pueden estar relacionadas con limitaciones en procesos generales, como la memoria o la atención, con dificultades en las habilidades lingüísticas necesarias para comprender enunciados o con carencias en los conocimientos matemáticos previos.

Una enseñanza flexible y personalizada

Reconocer esta diversidad implica que la enseñanza no puede ser uniforme ni basarse en estrategias idénticas para todo el alumnado. Debe ser flexible y adaptarse a las necesidades específicas de cada niño, lo que supone observar cómo aprende cada estudiante, proponer actividades variadas en función de sus fortalezas y debilidades y ofrecer apoyos ajustados cuando sea necesario.

Muchos docentes ya trabajan en esta dirección, aunque los programas y currículos escolares no siempre facilitan este enfoque. Por ello es importante incorporar esta diversidad en las programaciones didácticas y en la formación del profesorado.

Diferentes tipos de apoyos

Las dificultades en matemáticas no son estáticas ni se ajustan a un enfoque categórico simple. No existen únicamente dos grupos –los que “entienden” y los que “no entienden”–, sino que hay muchos niveles intermedios. Algunos estudiantes pueden mostrar problemas puntuales que desaparecen con pequeñas ayudas, mientras que otros necesitan apoyos más intensos y prolongados a lo largo del tiempo.

También es habitual que las dificultades no se distribuyan de forma uniforme entre las distintas áreas: por ejemplo, un alumno puede dominar el cálculo pero tener dificultades al aplicar sus conocimientos en contextos nuevos o en tareas más complejas, como la resolución de problemas.




Leer más:
¿Qué es el método ABN de matemáticas?


Por todo ello, resulta fundamental realizar un seguimiento del progreso del alumnado durante periodos prolongados, más allá de un curso escolar o de una evaluación puntual. Solo mediante una observación continua es posible comprender cómo evolucionan sus habilidades, por qué algunas dificultades persisten y qué tipo de enseñanza o intervención resulta más eficaz para superarlas.

Estrategias de actuación basadas en la evidencia

De acuerdo con nuestros estudios, más de una cuarta parte de los niños que presenta dificultades en el aprendizaje de las matemáticas en Educación Infantil continúa con ellas al finalizar la etapa de Educación Primaria.

Enfoques educativos como el modelo de Respuesta a la Intervención (RtI) o, de forma más amplia, los Sistemas Multinivel de Apoyo (MTSS) han demostrado ser enfoques eficaces para organizar el trabajo en el aula.

Estos sistemas parten de un mismo principio: ofrecer diferentes niveles de apoyo en función de las necesidades de cada estudiante, que son detectadas de forma temprana a través de instrumentos de cribado. Cada nivel ofrece diferentes tipos de instrucción, evaluación, intervención y apoyos, con niveles más intensivos a medida que se avanza en el sistema.

Combinar estrategias

Los hallazgos recientes también sugieren que los programas que combinan entrenamiento de procesos cognitivos con habilidades matemáticas concretas tienen mayor potencial que los que se centran en un solo aspecto.

Estrategias como la identificación y construcción de esquemas de problemas, la enseñanza explícita de secuencias de estrategias cognitivas y metacognitivas, y el uso de materiales manipulativos para reducir la carga de abstracción han demostrado ser eficaces para ayudar a los estudiantes con debilidades cognitivas y lingüísticas.

Integrar sistemáticamente estos enfoques en la escuela no solo mejora la adquisición de habilidades matemáticas, sino que también favorece la confianza y autonomía de los estudiantes, aspectos fundamentales para su desarrollo académico y emocional.

En definitiva, la combinación de detección temprana, intervenciones estructuradas e integradoras y personalización según el perfil del alumno es la forma más eficaz de abordar las dificultades matemáticas persistentes.

Más allá del aula: un reto social

Comprender por qué algunos niños tropiezan en matemáticas no es solo un asunto académico: estas dificultades tienen un impacto directo en las oportunidades futuras de los escolares, tanto educativas como laborales y sociales.

La evidencia indica que la detección temprana y las intervenciones adecuadas pueden marcar una diferencia significativa. El desafío actual es trasladar este conocimiento a las aulas, asegurando que ningún niño quede rezagado en el aprendizaje de un área tan esencial como las matemáticas.

The Conversation

Valentín Iglesias Sarmiento recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores Longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-I00.

Leire Pérez Pérez recibe fondos de Ministerio de Ciencia, Innovación y Universidades en el marco del proyecto “Predictores longitudinales del logro matemático multicomponente (LOPREMMA)”. Ref: PID2023-148052NB-100.

ref. Por qué algunos niños tienen dificultades con las matemáticas desde el inicio (y no es por falta de esfuerzo) – https://theconversation.com/por-que-algunos-ninos-tienen-dificultades-con-las-matematicas-desde-el-inicio-y-no-es-por-falta-de-esfuerzo-266683

Nuclear-powered missiles: An aerospace engineer explains how they work – and what Russia’s claimed test means for global strategic stability

Source: The Conversation – USA – By Iain Boyd, Director of the Center for National Security Initiatives and Professor of Aerospace Engineering Sciences, University of Colorado Boulder

Russia’s earlier tests of the Burevestnik missile include this 2018 launch. Screencapture of Russian Defense Ministry video, CC BY

Russian President Vladimir Putin, dressed in a military uniform, announced on Oct. 26, 2025, that Russia had successfully tested a nuclear-powered missile. If true, such a weapon could provide Russia with a unique military capability that also has broader political implications.

The missile, called Burevestnik, was reportedly successfully tested over the Arctic Ocean after years of development and several earlier initial test flights, one of which resulted in the deaths of five nuclear scientists.

I am an engineer who studies defense systems. Here is how these weapons function, the advantages they present over conventional missile systems, and their potential to disrupt global strategic stability.

Conventionally powered missiles

Missiles have been used by militaries around the world for centuries and come in a broad array of designs that are characterized by their mission, range and velocity. They are used to damage and destroy a wide variety of targets, including ground installations such as bases, command centers and deeply buried infrastructure; ships; aircraft; and potentially spacecraft. These weapons are operated from the ground by the army, from the sea by navy ships, and from the air by fighters and bombers.

Missiles can be tactical, with relatively short ranges of less than 500 miles, or strategic, with long ranges of thousands of miles. Missiles fall into three general categories: ballistic, cruise and hypersonic.

Ballistic missiles are launched on rockets. After the rocket burns out, the missile flies along a predictable arc that takes it out of the atmosphere into space and then back into the atmosphere toward its target.

Cruise missiles have an additional engine that is ignited after the rocket burns out, allowing the missile to fly programmed routes, typically at low altitudes. These engines are powered by a mixture of chemicals or a solid fuel.

Hypersonic missiles fly faster than the speed of sound, but not as fast as intercontinental ballistic missiles, or ICBMs. They are launched on smaller rockets that keep them within the upper reaches of the atmosphere. A hypersonic glide vehicle is boosted to high altitude and then glides to its target, maneuvering along the way. A hypersonic cruise missile is boosted to hypersonic speed and then uses an air-breathing engine called a scramjet to sustain that speed.

How nuclear-powered missiles work

Nuclear-powered missiles are a type of cruise missile. The designs are typically a form of scramjet. A thermal nuclear system uses fission of nuclear fuel to add energy to an airstream that is then accelerated through a nozzle to generate thrust. In this way, fission of nuclear material replaces chemical combustion of traditional cruise missile engines.

a line drawing diagram with labels
The concept for a nuclear-powered scramjet is simple, even if building one is extremely challenging.
Lawrence Berkeley National Laboratory

The energy density – the amount of energy released per unit mass of fuel – available from nuclear fission is millions of times larger than that released by chemical propellants. This feature means that a relatively small amount of fissionable propellant can be used to power a missile for much longer periods of time than chemical propellants can.

The United States explored developing a nuclear-powered missile in the 1960s. The effort, Project Pluto, was abandoned due to the rapid progress made at the same time on ICBMs, as well as concerns over environmental contamination associated with nuclear systems.

Advantages of nuclear-powered flight

The key advantage of nuclear-powered missiles is the extra energy, which allows them to fly farther, longer, faster and lower in the atmosphere, while executing a wide array of maneuvers. For these reasons, they pose a significant challenge to the best missile defense systems.

The Russian military claims that the Burevestnik missile flew 8,700 miles at low altitude over a 15-hour period. For comparison, an airline flight from San Francisco to Boston covers 2,700 miles in six hours. While the Burevestnik vehicle is not flying particularly fast for a missile, it is likely maneuverable, which makes it difficult to defend against.

Challenges to using nuclear power

The huge amount of energy released by fission has been the key technical challenge for developing these missiles. The high levels of energy require materials that can withstand temperatures up to several thousand degrees Fahrenheit to prevent the missile from destroying itself.

In terms of safety, nuclear technology has found very limited application in space due to concerns over radiation contamination if something goes wrong, such as a failed launch. The same concerns apply to a nuclear-powered munition.

In addition, such systems may need to remain safe in storage for many years prior to use. An attack by an enemy on a weapons storage facility that contains nuclear-powered weapons could lead to a massive radiation leak.

Early development of a nuclear-powered missile by the United States in the 1950s and ’60s ended after it became clear the idea was strategically and environmentally challenging.

Russia’s Burevestnik and global stability

The new Russian Burevestnik missile has been under development for over 20 years. While few technical details are known, Russian officials claim that it can maneuver to bypass antimissile and air defense systems.

Nuclear weapons were the basis for mutual deterrence between the Soviet Union and the United States during the Cold War. Both parties understood that a first strike by one side would be matched by an equally destructive counterstrike by the other. The fear of total annihilation maintained a peaceful balance.

Several developments threaten the current balance of power: better missile defense systems such as the U.S.’s planned Golden Dome and advances in highly maneuverable missiles. Missile defense systems have the potential to block a nuclear strike, and low-altitude maneuverable missiles have the potential to arrive without warning.

So, while much of the reaction to Russia’s announcement of its new nuclear-powered missile has focused on the challenges of defending against it, the more important concern may be its potential to completely disrupt global strategic stability.

The Conversation

Iain Boyd receives funding from the U.S. Department of Defense.

ref. Nuclear-powered missiles: An aerospace engineer explains how they work – and what Russia’s claimed test means for global strategic stability – https://theconversation.com/nuclear-powered-missiles-an-aerospace-engineer-explains-how-they-work-and-what-russias-claimed-test-means-for-global-strategic-stability-268476

Fed lowers interest rates as it struggles to assess state of US economy without key government data

Source: The Conversation – USA (2) – By Jason Reed, Associate Teaching Professor of Finance, University of Notre Dame

Markets were expecting the Fed to cut rates a quarter point.

AP Photo/Seth Wenig

When it comes to setting monetary policy for the world’s largest economy, what data drives decision-making?

In ordinary times, Federal Reserve Chair Jerome Powell and voting members of the Federal Open Market Committee, which usually meets eight times a year, have a wealth of information at their disposal, including key statistics such as monthly employment and extensive inflation data.

But with the federal shutdown that began Oct. 1, 2025, grinding on, government offices that publish such information are shuttered and data has been curtailed. As a result, Powell and his Fed colleagues might have considered the price of gas or changes in the cost of coffee to arrive at their decision to cut interest rates a quarter point at their latest monetary policy meeting, which ended Oct. 29, 2025.

The Federal Reserve’s mandate is to implement monetary policy that stabilizes prices and promotes full employment, but there is a delicate balance to strike. Not only do Powell and the Fed have to weigh domestic inflation, jobs and spending, but they must also respond to changes in President Donald Trump’s global tariff policy.

As an economist and finance professor at the University of Notre Dame, I know the Fed has a tough job of guiding the economy under even the most ideal circumstances. Now, imagine creating policy partially blindfolded, without access to key economic data.

But, fortunately, the Fed’s not flying blind – it still has a wide range of private, internal and public data to help it read the pulse of the U.S. economy.

Key data is MIA

The Fed is data-dependent, as Powell likes to remind markets. But the cancellation of reports on employment, job openings and turnover, retail sales and gross domestic product, along with a delay in the September consumer price information, will force the central bank to lean harder on private data to nail down the appropriate path for monetary policy.

Torsten Slok, chief economist for the Apollo asset management firm, recently released his set of “alternative data,” capturing information from a wide range of sources. This includes ISM PMI reports, which measure economic activity in the manufacturing and services sectors, and Bloomberg’s robust data on consumer spending habits.

“Generally, the private data, the alternative data that we look at is better used as a supplement for the underlying governmental data, which is the gold standard,” Powell said in mid-October. “It won’t be as effective as the main course as it would have been as a supplement.”

But at this crucial juncture, the Fed has also abruptly lost one important source of private data. Payroll processor ADP had previously shared private sector payroll information with the central bank, which considered it alongside government employment figures. Now, ADP has suspended the relationship, and Powell has reportedly asked the company to quickly reverse its decision.

espresso falls from a coffee machine into a blue cup
With some key data unavailable, the Fed may pay more attention to the price of a cup of coffee to help determine how to set interest rates.
AP Photo/Julio Cortez

Internal research

Fortunately for the Fed, it has its own sources for reliable information.

Even when government agencies are working and producing economic reports, the Federal Reserve utilizes internal research and its nationwide network of contacts to supplement data from the U.S. Census Bureau, the Bureau of Labor Statistics and the Bureau of Economic Analysis.

Since the Fed is self-funded, the government shutdown didn’t stop it from publishing its Beige Book, which comes out eight times a year and provides insight into how various aspects of the economy are performing.

Its Oct. 15 report found that consumer spending had inched down, with lower- and middle-income households facing “rising prices and elevated economic uncertainty.” Manufacturing was also hit by challenges linked to higher tariffs.

Leading indicators

And though no data is being released on the unemployment rate, historical data shows that consumer sentiment can act as a leading indicator for joblessness in the U.S.

According to the most recent consumer confidence reports, Americans are significantly more worried about their jobs over the next six months, as compared to this time last year, and expect fewer employment opportunities during that period. This suggests the Fed will likely see an uptick in the unemployment rate, once the data resumes publishing.

And if you did notice an increase in the price of your morning coffee, you’re not mistaken – both private and market-based data suggest inflation is a pressing concern, with expectations that price increases will remain at about the 2% target set by the Fed.

It’s clear that there is no risk-free path for policy, and a wrong move by the Fed could stoke inflation or even send the U.S. economy spiraling into a recession.

Uncertain path ahead

At the Fed’s September monetary policy meeting, members voted to cut benchmark interest rates by 25 basis points, while one member advocated for a 50-point cut.

It was the first interest rate cut since December – one that Trump had been loudly demanding to help spur the U.S. economy and lower the cost of government debt. Following the Oct. 29 interest rate cut, markets expect the FOMC to reduce rates by another quarter of a percentage point in December. That would lower rates to a range of 3.5%-3.75%, from 3.75%-4% currently, giving the labor market a much-needed boost.

After that, the near-certainty ends, as it’s anyone’s guess where interest rates will go from there. At quarterly meetings, members of the Federal Open Market Committee give projections of where they think the Fed’s benchmark interest rate will go over the next three years and beyond to provide forward guidance to financial markets and other observers.

The median projection from the September meeting suggests the benchmark rate will end 2026 a little lower than where it began, at 3.4%, and decline to 3.1% by the end of 2027. With inflation accelerating, Fed officials will continue to weigh the weakening labor market against the threat of inflation from tariffs, immigration reform and their own lower interest rates – not to mention the ongoing impact of the government shutdown.

Unfortunately, I believe these risks will be difficult to mitigate with just Fed intervention, even with perfect foresight into the economy, and will need help from government immigration, tax and spending policy to put the economy on the right path.

This article was updated with details of the October FOMC meeting.

The Conversation

Jason Reed does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Fed lowers interest rates as it struggles to assess state of US economy without key government data – https://theconversation.com/fed-lowers-interest-rates-as-it-struggles-to-assess-state-of-us-economy-without-key-government-data-267204

Why so many children in the youth justice system have special educational needs

Source: The Conversation – UK – By Hope Kent, Administrative Data Research UK Research Fellow, University of Exeter

Sabphoto/Shutterstock

Walk into any custodial youth justice facility in the UK – from young offender’s institutions to secure training centres and children’s homes – and you’ll be met with an unexpected reality: the majority of children in these settings have special educational needs and disabilities.

In particular, a very high proportion of children in custody have neurodisabilities. These are long-term conditions affecting the brain and nervous system, and range from autism to brain injuries and foetal alcohol spectrum disorders.

These conditions are grouped together because they affect children’s cognition (including memory, attention and concentration, and executive functioning – mental skills necessary for daily life), as well as their emotional regulation, social communication skills and physical development. This is a pattern repeated in youth justice systems across the world.

For example, estimates suggest that 50% to 87% of children in custody globally have a brain injury. However, research from Canada suggests that brain injury affects around 20% of children in the general population. Over 60% of children in custody globally have a speech, language and communication impairment, compared with 1-3% in the general population globally.

Autistic children make up between 2% and 18% of children in custody across Europe and the USA, compared with 0.3 to 1.9% in the general population in Europe and the USA. While there is significant difference between countries, approximately 30% of children in custody globally have ADHD. This compares with 7% in the general population globally.

While just 0.7% of children in the general population have foetal alcohol spectrum disorders, these affect 11% to 21% of children in custody. Foetal alcohol spectrum disorders are a range of cognitive, behavioural and physical conditions which can affect a child as a result of their mother drinking alcohol during pregnancy.

Some children in custody may have very complex needs, with multiple overlapping conditions. Additionally, children may have needs that don’t quite meet diagnostic criteria for any one condition but still have a significant impact on their lives. These children have often had disrupted educational backgrounds, with multiple school moves or periods of absence. This means that they also may not have had their needs identified in school.

Why is this happening?

Of course, having a neurodisability in no way makes children inherently criminal. The majority of children with special educational needs will never come into contact with the youth justice system. So what is it that makes this small group who do more vulnerable?

School exclusion appears to be a really key component in pathways into the justice system for these children. My research with colleagues explored rates of neurodisability and school exclusion in prisoners in Wales. We found that those who scored more highly on a measure of neurodisability were also more likely to have been excluded from school. Those who had been excluded from school were also more likely to have had their first conviction at a younger age.

This finding aligns with Department for Education statistics, which indicate that exclusions are disproportionately affecting children with an identified special educational need. Children with special educational needs represent just around half of all permanent exclusions in England. However, they represent only about 17% of the mainstream school population.

Boy looking sad sat outside alone with school bag
School exclusion plays a role in this pathway.
AlexandrMusuc/Shutterstock

There is plenty of convincing evidence that school exclusion is harmful, and increases the chances of children ending up in the criminal justice system.

Despite this, many accounts report a concerning rise in the use of zero-tolerance behavioural policies in the UK. This could be linked with a rise in the rates of school exclusions reported in the most recent Department for Education statistics.

In 2023-24 there was a 21% increase in the use of fixed-term exclusions (sometimes called suspensions) in England from the previous year. There was also a 16% increase in permanent exclusions.

Combined vulnerabilities

Children who end up in the youth justice system often have multiple other disadvantages layered on top of this systematic exclusion from school. For example, my recent study with colleagues used data from half a million children in the UK. We found that child poverty compounded the likelihood of having contact with the youth justice system for children with neurodisability. This means that it was children who had both disadvantages who were most vulnerable.

This growing body of evidence demonstrates that society is failing these children. When children with neurodisability and complex social disadvantage continue to be punished and excluded, we can’t be surprised when they end up on the fringes of society.

There are ways to remedy the problem of school exclusion. These include more specialist classrooms and units, as well as providing teachers with more options and support for children who aren’t thriving in the mainstream classroom.

In addition, more can be done to remove the layers of disadvantage that these children experience. More generous family welfare policies might help to lift children out of disadvantage and support them to have a better start in life.

Action like this could divert children away from the youth justice system long before they ever have contact with the police.

The Conversation

Hope Kent currently receives funding from ADR-UK, and has previously recieved funding from the Economic and Social Research Council. She is affiliated with the UK Acquired Brain Injury Forum.

ref. Why so many children in the youth justice system have special educational needs – https://theconversation.com/why-so-many-children-in-the-youth-justice-system-have-special-educational-needs-264144

Should young people take creatine?

Source: The Conversation – UK – By Paul Hough, Lecturer Sport & Exercise Physiology , University of Westminster

Creatine use is common among young male athletes. Miljan Zivkovic/ Shutterstock

Creatine is one of the most widely used sports supplements across the world. It’s taken by many in the hopes of boosting strength, enhancing athletic performance and promoting muscle growth.

But it isn’t only adults who are using this supplement. A growing number of teenagers and young adults report taking creatine in the hopes of reaping the supplement’s benefits.

Surveys show that as many as 72% of male athletes aged 17-18 report using creatine. Use is typically more common among athletes, especially young men.

While creatine is generally considered to be safe for young people to use, it’s no shortcut to getting fit. It’s better for young people looking to get strong or improve their athletic performance to focus on the fundamentals: exercising, eating properly and prioritising sleep.




Read more:
Creatine supplements: what the research says about how they can help you get in shape


Creatine is a natural compound stored within muscle. Although a small amount is produced in the kidneys and liver, most (around 95%) is obtained from eating meat and seafood. Creatine plays an important role in providing energy during high-intensity activities, such as sprinting and lifting weights.

Although several forms of creatine are commercially available, creatine monohydrate is the most stable and extensively studied form.

Numerous studies show that creatine supplementation enhances performance in high-intensity exercises requiring strength and power, such as strength training and sprinting. Creatine supplementation may also lead to more muscle growth when combined with resistance training, and faster recovery from exercise.

Emerging research also suggests that creatine’s benefits extend beyond the gym. Studies indicate that creatine may improve aspects of cognitive function – specifically memory and attention.

Creatine also shows promise for older adults in preventing muscle loss and protecting against neurological disorders such as Parkinson’s and Alzheimer’s.

Creatine’s safety

A typical diet that includes meat and seafood provides around 1–2 grams of creatine per day, which keeps the muscles around 60–80% full of creatine.

Taking a daily creatine supplement eventually fills the muscles with creatine. There are two common ways to do this.

The quickest and most commonly studied method involves a one week loading phase. This entails taking 0.3 grams of creatine per kilogram of body weight four times a day. For example, a 75kg person would take a total of 24g of creatine per day.

An alternative approach, which increases muscle creatine levels more gradually, is to take 3g of creatine per day for around 28 days.

Both approaches will fill muscle creatine stores. The first (loading) approach tops up creatine stores faster, which means you’ll see benefits to exercise performance faster. However, the second approach is less likely to cause temporary gastrointestinal discomfort (such as bloating and diarrhoea) which are more common when using the loading approach.

A person dumps a scoop of creatine powder into a cup.
Creatine plays an important role in providing energy during high-intensity activities.
Erhan Inga/ Shutterstock

Regardless of what approach you use, taking 3-5g of creatine daily is necessary to maintain muscle creatine levels.

Numerous studies show that short and long-term creatine supplementation (up to 30g a day for five years) is safe and has no ill effects on health when taken at the recommended dosages.

The most common side-effect of creatine is weight gain as the supplement increases water retention in muscles. This extra water remains only as long as you’re taking creatine.

Creatine and young people

Although creatine is shown to be safe and effective for adults, only a few studies have investigated the effects among children and adolescents.

The available studies show that creatine appears to be safe for young people to use and can provide performance benefits, particularly for athletes. Most studies have only looked at the safety of a creatine dosage between 0.1g and 0.3g per kg of body mass per day. As such, it’s important that any young people who choose to use creatine do not exceed this dosage.

Although creatine appears to be safe for children and adolescents to take, it is possible that, without proper nutrition education and supervision of dosing, they could be at risk of misusing creatine – potentially leading to adverse effects such as stomach cramps.

A study that evaluated young athletes’ understanding of how sports supplements should be used reported that only 11% of the athletes answered questions correctly about creatine use.

Regardless of age, it’s important to recognise that supplements such as creatine are not a shortcut to improving fitness, building muscle or losing body fat. Supplements provide much smaller performance gains compared to what can be achieved through good training and nutrition alone. While sports supplements support training and recovery, significant progress comes from consistent exercise, a balanced diet and adequate sleep.

With a well-designed training programme and healthy eating plan, young people will experience rapid improvements in strength, power and endurance without the need for supplements. Focusing too soon on taking supplements could distract young people from building good training habits and healthy eating patterns.

This is why most sport nutritionists recommend using a food-first approach, which focuses on maximising diet quality before recommending supplements such as creatine.

The Conversation

Paul Hough does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Should young people take creatine? – https://theconversation.com/should-young-people-take-creatine-267365

Prince Andrew’s ‘one peppercorn’ lease exposes how little is known about royal finances

Source: The Conversation – UK – By Robert Hazell, Professor of British Politics and Government & Founder of the Constitution Unit, UCL

In announcing that Prince Andrew would no longer use his title or honours, Buckingham Palace hoped to shift the spotlight away from his friendship with Jeffrey Epstein, and the accusations of sexual abuse he has faced (and denied).

The media were encouraged to focus instead on King Charles’s visit to the Vatican, and the royal family’s good works. But this strategy has failed. Revelations about Prince Andrew’s living arrangements and finances have whetted the appetite for more.

One such revelation is his royal residence. Andrew has a 75-year lease from the crown estate on Royal Lodge, a large house in Windsor Great Park. The Times published the lease, revealing that he paid £1 million for it plus a minimum of £7.5 million in refurbishments. In return for this very large upfront cost, Andrew pays an annual rent of “one peppercorn (if demanded)”.

The crown estate is a statutory corporation operating under the Crown Estate Act 1961 (as amended in 2025), which manages a huge property portfolio including Regent Street in London and most of the foreshore around the coast, generating a big income from wind farms.

Its net revenue profit – which in 2023-24 amounted to £1.1 billion – is paid to the Treasury. The government uses 12% of the profits to fund the sovereign grant, which provides financial support for the monarchy.




Read more:
Why Prince Andrew is still a prince – and how his remaining titles could be removed


Since 2019, when he ceased to be a working royal, Prince Andrew no longer receives any public funding from the sovereign grant. Mysteries about his sources of income may be hard for the palace to dispel without being more transparent about the royal finances more generally.

One particular area of interest is the Duchy of Lancaster, which last year provided King Charles with £27 million of his income. The palace website states that this is “a portfolio of land, property and assets held in trust for the sovereign. Its main purpose is to provide an independent source of income, and is used mainly to pay for official expenditure not met by the Sovereign Grant (primarily to meet expenses incurred by other members of the Royal Family).”

Prior to the sovereign grant, the monarchy was funded through the civil list. This was an annual sum of money voted by parliament, which included the annuities received by other members of the royal family.

Since the Sovereign Grant Act 2011, those annuities are no longer published. The Duchy of Lancaster’s annual report and accounts gives lots of detail about the Duchy’s income, but none about its expenditure.

The Liberal Democrat leader Sir Ed Davey MP has called for a select committee inquiry to “properly scrutinise” the crown estate, and Baroness (Margaret) Hodge, former chair of the public accounts committee, has called for greater transparency about the royal finances.

What next for Andrew?

The nine commissioners who manage the crown estate’s holdings are property experts who operate independently of government and the crown. They cannot simply terminate Prince Andrew’s lease, but there is mounting pressure on him to relinquish the lease voluntarily.

When it comes to his remaining titles, both the palace and UK government will be desperate to close the story down and move on. The government took the line that it was all a matter for the king and the palace.

Sir Alan Campbell, leader of the House of Commons, said: “The question of [Andrew’s] titles is primarily a question for His Majesty. I know there has been speculation about legislation, but the palace has been clear it recognises that there are other matters this House needs to be getting on with, and we are guided in this by the palace.”

In practice, the palace will also be guided by the government, which will be keen to avoid legislation if at all possible. Short of legislation, there is little more the palace can do.

The king could issue letters patent declaring that Prince Andrew is no longer His Royal Highness. He could also give an undertaking that Andrew would never be called upon to serve as a counsellor of state, deputising for the monarch in his absence.

If public anger remained unabated, and legislation was deemed unavoidable, a short bill could be prepared to strip Andrew of his peerage titles and remove him as a counsellor of state. It could be passed relatively quickly: the Counsellors of State Act 2022, which added Princess Anne and Prince Edward to the list of potential counsellors of state, went through all its Commons stages in a single day.

The finances are trickier. The Commons public accounts committee may hold a single evidence session just on Andrew’s finances, or launch a wider inquiry.

It may be hard to avoid the latter. Having made public the lease on Royal Lodge, the crown estate may find it difficult to refuse to disclose the leases on other properties occupied by the royal family, or other information about its finances.

If parliament decides to launch a wider inquiry, the payments to other members of the royal family funded by the Duchy of Lancaster would be an obvious place to start.


Want more politics coverage from academic experts? Every week, we bring you informed analysis of developments in government and fact check the claims being made.

Sign up for our weekly politics newsletter, delivered every Friday.


The Conversation

Robert Hazell does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Prince Andrew’s ‘one peppercorn’ lease exposes how little is known about royal finances – https://theconversation.com/prince-andrews-one-peppercorn-lease-exposes-how-little-is-known-about-royal-finances-268528

US leaders view China as a ‘pacing threat’ − has Washington enough stamina to last the race?

Source: The Conversation – Global Perspectives – By Andrew Latham, Professor of Political Science, Macalester College

U.S. muscle or Chinese strategy — which one will prevail? Fred Lee/Getty Images

When Donald Trump meets with Xi Jinping on Oct. 30, 2025, he won’t just be chatting with any run-of-the-mill leader of a rival nation. Rather, he will be sitting down the with the chief representative of the United States’ “pacing threat.”

In the Pentagon’s lexicon, China has increasingly been presented as a “pacing challenge” or “pacing threat” − that is, a great-power rival against which a nation measures its strength, shapes its strategy and directs its resources across every domain of national power.

The phrase and concept has risen in military and academic circles since the turn of the 21st century. Its use in Washington to describe China dates to at least 2020, when Trump’s then–Secretary of Defense Mark Esper used it in a speech in Honolulu.

But what does it mean? For a country to be seen as a pacing threat, it must be a rising yet already near-peer whose capabilities and ambitions directly challenge the dominant country’s global position. A pacing threat doesn’t merely aspire to catch up; it sets the tempo of competition.

Esper’s successor in the Biden administration, Lloyd J. Austin III, continued to call China a “pacing threat,” explaining: “It means that China is the only country that can pose a systemic challenge to the United States in the sense of challenging us economically, technologically, politically and militarily.”

Use of “pacing threat/challenge” has grown since 2009 (Ngram)

The significance goes beyond rhetoric. By defining China in these terms, Washington reorients its entire defense establishment around a new strategic benchmark. The U.S.’s defense planning, industrial policy and global posture now revolve around a single question − how to keep up with and, if necessary, outpace Beijing.

When the United States government signals to its military leaders and industrial partners that a specific country is a “pacing threat,” it is giving them a yardstick by which to judge every dollar spent, every sailor or pilot assigned and every hour of training and preparation.

Pacing threats, increasing risks

The risk of focusing so intently on one foe is, of course, that there is more than one potential adversary out there. And the concept of a pacing challenge shouldn’t imply that China is Washington’s only competitor or potential enemy.

Other rivals remain in the mix, including Russia, Iran, North Korea and a range of smaller militant groups, that could cause major problems for Washington with or without China’s involvement.

The danger for the U.S. is that in designating China its only pacing threat, it could leave blind spots elsewhere. And the objective for a U.S. leader is not simply to be ready for a potential war with China but to be ready for the next crisis wherever it may emerge.

This goal is complicated by a second risk: the urge to plan for the future at the expense of the present. It is one thing for the U.S. Navy to build a fleet and the Air Force to design a missile for 2035 to ensure that it “outpaces” Chinese innovation. But it is another to have the capability to deter or address, if necessary, a crisis or conflict in 2025.

Developing a long-term force to match or surpass China is an important objective to U.S. political and military leaders, but not at the expense of current capabilities.

If the United States is intent on remaining the world’s predominant economic, diplomatic and military force, then it must focus on both – but that is easier said than done.

Is China already ahead?

There are some who believe that America’s pacing threat has already outpaced its rival.

The United States already lags behind China in the scale and output of its defense-industrial base – particularly in the quantity of ships, missiles and other military hardware it can produce and field at speed.

China is building warships at a rate unseen in the U.S. for decades. And it has an industrial ecosystem that can deliver on new programs and scale up in a crisis.

By contrast, American factories face labor shortages, a lack of modern shipyards and glacial acquisition timelines.

If the U.S. is intent on fielding better military assets in the future, it needs them to upscale at a speed that can deter China. In other words, America’s deterrence to any pacing threat needs to start at the factory gate.

A contest of speed, not size

Facing China as a pacing threat will start with an honest U.S. accounting of the type of competition in which it is engaged. This is not merely a rivalry of fleets or firepower but a contest of tempo − who can innovate faster, build smarter and field more flexibly to shape a world in motion.

A large ship is seen in front of a city landscape.
The aircraft carrier Liaoning sets out for sea trial at Dalian shipyard in China on Feb. 29, 2024.
VCG/VCG via Getty Images

If the U.S. is to outpace China, it will likely need to reconnect its economic and industrial base to its defense posture and regenerate the productive capacity that made America the world’s arsenal.

But that task is far harder for democracies, where political cycles, fiscal constraints and public skepticism about militarization often slow the mobilization of national power.

Complicating the matter is the fact that the next great arsenal will be defined not just in steel but in data, design and decision. Here, too, China at present appears to be gaining an upper hand. A September report by the Washington-based Information Technology and Innovation Foundation assessed that China was now “dramatically outperforming the United States in the vast majority of critical technological fields.”

The U.S. will not stay ahead of its pacing threat by meeting China ship for ship or system for system. The real edge is in responsiveness − the ability to outthink, outproduce and outmaneuver its competitor.

This article is part of a series explaining foreign policy terms commonly used but rarely explained.

The Conversation

Andrew Latham does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. US leaders view China as a ‘pacing threat’ − has Washington enough stamina to last the race? – https://theconversation.com/us-leaders-view-china-as-a-pacing-threat-has-washington-enough-stamina-to-last-the-race-268425