¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Profesora ayudante doctora. Departamento de Economía Aplicada, Universidad de Valladolid

Un policía local regula el tráfico en Cartagena (Murcia) durante el apagón del pasado 28 de abril. Los semáforos dejaron de funcionar, lo que creó problemas en muchas ciudades españolas. P4K1T0/Wikimedia Commons, CC BY

Entre pandemias, olas de calor, crisis energéticas y ciberataques a infraestructuras y sistemas básicos, actualmente las emergencias son más probables que excepcionales. Sin embargo, ¿estamos preparados para lo inesperado? La evidencia sugiere que no: seguimos confiando en que, si algo pasa, alguien vendrá rápidamente a solucionarlo.

Aunque se haya avanzado en infraestructuras y respuesta institucional, la preparación ciudadana sigue siendo mínima. De hecho, desde la Unión Europea se ha insistido en los últimos meses en la importancia de que cada hogar disponga de un pequeño kit de supervivencia para afrontar posibles emergencias.

El apagón del 28 de abril: una prueba real

El 28 de abril de 2025 a las 12.32 del mediodía, un apagón masivo dejó sin electricidad a buena parte de la península ibérica. En pocos minutos, miles de hogares y negocios quedaron desconectados.

El corte duró solo unas horas pero bastó para paralizar los transportes, dejar sin cobertura a millones de personas y generar una sensación generalizada de desconcierto. Y, aunque a principios de abril un estudio del Centro de Investigaciones Sociológicas (CIS) señalaba que el 69 % de los españoles se consideraba preparado para subsistir 72 horas en caso de catástrofe, lo cierto es que el apagón demostró lo contrario.

La mayoría de los hogares no disponía de linternas, pilas, radio, efectivo ni provisiones básicas –como agua o alimentos que pudieran conservarse y consumirse sin electricidad–. Además, pocos tenían un plan familiar para actuar en caso de emergencia.




Leer más:
Lecciones del colapso del sistema eléctrico ibérico


Miedo, confianza y falta de previsión

Ante una emergencia, las reacciones no son las mismas, pues intervienen factores como la edad, el género, el entorno o incluso el nivel educativo. Se han identificado varios perfiles altamente vulnerables a las situaciones de emergencia: las personas mayores de 65 años, los turistas, las personas con un nivel socioeconómico bajo y los hogares con niños. También la situación de incomunicación contribuye a aumentar la vulnerabilidad.

A partir de los datos recopilados por el CIS en la encuesta flash sobre el apagón eléctrico, he analizado la respuesta de los ciudadanos españoles a dicha emergencia. Los resultados ofrecen una radiografía clara del comportamiento social ante una crisis imprevista.

Casi uno de cada tres encuestados reconoció haber sentido miedo durante el apagón, un porcentaje especialmente alto entre las mujeres (29,7 % frente al 14,4 % de los hombres) y las personas jóvenes. Esta diferencia también se aprecia por grupos de edad; paradójicamente, en porcentaje, los mayores de 54 años se mostraron menos afectados por la caída de la energía.

Dificultades y carencias

Durante el incidente, los ciudadanos señalaron diversas dificultades relacionadas con la falta de suministros y recursos básicos. Entre los principales problemas destacaron la ausencia de una fuente de energía no eléctrica para cocinar (36,3 %), la falta de un aparato de radio (16,7 %) y la imposibilidad de comunicarse (14,1 %).

Este último aspecto estuvo estrechamente vinculado con las emociones experimentadas durante la crisis. El miedo fue mayor entre quienes no lograron acceder a información durante las primeras horas, lo que refleja la importancia de la conectividad digital incluso en contextos de emergencia. Centrándonos en este aspecto, más de la mitad de los encuestados (55,3 %) indicó que una de las principales cosas que echó en falta fue el funcionamiento de los teléfonos y uno de cada cuatro mencionó la falta de conexión a internet o de acceso a las redes sociales (26,5 %).

La preparación material fue igualmente limitada. La mayoría de los hogares carecía de recursos básicos y pocos habían previsto cómo actuar en caso de emergencia. Según los datos del CIS, solo un 33,6 % de los encuestados declaró disponer de algún tipo de kit o material de emergencia. Por otra parte, el acceso a la información también resultó determinante: el 59,6 % consideró insuficiente la información proporcionada por el Gobierno español.

En definitiva, el estudio pone de manifiesto que, aunque la sociedad se perciba preparada, su reacción ante la emergencia muestra falta de previsión.




Leer más:
No solo durante un apagón: el valor de la radio en las crisis


Prepararse también es cultura

En los últimos años, España ha sufrido una pandemia, inundaciones, una tormenta de nieve, incendios forestales y un apagón general que han afectado a amplias zonas del territorio. Todo esto en un contexto internacional marcado por crisis energéticas, tensiones geopolíticas y amenazas cibernéticas. Estos episodios, distintos entre sí en naturaleza pero similares en consecuencias, muestran que las emergencias ya no son hechos aislados sino una realidad recurrente que pone a prueba tanto la capacidad institucional como la preparación ciudadana.

Más allá del impacto inmediato, el apagón del 28 de abril puso de relieve la falta de una cultura de prevención. Si en España la preparación ante emergencias sigue viéndose como algo lejano o innecesario, en otros países europeos –como Alemania, Suiza o los países nórdicos– las campañas de autoprotección y los simulacros forman parte de la vida cotidiana. Por ejemplo, en Alemania se promueven planes familiares de emergencia y campañas para almacenar agua y alimentos; en Suiza la ley garantiza, desde 1963, que cada persona disponga de una plaza en un refugio subterráneo, y en los países nórdicos los gobiernos distribuyen manuales y guías ciudadanas que explican cómo actuar ante apagones o crisis.




Leer más:
Cómo convivir con la incertidumbre: asumamos el miedo, evitemos el pánico


Sin alarmismos

Contar con una linterna, una radio o una reserva mínima de agua, medicinas y alimentos no es alarmismo sino una muestra de responsabilidad. Aprender a prever riesgos, a comunicarse cuando falla la tecnología y a apoyarse en la solidaridad vecinal no implica vivir con miedo, sino actuar con conciencia.

Las catástrofes naturales y emergencias de los últimos tiempos ponen de manifiesto que la seguridad no está garantizada y que requiere anticipación, responsabilidad y una respuesta ciudadana calmada y solidaria.

The Conversation

Raquel González del Pozo recibe fondos del proyecto: PID2021-122506NB-I00 (Ministerio de Ciencia, Innovación y Universidades / Agencia Estatal de Investigación).

ref. ¿Preparados para lo inesperado? Así respondieron los ciudadanos españoles al apagón de abril – https://theconversation.com/preparados-para-lo-inesperado-asi-respondieron-los-ciudadanos-espanoles-al-apagon-de-abril-266607

Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas

Source: The Conversation – (in Spanish) – By Rob Morris, Professor of Physics, School of Science and Technology, Nottingham Trent University

El Premio Nobel de Física 2025 ha sido otorgado a tres científicos por el descubrimiento de un efecto que tiene aplicaciones en dispositivos médicos y computación cuántica.

John Clarke, Michel Devoret y John Martinis llevaron a cabo una serie de experimentos hace unos 40 años que terminaron moldeando nuestra comprensión de las extrañas propiedades del mundo cuántico. Es un premio muy oportuno, ya que en 2025 se cumple el centenario de la formulación de la mecánica cuántica.

En el mundo microscópico, una partícula puede a veces atravesar una barrera y aparecer al otro lado. Este fenómeno se denomina efecto túnel cuántico. Los experimentos de los galardonados demostraron el efecto túnel en el mundo macroscópico, es decir, el mundo visible a simple vista. Y corroboraron que podía observarse en un circuito eléctrico experimental.

El efecto túnel cuántico tiene posibles aplicaciones futuras en la mejora de la memoria de los teléfonos móviles y ha sido importante para el desarrollo de los qubits, que almacenan y procesan información en ordenadores cuánticos. También tiene aplicaciones en dispositivos superconductores, capaces de conducir la electricidad con muy poca resistencia.

John Clarke, nacido en Gran Bretaña, es profesor de Física en la Universidad de California, Berkeley. Michel Devoret nació en París y es profesor F. W. Beinecke de Física Aplicada en la Universidad de Yale. John Martinis es profesor de Física en la Universidad de California, Santa Bárbara.

¿Qué es el efecto túnel cuántico?

El efecto túnel cuántico es un fenómeno contraintuitivo por el cual las diminutas partículas que componen todo lo que podemos ver y tocar pueden aparecer al otro lado de una barrera sólida, que en otras circunstancias se esperaría que las detuviera.

Desde que se propuso por primera vez, en 1927, se ha observado en partículas muy pequeñas y es responsable de nuestra explicación de la desintegración radiactiva de átomos grandes en átomos más pequeños y en algo bautizado como partícula alfa. Sin embargo, también se predijo que podríamos ver este mismo comportamiento en cosas más grandes: es lo que se denomina efecto túnel cuántico macroscópico.

¿Cómo podemos ver el efecto túnel cuántico?

La clave para observar este efecto túnel macroscópico es algo llamado unión Josephson, que consiste en una especie de un cable roto sofisticado. El cable no es un cable típico como el que se utiliza para cargar el teléfono, sino que es un tipo especial de material conocido como superconductor. Un superconductor no tiene resistencia, lo que significa que la corriente puede fluir a través de él indefinidamente sin perder energía. Los superconductores se utilizan, por ejemplo, para crear campos magnéticos muy fuertes en los escáneres de resonancia magnética (RM).

¿Cómo nos ayuda esto a explicar este extraño comportamiento de túnel cuántico? Si colocamos dos cables superconductores uno al lado del otro, separados por un aislante, creamos nuestra unión Josephson. Normalmente se fabrica en un solo dispositivo que, con unos conocimientos básicos de electricidad, no debería conducir la electricidad. Sin embargo, gracias al túnel cuántico, podemos ver que la corriente puede fluir a través de la unión.

Los tres galardonados demostraron el efecto túnel cuántico en un artículo publicado en 1985 (es habitual que transcurra tanto tiempo antes de que se concedan los premios Nobel). Anteriormente se había sugerido que el efecto túnel cuántico estaba causado por una avería en el aislante. Los investigadores comenzaron enfriando su aparato experimental hasta una fracción de grado del cero absoluto, la temperatura más fría que se puede alcanzar.

El calor puede proporcionar a los electrones de los conductores la energía suficiente para atravesar la barrera. Por lo tanto, tendría sentido que cuanto más se enfriara el dispositivo, menos electrones escaparan. Sin embargo, si se produce el efecto túnel cuántico, debería haber una temperatura por debajo de la cual el número de electrones que escapan ya no disminuiría. Los tres galardonados descubrieron precisamente esto.

¿Por qué es importante?

En aquel momento, los tres científicos intentaban demostrar mediante experimentos esta teoría en desarrollo sobre el efecto túnel cuántico macroscópico. Incluso durante el anuncio del premio de 2025, Clarke restó importancia al descubrimiento, a pesar de que ha sido fundamental en muchos avances que se encuentran a la vanguardia de la física cuántica actual.

La computación cuántica sigue siendo una de las oportunidades más interesantes que se vislumbran para un futuro próximo y es objeto de importantes inversiones en todo el mundo. Esto conlleva mucha especulación sobre los riesgos para nuestras tecnologías de cifrado.

También resolverá en última instancia problemas que están fuera del alcance incluso de los superordenadores más grandes de la actualidad. Los pocos ordenadores cuánticos que existen hoy en día se basan en el trabajo de los tres premios Nobel de Física de 2025 y, sin duda, serán objeto de otro premio Nobel de Física en las próximas décadas.

Ya estamos aprovechando estos efectos en otros dispositivos, como los dispositivos superconductores de interferencia cuántica (SQuID), que se utilizan para medir pequeñas variaciones en los campos magnéticos de la Tierra, lo que nos permite encontrar minerales bajo la superficie. Los SQuID también tienen usos en medicina: pueden detectar los campos magnéticos extremadamente débiles que emite el cerebro. Esta técnica, conocida como magnetoencefalografía o MEG, puede utilizarse, por ejemplo, para encontrar el área específica del cerebro desde la que emanan las crisis epilépticas.

No podemos predecir si tendremos ordenadores cuánticos en nuestros hogares, o incluso en nuestras manos, ni cuándo. Sin embargo, una cosa es segura: la velocidad de desarrollo de esta nueva tecnología se debe en gran parte a los ganadores del premio Nobel de Física de 2025, que demostraron el efecto túnel cuántico macroscópico en circuitos eléctricos.

The Conversation

Rob Morris no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Premio Nobel de Física a los experimentos pioneros que allanaron el camino para las computadoras cuánticas – https://theconversation.com/premio-nobel-de-fisica-a-los-experimentos-pioneros-que-allanaron-el-camino-para-las-computadoras-cuanticas-266986

Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio

Source: The Conversation – (in Spanish) – By Juan Pablo Fernández-Cortés, Profesor investigador. Departamento Interfacultivo de Música, Universidad Autónoma de Madrid

Gustavo Pittaluga (en el centro, de pie), junto al ‘Grupo de los cinco’ (de izquierda a derecha): Julián Bautista, Rodolfo Halffter, Fernando Remacha y Salvador Bacarisse. Biblioteca Virtual de Prensa Histórica, CC BY

El 8 de octubre de 1975, pocas semanas antes de la muerte de Franco, fallecía en Madrid Gustavo Pittaluga González del Campillo (1906-1975). Su entierro en el Cementerio Civil fue sobrio, sin homenajes. Como si con él se sepultara también la memoria de una modernidad interrumpida por la guerra y la dictadura.

En su biografía se cruzan nombres esenciales de la cultura española –su amigo Federico García Lorca, el cineasta Luis Buñuel o el poeta Rafael Alberti, entre otros– y el itinerario compartido por una generación que hizo de la creación artística un acto de resistencia y de libertad. El exilio llevó a Pittaluga de París a Estados Unidos, Cuba, México y otros países de América Latina, donde mantuvo viva la llama de la cultura de la República.

Medio siglo después, su figura, aún pendiente de un estudio riguroso, reclama su lugar en la memoria cultural de la España del siglo XX.

Los años de la guerra

Retrato de un hombre de traje apoyado en una balaustrada.
Retrato de Gustavo Pittaluga González del Campillo.
Miquelopezgarcia/Wikimedia Commons, CC BY-SA

Antes del estallido de la Guerra Civil, Pittaluga era ya una de las voces más prometedoras de la renovación musical española. Discípulo de Manuel de Falla y cofundador del Grupo de los Ocho, compartía escena con los hermanos Ernesto y Rodolfo Halffter, Fernando Remacha, Salvador Bacarisse o Rosa García Ascot en la defensa de una música abierta a la modernidad europea y alejada del academicismo. Dirigía conciertos, escribía críticas, componía ballets exitosos como La romería de los cornudos –fruto de su colaboración con García Lorca y el también dramaturgo Cipriano Rivas Cherif para la bailarina “La Argentinita”– y proyectaba y difundía en París y Madrid la música de los jóvenes compositores españoles.

Todo se quebró con la sublevación militar. Pittaluga abandonó su actividad artística e ingresó como diplomático en el Ministerio de Estado. Poco después, en el verano de 1937 fue destinado a Washington como secretario de la embajada dirigida por Fernando de los Ríos. Allí defendió la legitimidad del gobierno republicano y, en silencio, comenzó a concebir un homenaje a su amigo Lorca, asesinado en Granada el año anterior, un lamento íntimo que cristalizaría en una obra musical de alto contenido simbólico.

Nueva York: Lorca y Calder en el MoMA

En 1941 llega a Nueva York y se reencuentra con Luis Buñuel, que trabajaba en el departamento de cine del Museum of Modern Art (MoMA). Allí, se integró en su equipo como adaptador cinematográfico, una labor discreta que le permitió acceder al circuito cultural neoyorquino y establecer vínculos con las vanguardias internacionales.

En ese mismo espacio Pittaluga estrenó su Llanto por Federico García Lorca. Escrita para voz recitada y orquesta de cámara a partir de fragmentos de Bodas de sangre, es una partitura madurada en silencio durante los años más inciertos de la guerra y el exilio.

El estreno, del que hasta ahora se desconocía la fecha y el lugar, tuvo lugar el 27 de abril de 1943 en el ciclo Serenade, organizado por la violinista y mecenas Yvonne Giraud, marquesa de Casa Fuerte, bajo la dirección de Vladimir Golschmann con el título abreviado de Elegy. La obra compartió programa con Profiteroles, del compositor estadounidense Theodore Chanler, y la primera interpretación en Nueva York de Les Danses Concertantes de Ígor Stravinsky, lo que situó de manera explícita el homenaje lorquiano en el corazón mismo del debate musical contemporáneo.

Mientras el franquismo imponía el silencio sobre Lorca, Pittaluga lo rescataba en Estados Unidos y convertía su memoria en un acto de resistencia y un puente hacia la modernidad.

Fuentes hemerográficas que han pasado inadvertidas hasta la fecha, revelan otro episodio desconocido de la estancia neoyorquina de Pittaluga: la participación, en 1944, en el documental Sculpture and Constructions dedicado al escultor Alexander Calder. Para este cortometraje, producido por el MoMA, el compositor escribió una breve partitura para piano, de gran economía expresiva, que apoyaba el movimiento rítmico e inestable de los móviles de Calder.

El documental Sculpture and Constructions, dirigido por Herbert Matter.

Muchas de las obras que Pittaluga compuso en los primeros años de su exilio muestran también su diálogo con la literatura contemporánea y su empeño por mantener viva la memoria republicana. Sobre poemas de Rafael Alberti escribió Metamorfosis del clavel (1943), un ciclo de canciones para voz y guitarra. Poco después creó el Homenaje a Díez Canedo (1944), basado en el poema Merendero del escritor extremeño Enrique Díez-Canedo, exiliado y fallecido ese mismo año en México. En esta obra, recitador y piano dialogan en clave expresionista sobre ritmos de chotis y habanera que traducen las tensiones del deseo, el desarraigo y la vida urbana del exilio.

Latinoamérica

Tras instalarse en México en 1945, el camino de Gustavo Pittaluga volvió a cruzarse con el de su amigo Luis Buñuel, esta vez en el cine. La música de Los olvidados (1950) y Subida al cielo (1952) lleva su firma –aunque en los créditos de la primera apareció acompañada de Rodolfo Halffter para sortear trabas sindicales–. En Los olvidados, la sonoridad áspera y tensa potencia la crudeza del retrato de la miseria urbana; en Subida al cielo, reelabora con ironía moderna las músicas populares rurales, fundiendo tradición y vanguardia.

Dos hombres mirando los fotogramas de una película en una imagen en blanco y negro.
Gustavo Pittaluga (derecha) en una imagen de 1950.
Archivo Emilio Casares/Base de datos de Iconografía Musical

El largo exilio de Pittaluga sigue siendo uno de los capítulos menos explorados de su biografía. En La Habana, Lima, Guatemala, Buenos Aires, Brasil o Ciudad de México desplegó una actividad incansable como conferenciante, director y divulgador. En cada escenario combinaba en sus programas a Isaac Albéniz, Enrique Granados y Falla con estrenos de sus obras y de otros autores españoles, trazando un puente entre la tradición y las nuevas corrientes de la modernidad.

El retorno

En 1958 Pittaluga volvió a España. El regreso, sin embargo, no significó la reintegración plena. La dictadura franquista imponía silencios y él optó por trabajar al margen de las instituciones oficiales. Se refugió en la música para teatro, cine y ballet, con colaboraciones discretas pero significativas como la banda sonora para El baile de Edgar Neville (1960) o la selección musical realizada para Viridiana de Buñuel (1961).

En 1960, la familia de García Lorca le confió la edición de las Canciones del teatro de García Lorca, reconstruidas a partir de los recuerdos de Concha e Isabel García Lorca y del escenógrafo Santiago Ontañón. El gesto era, además, un acto de reparación simbólica.

“He aquí los textos impresos. Tremendo es no tener los verbales”, escribió Pittaluga al prologar la edición de las Canciones españolas antiguas que se publicaron un año después. Ese mismo año armonizó canciones para Yerma, dirigida por Luis Escobar, primera representación comercial de Lorca en la España franquista. Le siguieron Bodas de sangre (1962) y La zapatera prodigiosa (1965), todas con música incidental suya.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


En los últimos años de su vida, se enfrentó a una profunda crisis personal y emocional. Según relató Rafael Alberti en una entrevista con Max Aub en 1969, Pittaluga se encontraba en un estado de grave deterioro físico y mental, “muy borracho, muy enfermo, muy perdido”. Alberti recordó también haberlo visto en Buenos Aires en una situación de descontrol, llegando a romper los cristales del hotel donde vivía y a tener que pagar constantemente por los daños ocasionados.

Su tumba en el Cementerio Civil de Madrid resume su destino: sencillo y coherente. Un final que contrasta con la intensidad de una vida atravesada por guerras, exilios y pérdidas, pero fiel hasta el final a la música, a sus amigos y a la memoria republicana.

The Conversation

Juan Pablo Fernández-Cortés no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Se cumplen 50 años de la muerte de Gustavo Pittaluga, el compositor que protegió la memoria de España en el exilio – https://theconversation.com/se-cumplen-50-anos-de-la-muerte-de-gustavo-pittaluga-el-compositor-que-protegio-la-memoria-de-espana-en-el-exilio-266735

Cuando Colón confundió lo que era una milla y llegó a América

Source: The Conversation – (in Spanish) – By J. Guillermo Sánchez León, Instituto Universitario de Física Fundamental y Matemáticas (IUFFyM), Universidad de Salamanca

Pintura romántica de la llegada de Cristóbal Colón a América (Dióscoro Puebla, 1862). Museo del Prado / Wikimedia Commons.

En 1999, la sonda espacial Mars Climate Orbiter de EE. UU. se precipitó sobre Marte al utilizar sus programadores, por error, el pie en lugar del metro. Colón tuvo más suerte: cinco siglos antes asignó un valor equivocado a la milla árabe y el error le llevó descubrir un nuevo continente.

Un marino en Salamanca

A finales de 1486, Cristóbal Colón se trasladó a Salamanca, sabiendo que los Reyes Católicos residirían temporalmente en esta ciudad. En aquella época, la corte no tenía una sede fija. Esperaba convencerles de que apoyasen su proyecto de alcanzar las Indias siguiendo una ruta directa a través del Atlántico, como alternativa al itinerario portugués que bordeaba África. Esta misma propuesta ya se la había presentado al rey de Portugal Juan II, que la había rechazado, probablemente aconsejado por el astrónomo salmantino Diego Ortiz de Calzadilla (o de Villegas).

En la biografía Vida y viajes de Cristóbal Colón (1828), Washington Irving cuenta que, en Salamanca, el navegante se enfrentó “a una imponente hilera de maestros, frailes y dignatarios eclesiásticos” que ridiculizaron su idea de la redondez de la Tierra: “¿Habrá alguno tan necio que crea que hay antípodas con los pies opuestos a los nuestros…?”. Sin embargo, los profesores de Salamanca en el siglo XV no cuestionaban que la Tierra era esférica, pero sí tenían motivos para desaconsejar la propuesta de Colón.

La Tierra era una esfera

Desde al menos el siglo VI a. e. c., filósofos y astrónomos griegos como Pitágoras, Platón y Aristóteles sostenían que la Tierra era una esfera, tanto por razones filosóficas (la esfera era considerada la figura geométrica perfecta), como por evidencias empíricas.

Durante los eclipses de Luna, la sombra de la Tierra era siempre circular. Además, los marinos observaban que, en la ruta desde el sur de Grecia a Alejandría, iban apareciendo en el horizonte nuevas constelaciones, lo que era explicable en una Tierra redonda.

El método de Eratóstenes.
Francesco De Lorenzo / Sociedad Geográfica Española (Boletín 76 ), CC BY

El reto de medir su tamaño

Eratóstenes de Cirene (276–194 a. C.) fue más lejos: midió el tamaño de la Tierra, comparando, en el solsticio de verano, las sombras del Sol al mediodía en Siena (actual Asuán) y en Alejandría. En Siena, el Sol estaba en el cénit y no proyectaba sombra, mientras que en Alejandría un gnomon –aguja que marca la sombra en un reloj de sol– sí la proyectaba, formando un ángulo cincuenta veces menor que el de una circunferencia.

Para calcular el perímetro de la Tierra solo tenía que multiplicar por 50 la distancia entre Siena y Alejandría –que estimó en 5 000 estadios–, con lo que obtuvo un total de 250 000 estadios (unidad de medida de longitud en la Antigüedad). Frecuentemente se dice ese valor es muy próximo al real.

En cualquier caso, su medida no fue la que se popularizó. Durante siglos, el tamaño de la Tierra aceptado fue el descrito por Claudio Ptolomeo (siglo II d. C.) en su Geographia. Le otorgó un perímetro de 180 000 estadios egipcios (unos 28 350 km, un 30 % menor que el real), basado en las medidas de Posidonio (c. 100 a. e. c.).

Este había observado que la estrella Canopus se veía en el horizonte en Rodas, mientras que en Alejandría se encontraba en un ángulo equivalente a 1/48 la longitud de la circunferencia. Multiplicando 48 por la distancia entre ambas ciudades, que se estimó en 3 750 estadios, resultan los 180 000 estadios.

El mundo según Ptolomeo (reconstrucción de Johannes de Armsshein. Ulm.1482).
Wikipedia, CC BY

Los errores de Colón

En el siglo IX, el astrónomo persa Al-Farghānī, al servicio del califa Al-Mamun, escribía en su Compendio de Astronomía: “la longitud de un grado en la circunferencia de la Tierra es de 56 millas y dos tercios de una milla […]. Este cálculo fue aceptado y validado por numerosos sabios. Por lo tanto, cuando multiplicamos la longitud de un grado de la circunferencia por el total del círculo, es decir, 360 grados, obtenemos que la circunferencia total de la Tierra es de 20 400 millas”.

Colón consideró relevante esta información, como hace constar en una nota manuscrita a su ejemplar del Imago mundi de Pedro d’Ailly (disponible en la Biblioteca Colombina).

El problema surge al interpretar el valor de 1 milla. Al-Farghānī empleaba la unidad árabe de Al-Mamun, que sabemos equivale a 1 973 metros (m). Por tanto, 20 400 millas son 40 248 km, muy próximo al real (unos 40 000 km).

En la Europa medieval, a menudo, se interpretó erróneamente esa milla como romana (1 481 m), con lo que el perímetros equivaldría según estos calculos a 30 212 km.

Colón, por su parte, empleó una equivalencia de unos 1 250 m, similar a la usada en las cartas portulanas o manuales de navegación medieval, como recoge Adan Szaszdi en su ensayo La legua y la milla de Colón (1958). Ello reducía la circunferencia terrestre a 25 500 km.

Reconstrucción del Mapa de por un autor alemán en 1867.
Wikipedia

De Canarias a Japón

Aunque menor a los 30 000 km, valor más aceptado en su época, lo que hacía distinta la propuesta de Colón era su convicción de que Asia se extendía hacia el este más de lo que entonces se creía y que, tras ella, se encontraba Cipango (Japón). Pensó que podía llegar a Asia navegando hacia el oeste en pocos miles de kilómetros. Esta idea probablemente la había tomado de Toscanelli.

Los profesores de Salamanca no aceptaban esta heterodoxa propuesta; en consecuencia, desaconsejaron el viaje. Sin embargo, el dominico fray Diego de Deza, catedrático de Prima de Teología y maestro del príncipe don Juan, le brindó su apoyo. Mientras estuvo en Salamanca, Colón se hospedó en el convento dominico de San Esteban. En los años siguientes, la influencia de Deza fue decisiva para que lograse finalmente el respaldo de Isabel la Católica, lo que le abriría el camino hacia el Nuevo Mundo.

Colón había supuesto un tamaño de la Tierra menor del real, pero no muy distinta a la que sus contemporáneos asumían. Su error fundamental fue atribuir a Asia una extensión mucho mayor de la que tiene, lo que reducía sustancialmente la distancia a navegar. Pocas meteduras de pata en la historia han tenido consecuencias tan trascendentales. Habría que esperar a la vuelta al mundo de Magallanes-Elcano para conocer la verdadera dimensión de la Tierra.

The Conversation

J. Guillermo Sánchez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando Colón confundió lo que era una milla y llegó a América – https://theconversation.com/cuando-colon-confundio-lo-que-era-una-milla-y-llego-a-america-266086

Grandes incendios… ¿forestales?

Source: The Conversation – (in Spanish) – By Rafael Delgado Artés, Profesor Univeritat Politècnica de València. Prevención y Extinción de Incendios Forestales, Universitat Politècnica de València

Tierras de cultivo y encinas quemadas tras el incendio de Molezuelas de la Carballeda en agosto de 2025, que afectó a las provincias de Zamora y León. LFRabanedo/Shutterstock

Los actuales grandes incendios forestales evolucionan muy rápido, de manera que a menudo la terminología que usamos para definirlos deja incluso de ser válida en poco tiempo. Hemos ido superando etapas a medida que la realidad se impone sobre las etiquetas.

Superamos la primera definición de gran incendio forestal y ahora hablamos de incendios de sexta generación. También los dejamos de medir en hectáreas, y ahora lo hacemos en términos de emergencias. O por poner otro ejemplo, hace tiempo que los expertos advierten que la era de la extinción debe acabar porque ha demostrado su ineficacia y una vez constatada la paradoja de la extinción, que supone que al eliminar los incendios menos graves, se fomenta que en el futuro sean más extremos.

Los grandes incendios ya no son solo “forestales”

También este verano de 2025 –desgraciadamente– hemos podido ver novedades en el comportamiento del fuego y extraer enseñanzas. Una de las más notorias es que todo parece indicar que pronto deberemos dejar de calificar estos incendios como forestales y tendremos que buscar un adjetivo más adecuado para la actual problemática, una vez quede claro que ya no estamos enfrentándonos exclusivamente a fuegos que afectan a terrenos forestales.

Lo anterior quedó demostrado, por ejemplo, en el incendio del pasado mes de agosto en Molezuelas de la Carballeda (Zamora), con más de 13 000 ha agrícolas –o agrícolas abandonadas– quemadas. No era, por tanto, un área forestal. Aunque este fenómeno, que parece que ahora será habitual, ya se había observado en el incendio ocurrido en la comarca del Alto Palancia (Castellón) en 2009.

Otro argumento todavía de mayor peso que apoyaría este cambio de denominación es que el terreno forestal, en otras palabras, el bosque, ya no es el sujeto principal a proteger contra el fuego. La realidad de los sucesos se impone y hemos aprendido que el auténtico sujeto de protección –como en cualquier otro riesgo natural– ha de ser la comunidad humana, con sus vidas (incluyendo las del operativo de extinción), bienes e infraestructuras.

Niveles de la defensa contra el fuego

En cualquier caso, hay que aceptar que los incendios son riesgos que están en plena evolución. Y si aceptamos esto y definimos con la mayor nitidez posible el sujeto y el objeto del riesgo, la construcción de la defensa será mucho más sencilla y eficiente.

Así, cualquier riesgo tiene tres componentes. El primero, la peligrosidad. Es decir, la potencia destructora del evento de acuerdo con el período de retorno esperable. En segundo lugar está la exposición (el número de personas expuestas) y finalmente la vulnerabilidad, que es la susceptibilidad de los afectados frente a la emergencia.

Sabiendo esto, la defensa contra el riesgo de incendio se puede (y se debe) enfocar desde distintos niveles de manera coordinada: la mitigación es una estrategia a largo plazo que incide sobre la reducción del peligro actual. Para los incendios, habría que reducir la carga de combustible disponible, mejorar la salud de los bosques, mitigar el cambio climático… Hablamos, en definitiva, de grandes acciones.




Leer más:
Podemos gestionar los incendios para que convivan con el paisaje mediterráneo


En un nivel inferior, la adaptación es una táctica que persigue reducir el riesgo con la disminución de la exposición del sujeto a proteger. En nuestro caso, consistiría en el alejamiento, en la medida de lo posible, de cualquier comunidad de un posible fuego. Esta es una medida efectiva y, aunque muy difícil de cumplir a rajatabla, hay que tenerla en cuenta en los futuros planes de ordenación del territorio, especialmente en zonas periurbanas.

Finalmente, la protección (y la autoprotección) actúa sobre la vulnerabilidad de la comunidad. No es sencillo ser exhaustivo y sintético a la vez, pero supone un amplio abanico de acciones posibles: alejar suficientemente la vegetación de las edificaciones (de manera que las llamas, y principalmente el humo, en caso de incendio, no suponga una amenaza), prever vías seguras de entrada y salida al núcleo urbanizado en caso de emergencia, tener equipos e infraestructuras, convertir las viviendas y las parcelas urbanizadas en espacios seguros o defendibles… Y sobre todo, formar a la comunidad expuesta a este riesgo en lo que tiene que hacer y cómo, y muy especialmente en lo que no tiene que hacer.




Leer más:
Incendios en España: ¿por qué ahora? ¿Por qué allí?


Otras medidas necesarias consisten en la preparación de la respuesta operativa una vez la emergencia se produce, para que esta respuesta pueda ser lo más segura, eficiente y eficaz. El mantenimiento de las infraestructuras y la asunción de protocolos por todas las partes implicadas son dos de estas medidas, pero no las únicas.

No existe el riesgo cero

No obstante, también habrá que aceptar que simplemente no hay ni habrá soluciones únicas ni mágicas que nos permitan eliminar el riesgo de incendios, porque en emergencias el riesgo cero no existe. Sí tenemos la posibilidad de desarrollar planes realistas con estrategias y tácticas que nos permiten minimizarlo, y es en lo que debemos trabajar. Especialmente debemos priorizar las acciones a medio y largo plazo para mejorar la resiliencia de nuestra estructura socioterritorial frente a la rápida y constante evolución del riesgo que plantea el fuego en nuestro tiempo.

The Conversation

Rafael Delgado Artés es miembro de Plataforma Forestal Valenciana y Profesor de la Universitat Politècnica de València

ref. Grandes incendios… ¿forestales? – https://theconversation.com/grandes-incendios-forestales-266818

El auge del anime: de fenómeno ‘otaku’ a cultura global

Source: The Conversation – (in Spanish) – By Antonio Horno López, Profesor Titular de Universidad, Universidad de Jaén

Fotograma de _Guardianes de la noche: La fortaleza infinita_. IMDB

En apenas unos años, el anime ha pasado de ser un producto de nicho, asociado casi en exclusiva a los aficionados más apasionados –los llamados otaku–, a convertirse en un fenómeno cultural de alcance global. El reciente estreno de la película Guardianes de la noche: la fortaleza infinita, que ha superado los 640 millones de dólares de recaudación global, así lo demuestra.

Para comprender esta transformación, diversos autores han propuesto una clasificación en distintas generaciones que permite analizar con mayor claridad su evolución a lo largo del tiempo.

La denominada “Pregeneración” del anime (1910-1950) engloba los primeros experimentos animados realizados en Japón. Con la “Primera Generación” (1950-1970) surgen las series televisivas y se define un estilo gráfico propio, aunque orientado al público infantil. La “Segunda Generación” (1970-1983) amplía horizontes al introducir tramas más adultas, consolidando al anime como medio narrativo versátil. La “Tercera Generación” (1983-1995), conocida como la “Edad de Oro”, diversifica géneros y formatos, incorpora los vídeos domésticos (OVA) y conquista por primera vez al público occidental. En esta etapa se estrenan internacionalmente series de anime reconocidas como Sailor Moon, Campeones: Oliver y Benji, Los caballeros del zodiaco y, por supuesto, Dragon Ball.




Leer más:
El legado de Akira Toriyama en España: la generación ‘Dragon Ball’


Y, finalmente, la “Cuarta Generación” (1995-actualidad) se caracteriza por la digitalización y la globalización, que consolidan al anime como una industria de alcance mundial.

La evolución tecnológica

Sin embargo, lo que vemos hoy en pantalla va más allá de aquel inicio digital de los años noventa, cuando el anime circulaba sobre todo en páginas no oficiales de internet o en algunos canales privados.

La irrupción de las plataformas de streaming ha transformado radicalmente su distribución y producción. Netflix, entre otras, no solo ha multiplicado su audiencia, sino que ha impulsado nuevas creaciones con total libertad estilística. Títulos como Devilman Crybaby (2018) y Aggretsuko (2020) evidencian esa diversidad, combinando elementos visuales y temáticos que desafían las categorías tradicionales.

También podemos mencionar Made in Abyss (2017), donde la estética infantil contrasta con su crudeza narrativa, logrando una propuesta madura y emocionalmente intensa.

Imagen de una serie de anime.
Ilustración de la serie Made in Abyss.
Netflix

Entre los títulos que marcaron un punto de inflexión destaca Shingeki no Kyojin (Ataque a los titanes, 2013), cuya narrativa épica y violencia estilizada atrajeron a un público nuevo, incluso ajeno al anime. Esta serie podría considerarse la cabeza visible de una nueva era: una animación japonesa más ambiciosa, global y emocionalmente compleja.

En la misma línea de evolución técnica y visual se encuentra DoroHeDoro (2020), adaptación del manga de la dibujante Q Hayashida. Su producción fue posible gracias al avance de las imágenes generadas por ordenador (CGI), que permitió trasladar con fidelidad los intrincados escenarios y personajes del manga. El estudio MAPPA combinó modelado tridimensional con texturas bidimensionales, consiguiendo un estilo híbrido que preserva la esencia del dibujo original. Este logro marcó un precedente en este tipo de obras que inicialmente fueron consideradas “inadaptables”.

Llegan los primeros cazadores de demonios

Como decíamos al inicio, otro fenómeno reciente es Guardianes de la noche: Kimetsu no Yaiba, cuyo éxito explotó tras la adaptación animada del manga homónimo iniciada en 2019 por el estudio Ufotable. La historia de los hermanos Tanjirō y Nezuko contra los demonios combina acción y emoción, logrando resonar con audiencias de todas las edades. El episodio 19, con la espectacular “Danza del Dios del Fuego”, es ya un referente por su técnica de animación a mano y el uso magistral de la técnica de la rotoscopia.

Su secuela cinematográfica, Tren infinito (2020), arrasó en taquilla, pero ha sido La fortaleza infinita (2025) la que, hasta el momento, ha pulverizado todos los récords, convirtiéndose en la película de anime más taquillera de la historia.

Producida por Sony, Ufotable y Aniplex, esta nueva entrega combina animación 2D y 3D con una precisión visual sobresaliente. Este hecho le ha valido el premio a la “Mejor Animación Internacional 2025” en los Critics Choice Awards. Así mismo, el uso del color como elemento distintivo de cada personaje enriquece la puesta en escena y facilita la comprensión dentro de la abundancia visual. El resultado es un espectáculo vibrante que convierte cada secuencia en un despliegue tan vertiginoso y cautivador que resulta imposible apartar la vista.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


K-Pop y demonios, una combinación de oro

Dentro de este panorama globalizado destaca también Las guerreras del K-Pop (2025), una coproducción de Sony Pictures Animation y Netflix, dirigida por Maggie Kang y Chris Appelhans. La cinta fusiona el fenómeno musical coreano con la acción sobrenatural, narrando la historia de un grupo de cantantes que también son cazadoras de demonios. Bajo su estética colorida y musical, la película aborda temas universales como la amistad, la identidad y la aceptación personal.

Aunque no es un anime japonés en sentido estricto, su lenguaje visual –colores intensos, expresividad chibi y dinamismo en las escenas de combate– bebe claramente de esta estética. Su éxito fue inmediato: se convirtió en la película animada más vista de Netflix, con varias canciones en el la lista Billboard Hot 100, incluida “Golden”, que alcanzó el número uno. Su impacto confirma la expansión del “espíritu anime” más allá de las producciones japonesas, en una animación global e híbrida. Es lo que algunos autores ya denominan “animesque”.

Videoclip de ‘Golden’, el gran éxito musical de Las guerreras del K-Pop.

Este tipo de obras demuestra que el anime ha dejado de ser un producto cultural limitado a su país de origen o a un público específico. Hoy forma parte del lenguaje del entretenimiento contemporáneo, donde la animación oriental y occidental se influyen mutuamente. Producciones japonesas que rompen con los cánones tradicionales conviven con creaciones occidentales que adoptan su estética hasta volverse casi indistinguibles.

La ‘Quinta Generación’ del anime

Todo ello apunta a que nos encontramos ante una “Quinta Generación” del anime: una etapa definida no solo por los avances técnicos y el aprovechamiento de la animación híbrida, sino también por una voluntad de desdibujar fronteras y explorar nuevas formas de contar historias.

En definitiva, el anime ha dejado de ser una expresión reservada a un público concreto para convertirse en una de las voces más poderosas e influyentes de la cultura del entretenimiento. Un territorio fértil donde, paradójicamente, lo mainstream y lo otaku se encuentran para dar forma a un lenguaje común que trasciende fronteras y generaciones.

The Conversation

Antonio Horno López no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El auge del anime: de fenómeno ‘otaku’ a cultura global – https://theconversation.com/el-auge-del-anime-de-fenomeno-otaku-a-cultura-global-266540

Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento

Source: The Conversation – (in Spanish) – By Carmen María León Márquez, Profesora e Investigadora en Criminología, Universidad de Castilla-La Mancha

Los ultraprocesados ocupan buena parte de los anaqueles en los supermercados. Leona Octavii/Shutterstock

El intento de explicar las causas de la violencia suele centrarse en factores sociales, económicos o psicológicos: la desigualdad, la exclusión, los traumas infantiles o el consumo de sustancias… Pero ¿y si algo tan cotidiano como la alimentación también influyera en cómo regulamos nuestro comportamiento?

La creciente presencia de alimentos ultraprocesados en nuestra dieta, caracterizados por su pobre valor nutricional y su alto contenido en azúcares añadidos, grasas transgénicas y aditivos, está transformando nuestros hábitos alimentarios. Y aunque su impacto en enfermedades metabólicas como la obesidad o la diabetes está bien documentado, investigaciones recientes sugieren que también podrían influir en funciones cerebrales relacionadas con el control emocional y la impulsividad, dos dimensiones vinculadas al comportamiento violento.




Leer más:
¿Qué es el comer emocional y por qué ahora es más peligroso?


Cerebro y alimentación: una relación compleja

Numerosos estudios han demostrado que la nutrición tiene un efecto directo sobre el funcionamiento del sistema nervioso central. Dietas ricas en ultraprocesados y pobres en nutrientes esenciales se asocian con alteraciones en la microbiota intestinal, inflamación crónica y disfunciones en regiones clave, como la corteza prefrontal, implicada en el control de impulsos y la toma de decisiones.

Por ejemplo, un estudio publicado en The American Journal of Psychiatry encontró que hábitos de vida poco saludables –como una dieta deficiente en nutrientes esenciales y la falta de actividad física– se asocian con un aumento de marcadores inflamatorios, los cuales pueden afectar negativamente a la salud mental.

Desde una perspectiva psicológica, diversos trabajos han vinculado el consumo habitual de ultraprocesados con síntomas como impulsividad, hostilidad y malestar emocional.

Así, un estudio longitudinal realizado con adultos con sobrepeso y síndrome metabólico en 2019 reveló que niveles más altos de impulsividad se relacionaban con una menor adherencia a patrones dietéticos saludables y una mayor preferencia por dietas occidentales, caracterizadas por alimentos ultraprocesados ricos en grasas transgénicas y azúcares.

Aunque estos factores no implican violencia de manera directa, sí aumentan su probabilidad, especialmente en contextos de vulnerabilidad.

Como ejemplo de esto, un estudio con adolescentes españoles encontró que un mayor consumo de alimentos ultraprocesados se asociaba con un incremento en dificultades emocionales y conductuales, como ansiedad, problemas de atención y comportamientos disruptivos. Aunque los resultados son correlacionales (es decir, no permiten establecer una relación causa-efecto), sugieren que ciertos hábitos alimentarios pueden afectar la estabilidad emocional y la capacidad de autorregulación, elementos clave en el surgimiento de conductas conflictivas.




Leer más:
Alexitimia: cómo nos afecta la incapacidad para identificar emociones


Intervenciones nutricionales en entornos carcelarios

Pero ¿puede la alimentación promover directamente comportamientos violentos? Algunos estudios pioneros han explorado esta relación en contextos controlados, como las prisiones.

En uno de los primeros ensayos clínicos realizados en Reino Unido, los investigadores administraron suplementos nutricionales (vitaminas, minerales y ácidos grasos esenciales) a un grupo de jóvenes adultos en prisión. Los resultados fueron sorprendentes: quienes recibieron esos suplementos cometieron un 26,3 % menos de infracciones disciplinarias en comparación con el grupo placebo. Además, en los participantes que tomaron los suplementos durante al menos dos semanas, la reducción promedio alcanzó un 35,1 %.

Este estudio fue replicado años más tarde en los Países Bajos con una muestra más amplia, obteniendo resultados similares: la administración de suplementos redujo significativamente las infracciones disciplinarias en prisión. La hipótesis que sustenta estos hallazgos es que un mejor aporte nutricional favorece una función cerebral más óptima, mejorando la autorregulación y disminuyendo la reactividad emocional.

Es importante subrayar que estas investigaciones no implican que una alimentación de baja calidad nutricional cause directamente la violencia, sino que puede actuar como un factor modulador del comportamiento, especialmente en individuos con condiciones preexistentes de impulsividad, estrés crónico o deterioro emocional.




Leer más:
¿Qué son las adicciones comportamentales y por qué se ceban con la adolescencia?


Ultraprocesados y patrones de consumo adictivo

Parte del problema es que los alimentos ultraprocesados no solo tienen un pobre valor nutricional, sino que también pueden generar patrones de consumo adictivo. Su diseño industrial, hiperpalatable (que resulta sumamente grato al paladar), con combinaciones específicas de aditivos artificiales, grasas transgénicas y azúcares añadidos, activa los circuitos de recompensa del cerebro del mismo modo que lo hacen ciertas sustancias psicoactivas, como la cocaína.

Esto puede dar lugar a una relación compleja que derive en compulsividad y falta de control sobre el consumo de estos productos.

Una vía para la prevención

Si lo que comemos influye en nuestra regulación emocional, entonces la nutrición podría ser una herramienta complementaria para prevenir el comportamiento violento. Esta idea ya se está aplicando en algunos contextos, desde programas piloto en prisiones hasta intervenciones en escuelas ubicadas en zonas vulnerables, con el objetivo no solo de mejorar la salud física, sino también el bienestar socioemocional.

No se trata de caer en reduccionismos: la violencia es un fenómeno complejo, y ningún enfoque por sí solo puede explicarla o erradicarla. Sin embargo, ignorar el papel de la alimentación supondría omitir un factor clave en el análisis criminológico.

Entonces, ¿somos lo que comemos?

Tal vez no del todo, pero sí más de lo que creemos. Nuestra alimentación influye directamente en la manera en que pensamos, sentimos y actuamos. En un mundo donde los ultraprocesados predominan en la dieta de millones de personas, quizás debamos empezar a preguntarnos si una parte de la violencia que nos rodea podría estar gestándose, en silencio, en nuestros platos.

The Conversation

Carmen María León Márquez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así podría influir el consumo de alimentos ultraprocesados en el comportamiento violento – https://theconversation.com/asi-podria-influir-el-consumo-de-alimentos-ultraprocesados-en-el-comportamiento-violento-266115

¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien?

Source: The Conversation – (in Spanish) – By Enrique Balmaseda Maestu, Profesor Titular de Lengua Española en la Universidad de La Rioja, Universidad de La Rioja

Cuando hablamos cualquier idioma, pronunciamos con mayor intensidad determinadas sílabas de la cadena de palabras. A dicha intensidad se la llama acento prosódico y a las palabras que lo contienen, tónicas. En español, lengua de acento libre, las palabras tónicas pueden portar su acento en diversas posiciones silábicas (NÚmero / nuMEro / numeRÓ). Por el contrario, el francés, de acento fijo, siempre lo lleva en su última sílaba (comMENT, exacteMENT).

Ahora bien, solo en algunas lenguas se marca la vocal tónica con una tilde o acento gráfico (´) para destacarla visualmente de las otras. Y dentro de estas, el español se rige por una serie de reglas que limita el uso de dichas marcas. No escribimos “dáme ún póco de léche”, sino “dame un poco de leche”. Las normas ortográficas para el uso de tildes tienen en cuenta que la mayoría de las palabras del español son llanas (es decir, su sílaba tónica es la penúltima) y terminan en “n”, “s” o vocal, por lo que ninguna de las palabras que tienen estas características necesitan tilde.

Si este “manual de instrucciones” para usar la tilde correctamente es relativamente sencillo, ¿por qué cometen tantos errores los estudiantes? En las últimas oposiciones de Enseñanza Secundaria en España, realizadas en julio de 2025, las faltas de ortografía han sido uno de los factores más polémicos del alto porcentaje de suspensos. Solo en Andalucía se han invalidado por su causa 4000 exámenes, incluida la ausencia o descolocación del acento gráfico.

¿Cómo de importantes son las tildes?

En una comunicación básica, quizá no pasa nada especialmente grave si, por desconocimiento o descuido, se omite la tilde o se coloca incorrectamente, porque nuestra gramática interna o mental nos permite interpretar correctamente enunciados de escritura incorrecta como Papa la tomo de la mano.

A eso parecía referirse García Márquez en su famoso discurso del Congreso de Zacatecas (1997): “Nadie ha de leer lagrima donde diga lágrima ni confundirá revólver con revolver”. Ciertos estudios lo corroboran al constatar que el tiempo de fijación de la mirada en palabras aisladas es igual tanto si llevan tilde como si no la llevan.

Eficacia comunicativa

¿Por qué entonces conviene usar las tildes adecuadamente? Por varias razones: unas, digamos, por autoimagen y prestigio cultural; otras, por competencia y eficacia comunicativa. Frente a la provocación de García Márquez, lo cierto es que un texto bien redactado y sin errores ortográficos denota rigor mental, disciplina intelectual, elegancia… La precisión acentual también es indicio del gusto por el detalle y el buen hacer.

Por otra parte, la acentuación correcta, cuando se trata de enunciados y no de palabras aisladas, nos ayuda a comprender lo leído más deprisa y a deshacer posibles ambigüedades. Y también a pronunciar bien otras voces poco conocidas (buerdégano, barbián, bahorrina…) o variantes lingüísticas del español (tú cantas / vos cantás, cóctel / coctel, vídeo / video, etc.).

Además, la funcionalidad y economía de las reglas de acentuación en nuestra lengua contribuyen a la unidad lingüística en el registro formal de todo el ámbito hispanohablante. En definitiva, tildar correctamente nos permite distinguir las palabras y entender e interpretar la escritura adecuadamente, con precisión y con mínimo esfuerzo mental.

El origen de las reglas actuales

La primera Ortografía académica (1741) fijó unas normas de acentuación gráfica donde ya prevalecía el principio de economía basado en las características acentuales del español: es decir, las normas se diseñaron para que las palabras con tilde fueran las menos posibles.

Como la mayor parte de sus palabras son llanas (62 %) y agudas (29 %), al tiempo que las sílabas suelen terminar en vocal (69 %) y en –n o –s, la RAE estableció unas reglas básicas para escribir sin tilde casi todas las palabras: las monosílabas, las llanas terminadas en vocal, –n y –s, y las agudas que acaben en consonantes que no sean las anteriores (Los peces nadan con calma en el mar azul). El resto debían ser tildadas (El biólogo encontró un fósil junto a un camarón en el océano).




Leer más:
¿Guapa? ¡Guapa! o ¡¡¡Guapa!!! La importancia de la puntuación en la expresión escrita


¿Todas las lenguas usan tildes?

Podría haber sido de otra manera. No hay más que echar un vistazo a la escritura de otras lenguas: en inglés no se marca ninguna tilde, salvo en unos pocos extranjerismos, por lo que es preciso saber previamente la pronunciación de las voces (por ejemplo, animal o acupuncture, donde el acento recae sobre la primera a).

El italiano, aún más parco en tildes que el español, solo marca las palabras agudas, distinguiendo el grado de abertura vocálica (caffè / perché) y unas pocas monosílabas ( ‘da’ / da ‘de’), mientras que no aparece en las esdrújulas (fabbrica) ni en las sobreesdrújulas (lasciatemelo).

Por el contrario, el griego moderno marca con tilde todos los acentos prosódicos (παιδί ‘niño’, βιβλιοθήκη ‘biblioteca’), salvo las palabras monosílabas, aunque también en estas se usa tilde diacrítica para distinguir las tónicas de las átonas.

¿Por qué se cometen errores?

Entre docentes existe la idea generalizada de que muchos estudiantes preuniversitarios, e incluso universitarios, muestran una ortografía mala o mejorable, en particular, respecto a las tildes, algo corroborado por algunos estudios.

Las causas apuntadas son varias: desconocimiento de las reglas, desdén hacia la escritura correcta por prejuicios diversos, falta de lecturas valiosas y de atención al escribir, pérdida de prestigio de las normas académicas, influencia de ciertas convenciones asociadas a la tecnología, tipo de relación con los destinatarios de los escritos, etc.

Pero también influye la ineficacia de los métodos de enseñanza, excesivamente memorísticos, que ponen el foco en el error y generan dudas ante los huecos en blanco.




Leer más:
¿Por qué los dictados tradicionales no enseñan ortografía?


Competencias necesarias para usar bien las tildes

Las reglas generales de acentuación, aparentemente sencillas, requieren automatizar competencias complejas: discriminar las palabras tónicas de las átonas, separarlas en sílabas, apreciar el acento de intensidad, determinar el tipo de palabra según la sílaba en que recaiga… Y, teniendo en cuenta su terminación, aplicar dichas reglas para poner o no las tildes.

A todo ello se añaden particularidades como la acentuación de hiatos, diptongos y triptongos, la de los adverbios en -mente, la variedad de porqués o la mencionada tilde diacrítica.

Y qué decir de la confusión y reticencia de muchos hispanohablantes cuando la norma ortográfica contradice nuestra intuición (como, por ejemplo, cuando se nos dice que palabras como guion o truhan no deben llevar tilde por ser monosílabas, a efectos ortográficos); cuando establece distinciones sutiles (la opción de tildar o no ciertos pronombres según su función sintáctica: qué/que, quién/quien, dónde/donde…); o, frente a una costumbre muy arraigada, indica que no debemos tildar el adverbio solo y los demostrativos este, ese o aquel (y sus flexiones).

Acentuar gráficamente las palabras implica articular un conjunto de competencias que van más allá de la simple memorización: adquirir saberes y técnicas para ejercitarlos de manera automática. Pero, como en toda disciplina intelectual, se pueden alcanzar aunando voluntad, reflexión, práctica y métodos didácticos adecuados.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Por qué tiene tildes el español y por qué nos cuesta tanto usarlas bien? – https://theconversation.com/por-que-tiene-tildes-el-espanol-y-por-que-nos-cuesta-tanto-usarlas-bien-260455

Redes sociales: contraindicaciones de una herramienta poderosa para informar sobre salud

Source: The Conversation – (in Spanish) – By Alberto Bermejo Cantarero, Profesor Ayudante Doctor. Enfermería. , Universidad de Castilla-La Mancha

Have a nice day Photo/Shutterstock

El potencial de las redes sociales en el ámbito de la salud es innegable. Plataformas como Twitter (ahora X), YouTube, Facebook, Instagram y TikTok han democratizado el acceso a información sobre prevención, tratamientos y hábitos saludables, además de permitir la creación de comunidades de profesionales y pacientes que comparten experiencias, dudas y apoyo emocional. Esta interacción puede mejorar el cumplimiento de los tratamientos y contribuir al bienestar de quienes conviven con enfermedades crónicas.

También se han revelado como una herramienta poderosa para la divulgación científica. Profesionales sanitarios e investigadores pueden comunicar hallazgos, combatir bulos y ofrecer orientación directa al público general.

Bulos atractivos y convincentes

Sin embargo, esta misma rapidez con la que se difunde la información se convierte en un arma de doble filo cuando los contenidos no están debidamente contrastados. La desinformación circula con facilidad y puede llegar a millones de personas en cuestión de horas antes de ser desmentida. Noticias falsas, teorías pseudocientíficas o consejos sin base clínica se presentan de forma atractiva y convincente, dificultando que el usuario medio distinga entre información fiable y contenido engañoso.

Un ejemplo reciente podemos verlo en el estudio de 2025 de la Universidad de Sídney (Australia), que analizó cerca de 900 publicaciones en Instagram y TikTok en las que influencers promocionaban pruebas médicas como escáneres corporales completos o un “test del temporizador de los óvulos” para predecir la fertilidad futura. Más del 80 % de estos mensajes tenían un tono claramente promocional y apenas mencionaban las limitaciones o la ausencia de evidencia científica.

A su vez, en España se han documentado más de 500 bulos de temática sanitaria difundidos en redes sociales, como la promoción de supuestas terapias “naturales” contra el cáncer, infusiones de bicarbonato o dietas milagrosas. Muchas de estas patrañas estaban construidas sobre fuentes aparentemente fiables, pero manipuladas o descontextualizadas.

La confidencialidad, en entredicho

Uno de los mayores retos para los profesionales de la salud es proteger la confidencialidad del paciente en entornos digitales. Aunque existan normativas claras de protección de datos, compartir imágenes, anécdotas clínicas o casos –aunque sea de manera anónima– puede suponer una vulneración de derechos fundamentales.

A esto se suma una realidad preocupante: muchas plataformas digitales no cuentan con políticas suficientemente estrictas para garantizar la privacidad de la información sanitaria. El resultado puede ser la filtración de datos sensibles o su uso indebido con fines comerciales, sin que el usuario sea plenamente consciente de ello.

Varios casos recientes ponen de relieve la fragilidad de la privacidad en entornos digitales. Revisiones de apps de salud femenina han mostrado que gran parte de estos servicios recopilan y comparten datos íntimos con terceros sin políticas claras ni consentimiento informado. En España, una brecha en la Sociedad Española de Oncología expuso la información clínica de más de 2 000 pacientes, mientras que en Suecia una farmacia fue multada con 3,2 millones de euros por enviar datos sensibles a la compañía Meta sin avisar a los usuarios.

La formación en ciberseguridad y ética digital debe ser una prioridad en el ámbito sanitario para garantizar una adecuada gestión de la información. Saber cómo, cuándo y qué compartir (y qué no) en redes sociales debe ser parte del currículo formativo en todas las disciplinas sanitarias.

La sobreexposición de los profesionales

En los últimos años ha surgido también una presión creciente hacia los sanitarios para que mantengan una “presencia activa” en redes, ya sea compartiendo contenido educativo, resolviendo dudas o participando en campañas de concienciación. Si bien esta labor puede tener un impacto positivo, también conlleva riesgos de sobrecarga, fatiga digital y desgaste emocional.

La interacción constante, los comentarios malintencionados o la exposición pública a críticas afectan al bienestar de muchos profesionales. Es necesario reconocer estos riesgos y encontrar formas de apoyarlos, sin exigir una implicación digital que acabe perjudicando su salud mental o su desempeño clínico.

¿Y la inteligencia artificial?

Un fenómeno emergente que añade complejidad al panorama es el uso de la inteligencia artificial (IA) en la búsqueda y difusión de información sanitaria. Herramientas como asistentes virtuales, chatbots o motores de búsqueda con IA están transformando cómo accedemos a datos médicos. No obstante, su fiabilidad depende de la calidad de los contenidos con los que han sido entrenados.

Además, los algoritmos tienden a personalizar la información que muestran, reforzando creencias previas en lugar de ofrecer contenidos basados en evidencia. Este sesgo de confirmación, amplificado por la tecnología, puede agravar la difusión de bulos y generar desconfianza en las fuentes oficiales.

¿Qué podemos hacer?

Ante la creciente influencia de las redes sociales en el ámbito de la salud, resulta primordial fomentar un uso responsable y consciente de estas plataformas. Es necesario desarrollar estrategias para combatir la desinformación mediante la verificación de contenido y la educación en alfabetización mediática.

Las campañas de concienciación pueden ayudar de manera efectiva en este sentido, educando a los usuarios sobre cómo evaluar la credibilidad de la información que consumen y comparten. Además, los profesionales de la salud deben asumir un papel proactivo en la difusión de contenido veraz y basado en evidencia.

Es necesario establecer normas claras para proteger los datos sanitarios en entornos digitales, garantizando la confidencialidad del paciente. Las plataformas deben aplicar políticas más estrictas y asumir mayor responsabilidad frente a los contenidos engañosos o peligrosos para la salud pública.

El desafío consiste en encontrar un equilibrio entre el aprovechamiento de las ventajas que ofrecen estas herramientas y la protección de la privacidad y la ética profesional. Con un enfoque crítico y regulado, las redes sociales pueden convertirse en un recurso poderoso para la educación y la comunicación sanitaria sin poner en riesgo la integridad de la información

The Conversation

Alberto Bermejo Cantarero no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Redes sociales: contraindicaciones de una herramienta poderosa para informar sobre salud – https://theconversation.com/redes-sociales-contraindicaciones-de-una-herramienta-poderosa-para-informar-sobre-salud-258051

El hallazgo de un mecanismo que protege contra las enfermedades autoinmunes, Nobel de Medicina 2025

Source: The Conversation – (in Spanish) – By Ignacio J. Molina Pineda de las Infantas, Catedrático de Inmunología, Centro de Investigación Biomédica, Universidad de Granada

Representación de un linfocito T, célula clave en la inmunidad humana. Vink Fan/Shutterstock

La respuesta inmunitaria humana es capaz de reconocer a los antígenos (sustancias que nuestro sistema inmune identifica como extrañas o potencialmente peligrosas) gracias a un receptor expresado en la superficie de unos glóbulos blancos llamados linfocitos, que permitirá a cada linfocito reconocer a un antígeno y solamente a uno. Gracias a que ese receptor se genera de manera completamente aleatoria durante el desarrollo celular, vamos a generar una cantidad enorme de receptores diferentes. Así podremos reconocer a una cantidad también enorme de antígenos presentes en la naturaleza.

Ahora bien, si la generación del receptor se produce al azar, es muy posible que algunos de ellos reconozcan por error las moléculas del organismo, lo que daría lugar a autoinmunidad, o sea, una respuesta inmunitaria contra nuestro propio cuerpo. Para evitarlo, contamos con poderosos mecanismos que eliminan a estos linfocitos autorreactivos mientras se están generando, de manera que evitamos que salgan a la sangre (la periferia). Es lo que conocemos como tolerancia central.

Pero ¿qué pasa si a este procedimiento biológico se le escapa alguna célula autorreactiva? En este caso, el desarrollo de autoinmunidad parece inevitable.

No tan deprisa: afortunadamente, tenemos otro mecanismo para asegurar que esas células que hubieran podido escapar son inactivadas en la periferia, evitando así el desarrollo de patologías autoinmunes como la diabetes tipo I, la enfermedad celíaca o el lupus. Este es el sensacional descubrimiento que ha deparado el Premio Nobel de Medicina 2025 al japonés Shimon Sakaguchi y los estadounidenses Mary E. Brunkow y Fred Ramsdell.

Dibujo de una mujer y dos hombres
Mary E. Brunkow, Fred Ramsdell y Shimon Sakaguchi, los galardonados con el Premio Nobel de Medicina y Fisiología 2025.
Premio Nobel

Las células T reguladoras salen a la luz

Desde la década 1970, los expertos postulaban la existencia de células que tuvieran la capacidad de suprimir la respuesta inmunitaria en la periferia, evitando así una reacción excesiva que pudiera ocasionar efectos adversos en el organismo. Se sugirió que eran una subpoblación de los linfocitos T CD8+, pero fue imposible demostrarlo experimentalmente. Durante años se instauró entre los inmunólogos la idea de que esas células supresoras no existían.

Shimon Sakaguchi, sin embargo, no se dio por vencido y siguió investigando en este campo. Sus esfuerzos, en contra del pensamiento imperante, se vieron recompensados en 1995, cuando probó claramente la existencia de células con capacidad de regular negativamente la respuesta inmunitaria. Sakaguchi las llamó células T reguladoras.

Lo sorprendente fue que estas células no se encontraban en el compartimento de células T CD8+, como se pensó inicialmente, sino en la otra gran subpoblación de linfocitos T: los llamados CD4+. Sakaguhi demostró, igualmente, que se caracterizaban por expresar en la superficie celular otra molécula, llamada CD25. Sencillamente, se había estado buscando estas células en el linaje equivocado.

Identificando la mutación

En paralelo, los otros dos ganadores del premio, Mary E. Brunkow y Fred Ramsdell, trabajaban en la resolución de otro misterio. Desde hacía años, los científicos disponían de una cepa de ratones muy peculiares que se había originado espontáneamente. Eran los ratones scurfy (escamosos), caracterizados por el desarrollo de una autoinmunidad grave, generalizada y multiorgánica, que daba como resultado la muerte prematura de los animales. Brunkow y Ramsfell observaron que la mutación que dio lugar a esa cepa se encontraba en un gen que bautizaron como Foxp3.

¿Y cómo conectamos ambos descubrimientos? Los investigadores desde hoy reconocidos con el Nobel también estudiaron una enfermedad en humanos muy similar a la sufrida por los ratones, y así contribuyeron a descubrir que la mutación en personas del gen equivalente al Foxp3 de ratón (su ortólogo) producía una enfermedad conocida como IPEX, que cursaba con una autoinmunidad igualmente devastadora. La razón es que Foxp3 es imprescindible para que se generen las llamadas células T reguladoras naturales. Producidas en la glándula del timo, son las que previenen el desarrollo de autoinmunidad y el mantenimiento de la tolerancia periférica.

Al carecer de estas células, los pacientes aquejados de IPEX no pueden mantener la tolerancia y desarrollan procesos autoinmunitarios graves y generalizados (caracterizados por una desregulación de la respuesta inmunitaria, poliendocrinopatía, endocrinopatía y un patrón de herencia asociado al cromosoma X). Fue un descubrimiento fundamental: las células T reguladoras son las guardianas de la tolerancia periférica, un hecho que fue corroborado más tarde por muchos otros estudios.

Células T reguladoras inducidas

Adicionalmente, en el esfuerzo de prevenir autoinmunidad, la naturaleza nos ha dotado de un segundo mecanismo para mantener la proverbial tolerancia periférica. Las células T reguladoras no solo se producen a nivel central en el timo, sino que pueden inducirse en la periferia. En efecto, si las células vírgenes T CD4+ son estimuladas en presencia de determinados factores solubles (citocinas) podemos conseguir que se expandan y viajen hacia esa subpoblación reguladora, añadiendo una capa más en el control de la autoinmunidad.

¿Y podemos aplicar estos descubrimientos a la clínica? Desde luego que sí. Si expusiéramos a un paciente con autoinmunidad a una potente acción de las células T reguladoras, entonces quizá podríamos detener o incluso revertir su problema. Esta idea está siendo perseguida con ahínco, y hay registrados un total de 338 ensayos clínicos que intentan modular la actividad de las células T reguladoras para tratar ciertas enfermedades autoinmunes.

Pero no solo eso. También podrían usarse en la prevención del rechazo de trasplantes e, incluso, en el tratamiento de tumores. En este último caso, buscaríamos justo lo contrario: disminuir la actividad de las células T reguladoras para que el sistema inmunitario montase una respuesta antitumoral más potente.

Estos hallazgos nos vuelven a mostrar cómo un descubrimiento de las ciencias básicas es aplicado al tratamiento de enfermedades humanas. Gracias a Shimon Sakaguchi, Mary E. Brunkow y Fred Ramsdell sabemos que las células T reguladoras brillan con luz propia en la regulación de la respuesta inmunitaria.

The Conversation

El laboratorio del Dr. Ignacio J. Molina ha recibido fondos competitivos de investigación de organismos ministeriales españoles, autonómicos (Junta de Andalucía) y de Action for AT, United Kingdom Charity.

ref. El hallazgo de un mecanismo que protege contra las enfermedades autoinmunes, Nobel de Medicina 2025 – https://theconversation.com/el-hallazgo-de-un-mecanismo-que-protege-contra-las-enfermedades-autoinmunes-nobel-de-medicina-2025-266828