El engaño de la luz dorada del otoño, bajo la mirada de la física

Source: The Conversation – (in Spanish) – By Antonio Manuel Peña García, Catedrático del Área de Ingeniería Eléctrica, Universidad de Granada

Subbotina Anna/Shutterstock

Imagine que está tranquilamente en casa y de repente recibe una de esas “llamadas de la suerte”. Al otro lado del teléfono, un famosísimo presentador vocifera entusiasmado que está en directo y que puede ganar un millón de euros si responde a la siguiente pregunta: ¿de qué color es la luz del otoño?

¿Qué contestaríamos usted o yo? ¿Y mil personas al azar? No tengo pruebas ni dudas de que muchos responderíamos “dorada”. Pero no todos. ¿No todos? ¿Acaso es una sensación subjetiva? Pensemos antes de contestar. Pero rápido, que estamos en directo.

¿Qué dice la física?

En el hemisferio norte, el otoño es el periodo en el que la Tierra se acerca al Sol desde un punto en el que días y noches tienen igual duración (equinoccio de otoño) hasta su máxima cercanía (solsticio de invierno). Comienza el 22 de septiembre y finalizará el 21 de diciembre. Para nuestros vecinos del hemisferio sur, esta época es la primavera.

Aunque esta definición requiere algunos matices, nos da la primera pista para responder a la pregunta del millón.

Lo primero que llama la atención es que el invierno en nuestro hemisferio coincida con la menor distancia al Sol, ya que cuanto más cerca estemos, más radiación solar llega a la Tierra. Sin embargo, es la inclinación de los rayos en cada estación y no la distancia a nuestra estrella es lo que determina la cantidad de luz y calor que recibimos.

Como en otoño la elevación solar máxima va decreciendo y sabemos que el color del cielo pasa del azul al amarillo-rojizo cuando el Sol está más bajo, es lógico que su luz parezca más dorada.

Entonces, la luz del invierno ¿debería ser más dorada todavía? ¿Y los primeros días de primavera?

Pero a mí la primavera se me antoja multicolor. Y el invierno blanco aunque no nieve. ¿Y a usted?

Es más, el otoño puede ser lluvioso, lo que limpia la atmósfera de aerosoles que enrojecen el cielo… A la física no le gusta esa imagen otoñal eminentemente dorada.

Sonata de otoño

Si alguien consagró su pluma a describir la luz, ése fue D. Ramón del Valle-Inclán, el otro gran manco de nuestra literatura.

“Aquel renacimiento de nuestros amores fue como una tarde otoñal de celajes dorados, amable y melancólica”.

En su Sonata de otoño (1902), Valle nos pinta el ocaso de una vida amada con un sentimiento jamás igualado en las letras españolas. Y lo hace desde el otoño de su Galicia natal, que para él era, ante todo, dorado.

Este otro pasaje es especialmente revelador:

“Yo también los evoqué un día lejano, cuando la mañana otoñal y dorada envolvía el jardín húmedo y reverdecido por la constante lluvia de la noche. Bajo el cielo límpido, de un azul heráldico, los cipreses venerables parecían tener el ensueño de la vida monástica”.

Sin reparos en describir la mañana como dorada y azul al mismo tiempo.

Y no solo Valle. Son incontables los grandes literatos (¡y pintores!) que han soñado un otoño entre rayos dorados. Desde Octavio Paz hasta Juan Ramón Jiménez. Pero, ¿por qué contradicen a la física? Quizá el poeta moguereño nos de una pista:

“Esparce octubre, al blando movimiento del sur, las hojas áureas y las rojas…”.

¿Es posible que imaginemos el otoño en tonos dorados solo porque es el color característico de las hojas en esta estación? ¿Existe algo en nosotros que acertada o equivocadamente asocie un color a otras sensaciones o viceversa?

Fuego rojo, fuego azul y una misteriosa hipótesis

Si nos hubieran preguntado por el color del fuego o de las cosas muy calientes, la respuesta habría sido más fácil: rojo. Todo el mundo asocia el rojo al calor. Hasta llegar el rojo vivo, expresión de algo extremadamente caliente. ¿Y de qué color son las cosas muy frías? Blancas o azuladas, por supuesto.

Pero la física, que es una aguafiestas, vuelve a la carga con una pregunta burlona: si la llama del soplete es azulada y la de una cerilla, roja, ¿cuál está más caliente? Independientemente de lo que estemos quemando, que influye mucho en el color, si observamos una llama es frecuente que su interior (más caliente) sea azulado y su exterior (más frío), rojo.

El color de las estrellas

También las estrellas azules son más calientes que las rojas. Este hecho lo explica la “curva de emisión del cuerpo negro”, que durante décadas trajo de cabeza a los físicos y desembocó en el desarrollo de la mecánica cuántica. Vamos, que si algún color debe asignarse a las temperaturas, es el azul a las altas y el rojo a las bajas. Y esto es incontestable.

Entonces, ¿por qué asociamos el último a lo caliente? La respuesta es breve: lo hacemos y punto. La llamada “hipótesis del tono-calor” se estableció hace más de un siglo, pero no está claro por qué nuestro cerebro contradice a la física.

El ser humano ha evolucionado durante cientos de milenios junto a fuegos de combustibles vegetales, rojos y poco calientes. ¿Es posible que haya quedado grabado en lo más profundo de nuestro ser que lo caliente es rojo? Yo creo que sí, pero no está demostrado. Como también es posible que las hojas doradas que tapizan árboles y suelos en otoño nos hagan concebir esta estación de ese color.

Literatura y arte dicen que la luz del otoño es dorada sin que la física esté totalmente conforme. Cabe pensar que se trate de una asociación mental atávica. ¿Será aceptable para ganar el millón?

The Conversation

Antonio Manuel Peña García no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El engaño de la luz dorada del otoño, bajo la mirada de la física – https://theconversation.com/el-engano-de-la-luz-dorada-del-otono-bajo-la-mirada-de-la-fisica-264439

50 años de las últimas ejecuciones del franquismo: ¿por qué fue “inútil” la sangre derramada?

Source: The Conversation – (in Spanish) – By Gaizka Fernández Soldevilla, Responsable del Área de Archivo, Investigación y Documentación, Centro Memorial para las Víctimas del Terrorismo

Acampada ante el consulado español en Ámsterdam el 2 de septiembre de 1975 en protesta por el consejo de guerra contra José Antonio Garmendia Artola y Angel Otaegi, integrantes de ETA. Mientras que al primero se le conmutó la condena de muerte, Otaegi fue fusilado el 27 de septiembre de ese mismo año. Fotograaf Onbekend/Anefo/Wikimedia Commons, CC BY

El 27 de septiembre de 1975, hace 50 años, la dictadura llevó a cabo sus cinco últimas ejecuciones, también las últimas de la historia de España. En Madrid fueron fusilados tres miembros del FRAP (Frente Revolucionario Antifascista y Patriota): José Humberto Baena, José Luis Sánchez Bravo y Ramón García Sanz. En Burgos y Barcelona, dos integrantes de ETApm (ETA político-militar): Ángel Otaegi Etxeberria y Juan Paredes Manot o Manotas (Txiki).

Habían sido condenados a muerte por el asesinato de los agentes de la Policía Armada Lucio Rodríguez Martín y Ovidio Díaz López y de los guardias civiles Gregorio Posada Zurrón y Antonio Pose Rodríguez.

68 víctimas mortales entre 1968 y 1975

A finales de la década de los sesenta, organizaciones de extrema izquierda, ultraderecha y nacionalistas radicales habían comenzado a cometer atentados en todo el planeta. En España, ese ciclo de violencia coincidió con la etapa final del régimen. Entre 1968 y 1975 bandas terroristas como ETA, el FRAP y los GRAPO (Grupos de Resistencia Antifascista Primero de Octubre) causaron 68 víctimas mortales.

La mayoría llevaban la firma de ETA, que había apostado por la estrategia de acción-reacción-acción: cometer atentados para provocar una represión salvaje hasta que estallara una “guerra revolucionaria”. En efecto, la dictadura respondió con leyes, estados de excepción, detenciones masivas, malos tratos y torturas.

Ahora bien, la espiral de acción-reacción no llegó hasta sus últimas consecuencias. La represión era un pilar fundamental del régimen y jamás desapareció, pero se había ido aminorando con el tiempo. Fue importante el papel de Tomás Garicano Goñi, ministro de Gobernación entre 1969 y 1973, quien intentó modernizar las Fuerzas de Orden Público (FOP) para minimizar su faceta más brutal, aunque sus efectos no se vieron a corto plazo.

Indultos pragmáticos

A pesar de que los tribunales siguieron dictando sentencias de muerte desde septiembre de 1963 hasta febrero de 1974, todos los condenados por delitos de sangre con connotaciones políticas fueron indultados por el Gobierno franquista. Ese perdón, más que a consideraciones morales, respondía a dos motivos pragmáticos. El primero, sortear un obstáculo al acercamiento del régimen a Europa occidental. Y el segundo, en palabras del vicepresidente (1967-1973) y luego presidente (1973) Luis Carrero Blanco, no caer en la “trampa” de los terroristas: “hacer mártires”.

En 1973 hubo un punto de inflexión. A consecuencia del creciente malestar de las FOP y de las presiones de la ultraderecha, que lo acusaba de ser un blando, Garicano se vio obligado a dimitir en junio. Y el 20 de diciembre ETA mató a Carrero Blanco, a su escolta y a su chofer.

El nuevo presidente, Carlos Arias Navarro, anunció un proyecto de “democratización del régimen” conocido como “Espíritu del 12 de febrero”. Cosechó el apoyo del sector aperturista del franquismo, pero también el rechazo tanto de la oposición antifranquista como de la extrema derecha. En cualquier caso, a consecuencia del miedo al contagio de la Revolución de los Claveles portuguesa, a la conflictividad laboral, estudiantil y vecinal, así como a las presiones internas, solo logró cambios legislativos menores.

Ejecución de Puig Antich

Pese a su supuesto reformismo, el Gobierno respondió al aumento de la “subversión” con mano dura. Así confirmó la pena máxima impuesta a Salvador Puig Antich, integrante del MIL (Movimiento Ibérico de Liberación), que había matado al subinspector Francisco Anguas Barragán. Fue ejecutado mediante garrote vil el 2 de marzo de 1974. Ese mismo día fue ajusticiado un hombre que había asesinado a un guardia civil.

La ejecución de Puig Antich no originó una gran campaña de protesta, por lo que se dedujo que el coste de la medida era asumible. Sin embargo, no sirvió para detener la ofensiva terrorista.

Tampoco fue suficiente como para aplacar a la ultraderecha, que rompió públicamente con el Gobierno tras el atentado indiscriminado de ETA en la cafetería Rolando, perpetrado el 13 de septiembre de 1974. En esta acción terrorista murieron 13 personas y unas 70 resultaron heridas.

En octubre, el sector más liberal abandonó el Gobierno Arias, con lo que el proyecto “democratizador” desapareció. No obstante, su salida fue insuficiente para los inmovilistas, que siguieron a la contra. El presidente conservaba el respaldo de Franco, que era el más importante, pero su posición era cada vez más débil. Necesitaba un golpe de efecto.

Durante 1975, los terroristas causaron un total de 33 víctimas mortales. El 25 de abril de ese año, el Gobierno decretó el estado de excepción en Vizcaya y Guipúzcoa para potenciar la actuación policial contra ETA. En una de las publicaciones de la banda se podía leer: “La acción de [el pueblo de] Euskadi ha sido clave en el proceso que ha llevado al Régimen del Espíritu del 12 de febrero a las mayores brutalidades de signo ultra”.

En agosto y septiembre se celebraron cuatro consejos de guerra (dos ordinarios y dos sumarísimos). Se ajustaron a la legislación vigente en aquel momento, pero estamos hablando de una dictadura: no contaban con las garantías exigibles en un Estado de derecho, por lo que no pueden ser considerados juicios justos desde la perspectiva actual.

Con todo, no debemos olvidar que los procesados eran miembros activos de organizaciones terroristas. Había algunos indicios sobre su responsabilidad en los cargos que se les imputaban. Por ejemplo, Txiki fue reconocido por seis testigos. Uno de ellos aseguró que “la cara del asaltante que le encañonó no la olvidaría en mucho tiempo”.

A la postre se condenó a la pena capital a ocho miembros del FRAP y a tres de ETApm por su participación en el asesinato de cuatro funcionarios.

Presión internacional sin efecto

Ni las movilizaciones en España, ni las presiones internacionales de entidades como la ONU, la Comunidad Europea y el Vaticano, influyeron en el ánimo de Arias Navarro. Tampoco las voces críticas que, dentro del propio régimen, recomendaron clemencia. El 26 de septiembre de 1975 el Gobierno conmutó seis de las sentencias de muerte, pero dio el “enterado” a las cinco restantes. Los fusilamientos se produjeron al día siguiente.

La imagen de prosperidad, normalidad institucional y modernidad occidental que el régimen había pretendido proyectar al mundo se evaporó. Era evidente que fue una dictadura hasta el final.

Las ejecuciones no neutralizaron el terrorismo: la semana después se produjeron 9 asesinatos. Tampoco sirvieron para traer de vuelta al redil a la ultraderecha, ni para fortalecer la posición de Arias Navarro, ni para dar un balón de oxígeno a la moribunda dictadura, que no sobreviviría al fallecimiento de Franco el 20 de noviembre. En palabras del abogado Marc Palmés Giró, se trató de “sangre inútil”.

También fue inútil la sangre derramada por los terroristas, que no consiguieron sustituir una dictadura por otra. Causaron casi 500 víctimas mortales entre 1976 y 1982. A pesar de la violencia de uno u otro signo, la transición democrática saldría adelante.

The Conversation

Gaizka Fernández Soldevilla no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. 50 años de las últimas ejecuciones del franquismo: ¿por qué fue “inútil” la sangre derramada? – https://theconversation.com/50-anos-de-las-ultimas-ejecuciones-del-franquismo-por-que-fue-inutil-la-sangre-derramada-264648

Propuestas honestas para crecer mejor: ciclo ConCiencia2 por el Clima en Asturias

Source: The Conversation – (in Spanish) – By Lorena Sánchez, Responsable de Eventos. Editora de Ciencia y Tecnología, The Conversation

leolintang/Shutterstock

No crecimos bien. Nuestra especie se subió al brillante tren del desarrollo y se estiró, y volvió a estirarse, sin atender a que el crecimiento descontrolado deforma el esqueleto de los niños.

A comienzos del siglo XX, Fritz Haber revolucionó la forma de extraer nitrógeno de la atmósfera para producir amoníaco, vital para los fertilizantes agrícolas. Temió que su invento alterara tanto el crecimiento de las plantas que terminarían por cubrir la faz de la Tierra, sofocando a los demás seres vivos bajo ese Verdor terrible que da título a la impactante obra del escritor chileno Benjamín Labatut.

Al final, los que nos fertilizamos fuimos nosotros. Y crecimos desigual: unos demasiado, otros nada.

Nos fumamos los combustibles fósiles de la Tierra y exhalamos toneladas de CO₂ que llenaron de peste negra los pulmones del planeta. La Tierra tose con carraspera de enfermo, y nos volvemos amarillos en las fotos que dejan las olas de calor, con temperaturas que han superado los 40º por primera vez en la historia en Asturias, uno de los lugares más bonitos del mundo.

El clima extremo del verano de 2025 nos pasará una abultada factura económica. Esta semana se ha publicado un informe de la Universidad de Mannheim, en colaboración con el Banco Central Europeo, que señala a España como uno de los países más afectados de Europa, con pérdidas estimadas de hasta 12 000 millones de euros a corto plazo y 34 000 millones hasta 2029. Mientras tanto, los seguros agrarios se multiplican, ante el aumento de danas, sequías, granizos e incendios forestales. Hasta que llegue el momento en que nadie asegure a nadie.

Pero aquí no termina la historia. Podemos conciliar el crecimiento con la fragilidad del mundo que habitamos. O tenemos que reinventarnos.

The Conversation y la Cátedra de Cambio Climático de la Universidad de Oviedo presentan la segunda edición de ConCiencia2 por el Clima, un ciclo de debates con participación ciudadana que sitúa la economía, el desarrollo y la transición energética en el centro de la conversación.

Con entrada libre hasta completar aforo, las sesiones se celebrarán en Gijón y Oviedo.

Primera sesión: Desarrollo, economía y estado del bienestar en el contexto del cambio global

Gijón. Martes 23 de septiembre a las 19:00 h en el Centro de Cultura Antiguo Instituto.

Participarán:

Fernando Valladares. Investigador del CSIC y uno de los principales referentes de la divulgación científica en España. Reconocido internacionalmente por su trayectoria en ecología y cambio climático.

Ángela García Alaminos. Doctora en Economía por la Universidad de Castilla-La Mancha, experta en sostenibilidad social y en el impacto de las grandes cadenas de valor.

Olga Martín García. Directora general de Aclima – Basque Environment Cluster. Con una sólida experiencia en proyectos de transición ecológica en empresas e instituciones del País Vasco.

Segunda sesión: Los retos de la transición energética

Oviedo. 9 de octubre a las 19.00h en el Palacio de los Condes de Toreno.

Participarán:

Antonio Turiel. Físico e investigador del CSIC, especializado en recursos energéticos y reconocido divulgador sobre la crisis energética global.

Pedro Linares. Catedrático de Organización Industrial de la Escuela Técnica Superior de Ingeniería ICAI, director de la Cátedra BP de Energía y Sostenibilidad, y cofundador y director de Economics for Energy.

Carmen Alonso García. Investigadora del CIEMAT, referente en el campo de la energía solar fotovoltaica, con una sólida trayectoria en innovación y desarrollo de nuevas tecnologías energéticas.

ConCiencia2 por el Clima es un foro abierto, con propuestas honestas, para abrirnos camino entre el verdor terrible con el que despertamos cada mañana.

Contamos con usted.

The Conversation

ref. Propuestas honestas para crecer mejor: ciclo ConCiencia2 por el Clima en Asturias – https://theconversation.com/propuestas-honestas-para-crecer-mejor-ciclo-conciencia2-por-el-clima-en-asturias-265610

Bioindicadores invisibles: lo que los animales microscópicos nos dicen del mar

Source: The Conversation – (in Spanish) – By Alberto González Casarrubios, Doctorando en Zoología, Universidad Complutense de Madrid

Para entender qué está afectando a un sistema, primero tenemos que observar y evaluar los elementos que lo conforman. Algo que se puede hacer, al menos, de dos maneras: registrando los parámetros ambientales u observando y entendiendo a los organismos que habitan allí.

Lo primero responde a la pregunta “¿qué hay en el ambiente?”; lo segundo, a “¿cómo está afectando?”. Es esta segunda aproximación la que constituye la base de la bioindicación, cuya idea es sencilla: los seres vivos interactúan con el mundo, y, por tanto, tienen la capacidad de decirnos algo sobre él. Saber escucharlos es, en parte, nuestra responsabilidad.

Los bioindicadores han sido herramientas clave para evaluar la salud de los ecosistemas desde principios del siglo XX. En la actualidad, los más empleados en la evaluación de los ambientes acuáticos son los macroinvertebrados, animales de un tamaño superior a 1 mm, apreciables a simple vista. No obstante, una comunidad mucho menos conocida podría ser decisiva para el futuro de la conservación marina: la meiofauna.

Estos organismos microscópicos, de menos de 1 milímetro, habitan los sedimentos de todos los mares y han sido históricamente ignorados por su diminuto tamaño. Sin embargo, la meiofauna incluye una enorme diversidad de formas de vida: desde nematodos y copépodos hasta tardígrados o kinorrincos. De hecho, 24 de los 34 grupos básicos en los que se agrupan todos los animales, los filos, tienen representantes en esta comunidad. Y es precisamente en esta diversidad y abundancia donde radica su importancia: podrían ofrecer una visión más fina y precisa del estado de los ecosistemas marinos, ayudándonos a mejorar la conservación y protección de nuestros océanos.

El mar y sus recursos

El mar ha jugado un papel fundamental en la historia de la humanidad, actuando como vía de comunicación, sustento de vida, escenario de conflictos y fuente de inspiración. Incluso a día de hoy, la gran mayoría de la población mundial vive a menos de 320 km del mar.

No obstante, en la actualidad, el mar se enfrenta a una serie de amenazas inminentes. La contaminación marina alcanza niveles extremos, la sobrepesca está acabando con especies que antes eran abundantes y el pH es aproximadamente un 30 % más ácido que en la época preindustrial.

Estos impactos amenazan la supervivencia de la vida marina, alteran las cadenas tróficas y dañan los servicios ecosistémicos que nos brinda el mar, indispensables para nuestras sociedades.




Leer más:
Proteger el 30 % de los océanos no es suficiente


Conservación marina y desarrollo sostenible

Pese a que las amenazas son serias, gracias a un mayor conocimiento de estos impactos y una creciente concienciación social, la conservación marina ha ganado relevancia a nivel global en los últimos años, especialmente en Europa.

Ejemplo de ello son iniciativas como la meta 30 x 30 (el compromiso global de proteger al menos el 30 % de las áreas terrestres y marinas del mundo para el año 2030 respaldado por la ONU), la promoción de la pesca sostenible o la creación de la Autoridad Internacional de los Fondos Marinos (ISA, por sus siglas en inglés) para salvaguardar los fondos marinos.

Además, uno de los Objetivos de Desarrollo Sostenible de la Agenda 2030, el ODS 14: Vida Submarina, subraya la importancia de la conservación marina.

Antes de estas metas globales, sin embargo, la comunidad científica ya había empezado a buscar indicadores que permitieran evaluar de manera objetiva el estado de los sistemas acuáticos. Primero se implementaron en agua dulce, ecosistemas muchos más estudiados que los marinos, y en el año 2000 se publicó el AZTI’s Marine Biotic Index (AMBI), un índice basado en macroinvertebrados marinos que permitía evaluar la salud de los ecosistemas costeros a partir de las especies que habitan en los sedimentos.

25 años después, el AMBI y sus variantes se utilizan actualmente en más de 70 países desde el Ártico hasta la Antártida y cuentan con el respaldo de instituciones como gobiernos europeos, la Agencia de Medio Ambiente de los Estados Unidos (EPA) o la World Wildlife Foundation (WWF).




Leer más:
Descubriendo los diminutos seres que habitan los fondos oceánicos


La meiofauna y su potencial bioindicador

Pese al éxito y la importancia del AMBI y sus variantes, este índice también presenta limitaciones debido al grupo de estudio. Los macroinvertebrados son animales relativamente grandes y resilientes, y, aunque han demostrado ser eficaces para identificar impactos, pueden huir de las zonas afectadas y, en ocasiones, no presentar una abundancia suficiente para poder aportar datos representativos, ofreciendo señales tardías.

La solución podría venir del grupo mencionado al inicio: la meiofauna. Igual que el zooplancton (protagonista invisible pero esencial de la vida marina) sostiene la cadena alimentaria en la columna de agua, la meiofauna cumple un papel similar en los fondos marinos, sirviendo de alimento a los niveles superiores y reincorporando a las redes tróficas la materia orgánica que acaba depositándose en el lecho marino. Así, esta comunidad extraordinariamente diversa, aunque prácticamente desconocida, podría representar el siguiente paso en los programas de monitoreo y conservación ambiental marinos.

Sus ventajas son claras: la meiofauna posee ciclos de vida mucho más rápidos que los de la macrofauna, detectando impactos de inmediato; además, los organismos tienen un tamaño diminuto y una abundancia y diversidad asombrosas, aumentando enormemente la resolución ecológica. Si pensamos en los animales como píxeles de imagen, por cada píxel de macrofauna puede haber decenas o incluso cientos de meiofauna: es como pasar de una imagen borrosa a una definición en 4K.

Sin embargo, pese a su reconocido potencial y la abundante bibliografía científica que lo respalda, la meiofauna no ha dado aún el salto a la implementación en planes de monitoreo y conservación. ¿Por qué? La principal razón es que, debido a su enorme diversidad y reducido tamaño, estos organismos son extremadamente difíciles de estudiar. Además, hay muy pocos taxónomos dispuestos a dedicar años a especializarse en ellos hasta alcanzar la capacidad de identificar a nivel de especie. Así, el principal obstáculo para que la meiofauna se convierta en un estándar de monitoreo es, actualmente, la falta de conocimiento.




Leer más:
Las claves del Tratado de los Océanos, un acuerdo histórico para proteger la biodiversidad marina


Protegiendo los océanos desde lo invisible

La protección de los océanos no puede limitarse a lo estético o lo útil. Proteger sólo a la gran fauna marina (como especies de interés comercial, tortugas o delfines) sin un estudio de los niveles tróficos inferiores equivaldría a gastar todo el presupuesto de mantenimiento de una catedral en las cúpulas y las pinturas. Sin unos cimientos sólidos y unos pilares firmes, esas bóvedas se pueden venir abajo.

En un momento tan crítico para la conservación marina, en el que cada acción y decisión cuentan mientras el tiempo corre en contra, se necesita comprender bien los océanos para poder protegerlos por completo. Y tal vez esta salvación no venga de las grandes criaturas que todos conocemos y admiramos, sino de aquellas invisibles a simple vista, pero imprescindibles para que todo lo demás siga en pie.

The Conversation

Alberto González Casarrubios dispone de un contrato predoctoral financiado por la Comunidad de Madrid (PIPF-2023).

Nuria Sánchez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Bioindicadores invisibles: lo que los animales microscópicos nos dicen del mar – https://theconversation.com/bioindicadores-invisibles-lo-que-los-animales-microscopicos-nos-dicen-del-mar-262313

La amenaza bélica deja a Europa rendida al miedo y sin capacidad para imaginar el futuro

Source: The Conversation – (in Spanish) – By Mónica Matellanes Lazo, PhD. Profesora Titular de Universidad en Comunicación y Publicidad. Departamento de Ciencias Sociales, Universidad Europea Miguel de Cervantes

Pancarta que acusa de promover la guerra a la presidenta de la Comisión Europea, Ursula von der Leyen, en una manifestación el pasado 20 de junio en Milán. pcruciatti/Shutterstock

En los últimos años, hemos asistido al regreso del lenguaje bélico al discurso político y mediático europeo. Palabras como “defensa”, “guerra”, “enemigo” o “frontera” han vuelto con fuerza a ocupar titulares, intervenciones institucionales y campañas públicas. Pero más allá de los conflictos armados, lo que este lenguaje revela –y a la vez produce– es un cambio más profundo: la instalación de un régimen emocional basado en el miedo como eje organizador de nuestras vidas.

Este fenómeno no es nuevo, pero ha cobrado una nueva dimensión en la era de la hiperconectividad, la pospandemia y la ansiedad climática. No vivimos únicamente rodeados de peligros, sino inmersos en una narrativa de amenaza permanente. Ese relato condiciona cómo entendemos el mundo y también cómo lo sentimos.

Tensiones geopolíticas

La sensación de temor que flota en el aire, aunque imprecisa, encuentra sus fuentes en varias tensiones geopolíticas que reconfiguran el espacio simbólico y estratégico de la Unión Europea en estos momentos.

Rusia sigue expandiendo su máquina de guerra: en 2024 el gasto en defensa representó un 9 % del PIB ruso, y para 2025 se anticipa que su presupuesto militar supere al total de los Estados miembros de la UE. Su despliegue nuclear en Bielorrusia y la clara intención de reconfigurar el orden post-guerra fría contribuyen a un clima de inseguridad.

Esta reorganización geopolítica empuja a Europa hacia una defensa más autónoma y multipolar: Francia, Alemania y Reino Unido asumen ahora papeles más activos, incluida la garantía nuclear, mientras se busca un liderazgo compartido entre países.

De esta forma, Ursula von der Leyen impulsa un ambicioso plan, denominado Rearmar Europa o Preparación 2030, con una inversión global de hasta 800 000 millones de euros en cuatro años. Este programa prevé fortalecer la industria de defensa, crear préstamos específicos para armamento y suspender temporalmente las restricciones fiscales para permitir un aumento del gasto militar.

Nuevas formas de comunicar

Bajo todas sus formas, la comunicación, ya sea periodismo, publicidad, campañas institucionales o redes sociales, no se limita a informar. Opera como una arquitectura simbólica que modela la realidad emocional de la ciudadanía. No es casual que muchas decisiones cotidianas –viajar, consumir, elegir, confiar– estén hoy atravesadas por una percepción de inseguridad constante. Incluso imaginar el futuro se ha convertido en un ejercicio de contención más que de proyección.

Lo interesante es que este miedo no siempre responde a peligros concretos o inmediatos. A menudo es difuso, generalizado, simbólico. La amenaza puede ser el otro, lo extranjero, lo nuevo, lo desconocido.

Así, el miedo se convierte en un recurso de control suave: no obliga, pero condiciona; no impone, pero sugiere; no reprime, pero disuade.

Consecuencias en el consumo de la población

Uno de los ámbitos donde esto se observa con claridad es el del consumo. Las marcas han entendido hace tiempo que las emociones son más persuasivas que los argumentos racionales. En un clima de incertidumbre, venden promesas de protección: hogares más seguros, alimentos sin riesgos, servicios que anticipan cualquier contratiempo.

El marketing emocional ya no solo apela al deseo, sino al alivio, a la tranquilidad, a la sensación de control. Compramos, en muchos casos, no por placer, sino por contención.

Algo similar ocurre en la esfera política. Las campañas centradas en el orden y la seguridad proliferan, y suelen encontrar un terreno fértil en ciudadanías fatigadas por la incertidumbre. No es casual que discursos que prometen protección frente al caos tengan tanto éxito. En estos relatos, interpretados por la teoría de la puesta en seguridad (securization theory), el miedo no es un problema a resolver, sino una herramienta de cohesión. Se utiliza para legitimar políticas de vigilancia, justificar el cierre de fronteras o proponer el endurecimiento institucional. Consiste en aplicar estrategias de psicopolítica para controlar a la ciudadanía y aportar una sensación de seguridad y respuesta adecuada frente a los conflictos.

El papel de los medios de comunicación

La lógica de la espectacularización, la competencia por la atención y la búsqueda de impacto emocional llevan a una cobertura noticiosa que privilegia lo dramático, lo urgente, lo catastrófico. Esto no significa que se mienta, pero sí que se seleccionan y enmarcan los hechos de forma que refuercen una sensación de amenaza constante.

Se crea una atmósfera informativa donde lo extraordinario se vuelve cotidiano y lo inseguro norma. Así lo señalan estudios como los de George Gerbner, cuyas teorías sobre la realidad cultivada muestran cómo el consumo de medios modifica la percepción del riesgo.

No se trata de negar que vivimos tiempos complejos. Los conflictos internacionales, la crisis climática y las tensiones sociales son reales. El punto está en cómo se representan y qué efectos tienen esas representaciones en nuestra manera de habitar el mundo. Porque si solo se apela al miedo, si solo se estimula la respuesta defensiva, se corre el riesgo de empobrecer el repertorio emocional colectivo. De vivir con el deseo encapsulado, la empatía limitada y la imaginación bloqueada.

Urge pensar alternativas narrativas. La comunicación tiene un enorme poder performativo: puede reforzar el miedo, pero también puede ampliar horizontes. Puede diseñar atmósferas de repliegue, pero también inspirar vínculos, cuidado mutuo, esperanza crítica. No se trata de caer en discursos ingenuos o motivacionales, sino de generar relatos que complejicen, que contextualicen, que activen el pensamiento y devuelvan al ciudadano alguna luz de esperanza.

Es lo propone la UNESCO a través del enfoque de ciertas narrativas de esperanza. Esta estrategia convierte a la comunicación en la herramienta que permite habilitar el espacio donde imaginar futuros posibles.

Libertad emocional

En última instancia, deberíamos preguntarnos si estamos informando para cuidar o para domesticar. Si la apelación constante a la amenaza, aunque se transmita de forma involuntaria, no está desactivando nuestra capacidad de vivir con libertad emocional. Porque una sociedad dominada por el miedo es también una sociedad menos democrática, menos creativa y menos viva.

No se trata de eliminar el miedo, que es una emoción legítima, sino de evitar que se convierta en el único filtro con el que miramos la realidad. Recuperar la posibilidad de imaginar otras realidades, otras formas de vincularnos, otras maneras de habitar el mundo, es hoy una tarea tan urgente como política. En este contexto, la comunicación no es una herramienta neutra, sino un campo de disputa clave para influenciar y crear determinadas percepciones sobre los públicos.

The Conversation

Mónica Matellanes Lazo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La amenaza bélica deja a Europa rendida al miedo y sin capacidad para imaginar el futuro – https://theconversation.com/la-amenaza-belica-deja-a-europa-rendida-al-miedo-y-sin-capacidad-para-imaginar-el-futuro-262784

¿Y si usamos las pantallas para estar más cerca de la naturaleza?

Source: The Conversation – (in Spanish) – By María Teresa Silva Fernández, Personal Docente e Investigador en Formación en el área de Teoría e Historia de la Educación, Universidad de Salamanca

Zulfiska/Shutterstock

Desde hace algunos años, los niños y niñas pasan cada vez más tiempo en casa o en espacios cerrados, mirando a una pantalla, y menos en la calle y en espacios naturales. Esta pérdida de contacto con el entorno natural tiene consecuencias en su desarrollo.

Entre las muchas preocupaciones que suscita este aumento del uso de pantallas (sedentarismo, aislamiento, sobreexposición e, incluso, adicción), también tenemos que tener en cuenta las cosas que niños y adolescentes dejan de hacer cuando los algoritmos se “comen” su tiempo. Una de esas actividades es estar al aire libre, y las consecuencias van más allá de un aumento de los casos de sobrepeso infantil.

Nuestro proyecto de investigación estudia cómo impacta en el desarrollo de las identidades infantiles el superávit de tecnología y el déficit de naturaleza. Hemos escuchado, además, a los propios niños y niñas.

Una visión reducida de la tecnología

Algunos resultados muestran que existe una relación condicionante entre la preferencia por las pantallas y una mayor distancia con la naturaleza. No nos referimos solo a una pérdida de presencia en el entorno natural, sino a la pérdida de conexión afectiva y simbólica con ella.

Dibujo infantil de una videoconsola.
Dibujo infantil como respuesta a la pregunta ‘¿Qué es para ti la tecnología?’ en el estudio pictórico del proyecto NATEC-ID.
Imagen proporcionada por los autores del estudio.

En un reciente estudio pictórico (una investigación cualitativa basada en los dibujos de los sujetos investigados), hemos pedido a 2 586 niños y niñas de entre 9 y 12 años de edad que representaran en un dibujo libre qué es para ellos y ellas la tecnología. Su visión a menudo tiene que ver con smartphones o videoconsolas, en lugar de reconocer el universo digital infinito al que accedemos desde esas pantallas.

Esto supone uno de los puntos clave para la transformación de uso. Se trata de que los niños consigan tener una visión real de las posibilidades digitales que permita a la infancia acercarse al entorno digital como lo que realmente es: el nuevo parque del siglo XXI.

¿Por qué les gustan tanto?

Para poder transformar el sentido de las pantallas en las vidas de nuestras niñas, niños y adolescentes, es necesario entenderla. ¿Qué hacen con las pantallas? ¿Por qué les gustan tanto? El secreto no es otro que su capacidad ilimitada de posibilidades, su carácter estimulante y la recompensa inmediata que ofrecen.

A medida que crecen, se consolidan los hábitos de uso de las pantallas y el tipo de actividades que realizan. Los niños y las niñas de entre 9 y 12 años utilizan las pantallas con objetivos lúdicos y didácticos, pero sus principales actividades cotidianas se realizan al margen de las pantallas.

En cambio, los adolescentes, además de aumentar la frecuencia de uso, centran sus actividades en la comunicación permanente con sus iguales a través de diferentes redes sociales.




Leer más:
Efectos de las pantallas en niños pequeños: la importancia de lo que ven y cómo lo ven


Hemos podido comprobar que las prohibiciones por parte de las familias o los centros escolares frente a las dinámicas y tiempos de uso tiene poco efecto. Los adultos necesitamos estar disponibles y presentes en el empleo de las pantallas: conversar, observar, preguntar y establecer límites claros. También proponer alternativas y servir de ejemplo desde el uso que nosotros y nosotras hacemos de los dispositivos.

Al conocer los motivos por los que los más jóvenes se sienten atraídos por las pantallas, podemos imaginar alternativas. De esta manera, la pregunta pasaría a ser: ¿es posible una tecnología que nos ayude a explorar el mundo de manera saludable?

Tecnología para estar en la calle

Sabemos que el uso de la tecnología en entornos naturales es un elemento clave para entender la relación de la infancia y la adolescencia con la naturaleza. Con este objetivo de transformación y equilibrio, hemos codiseñado con informáticos y los propios menores una app móvil llamada NaturKingdom, pensada para acercarles a su entorno natural.

Dos niños utilizando la app desarrollada por el proyecto NATURTEC-kids Living Lab.
María Teresa Silva Fernández.

El funcionamiento de esta aplicación, ahora mismo en fase beta (es decir, en fase de pruebas), invierte el sentido de uso de las pantallas. Para poder jugar, los jóvenes deben situarse físicamente en los parques de la ciudad de Salamanca. Además, deben interactuar con el entorno y con otras personas, mientras detectan la presencia de mascotas que deben incorporar al juego capturándolas desde el lugar que indique el mapa.




Leer más:
¿El móvil mató al juego al aire libre?


Una vez que tengan al menos una, deberán desplazarse hasta la arena de juego y enfrentarse a otros jugadores en batallas culturales basadas en preguntas relacionadas con el entorno. El ganador se quedará con la mascota de su contrincante e irá conquistando los parques de la ciudad.

Educar entre pantallas

Aceptar la presencia de las pantallas no significa depender de ellas ni rendirse ante su uso. Pero sí implica asumir que forman parte de la vida de la infancia y la adolescencia. Esto exige que nos hagamos cargo, de manera consciente, de cómo convertirlas en espacios seguros y saludables. Espacios a los que pertenecemos y en los que participamos como ciudadanos digitales.

Dos pantallas del videojuego diseñado para fomentar el contacto con la naturaleza.
María Teresa Silva Fernández.

Si el reto es transformar el sentido de las pantallas en la infancia y la adolescencia, necesitamos incluirlas en los procesos de desarrollo. Y confiar en que, con el apoyo y acompañamiento necesarios, las pantallas pueden convertirse en un entorno positivo, seguro y edificante en su desarrollo humano y en su educación.

The Conversation

María Teresa Silva Fernández recibe fondos del Ministerio de Ciencia e Innovación

José Manuel Muñoz Rodríguez recibe fondos de Ministerio de ciencia.

Ministerio de Ciencia e Innovación

ref. ¿Y si usamos las pantallas para estar más cerca de la naturaleza? – https://theconversation.com/y-si-usamos-las-pantallas-para-estar-mas-cerca-de-la-naturaleza-257147

Günther Anders, de visionario de la tecnología a ‘sembrador de pánico’

Source: The Conversation – (in Spanish) – By Florence Lojacono, Profesor Titular de Universidad, Universidad de Las Palmas de Gran Canaria

El grupo especial del ejército ucraniano “Alpha” junto a un dron empleado como arma en la guerra a principios de 2020. L. Nord, CC BY

El filósofo alemán Günther Anders (Günter Stern, 1902-1992) suele recordarse más como el primer marido de Hannah Arendt que como un pensador clave en nuestra forma de entender la tecnología.

Günther Stern y Hannah Arendt, 1929.
Wikimedia Commons.

Sin embargo, fue un filósofo y periodista independiente desde sus comienzos. Se exilió en Estados Unidos en 1936 y terminó su vida en Austria, convertido en una de las voces más firmes del movimiento antinuclear.

Era un pensador distinto: su pseudónimo, Anders, significa “otro” en alemán. Lo que hoy llamaríamos un autor disruptivo. En 1956, publicó La obsolescencia del hombre, una de las críticas más radicales a la tecnología moderna.

Un mundo de fantasmas

Por “tecnología moderna” debemos entender, en 2025, las tecnologías de la mediación. Son técnicas que nos sumergen en una realidad constantemente retocada, filtrada y cada vez más distante de la experiencia directa. A esa fabricación de lo real que sustituye lo vivido, Anders la llamó “fantasmas”.

Recordemos la película The Truman Show (1998). Truman vive en un mundo completamente artificial. Cada gesto, cada paisaje, cada amistad y cada amanecer han sido diseñados para retransmitirse en directo en un espectáculo planetario. La cinta no es solo una ficción distópica: a través de la exageración –un método que Anders reivindicaba como revelador de los peligros latentes–, ilustra cómo sería vivir rodeados de fantasmas.

Fotograma de la película El show de Truman.
Paramount Pictures., CC BY

Antes que el escritor, filósofo y cineasta Guy Debord (La sociedad del espectáculo, 1967) o el filósofo y sociólogo Jean Baudrillard (La sociedad de consumo, 1970), Anders advirtió que la experiencia directa del mundo estaba siendo sustituida por su puesta en escena. Más recientemente, la filósofa Virginia Ballesteros señaló que estas mediaciones no son meras herramientas, sino la condición misma de nuestro acceso al mundo.

Hoy la proliferación de fantasmas andersianos es más evidente que nunca. La inteligencia artificial generativa (herramientas como ChatGPT, Midjourney o Sora) produce textos, imágenes y vídeos indistinguibles de lo real. Los deepfakes reconfiguran la política, convirtiendo discursos y rostros en simulacros convincentes. Los avatares, los chatbots y la realidad aumentada disuelven al individuo singular en construcciones fabricadas para el consumo de masas.

La ilusión del “buen” y “mal” uso

Más disruptivo aun que el concepto de fantasma fue su crítica a la distinción entre “buen” y “mal” uso de la tecnología.

Distinguir entre ambos, en efecto, es una figura retórica llamada “disociación de noción”. Como todo recurso retórico, resulta persuasivo. Sin embargo, en nuestro caso, descansa en una ilusión: la de que la tecnología sea neutral. Nada más falso. Según defendía Anders, la amenaza no está en el uso que hagamos de ella, sino en su propia esencia. En pocas palabras: todo lo que una herramienta permite hacer, tarde o temprano se hará, sin detenerse en lo ético. No es nada tranquilizador, de ahí que se definiera como un “sembrador de pánico”.

La tecnología en cuestión no es la que sale de las fraguas de un herrero. Son tecnologías punteras que encierran la posibilidad de una destrucción masiva. Hiroshima y Auschwitz lo fueron. Por eso, Anders consideraba estéril la discusión sobre si un instrumento se usa “para bien” o “para mal”. En contraste, buena parte del discurso actual sobre inteligencia artificial –el de Yuval Noah Harari, por ejemplo– sigue anclado en esa distinción retórica. Para Anders era, más bien, un problema ético.

No sorprende, entonces, que se convirtiera en un activista antinuclear. También fue un precursor al advertir sobre los riesgos que la expansión tecnológica suponía para la ecología. Si un artefacto tiene el potencial de matar a millones de personas, terminará siendo utilizado con ese fin. Y si puede desequilibrar el ecosistema del planeta, lo hará. A eso lo llamó “globocidio”… hoy hablamos de ecocidio.

Un pensador más actual que nunca

La tecnología, por su propia lógica, acaba siempre por desplegar todas las posibilidades que encierra. Su crítica no se limitaba a señalar riesgos. Se atrevía a cuestionar el corazón mismo de la idea de progreso.

Cuidado, sin embargo, con tacharlo de tecnófobo. El filósofo francés Michel Onfray lo expresó con claridad: la crítica de Anders no apunta contra el progreso en sí, sino contra su sacralización como religión industrial.

Releer a Anders no es arqueología filosófica, sino una urgencia. Su crítica de los fantasmas y su rechazo de la neutralidad tecnológica iluminan hoy los debates sobre inteligencia artificial, biotecnología y digitalización. Al hacerlo, ponen en duda certezas quizá demasiado cómodas.

Lejos de ser un ludita, Anders desenmascaró la fe ciega en el progreso y señaló sus zonas de sombra. En un tiempo marcado por la colonización digital de la vida, su voz resuena con una fuerza más necesaria que nunca.

The Conversation

Florence Lojacono no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Günther Anders, de visionario de la tecnología a ‘sembrador de pánico’ – https://theconversation.com/gunther-anders-de-visionario-de-la-tecnologia-a-sembrador-de-panico-264601

Así es el primer tratamiento contra el alzhéimer que se puede administrar en casa

Source: The Conversation – (in Spanish) – By Enrico Castroflorio, Neurocientífico especializado en función sináptica y lípidos, Universitat de les Illes Balears

Leqembi IQLIK actúa contra las placas de la proteína β-amiloide, cuya acumulación en el cerebro se asocia al alzhéimer. sfam_photo/Shutterstock

La Administración de Alimentos y Medicamentos de Estados Unidos (FDA) acaba de aprobar, por primera vez, un tratamiento contra el alzhéimer que puede administrarse de forma sencilla en casa. Se trata de Leqembi IQLIK, una versión subcutánea del lecanemab, un anticuerpo clave que funciona retrasando el deterioro cognitivo y funcional de la enfermedad.

Hasta ahora, los pacientes y sus familias tenían que organizarse para acudir al hospital cada dos semanas y recibir el tratamiento por vía intravenosa, un proceso largo y agotador. El nuevo fármaco, que se administra de manera simple y con ayuda de un dispositivo parecido a un bolígrafo de insulina, evita el desplazamiento.

Si bien la Agencia Europea del Medicamento (EMA) aprobó lecanemab en su versión intravenosa el pasado abril, todavía no se ha autorizado la formulación que se puede administrar en los domicilios, como sí ocurre ya en Estados Unidos. Así, aunque Europa fue pionera en dar luz verde al medicamento, el país norteamericano ha avanzado más rápido en ofrecer a los pacientes opciones más cómodas y accesibles.




Leer más:
¿Estamos más cerca de la detección precoz del alzhéimer?


Cómo funciona Leqembi: evidencia de los ensayos clínicos

El alzhéimer se relaciona con la acumulación en el cerebro de una proteína llamada β-amiloide, la cual forma pequeños cúmulos tóxicos (protofibrillas) y grandes placas capaces de alterar la comunicación entre neuronas.

En el cerebro, las células de defensa (la microglía) funcionan como un equipo de limpieza. El problema es que las acumulaciones de β-amiloide impiden reconocer bien la “basura” y, por tanto, no se elimina.

Leqembi reduce el almacenamiento de las placas, actuando como si encendiera una linterna y enfocara en esos desechos: señala tanto los cúmulos pequeños como las placas más grandes, de modo que la microglía pueda detectarlos y retirarlos. Así, el entorno neuronal queda más despejado y se consigue frenar el avance del deterioro cognitivo.




Leer más:
Análisis de sangre para predecir el alzhéimer: comienza una nueva era en la prevención


¿Qué implicaciones tiene esta terapia?

Leqembi no es una cura, pero en ensayos clínicos, como el CLARITY-AD, se ha visto que ralentiza en torno a un 27  % el deterioro cognitivo y funcional en pacientes con alzhéimer temprano. Es un efecto modesto pero con un gran impacto, ya que puede traducirse en más meses de autonomía y de calidad de vida.

Además, como ya hemos señalado, el avance no sólo se reduce al efecto del fármaco, sino también en su practicidad y comodidad: que un paciente pueda ponerse la inyección facilita seguir el tratamiento con regularidad, reduce el estrés de los cuidadores y ayuda a democratizar el acceso a la terapia.

El cambio también conlleva un aspecto muy simbólico. El alzhéimer ha sido durante décadas una enfermedad sin opciones terapéuticas de impacto. La aprobación de un formato práctico, casero, envía un mensaje esperanzador: el campo avanza y la biología del β-amiloide continúa siendo una diana relevante.

El discutido papel de las placas

No obstante, aunque la acumulación de amiloide es una de las señas de identidad del alzhéimer, su papel como causa principal sigue en debate. Durante años se diseñaron fármacos que eliminaban estas placas sin lograr mejorar la memoria ni frenar el deterioro cognitivo, lo que puso en duda la hipótesis.

Además, mientras algunos pacientes con placas no desarrollan demencia, en otros el amiloide convive con otros factores igualmente importantes, como la proteína tau, la inflamación o alteraciones en el metabolismo lipídico. Aun así, el hecho de que los tratamientos antiamiloide más recientes sí muestren beneficios clínicos devuelve protagonismo a esta diana y mantiene vivo el debate científico.




Leer más:
Un fármaco experimental ralentiza el deterioro del alzhéimer, pero quedan obstáculos por superar


Límites y precauciones

El mayor reto actual del alzhéimer es su diagnóstico temprano. Para estar completamente seguros de que una persona se encuentra en una fase inicial de la enfermedad (que en la mayoría de los casos transcurre sin síntomas evidentes) sería necesario analizar directamente el tejido cerebral, algo que requiere pruebas de imagen o la extracción del líquido cefalorraquídeo, no siempre disponibles.

El nuevo medicamento solo se recomienda en fases tempranas y en personas con diagnóstico confirmado de placas de amiloide. Además, al igual que otros anticuerpos de su tipo, puede causar efectos secundarios graves, como las llamadas anomalías detectadas en resonancias cerebrales (ARIA), hallazgos anormales en las imágenes del cerebro que señalan hinchazón o microhemorragias.

El precio también es en la actualidad una barrera importante: en Estados Unidos se ha fijado en unos 19 500 dolares (16 500 euros) anuales, lo que limita su alcance y plantea dudas sobre la cobertura en ciertas regiones del mundo, como en África, Asia, y América Latina, donde sus sistemas de salud públicos tienen recursos limitados.

Más allá del alzhéimer

El impacto de esta reciente aprobación trasciende la enfermedad, ya que además revela cómo un modelo basado en tratamientos biológicos complejos, caso de los anticuerpos, pueden adaptarse para su uso en casa.

Simplificar la administración de fármacos de larga duración no solo facilita la vida de pacientes y cuidadores, sino que también permite mantener los efectos de manera constante. Poder recibir la terapia en casa reduce viajes, estrés y largas esperas, al mismo tiempo que aumenta la probabilidad de que los pacientes sigan el tratamiento completo y durante más tiempo.

No se trata de una cura definitiva, pero sí es el camino hacia conseguir devolverle al cerebro parte de su equilibrio natural, creando un entorno más limpio y propicio para una correcta actividad neuronal.

Este avance nos recuerda, por otro lado, que todos los pasos en los avances clínicos cuentan: aunque no se erradique la enfermedad por completo, cada mejora en la administración, cada reducción en el deterioro cognitivo y cada día extra de autonomía representan un beneficio real para pacientes y familias.




Leer más:
Más allá del olvido: la ansiedad que sufren las personas con alzhéimer


En definitiva, Leqembi IQLIK no es el final del camino. No revierte la enfermedad ni detiene por completo su progresión. Su efecto es limitado y requiere de una vigilancia médica estricta. Pero, sin duda, inaugura una nueva era: tratamientos biológicos contra el alzhéimer que pueden aplicarse en casa, de manera sencilla, y que podrían combinarse en el futuro con otras estrategias dirigidas a la inflamación, los desórdenes del metabolismo o el cáncer.

The Conversation

Enrico Castroflorio no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así es el primer tratamiento contra el alzhéimer que se puede administrar en casa – https://theconversation.com/asi-es-el-primer-tratamiento-contra-el-alzheimer-que-se-puede-administrar-en-casa-265359

Avances en la vacuna contra el VIH: la tecnología de ARNm muestra un gran potencial

Source: The Conversation – (in Spanish) – By Isidoro Martínez González, Científico Titular de OPIs, Instituto de Salud Carlos III

Novikov Aleksey/Shutterstock

Cuatro décadas después de su descubrimiento, el VIH sigue siendo uno de los principales desafíos de salud pública a nivel mundial. Hasta la fecha ha causado la muerte de más de 44 millones de personas y su transmisión continúa en todos los rincones del planeta.

Se estima que, a finales de 2024, casi 41 millones de personas vivían con VIH. Ese mismo año, alrededor de 630 000 murieron por causas relacionadas con el virus y, aproximadamente, 1,3 millones se contagiaron.

El VIH es un retrovirus, lo que significa que puede integrar su material genético en el ADN de las células infectadas para esconderse del sistema inmunitario, lo que dificulta su erradicación del organismo.

Aunque aún no existe una cura, los tratamientos antirretrovirales actuales han transformado la historia de la infección por VIH. Gracias a ellos, hoy es una enfermedad crónica manejable para aquellos pacientes con acceso a los fármacos. Las personas infectadas pueden llevar una vida larga y relativamente saludable, aunque suelen enfrentarse a un envejecimiento prematuro en comparación con quienes no tienen el virus.

El gran reto: encontrar una vacuna

Durante décadas, lograr una vacuna eficaz contra el VIH ha representado uno de los mayores desafíos de la medicina moderna. ¿Por qué es tan difícil? Estos son algunos de los principales obstáculos:

  1. El virus ataca directamente al sistema inmunitario, debilitando las defensas necesarias tanto para combatir la infección como para responder a la vacunación.

  2. Tiene una alta capacidad de mutación (cambio), lo que complica el diseño de una vacuna universalmente efectiva.

  3. Demuestra una considerable habilidad para evadir a nuestras defensas, lo que reduce la eficacia de las respuestas inmunitarias inducidas.

  4. La principal proteína de superficie del VIH, denominada Env, es la responsable de la unión y entrada del virus en las células. Sería el objetivo ideal de una vacuna, ya que los anticuerpos neutralizantes que se producen tras la vacunación se unen a ella e impiden esa entrada. Sin embargo, es muy compleja y variable, lo que hace que sea un blanco increíblemente difícil de acertar.

  5. El VIH se integra en el genoma humano, lo que le permite permanecer oculto e inactivo durante largos períodos.

¿Una nueva era para las vacunas contra el VIH?

La misma tecnología de ARN mensajero (ARNm) que permitió el rápido desarrollo de las vacunas contra la covid-19 está siendo adaptada para combatir el VIH.

Dos estudios recientes, publicados en Science Translational Medicine, muestran resultados prometedores: vacunas experimentales basadas en ARNm lograron inducir anticuerpos neutralizantes, las defensas capaces de bloquear al virus antes de que infecte una célula, potentes y específicos en animales y humanos.

Esto representa un avance importante en la carrera por lograr una vacuna efectiva contra el VIH.

¿Cómo funciona?

Tradicionalmente las vacunas experimentales utilizaban trímeros solubles de la proteína Env. Sin embargo, este método dejaba expuesta una parte de la proteína (la base del trímero) que normalmente está oculta en el virus real. Esto podía inducir respuestas inmunitarias fuertes, pero mal dirigidas. Como resultado, no lograban neutralizar el virus.

Para resolver este problema los investigadores diseñaron una vacuna de ARNm que instruye a las células para producir la proteína Env unida a la membrana celular. Así se imita mejor su forma natural en el virus.

En un primer estudio, realizado en conejos y primates no humanos, esta versión de la vacuna generó respuestas de anticuerpos neutralizantes más fuertes que la versión soluble.

Resultados en humanos

A partir de estos resultados prometedores se inició un ensayo clínico de fase 1 en humanos para comparar ambas versiones de la vacuna. Se trató de un estudio con unos cien voluntarios en el que se analizó la seguridad del fármaco y la respuesta inmunitaria que generaba.

Los resultados mostraron una diferencia abismal: un 80 % de los participantes que recibieron la vacuna con Env anclada a la membrana de la célula generaron la codiciada respuesta de anticuerpos neutralizantes.

En cambio, solo el 4 % de a quienes se administró la versión soluble lograron esa respuesta.

Se trata de un ensayo clínico en fase 1, todavía preliminar. Por lo tanto, serán necesarios más estudios con más participantes para entender si la vacuna protege contra la infección y durante cuánto tiempo.

¿Y los efectos secundarios?

Las vacunas fueron, en general, bien toleradas. Sin embargo, el ensayo identificó un efecto secundario inesperado: aproximadamente el 6,5 % de los participantes desarrollaron urticaria (ronchas), y algunos experimentaron síntomas duraderos.

Aunque tratables, esta tasa fue más alta de lo observado con otras vacunas de ARNm, como las de la covid-19.

Curiosamente, otro conjunto de ensayos, que probaba una estrategia diferente de vacunación basada en la administración de ARNm en varios pasos, también reportó efectos secundarios en la piel. Esto sugiere que la combinación entre antígenos del VIH y la tecnología de ARNm podría estar relacionada, aunque esto aún requiere mayor investigación.

Conclusión: un paso firme hacia el futuro

Si bien estas vacunas aún no representan una solución definitiva, han demostrado que la combinación de la tecnología de ARNm con una estrategia más realista de presentación del antígeno (Env anclada a la membrana de la célula) es una herramienta poderosa en la búsqueda de una vacuna eficaz contra el VIH.

Los investigadores se muestran optimistas. Ajustes como la reducción de la dosis de ARNm podrían mitigar los efectos secundarios observados y mejorar aún más esta prometedora vía de investigación. Quizá en unos años la lucha contra el VIH cuente en su arsenal con la tan ansiada vacuna.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Avances en la vacuna contra el VIH: la tecnología de ARNm muestra un gran potencial – https://theconversation.com/avances-en-la-vacuna-contra-el-vih-la-tecnologia-de-arnm-muestra-un-gran-potencial-265204

¿Por qué se equivoca tanto el autocorrector?

Source: The Conversation – (in Spanish) – By Pedro Manuel Moreno-Marcos, Profesor Titular en el Departamento de Ingeniería Telemática de la Universidad Carlos III de Madrid, Universidad Carlos III

Hemos quedado a comer en un restaurante con una amiga. Cuando llegan los primeros platos, interrumpe la conversación para decir: “¿Me pasas la…?” mientras mira hacia un lugar concreto de la mesa. Seguramente no necesitemos más palabras ni gestos para entender que se refiere a la sal y se la pasemos.

Las personas no necesitamos que nuestro interlocutor termine su frase para saber qué es lo que quiere decir. Nuestro conocimiento de la estructura interna de la lengua nos permite anticipar qué palabra utilizará. Además, el contexto de la situación comunicativa nos da información sobre el contenido y las expresiones que dirá nuestro interlocutor.

El autocorrector del teclado del móvil intenta replicar este comportamiento humano a partir de técnicas estadísticas y de procesamiento del lenguaje natural (PLN). Con ello calcula la probabilidad de que una letra, palabra o secuencia aparezca en función de su frecuencia en grandes cantidades de texto utilizadas para entrenar el modelo.

Sobre esa base estadística, el PLN incorpora también el análisis de la estructura y el significado de las palabras, buscando patrones y relaciones entre ellas para generar correcciones más coherentes con el contexto.

¿Por qué, entonces, insiste en sustituir “jobar” por “Jonathan” (si no conozco a ningún Jonathan) o nos hace parecer un tanto excéntricos si afirmamos en un mensaje que hemos presentado una documentación vía “telepática” en lugar de “telemática”?

Combinando reglas y el uso individual

El sistema de procesamiento del lenguaje natural de los autocorrectores que usamos cotidianamente se basa en su diccionario interno, en las reglas sintácticas propias de la lengua y en el historial del usuario. El diccionario interno se construye inicialmente a partir de textos de entrenamiento procedentes de libros, artículos académicos y fuentes en línea, entre otros, que proporcionan un conocimiento general del idioma. A partir de ahí, el sistema combina este aprendizaje previo con reglas lingüísticas predefinidas y con la información que recolecta del historial del usuario. Como resultado, el sistema anticipa la cadena de texto más probable según lo aprendido.

En un principio, estas herramientas aparecieron para asistir a personas con discapacidades físicas, perceptivas o cognitivas en su uso del idioma a través de sistemas informáticos. No obstante, una vez integradas adecuadamente en la interfaz de las aplicaciones, pueden beneficiar a cualquier usuario mejorando la velocidad y el esfuerzo necesario para escribir.

Predecir cómo se escribe no es fácil

La aplicación del teclado del móvil maneja su propio diccionario de palabras y construcciones, en el que pueden no estar contempladas todas las opciones. A partir de la escritura del usuario y de la frecuencia con la que emplea ciertas expresiones, las predicciones se individualizan.

Aun así, sigue siendo un trabajo complejo para el sistema porque no basta con conocer todos los términos posibles. También debe decidir cuál es el más adecuado según el contexto y la intención del usuario. Por ejemplo, el sustantivo “casa” es completamente correcto y aceptado en el habla diaria. Sin embargo, en un proceso oficial o administrativo es más adecuado utilizar “vivienda”.




Leer más:
¿Puede la inteligencia artificial corregir errores ortográficos complejos?


Por qué las predicciones ‘fallan’

Puede imaginarse el diccionario del dispositivo como una estructura de árbol en la que ante una entrada de un bloque de texto se abren ciertas posibilidades con diversos grados de frecuencia que se va afinando a medida que la persona escribe. Dentro de las predicciones, algunas pueden estar motivadas por una programación específica del sistema, como evitar el uso de palabras malsonantes, y otra por el aprendizaje explícito, en el que el usuario agrega ciertas expresiones al propio diccionario del dispositivo. Por esta razón, el autocorrector no siempre coincide con lo que el usuario espera en cada momento.

Para optimizar el proceso de escritura, las aplicaciones tienen dos formas principales de incluir las sugerencias: ofrecer una lista de opciones en función de la probabilidad o introducir directamente el término en el texto. En el primer caso, el usuario tiene que analizar las alternativas de manera consciente. En el segundo, el discurso se construye de manera más rápida y orgánica, pero la persona debe eliminar activamente la sugerencia si no es la deseada.




Leer más:
¿Tratar a ChatGPT como a un cuñado sabelotodo o como a un becario aplicado?


Aunque en la mayoría de ocasiones el sistema encuentra la palabra requerida, hasta en un 94 % de las veces tendemos a recordar mucho más vívidamente aquellos momentos en los que comete un error grave. Además, según un estudio, solemos experimentar frustración cuando los mismos fallos se repiten de manera sistemática. Sin embargo, esto es normal: el aprendizaje del autocorrector no es inmediato, sino gradual, y funciona de manera probabilística, combinando lo que ya sabe de grandes textos con la información nueva que recoge del historial del usuario.

A pesar de ello, la mayoría de usuarios, tanto de iOS como de Android, afirma que los autocorrectores integrados en el teclado mejoran su eficiencia escribiendo y ayudan a reducir errores. Además, un uso continuado de las herramientas mejora progresivamente su efectividad al ofrecer una experiencia más personalizada.

La competencia léxica es solo humana

Ahora bien, no hemos de olvidar que el diccionario del autocorrector es un almacén de palabras, cuyo funcionamiento se aleja del lexicón mental del usuario humano. Dicho lexicón se construye a partir del establecimiento de redes entre las diferentes unidades léxicas en función de distintos tipos de relaciones (familias léxicas, campos semánticos, cognados, etc.). El autocorrector, por su parte, cuenta con una gran disponibilidad léxica, pero no domina los aspectos relacionados con la forma, el significado y el uso de cada unidad léxica, es decir, carece de la competencia léxica y comunicativa que poseen los hablantes.

A pesar de estas limitaciones, se están desarrollando propuestas que demuestran que es posible mejorar la corrección contextual, como la de PALABRIA-CM-UC3M, que se centra en el fenómeno lingüístico del impersonal. Mediante técnicas lingüísticas y modelos de inteligencia artificial que aprenden los patrones y contextos de este fenómeno, el sistema puede identificar y corregir errores que un autocorrector convencional no detectaría.

Aunque pueden continuar aprendiendo nuevos patrones y ampliando su conocimiento para ofrecer correcciones cada vez más acertadas, los autocorrectores no dejan de ser modelos matemáticos que operan a partir de patrones y reglas aprendidas, sin alcanzar la comprensión profunda, flexible y contextual que caracteriza al uso humano de la lengua. Nunca serán infalibles. Ni siquiera lo somos nosotros: a menudo, como en el ejemplo del principio, nuestras predicciones pueden resultar erróneas, y le pasamos la sal a alguien que en realidad quería la jarra de agua.

The Conversation

Pedro Manuel Moreno-Marcos recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

Marina Serrano-Marín recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

Natalia Centeno Alejandre recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

Rafael Fernández Castillejos recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

ref. ¿Por qué se equivoca tanto el autocorrector? – https://theconversation.com/por-que-se-equivoca-tanto-el-autocorrector-264399