Mario Vargas Llosa y Carmen Martín Gaite: el premio literario que revolucionó la literatura en español

Source: The Conversation – (in Spanish) – By Alicia Nila Martínez Díaz, Profesor Acreditado Contratado Doctor Filología Hispánica, Universidad Villanueva

Branko Devic/Shutterstock/Librería Nobel/Wallapop

En 1962, Mario Vargas Llosa ganó el Premio Biblioteca Breve con La ciudad y los perros. Carmen Martín Gaite, con su novela Ritmo lento, quedó finalista.

En 2025, cuando conmemoramos el centenario de la escritora salmantina y tenemos reciente la muerte del Premio Nobel, nos detenemos en este instante clave de la historia de la literatura hispánica en el siglo XX para intentar entender cómo se construyó el canon de la novela española contemporánea.

Un nuevo galardón

Carlos Barral creaba en 1958 el Premio Biblioteca Breve. El poeta y editor decidió instaurar este galardón para potenciar el enfoque innovador, experimental y transgresor del catálogo de la editorial.

Como él mismo explicó, el premio se otorgaría a una novela que “debía contarse entre las que delatan una auténtica vocación renovadora o entre las que se presumen adscritas a la problemática literaria y humana estrictamente de nuestro tiempo”.

Esta apuesta modernizadora implicaba no pocos riesgos que Barral supo afrontar con el coraje y el pragmatismo necesarios para conseguir posicionar al galardón como uno de los más relevantes de la literatura en lengua española.

Sin saberlo, estaba contribuyendo al desarrollo del denominado boom latinoamericano.

La novela rompedora

Imagen de un hombre hablando.
Mario Vargas Llosa en 1988.
Universitätsarchiv St.Gallen / Regina Kühne, CC BY-SA

Cuatro años más tarde, un joven y desconocido escritor peruano se hizo con el premio. Se llamaba Mario Vargas Llosa. Aunque no tenía a sus espaldas más que unos cuantos ensayos y algún que otro ejercicio de crítica literaria, su novela, breve y corrosiva con la tradición, no podía maridar más y mejor con los presupuestos del premio Biblioteca Breve. La ciudad y los perros era un artefacto literario ambicioso y agresivo, estructurado sobre el desafío del fragmento y marcado a fuego por la denuncia de la violencia institucional.

Premiando este relato, Barral perseguía la publicación de una nueva narrativa hispánica, emisaria de los vientos renovadores que soplaban desde América Latina y que entraba sin miedos ni complejos en dialéctica con las vanguardias europea y norteamericana. Laurear a Vargas Llosa significaba apostar por ese boom que ya alboreaba.

La cuestión es ¿por qué se otorgó el segundo puesto a Ritmo Lento? ¿Qué lugar quedaba para una novela diametralmente opuesta al relato ganador?

Dos formas de sacudir la literatura

La ciudad y los perros y Ritmo lento no pueden ser novelas más distintas. La primera está ambientada en un colegio militar de Lima y, gracias a una estructura narrativa fragmentaria, el relato despliega ante el lector una constelación de voces que articulan una feroz crítica a las instituciones autoritarias. Por la profundidad psicológica de sus personajes, por su violencia real y simbólica y por su voluntad de ruptura formal, heredada de su maestro William Faulkner, Vargas Llosa llegaba para plantearnos una historia dura y valiente contada de una forma distinta.

Una mujer con abrigo y boina mira a la cámara.
Carmen Martín Gaite en la presentación del libro La orgía perpetua, de Mario Vargas Llosa, en 1995, en Casa de América.
Casa de América/Flickr, CC BY-NC-ND

Por el contrario, Carmen Martín Gaite se adentraba con Ritmo lento en la conciencia de un anciano que, desde la reclusión de un psiquiátrico, hacía balance de su existencia. La novela utiliza la introspección como motor narrativo para proponer al lector una narración focalizada en el tiempo interno del personaje, en la estela de Virginia Woolf en La señora Dalloway –de la que Martín Gaite sería, por cierto, traductora al español– o Italo Svevo en La conciencia de Zeno.

Focalizada en la subjetividad, el monólogo interior y la atención por el detalle, la novela de Martín Gaite no parecía encajar, a priori, en los estándares marcados por Barral. Sin embargo, era una provocación para el establishment literario de la época y, quizás por ello –debió pensar Barral– merecía quedar finalista.

Porque el de Martín Gaite era también un texto escrito para subvertir, desafiar y turbar. De hecho, ella y su amigo Luis Martín Santos fueron los primeros escritores españoles en disputarle la supremacía al realismo imperante de la narrativa española de posguerra. Tiempo de silencio y Ritmo Lento constituyen “dos intentos aislados por volver a centrar el relato en el análisis psicológico de un personaje”, como la escritora escribió en su “nota” a la tercera edición de la novela. Leída desde hoy, Ritmo Lento representa una apuesta igual de bizarra que la de Vargas Llosa, pero menos sobresaliente.

El jurado premió la potencia narrativa de la obra del peruano. Pero otorgando a Martín Gaite ese segundo lugar lo que estaba poniendo sobre el tapete de la historia literaria no era solamente una elección estética, sino dos formas de estar y de pensar en la literatura.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Rescatar el instante

Volver la vista al palmarés del Biblioteca Breve de 1962 no es un ejercicio de arqueología literaria. Es también la interpretación de un momento literario que marcaría los destinos de la literatura hispánica contemporánea.

Para Vargas Llosa constituyó el pistoletazo de salida para una carrera que le conduciría al Nobel. Para Martín Gaite, en cambio, fue el espaldarazo necesario para continuar escribiendo desde los márgenes y con una fidelidad inquebrantable hacia lo narrado en voz baja.

Ahora podemos interpretar ese momento como una intersección en las trayectorias de dos grandes de la narrativa hispánica. O, lo que es lo mismo, dos modos simbólicos de entender la literatura.

The Conversation

Alicia Nila Martínez Díaz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Mario Vargas Llosa y Carmen Martín Gaite: el premio literario que revolucionó la literatura en español – https://theconversation.com/mario-vargas-llosa-y-carmen-martin-gaite-el-premio-literario-que-revoluciono-la-literatura-en-espanol-260871

“Yo no bebo mucho, bebo lo normal”

Source: The Conversation – (in Spanish) – By Lorena Botella-Juan, Investigadora posdoctoral en el Área de Medicina Preventiva y Salud Pública, Universidad de León

View Apart/Shutterstock

Es muy posible que el título de este artículo le sea familiar. Quizá alguna vez haya estado en una conversación con personas de su entorno y al sacar a relucir el tema del alcohol usted o un conocido ha dicho algo como: “Bueno, a ver, que yo tampoco bebo mucho, bebo lo normal”. O puede que algo del tipo: “Yo, si eso, me bebo unas cañas el fin de semana con los colegas. Y si se lía la cosa, pues igual algo más. Es lo normal, ¿no?”.

Pero realmente, ¿puede ser normal beber alcohol, considerando que se trata de una sustancia adictiva? Según la Real Academia de la Lengua Española, una de las acepciones de “normal” es: “Dicho de una cosa que, por su naturaleza, forma o magnitud, se ajusta a ciertas normas fijadas de antemano”. Si consideramos las normas sociales de España, donde el alcohol es una droga legal y donde el 72,9 % de la población de más de 15 años lo ha probado alguna vez; y teniendo en cuenta que uno de los principales motivos para consumir es socializar, pues entonces sí: beber unas cañas el fin de semana es totalmente normal.

Lo que dice la estadística

Pero si nos ponemos rigurosos, debemos recurrir a algo más científico. Tomándome algunas licencias, voy a emplear un concepto estadístico que nos encanta a los epidemiólogos: la distribución normal.

La distribución normal se representa con una curva en forma de campana simétrica y la suelen describir muchas características físicas (peso, altura) y biomédicas (tensión arterial, glucosa en sangre) en las poblaciones. Nos dice que la media (la suma de todos los valores entre el total de valores) de una variable o medida (por ejemplo, el peso corporal de un grupo de personas) está en el centro.

Esquema de la distribución normal.
Lorena Botella Juan

Para establecer dicha distribución, también necesitamos conocer la desviación estándar (DE), que se calcula con una fórmula menos amigable y nos da una idea de lo dispersos que están los datos respecto a la media. Este segundo parámetro estadístico nos indica que el 68 % de los valores estarán a 1 DE de la media y el 95 %, a 1,96 DE. Así, la mayoría personas se agrupará en la zona central con valores cercanos a la media, y poco a poco se irán dispersando hacia los extremos, donde menos individuos tendrán valores poco frecuentes.

Pero esto… ¿qué tiene que ver con el alcohol?

De acuerdo con los datos de la encuesta Europea de Salud en España en 2020, el 65,4 % de los españoles había bebido alcohol en el último año (74,6 % de hombres y 56,8 % de mujeres). Entre los datos de esta encuesta también encontramos la media (11,98 gramos) y la DE (11,40 gramos) del consumo diario de alcohol de personas que beben al menos un día a la semana. Considerando esos valores podemos simular la distribución normal del consumo diario de alcohol en España.

Para ponernos más en situación, el Ministerio de Sanidad indica que 10 gramos de alcohol son una unidad de bebida estándar (UBE). Esto equivaldría a un chupito, media copa de vino o una caña. Si miramos nuestra distribución normal, la media de consumidores beben más o menos una UBE al día (11,98 gramos). Entonces, es probable que muchas personas españolas que toman una cañita al día entren dentro de nuestra normalidad. Efectivamente: beben lo normal. Sin embargo, ¿nos interesa ser normales?

No hay consumo sin riesgo

Pues la verdad es que, en este caso, no: lo normal no tiene por qué coincidir con lo saludable. Que el consumo de alcohol en España esté tan normalizado (o más bien banalizado) no quiere decir que no sea perjudicial. Actualmente, la evidencia científica y la propia Organización Mundial de la Salud lo tienen claro: “Ninguna forma de consumo de alcohol está exenta de riesgos”.

Ahora bien, tampoco todas las formas de consumo producen el mismo impacto en salud. Un consumo de “bajo riesgo” sería una UBE para mujeres al día y dos para los hombres (las mujeres y los hombres no toleran igual el alcohol por sus diferencias corporales, pero este es otro tema). Aunque el alcohol es un tóxico, en pequeñas dosis nuestro sistema hepático y otros pueden detoxificarlo correctamente, haciendo que no suframos tanto. No obstante, esto se complica si caemos en patrones de “alto riesgo”.

Atracones con consecuencias

¿Qué cree que es peor, tomar todos los días una bebida o beber un solo día muchas bebidas? Seguro que también le suena la frase: “No, hombre, si yo solo bebo los fines de semana”. Bueno, pues lo importante es cómo bebemos. Y eso implica qué cantidad ingerimos y con qué frecuencia lo hacemos.

De esta forma, beber solamente un día a la semana, pero hacerlo en atracón (conocido como binge drinking), tomando muchas bebidas (5 para hombres y 4 para mujeres) en un corto periodo de tiempo, ocasiona un grandísimo impacto negativo en la salud. Nuestro cuerpo no puede con tanta intoxicación repentina y, además, se agravan las consecuencias (daños a terceros, posibles caídas, riesgo de coma etílico y un larguísimo etcétera).

Así que las personas que están más a la derecha de la curva normal y beben más que la media –aunque sean menos numerosas– o aquellas cuyo consumo medio semanal se ajusta a la normalidad, pero lo hacen en forma de atracón, se encuentran en un alto riesgo para su salud, incluido el de adicción al alcohol. Recordemos que es una sustancia que causa 15 000 muertes al año en España.

En conclusión, cuando vuelva a escuchar que alguien “bebe lo normal”, seguramente tenga razón, pero lo normal, en el caso del alcohol, es perjudicial para la salud. Así que… ¿prefiere ser normal o estar sano?

The Conversation

Este artículo fue finalista del Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud, organizado por la Fundación Lilly y The Conversation

ref. “Yo no bebo mucho, bebo lo normal” – https://theconversation.com/yo-no-bebo-mucho-bebo-lo-normal-260979

¿Cómo medir si un barrio es acogedor? La respuesta la tienen los vecinos

Source: The Conversation – (in Spanish) – By Leandro Ferrón, Investigador científico, Universidad de Deusto

Para muchos especialistas, la sostenibilidad urbana es un sueño cargado de tecnologías disruptivas e imágenes futuristas: autos eléctricos y autónomos, edificios que autorregulan su temperatura o drones que entregan pedidos a domicilio.

Pero cuando se trata de preguntar a los residentes sobre sus preferencias, las respuestas se enfocan más en cuán agradable y confortable les resulta su barrio que en las prioridades establecidas por expertos técnicos y urbanistas.

Justo de eso trata un proyecto de investigación reciente ejecutado en Europa bajo el nombre Advanced Energy Performance Assessment towards Smart Living in Building and District Level (SmartLivingEPC). Esta iniciativa propone un giro hacia lo local y lo participativo mediante el desarrollo de un marco de evaluación urbana novedoso que busca medir qué tan “acogedor” es un barrio desde la mirada de quienes viven allí. Es decir, que pone en primer plano las preferencias y necesidades cotidianas de los vecinos frente a las soluciones tecnológicas más complejas y, muchas veces, alejadas de la vida diaria.




Leer más:
¿Cómo podemos medir la sostenibilidad de la ciudad donde vivimos?


Prioridades de los vecinos frente a las técnicas

Pero ¿por qué necesitamos un enfoque diferente de la sostenibilidad urbana? La mayoría de los instrumentos que actualmente usamos para evaluarla, como las certificaciones internacionales LEED o BREEAM, buscan aplicar marcos con la mirada más amplia posible, incluyendo aspectos técnicos, ambientales, de gobernanza y sociales. Sin embargo, la importancia que se le da a cada uno de estos aspectos en la calificación final está en todos los casos predefinidos por expertos, casi ignorando las prioridades reales de los residentes.

Esto genera un escenario en el que las intervenciones tecnológicas o normativas se presentan como ideales desde las perspectivas de la ingeniería o la gestión pública, pero no responden a la pregunta ¿pueden estas soluciones garantizar la calidad de vida de quienes habitan el barrio? Y menos a una: ¿están alineadas con la cultura, la identidad o las aspiraciones de los vecinos para facilitar su adopción?

Para abordar estas preguntas, investigadores de la Universidad de Deusto llevamos a cabo un estudio en el que participaron cerca de 600 personas de 18 países europeos, lo que permitió obtener una visión representativa y diversa de preferencias comunitarias. El objetivo residía en identificar mediante una encuesta qué aspectos eran realmente importantes para los residentes no especializados.




Leer más:
La ciudad no termina en la superficie: el papel del suelo en la sostenibilidad urbana


Participación ciudada: clave de la sostenibilidad urbana

Los resultados evidenciaron una clara diferencia entre las opiniones de los expertos y de los vecinos con respecto a qué aspectos son prioritarios para mejorar la comodidad urbana. Mientras los especialistas valoran más tecnologías avanzadas, como infraestructura para vehículos eléctricos o sistemas inteligentes de gestión energética, los residentes prefieren aspectos más concretos e inmediatos, como la proximidad a servicios esenciales como centros médicos, escuelas y transporte público, la calidad del aire y la eficiencia energética de las viviendas.

Sin lugar a duda, el aporte más relevante de esta investigación es la premisa de que no hay transición energética posible si no es a través de la participación ciudadana.




Leer más:
¿Cómo rediseñamos las ciudades surgidas del ‘boom’ inmobiliario?


El desafío de la transición hacia ciudades de cero emisiones

Según el equipo de investigación, esta metodología convocante e inclusiva garantiza la incorporación de un aspecto tan relegado como la identidad colectiva en las políticas de planificación urbana europea, en un contexto marcado por iniciativas ambiciosas como el European Green Deal, el Fit55 o la New European Bauhaus, que buscan activamente transformar ciudades y barrios en lugares más sostenibles, inclusivos y bellos.

El gran reto de la transición hacia ciudades de cero emisiones para el 2030 ya no se basa en tecnología, sino las fórmulas para lograr la aceptación por parte de la ciudadanía de iniciativas sostenibles. Esta nueva propuesta metodológica aborda de lleno el desafío, proponiéndonos centrar nuestros esfuerzos en profundizar valores como el sentido de pertenencia y de co-responsabilidad ciudadana en el diseño de barrios, apuntando a la construcción de comunidades más comprometidas y accionadas hacia la transición tanto energética como ecología.

The Conversation

Leandro Ferrón recibe fondos del Programa Horizon y tiene vínculo laboral con la Universidad de Deusto.

Aitziber Mugarra recibe fondos del Programa Horizon Europe y tiene vínculo laboral con la Universidad de Deusto. Las opiniones y puntos de vista expresados son exclusivamente de los autores y no reflejan necesariamente los de la Unión Europea ni los de la Agencia Ejecutiva Europea de Clima, Infraestructuras y Medio Ambiente (CINEA). Ni la Unión Europea ni la autoridad que concede la subvención se responsabilizan de ellas.

Cruz Enrique Borges has received funding from the European Union’s Horizon Europe research and innovation programme under grant agreement No 101069639. The views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union or European Climate, Infrastructure and Environment Executive Agency (CINEA). Neither the European Union nor the granting authority can be held responsible for them.

Oxana Soimu recibe fondos del Programa Horizon Europe y tiene vínculo laboral con la Universidad de Deusto. Las opiniones y puntos de vista expresados son exclusivamente de los autores y no reflejan necesariamente los de la Unión Europea ni los de la Agencia Ejecutiva Europea de Clima, Infraestructuras y Medio Ambiente (CINEA). Ni la Unión Europea ni la autoridad que concede la subvención se responsabilizan de ellas.

ref. ¿Cómo medir si un barrio es acogedor? La respuesta la tienen los vecinos – https://theconversation.com/como-medir-si-un-barrio-es-acogedor-la-respuesta-la-tienen-los-vecinos-259644

¿Cómo de fuerte es la interacción fuerte que evita que nos desintegremos?

Source: The Conversation – (in Spanish) – By Javier Llorente Merino, Investigador en Física de Partículas, Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT)

Canal de Gravelines (1890), del pintor francés Georges Seurat, fundador del neo-impresionismo (o puntillismo), técnica que “desintegra” la realidad en pequeños puntos. Wikiart/Georges Seurat, CC BY

La interacción fuerte es la responsable de la estabilidad de la materia. O sea, de que nosotros mismos, con todo lo que nos rodea, no nos desintegremos. Hablamos de la más intensa de las cuatro interacciones fundamentales de la naturaleza. A distancias muy pequeñas, es aproximadamente 100 veces más intensa que la fuerza electromagnética, unas 106 veces mayor que la fuerza débil y 1038 veces más fuerte que la gravedad que nos sujeta a la Tierra y construye el universo tal y como lo conocemos.

La interacción fuerte se conoce bastante bien, pero no con total exactitud. Para investigarla, los físicos nucleares han llevado a cabo cientos de experimentos a lo largo de los años. Y las últimas medidas tomadas en el Gran Colisionador de Hadrones (LHC) del CERN, han cuantificado con gran precisión la intensidad de la interacción fuerte a energías cada vez más altas. Del orden de 7 teraelectronvoltios, y subiendo.

La distancia importa

Su acción sobre las partículas elementales que componen el núcleo atómico, quarks y gluones, depende en gran medida de la distancia entre esas partículas: su intensidad aumenta a medida que se separan en el espacio y se desvanece en las distancias cortas. La explicación de esta propiedad, conocida como “libertad asintótica”, valió un premio Nobel en 2004.

La interacción fuerte es tan intensa que las distancias necesarias para que deje de operar resultan realmente inalcanzables. Nunca llega a ser cero, de ahí el término libertad asintótica (una curva que se aproxima indefinidamente a una recta o a otra curva, sin llegar a encontrarse con ella). Y justamente por ser “asintótica”, aún hoy se sigue explorando a distancias cada vez más cortas.

La otra cara de la misma moneda es el efecto de “confinamiento”. Cuando dos quarks se separan lo suficiente entre sí, la energía aumenta lo suficiente como para crear nuevos quarks que, inmediatamente, se asocian a los primeros. Esto conlleva que estas partículas no se puedan observar de forma aislada sino “confinadas” en grupos de dos o más quarks llamados hadrones.

Como la cuerda de una guitarra

Así como una cuerda de guitarra más corta produce notas más agudas (mayores frecuencias), explorar distancias más pequeñas entre partículas requiere energías mayores, ya que la resolución espacial en física cuántica está limitada por el principio de incertidumbre. Es por esto que, para estudiar las interacciones a muy corta distancia, necesitamos colisionadores de muy alta energía. El más potente jamás construido, el Gran Colisionador de Hadrones (LHC) de Ginebra, sigue recogiendo datos cada vez más precisos sobre el comportamiento de las interacciones fundamentales. Y resulta que, toda vez que se comparan con la teoría, se ajustan a ella con sorprendente exactitud.

Los chorros de hadrones

Las medidas experimentales de los procesos que tienen lugar en el LHC consisten, a menudo, en determinar la probabilidad de que ocurran en función de ciertas variables.

Ejemplos de estas variables serían la energía o el momento de las partículas que podemos observar en nuestros experimentos. Sin embargo, ya hemos visto cómo los quarks (y gluones) están afectados por la propiedad del “confinamiento”.

Esto implica que cuando una de estas partículas se crea tras una colisión en el LHC, lo que se observa no es una partícula aislada, sino un chorro que arrastra decenas de partículas distintas que han perdido la capacidad de interactuar fuertemente entre ellas.

El estudio de las propiedades de estos chorros de hadrones (llamados jets en inglés) proporciona una de las maneras más directas de estudiar la interacción fuerte.

Chorro de hadrones (jet) resultante tras colisionar haces de protones en el experimento CMS del CERN.
Quantumdiaries, CC BY

El parámetro más fundamental de la física de partículas

La cromodinámica cuántica, QCD por sus siglas en inglés, es la teoría que describe la interacción fuerte. Contiene un parámetro, la constante de acoplamiento αs, que cuantifica cómo de intensa es esta interacción. Es decir, define la probabilidad de que dadas dos partículas a cierta distancia, interaccionen fuertemente dando lugar a otras.

Las sucesivas potencias de este parámetro, posiblemente el más fundamental de la física de partículas, permiten describir matemáticamente la teoría con diferentes grados de aproximación. Cada uno de estos grados, llamados “órdenes perturbativos”, va apilándose sobre los anteriores como bloques de piedra en una catedral, permitiéndonos acercarnos de forma cada vez más precisa a la verdad: las distribuciones de probabilidad que podemos medir experimentalmente.

Dos resultados clave en 20 años de trabajo

Basándose en medidas del ángulo entre las direcciones de producción de chorros hadrónicos, la colaboración o experimento ATLAS del LHC publicó en 2023 una de las medidas más precisas hasta la fecha de la constante de acoplamiento αs. Esta constante se determinó en el rango de energía de varios teraelectronvoltios. Esto equivale a escalas de distancia miles de veces más pequeñas que el radio de un protón, entre 0,87 y 0,88 femtómetros (1 femtómetro son 10-15 m), mientras que los nuevos resultados lo reducen a 0,84 femtómetros.

Una de las claves de la enorme precisión obtenida fue el uso de predicciones teóricas a tercer orden en cronodinámica cuántica. Para que estos desarrollos se materializaran, fueron necesarios veinte años de intenso trabajo teórico desde la publicación previa del cálculo a segundo orden. Además, hicieron falta decenas de millones de horas de cálculo paralelo por computador para obtener la predicción. Tal es la envergadura de la tarea.

Algo más recientemente, a finales de 2024, un grupo de físicos de cinco países ha publicado el estudio de la intensidad de la interacción fuerte con mayor alcance hasta la fecha. En este estudio se ha determinado la constante de acoplamiento a escalas de energía un 70 % más altas que las obtenidas previamente en la colaboración ATLAS, gracias a la combinación de distintas medidas experimentales.

Estas medidas, que combinan resultados a tres energías de colisión protón-protón en dos experimentos distintos, cuantifican la probabilidad de producir dos chorros hadrónicos en diferentes condiciones. La comparación de estos datos con la mejor aproximación teórica de la que se dispone, a tercer orden, permite determinar la intensidad de la fuerza fuerte a distancias tan pequeñas que no habían sido accesibles hasta ahora.

Medir la interacción fuerte para buscar nueva Física

Comprender con precisión la interacción fuerte es una de las claves de la física de partículas a día de hoy y cada vez somos capaces de alcanzar resultados más precisos en condiciones más extremas.

De momento la teoría se sigue ajustando con enorme precisión a los datos experimentales, pero al adentrarnos en territorio inexplorado podría dejar de ser así. Si, eventualmente, se encontrasen desviaciones suficientemente grandes entre la teoría y los datos podríamos estar ante el descubrimiento de nuevas partículas desconocidas. Estas nuevas partículas hipotéticas, necesariamente muy pesadas, se acoplarían a los quarks y gluones ya conocidos a través de la interacción fuerte, provocando tales desviaciones.

Sólo realizando experimentos más precisos a energías más altas se podrá seguir arrojando luz sobre estas cuestiones. Entre tanto, no vamos a desintegrarnos, ni nosotros ni el universo.

The Conversation

Javier Llorente Merino recibe fondos del programa de Atracción de Talento de la Comunidad de Madrid.

ref. ¿Cómo de fuerte es la interacción fuerte que evita que nos desintegremos? – https://theconversation.com/como-de-fuerte-es-la-interaccion-fuerte-que-evita-que-nos-desintegremos-259473

¿Cómo se evalúa la parte oral de un examen oficial de inglés? Claves para entender la competencia pragmática

Source: The Conversation – (in Spanish) – By Cristina Heras Ramírez, Doctora en Lingüística , Universidad de Cádiz

Imaginemos la siguiente situación: dos amigas se han preparado juntas el examen C1 de inglés y, tras realizar todas las pruebas, lo comentan entre ellas. Sara dice que el “listening” le ha salido fenomenal y Carmen que la prueba escrita le resultó más fácil de lo que esperaba. Con respecto a la parte oral del examen, ninguna de las dos está muy segura de cómo les ha ido: “He hablado un rato largo sobre las imágenes y he contestado bien a las preguntas del examinador… pero ¿quién sabe?”

¿Qué busca esta prueba oral de los exámenes oficiales? Su objetivo es evaluar la producción oral (y en algunos casos, la interacción) de los candidatos, incluyendo la capacidad de usar la lengua de manera efectiva para la comunicación. Esto es lo que se conoce como competencia “pragmática”. La pragmática es la parte de la lengua que analiza cómo el contexto afecta al significado e interpreta lo que decimos.

Chiste sobre las competencias pragmáticas.
Elaboración propia.

¿Cómo podemos demostrar en una prueba oral nuestra capacidad de comunicarnos de manera efectiva, teniendo en cuenta el contexto, los interlocutores y las reglas específicas de la lengua? Se trata de adaptar el lenguaje a diferentes contextos y registros, desarrollar ideas de forma coherente y cohesionada (por ejemplo, con conectores o siguiendo una estructura lógica en el discurso), intervenir en una conversación y expresar opiniones con fluidez y espontaneidad.

¿Qué se busca en el examen?

La competencia pragmática es una de las competencias comunicativas que contempla el Marco Común Europeo de Referencia, estándar internacional para el aprendizaje, la enseñanza y la evaluación de lenguas. Por tanto, debe formar parte de los exámenes de acreditación lingüística que certifican niveles de inglés del A1 al C2, ¿pero pueden evaluarse de manera objetiva?

En un reciente estudio, hemos analizado cómo perciben la competencia pragmática 60 examinadores de dos exámenes de acreditación muy populares en la actualidad: Cambridge Advanced English y Aptis ESOL Advanced. El objetivo era conocer qué destrezas pragmáticas y en qué medida se tienen en cuenta en las pruebas orales de nivel C1.




Leer más:
¿Por qué podemos leer finés sin saber hablarlo? Qué es la transparencia ortográfica


Los resultados indican que lo más valorado en el nivel C1 es la capacidad de producir y desarrollar ideas claras, siguiendo una estructura lógica. Los examinadores están de acuerdo en que un buen manejo del discurso, teniendo en cuenta la claridad y relevancia de las ideas, es esencial a este nivel.

Por ejemplo, un examinador comentó que a veces los candidatos responden brevemente dando vueltas sobre la misma idea. En otras ocasiones, se van por las ramas porque no han entendido el tema. Otras veces, se centran en la tarea y se explayan de forma razonable, con control y estructura. Éstos últimos son los que demuestran una buena competencia pragmática.

Estructuras gramaticales y entonación

Es muy importante emplear distintas estructuras gramaticales de manera flexible. Por ejemplo: imaginemos que nos preguntan sobre lo que hemos hecho la noche anterior. Una posible respuesta sería: “By the time I arrived home, my husband had cooked dinner. If I had known, I would not have already eaten a sandwich at work”. En esta respuesta, el uso flexible de los tiempos pasados y del tercer condicional contribuye a la organización lógica de las ideas.

El uso de verbos modales, como “You might be right”, o expresiones similares a “I see your point, but…” o “I guess that…” podrían ser de gran ayuda para expresar opiniones de manera educada. Es importante recordar que la entonación es clave para que se interprete de manera correcta nuestra intención. Por tanto, debemos acompañar estas expresiones de una entonación ligeramente ascendente al final para que se perciba como una sugerencia respetuosa y no una oposición tajante.

Autocorregirse sobre la marcha: buena idea

Si cometemos algún error durante el examen, don’t panic! Si nos autocorregimos o parafraseamos rápidamente y con naturalidad, especialmente si añadimos una frase como “What I really mean is…” o “Let me explain…”, suele valorarse positivamente.




Leer más:
¿Adquirimos o aprendemos una lengua? Cómo se construye la competencia lingüística


Conectores sin sentido: mala idea

Sin embargo, el uso de conectores como “moreover”, “furthermore” o “nevertheless”, que muchos usan en el examen oral para causar una buena impresión, rara vez tiene el efecto deseado. Esto se debe a que a menudo se nota que son memorizados y se suelen meter con calzador en un contexto en el que no tienen mucho sentido.

Para demostrar la capacidad de relacionar ideas, podemos dar ejemplos y razones para apoyar argumentos. El uso de sinónimos y expresiones que ayuden a seguir el argumento, comprender la relación entre las ideas y anticipar lo que vendrá a continuación, como “As you mentioned earlier…”, también son buenos recursos.

‘Good question’: demasiado obvio

Ocurre algo parecido con frases, como “that’s a good question, let me think…”, que los candidatos suelen usar para tomar el turno de palabra o ganar tiempo para pensar. Aunque pueden ser útiles, no sirven como reflejo fiel de la competencia interactiva por ser demasiado mecánicas.

Para demostrar esta capacidad de interactuar con otra persona en un examen por parejas, podemos hacer preguntas al compañero (“What do you mean by…?” o “Would you agree that…?”), interrumpiendo solo cuando sea necesario y demostrando escucha activa mediante lenguaje no verbal y contacto visual.

Factores paralingüísticos

No obstante, los examinadores reconocieron que evaluar aspectos pragmáticos era todo un reto. Frecuentemente, prestaban atención a “un habla natural”, lo que podría hace referencia al modelo de hablante nativo. Un estándar que resulta obsoleto en el mundo actual donde el inglés funciona, en la mayoría de los casos, como lengua franca o vehicular entre hablantes no nativos.

Además, varios examinadores reconocieron que a menudo pueden verse influenciados por aspectos personales de los candidatos, como la inteligencia, madurez, confianza y cultura. Estos resultados alertan sobre cierta subjetividad que puede estar presente en la evaluación.

Más allá de “saber inglés”

En resumen, tener un nivel C1 no es solo acumular conocimientos de gramática y vocabulario, sino saber usar la lengua con intención. La competencia pragmática es compleja de determinar porque depende del contexto, pero es crucial para comunicarnos de forma efectiva. Por ello, debemos seguir investigando qué papel juega en los exámenes de acreditación lingüística para poder enseñarla y evaluarla de manera justa, objetiva y eficaz.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Cómo se evalúa la parte oral de un examen oficial de inglés? Claves para entender la competencia pragmática – https://theconversation.com/como-se-evalua-la-parte-oral-de-un-examen-oficial-de-ingles-claves-para-entender-la-competencia-pragmatica-259212

Los algoritmos no saben negociar, pero pueden ayudar a los abogados a ser mejores negociadores

Source: The Conversation – (in Spanish) – By María del Pilar Galeote Muñoz, Directora de la Cátedra Cervelló, Profesora de Negociación, Derecho de Sociedades y M&A, IE University

Alexander Limbach/Shutterstock

“¿Qué habilidades considera que son las más importantes para su firma?”. Esta pregunta se le hizo hace unos meses a 460 abogados de algunos de los mayores despachos de abogados de España, como parte de una encuesta recogida en el informe Innovation Beyond Technology. La principal respuesta fue que la negociación y la toma de decisiones eran las más importantes, con un 57 %.

Los abogados son conscientes de que gran parte de su trabajo consiste en negociar y tomar decisiones con diferentes interlocutores: compañeros, socios, clientes, la parte contendiente, etcétera. Pero, cuando se les pregunta: “¿Qué habilidades considera que se han visto más afectadas por la tecnología en su trabajo?”, la respuesta es la comunicación, con un 64 %.

La introducción de las nuevas tecnologías y de la inteligencia artificial puede tener ventajas en el ejercicio de la abogacía, pero también es necesario conocer los perjuicios que pueden acarrear.

La encuesta arroja resultados obvios: a más uso de la inteligencia artificial, la comunicación, esencial para la negociación y la toma de decisiones, puede resultar afectada. Y una comunicación ineficiente implica negociaciones y toma de decisiones ineficientes.

Abogados ayudados por la IA

Entendemos la comunicación como un proceso de intercambio de información mediante la utilización de elementos verbales y no verbales: asertividad, empatía y control emocional. Éstas son las dimensiones que pueden verse alteradas y que son la clave para negociar y tomar decisiones.

La comunicación se convierte en información si los seres humanos se desdibujan y desaparecen como interlocutores válidos. Si un algoritmo transmite información se pierde el control sobre el mensaje. De ahí que sea necesario un ejercicio de la abogacía en el que el algoritmo ayude, pero donde no sustituya nada. Se trata de que humanos ayudados por la inteligencia artificial negocien y tomen decisiones.

Titulares como “Los abogados encuentran en la inteligencia artificial a su nuevo socio” son realmente reveladores.

Este escenario obliga a que el abogado tenga un manejo excelente de sus habilidades interpersonales ya que, en la medida en que imponen el respeto y los límites en la relación con el otro, aseguran la ética en la toma de decisiones.

Entre las habilidades interpersonales a desarrollar destaca la negociación. Hasta este momento, no existe un algoritmo capaz de negociar, aunque sí de adjudicar la razón en función de unos parámetros dados.

Negociar es otra cosa: es influir, crear impactos y afianzar relaciones entre las partes, teniendo en cuenta la marca corporativa a la que se representa y la marca personal del abogado que negocia.




Leer más:
Estrategias de negociación: ¿es usted un buen negociador?


Potenciar el trabajo con la IA

Otro titular: “Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados”. Noticias como esta llaman la atención sobre dos puntos:

  1. La importancia de la ética cuando, en el ejercicio de la profesión, se cuenta con el respaldo de la inteligencia artificial.

  2. El valor del juicio humano para validar lo que la inteligencia artificial afirma de manera tajante.

El abogado del siglo XXI debe tener conocimientos de derecho, claro, pero también competencias tecnológicas e interpersonales, y una base ética sólida para ejercer la profesión con el apoyo de las nuevas tecnologías.




Leer más:
¿Es rentable ser ético en la empresa?


Volver a la escuela

El papel de las escuelas de derecho es clave en este proceso y deberá tomar en cuenta la combinación de conocimientos y habilidades necesarias para el desempeño laboral de los abogados. Entre las habilidades destaca la comunicación, esencial para el desarrollo de otras más avanzadas, como la negociación y la toma de decisiones.

Los abogados de la encuesta detectaron que la tecnología afecta a su capacidad de comunicación (y, por tanto, a las de negociación y toma de decisiones). Y esto irá en aumento a medida que la inteligencia artificial se siga desarrollando. La manera de potenciar las ventajas del trabajo con inteligencia artificial sin detrimento de la ética es la formación continua del abogado, bien a través de mentorías de compañeros más sénior o a través de las escuelas de derecho.

The Conversation

Este artículo surge a partir del Proyecto realizado para LawAhead Centre on the Legal Profession https://www.ie.edu/lawahead-center/wp-content/uploads/sites/610/2025/05/INFORME-LAWAHEAD-2025-1.pdf de IE Law School.

ref. Los algoritmos no saben negociar, pero pueden ayudar a los abogados a ser mejores negociadores – https://theconversation.com/los-algoritmos-no-saben-negociar-pero-pueden-ayudar-a-los-abogados-a-ser-mejores-negociadores-260498

Cambio climático y costas rocosas: el mar está ganando la batalla a los acantilados

Source: The Conversation – (in Spanish) – By Montserrat Jiménez Sánchez, Catedrática Geodinámica Externa, Universidad de Oviedo

Vista aérea del retroceso de los acantilados por inestabilidad de laderas en la playa de Vallina (Cudillero, Asturias). Fotografía tomada el 20 de julio de 2024. Saúl González Lemos, CC BY-SA

Una de las cuestiones que más nos preocupa actualmente es el cambio global, inducido a escala planetaria por factores naturales y acelerado por la acción humana. Entre sus consecuencias destacan el calentamiento de la atmósfera, el retroceso de los glaciares y el ascenso del nivel del mar. Esta subida ha aumentado de 2,1 milímetros al año en 1993 a 4,5 mm/año en 2023, aunque más frecuentemente se habla de valores en torno a 3,4 mm/año.

Asimismo, se está observando una mayor frecuencia e intensidad de fenómenos meteorológicos extremos capaces de modificar la dinámica de los procesos erosivos –que causan la pérdida y el desgaste de la superficie del terreno– en distintas zonas costeras del mundo.

En Europa, se ha calculado que al menos el 25 % de las costas sufren procesos erosivos, especialmente durante los temporales, cuya acción es particularmente evidente en las playas. Por ejemplo, en la playa de Piles (Valencia, España), se cuantificó un retroceso de 40 metros en solo dos semanas (entre el 6 y el 20 de enero de 2020) vinculado a la tormenta Gloria.

Aunque el retroceso puede pasar más desapercibido en los acantilados que en las playas, sus consecuencias son igualmente severas para las comunidades costeras más cercanas y expuestas. De hecho, la frecuencia de los procesos de inestabilidad de ladera en los acantilados parece ir en aumento, involucrando en ocasiones grandes volúmenes de terreno y fenómenos complejos.

La lluvia y las olas desgastan los acantilados

El retroceso de los acantilados en costas rocosas resulta de la inexorable competición entre la energía erosiva del oleaje y la resistencia de las rocas. La acción del mar socava la base de los acantilados provocando diferentes mecanismos de inestabilidad, como desprendimientos y deslizamientos, entre otros. Estos son particularmente intensos en acantilados altamente fracturados o compuestos por rocas que se erosionan fácilmente.

La dinámica del proceso erosivo en costas rocosas está fuertemente influida por factores climáticos como las precipitaciones, la humedad del suelo y la altura del oleaje.

Durante períodos lluviosos, el suelo incrementa su humedad y peso, perdiendo resistencia y aumentando la probabilidad de desestabilizarse. Durante los temporales, la capacidad erosiva del oleaje se incrementa y con ella el número de inestabilidades de ladera en los acantilados.

Todos estos procesos conducen inevitablemente al avance progresivo del mar hacia la tierra ocasionando el retroceso de la línea de costa. El actual contexto de cambio climático sugiere que estos fenómenos serán cada vez más frecuentes e intensos.




Leer más:
Cambio climático: hay que alejar a la gente de algunas zonas costeras (también en España)


Ejemplos en todo el mundo

Para ilustrar el problema, existen ejemplos espectaculares de episodios actuales de dinámica intensa de retroceso de acantilados en distintas zonas del mundo.

Durante el evento de El Niño 2015-2016, el 12 % de los acantilados de un tramo de costa de 300 kilómetros del sur de California (zona de Palos Verdes) llegaron a registrar retrocesos de 10-15 metros.

En el norte de España existe un deslizamiento (Faro de Tazones, Asturias) con un volumen estimado de más de 3 millones de metros cúbicos que se volvió muy activo entre febrero de 2018 y febrero de 2021. Son destacables los desplazamientos superiores a 14 metros en algunos puntos durante el año 2019, coincidiendo con episodios de elevadas precipitaciones (821 mm en 24 horas) y temporales con olas superiores a 9 metros.

Evolución de la pendiente del faro de Tazones ilustrada en las imágenes tomadas por un dron en: a. 2018 y b. 2019. La flecha indica un deslizamiento plano superficial. c. Vista del acantilado desde el mar, en la que se observan algunos bloques desprendidos y árboles.
Domínguez-Cuesta et al., 2021, CC BY

El retroceso de los acantilados se acelera

En distintos sectores costeros de Europa, se han realizado estudios que ponen de manifiesto que las tasas de retroceso actuales son superiores a las de los últimos miles de años.

Así, en la costa de Normandía se han estimado valores entre un 33 % y 57 % más bajos que los medidos actualmente (0,10-0,18 m/año). En la costa de Gran Bretaña se han registrado tasas de retroceso histórico que varían entre 2 y 25 cm/año.

Estas mismas investigaciones –basadas en la combinación de datos históricos, topográficos, geocronológicos, meteorológicos y sensores remotos– subrayan la importancia del clima en la erosión costera y sugieren que, debido al aumento del nivel del mar, la velocidad del retroceso de acantilados podría incrementarse hasta diez veces para finales del siglo XXI.

Ante esta perspectiva, las estrategias de adaptación son esenciales. Para ello, es preciso mejorar nuestra comprensión actual de la evolución de los acantilados y su relación con el cambio climático. Potenciar la investigación para incrementar el conocimiento, fomentar la educación de la ciudadanía y mejorar la ordenación del territorio son fundamentales para anticipar riesgos futuros, proteger vidas e infraestructuras, y promover una gestión costera sostenible. Así se podrá contribuir a mitigar el impacto del calentamiento global en las costas.


Este artículo es fruto de una colaboración con la Cátedra Cambio Climático de la Universidad de Oviedo.


The Conversation

Montserrat Jiménez Sánchez codirige el Proyecto de Investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y dirige el Proyecto de Investigación GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

Laura Rodríguez Rodríguez participa en los proyectos de investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

María José Domínguez Cuesta codirige el Proyecto de Investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y participa en el Proyecto de Investigación GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

ref. Cambio climático y costas rocosas: el mar está ganando la batalla a los acantilados – https://theconversation.com/cambio-climatico-y-costas-rocosas-el-mar-esta-ganando-la-batalla-a-los-acantilados-261025

Nanomedicina: la tecnología de lo diminuto al servicio del diagnóstico y la cura de enfermedades

Source: The Conversation – (in Spanish) – By Isidoro Martínez González, Científico Titular de OPIs, Instituto de Salud Carlos III

Recreación artística de nanopartículas con fármacos circulando por el torrente sanguíneo. Kateryna Kon/Shutterstock

Cuando pensamos en medicina del futuro, es fácil imaginar hospitales con robots, tratamientos a medida y diagnósticos instantáneos. Lo que pocos saben es que mucho de eso ya está empezando a suceder, en gran parte, gracias a una ciencia que trabaja en lo invisible: la nanotecnología.

La nanotecnología se basa en manipular la materia a escalas diminutas, del orden de los nanómetros (un nanómetro equivale a la milmillonésima parte de un metro). A esa escala, las propiedades de los materiales cambian: lo que no conduce electricidad a tamaño normal puede hacerlo cuando se reduce a nivel nano; lo que es inerte puede volverse reactivo. Y esto abre todo un abanico de posibilidades para la medicina.

¿Por qué esta escala es tan importante para la medicina? Porque muchos procesos biológicos ocurren a nanoescala. Nuestro ADN, las proteínas y otros componentes de nuestras células están todos dentro de este rango de tamaño. Para hacerse una idea, una hebra de ADN mide unos 2 nanómetros de ancho. La nanomedicina utiliza nanomateriales y nanodispositivos que son similares en tamaño a estas moléculas biológicas, lo que les permite interactuar con el cuerpo de maneras altamente específicas.

Lo que ya está ocurriendo: avances actuales de la nanomedicina

Aunque parezca ciencia ficción, muchas aplicaciones de la nanotecnología en medicina ya son una realidad. Uno de los campos más desarrollados es el diagnóstico, especialmente en enfermedades como el cáncer. Gracias a nanopartículas que se adhieren a células tumorales, hoy es posible detectarlas mucho antes que con técnicas tradicionales. Algunas de estas partículas están diseñadas para brillar bajo ciertos tipos de luz, haciendo visibles incluso pequeños tumores que antes pasaban desapercibidos.

En el ámbito del tratamiento, la nanotecnología también está marcando un antes y un después. Un ejemplo es la liberación controlada de fármacos. En lugar de tomar medicamentos que afectan a todo el cuerpo, los investigadores están desarrollando “vehículos nanométricos” capaces de transportar la medicina directamente al órgano o célula enferma. Esto no solo aumenta la eficacia, sino que reduce efectos secundarios (pensemos, por ejemplo, en la pérdida de pelo y las náuseas asociadas con la quimioterapia anticancerígena tradicional).

En enfermedades neurodegenerativas, cardiovasculares o infecciosas, se están probando nuevos métodos basados en nanotecnología para mejorar la administración de tratamientos. Incluso en vacunas (como ocurrió en parte con las vacunas de ARN mensajero contra la covid-19), las nanopartículas de lípidos (pequeñas burbujas de grasa) han sido clave para transportar el material genético hasta las células de forma segura.

Además, se están creando biomateriales “inteligentes” que reaccionan al entorno del cuerpo. Por ejemplo, apósitos que liberan antibióticos solo cuando detectan infección, o implantes que se integran mejor con el tejido humano gracias a recubrimientos nanométricos.

Lo que viene: posibilidades futuras y desafíos

A medida que esta tecnología evoluciona, las posibilidades se multiplican. Una de las más llamativas es el uso de nanorrobots, pequeñas estructuras programables que podrían viajar por el cuerpo humano realizando tareas específicas, como destruir células cancerosas una por una, limpiar arterias obstruidas o reparar tejidos dañados. Aunque suena a ciencia ficción, ya hay prototipos que se mueven por impulsos químicos o magnéticos, y que algún día podrían formar parte de la medicina personalizada del futuro.

También se investiga cómo integrar la nanotecnología con la inteligencia artificial para crear sistemas de diagnóstico autónomos, capaces de identificar una enfermedad en sus primeras fases y actuar de forma inmediata. Esto podría cambiar radicalmente la forma en la que entendemos la salud: pasar de una medicina reactiva (que actúa cuando ya estamos enfermos) a una medicina preventiva y proactiva.

Pero estas promesas también vienen acompañadas de desafíos importantes. Uno de ellos es la seguridad. ¿Qué efectos a largo plazo pueden tener las nanopartículas en el cuerpo? ¿Cómo se eliminan? ¿Pueden acumularse en órganos?

Además, existen dilemas éticos: ¿Quién controla esta tecnología? ¿Podría usarse para modificar genéticamente a una persona sin su consentimiento?

Estas preguntas aún están en debate, y hacen que la regulación y la investigación responsable sean fundamentales. La nanomedicina tiene un potencial enorme, pero necesita avanzar con transparencia, con controles rigurosos y siempre pensando en el beneficio de los pacientes.

Una revolución silenciosa

La nanotecnología en medicina no es solo una promesa futurista, y aunque todavía hay camino por recorrer, lo que está claro es que este campo marcará el rumbo de la medicina en las próximas décadas.

Entender cómo funciona, qué avances se están produciendo y qué preguntas debemos hacernos como sociedad es clave para no quedarnos atrás. Porque lo nano, aunque invisible a simple vista, está cambiando cosas enormes, desde nuestra salud hasta nuestra forma de vivir. Incluso, en un futuro no muy lejano, podría ofrecernos la posibilidad de curarnos incluso antes de llegar a enfermar.

The Conversation

Salvador Resino es Investigador Científico en el Instituto de Salud Carlos III, del cual recibe financiación para llevar a cabo sus proyectos de investigación.

Daniel Sepúlveda Crespo y Isidoro Martínez González no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Nanomedicina: la tecnología de lo diminuto al servicio del diagnóstico y la cura de enfermedades – https://theconversation.com/nanomedicina-la-tecnologia-de-lo-diminuto-al-servicio-del-diagnostico-y-la-cura-de-enfermedades-259551

La aventura de divulgar ciencia ‘al otro lado del río’

Source: The Conversation – (in Spanish) – By The Conversation España, Editor

Los 70 alumnos y alumnas que han participado en la cuarta edición del Curso de verano de The Conversation ‘La aventura de divulga ciencia en español con éxito’ en el Palacio de la Magdalena (UIMP) con autoridades, ponentes y Jorge Drexler como invitado de honor. UIMP, CC BY

“Clavo mi remo en el agua, llevo tu remo en el mío / Creo que he visto una luz, al otro lado del río.”

Jorge Drexler, “Al otro lado del río”

Con esos versos –entonados a capela por Jorge Drexler ante un aula entregada– se produjo uno de los momentos más conmovedores del curso La aventura de divulgar ciencia en español con éxito, celebrado del 9 al 11 de julio en el Palacio de la Magdalena de Santander. La sede veraniega de la Universidad Internacional Menéndez Pelayo (UIMP) se convirtió durante tres días en un laboratorio de ideas, gracias a una iniciativa impulsada por The Conversation España, con el respaldo de la Fundación Lilly y la Fundación Ramón Areces.

Lo que allí se vivió fue mucho más que una serie de conferencias y talleres: fue un contagio de conocimiento y entusiasmo por la vida y la ciencia.

Mesa de inauguración del curso
La inauguración corrió a cargo del vicerrector del Campus de Las Llamas de la UIMP Francisco Matorras; Rafael Sarralde, el director general de The Conversation; Manuel Guzmán, Gerente en Fundación Lilly; Carolina Pola, colaboradora del comité científico de la Fundación Ramón Areces, y las codirectoras del curso Elena Sanz y Lorena Sánchez.
UIMP, CC BY

Lenguaje, cerebro y música: la mente en escena

Uno de los momentos más inspiradores fue el encuentro entre el neurofisiólogo y popular divulgador Xurxo Mariño y el músico y médico de formación Jorge Drexler. A medio camino entre el concierto y la charla científica, ambos desplegaron una conversación fascinante sobre cómo emerge la mente humana.

“El oficio del artista consiste en implantar una parte de su mente en otras personas”, explicó Mariño. “No se puede gozar de Beethoven sin ser un poco Beethoven”, respondía Drexler.

“La creatividad ocurre cuando disminuye la actividad de la corteza prefrontal: se apaga el director de orquesta del cerebro y se abren otras conexiones”, decía Xurxo Mariño. Y puso como ejemplo un momento muy concreto: el instante nada más despertar. Drexler, entonces, cantó con ayuda del público la canción que le valió un Óscar en el año 2005, nacida en un estado de duermevela. “Escribí Al otro lado del río a la luz de la mesita de noche”, confesaba.

Genes, mutaciones y el futuro humano

La genetista y catedrática de la Universidad de Barcelona, Gemma Marfany, arrancó la charla inaugural del curso con una afirmación contundente: “El genoma es una máquina perfecta, pero tiene errores”.

La genetista Gemma Marfany
La genetista Gemma Marfany durante una apasionada conversación en Caballerizas, lugar de encuentro de los ponentes en el Palacio de la Magdalena.
The Conversation, CC BY

Gemma Marfany habló de mutaciones, de edición genética con CRISPR –“el bisturí con GPS”– y de los dilemas éticos de la selección genética, que permitirá resolver múltiples enfermedades, pero también rediseñar nuestra especie.

“No queremos ser inmortales, queremos ser eternamente jóvenes”, sentenció, en referencia al sueño (o pesadilla) de modificar el ADN humano para mejorar el cuerpo, la mente y, quizá, el destino.

Con ejemplos como la película Gattaca o la historia de Carlos II el Hechizado, un rey que sufrió la maldición de la endogamia de la Casa de Habsburgo, Marfany dejó claro que la genética explica el pasado y condiciona el porvenir: “si modificas tu ADN, estás cambiando el ADN del futuro”.

Océanos, cosmos y física cuántica: lo que aún no sabemos

En una jornada dedicada a los grandes enigmas de la ciencia, la oceanógrafa Núria Casacuberta Arola habló del mar como “el corazón del clima”, advirtiendo que en lo profundo del océano hay más incógnitas que certezas. “Ha habido más personas en la Luna que en la fosa de las Marianas”, recordó Casacuberta Arola, subrayando el desconocimiento sobre el agua que regula la vida en la Tierra.

Nuria Casacuberta haciendo una exposición
Nuria Casacuberta Arola ha sido galardonada con la Beca de Retorno de la Fundación Ramón Areces, gracias a la cual trasladará sus actividades científicas al Institut de Ciències del Mar (ICM-CSIC) en Barcelona. La oceanógrafa propuso en el curso un viaje espacial al fondo de los océanos.
The Conversation, CC BY

El astrofísico David Galadí, profesor de la Universidad de Córdoba, y el físico cuántico Pablo Martínez Ruiz del Árbol, investigador del Instituto de Física de Cantabria, también colocaron al público ante el abismo de lo desconocido.

Pablo Martínez Ruiz del Árbol, investigador del Instituto de Física de Cantabria.
The Conversation, CC BY

Pablo Martínez comparó la física cuántica con el sushi: “para mi padre, que es de un pueblo de La Rioja, la cuántica es como el sushi, algo que te saca de tu zona de confort”. Y el astrofísico David Galadí, con humor y rigor, confesó que quizás en el futuro nos vean como “gente muy lista que llegó a conclusiones equivocadas”.

La ciencia, coincidieron ambos, solo puede actuar con humildad ante lo infinito por descubrir. Porque por cada conocimiento acumulado, “ampliamos lo que sabemos que no sabemos”, matizaba Martínez.

El astrofísico David Galadí describió la incertidumbre en astrofísica para explicar el universo.
The Conversation, CC BY

Corazón, medicina y mentoria: lecciones de una vida

El cardiólogo Valentín Fuster, una de las voces más esperadas, impartió una lección de sabiduría y humanidad en su conversación con la periodista experta en salud Cristina Sáez.

“Con franqueza, soy cardiólogo, pero no entiendo el corazón, un órgano que se mueve cada segundo y no se estropea hasta el final de una vida. He contribuido a entenderlo, pero aún no sabemos realmente cómo funciona: el corazón es un milagro”, confesó.

Valentín Fuster llegó desde Nueva York a Santander. ‘Si hago este viaje es porque considero esencial la divulgación de la ciencia’.
UIMP, CC BY

Valentín Fuster narró su trayectoria desde sus inicios, cuando su camino era el de un tenista profesional. “Un año suspendí una asignatura y mi padre puso fin al tenis. Siempre confié en mi padre. Y siempre he hecho lo que me han dicho las personas en las que he confiado”.

Así comenzó la carrera del hombre que introdujo en el mundo la medicina preventiva, que supo encontrar en el colesterol la razón de los infartos de miocardio, y que peleó contra gigantes hasta conseguir la polipíldora para tratar problemas de corazón. El estudio SECURE, publicado en The New England Journal of Medicine, mostró una disminución del 33 % en la mortalidad cardiovascular en comparación con el tratamiento habitual.

La periodista Cristina Sáez, coautora con Valentín Fuster de su libro de memorias, condujo la conversación.
UIMP, CC BY

Valentín Fuster habló de la importancia de tener un mentor, de la necesidad de cuidar al paciente como un todo –físico y emocional– y de los peligros de una sociedad que promueve el consumo hasta enfermarnos.

Para él, la clave para una vida íntegra está en lo que llama las “cuatro T”: tiempo para reflexionar, talento cultivado con humildad, transmitir positividad y ser un tutor para los demás.

Cristina Saéz mencionó el altruismo de Valentín Fuster en el trato a pacientes de toda condición social: “Para mí no existen nombres, existen personas, porque si miras por dentro, todos somos iguales”, dijo Fuster.

Pero el corazón no es solo un órgano que late: es un icono universal del amor. Y de amor habló el psicólogo y divulgador Luis Muiño, uno de los conductores de Entiende tu mente, el pódcast en español sobre psicología más escuchado del mundo. Muiño narró, por ejemplo, la historia del matrimonio mudo chino. Mudo, porque durante 60 años no se dirigieron la palabra. Entonces alguien les preguntó por qué seguían juntos. Él respondió: “porque la amo”. Y ella: “porque sé lo que piensa”. Luis Muiño abrió un intenso y apasionado debate con el alumnado planteando preguntas como: ¿por qué nos atrae lo prohibido? ¿Qué podemos hacer los ciudadanos del siglo XXI con las hormonas del Paleolítico? ¿Por qué vemos lo que queremos ver cuando amamos?

Luis Muiño desgranando la ciencia del amor.
The Conversation, CC BY

Ciencia con alma

El curso se nutrió de expertos, pero también de historias humanas. Como la de una alumna que recordó a su madre con alzhéimer, que solo conecta con el presente cuando canta canciones del pasado, “y entonces se emociona”. O la de otra alumna que trabaja como intérprete en contextos extremos, por ejemplo, cuando a alguien le detienen en un país en conflicto y no habla el idioma. Ella trataba de buscar una metáfora para definir su papel, algo que le pedía Emilio José García, responsable de la unidad de cultura científica del Instituto Astrofísico de Andalucía (IAA) al frente del taller Cómo hacer una charla de divulgación que no se olvide. La alumna buscaba una metáfora para definirse y alguien del publico propuso: “sois ángeles”.

Emilio José García (IAA) ofreciendo las claves para una charla de divulgación que no se olvide.
The Conversation, CC BY

También pidió metáforas Estrella Montolío, catedrática de la Universitat de Barcelona, para su taller sobre la ciencia del lenguaje aplicada a la divulgación. Entre las que escribieron los alumnos está: “Los alimentos transgénicos son como Severus Snape, señalados como perversos y malvados, pero en realidad ambos están protegiendo a las personas”.

Estrella Montolío, catedrática de Lengua Española de la Universidad de Barcelona, recogió metáforas científicas en su taller sobre la ciencia del lenguaje aplicada a la divulgación.
The Conversation, CC BY

Herramientas para divulgar

En el curso se entregó al alumnado el libro Comunicando ciencia con ciencia. Promovido por la Fundación Lilly, ha sido elaborado por 36 coautores expertos en comunicación científica.

Marcos Pérez, director de los Museos Científicos de A Coruña y presidente de la Asociación Española de Comunicación Científica (AEC2), Cristina Rico, coordinadora Senior de Programas y Actividades en Fundación Lilly, y Elena Sanz, directora de The Conversation, presentaron el libro Comunicando ciencia con ciencia.
The Conversation, CC BY

Las caras de asombro con mayúscula, y exclamaciones consecutivas, se produjeron durante el taller de uso de inteligencia artificial para divulgar ciencia que impartió Carmen Torrijos, lingüista computacional de Progidioso Volcán. En apenas dos horas, como prometió, hicimos un artículo, gráficos, un pódcast y una presentación en PowerPoint sobre la situación de Isla Calima, un archipiélago inexistente, que Carmen Torrijos presentaba amenazado por el cambio climático, y que sirvió como ejemplo para experimentar lo que las inteligencias artificiales generativas son capaces de hacer.

Carmen Torrijos mostró herramientas de inteligencia artificial aplicables a la divulgación de ciencia.
The Conversation, CC BY

Durante tres días, el curso fue una constelación de voces, ciencia y emociones. Una muestra de que la divulgación científica en español puede ser, además de rigurosa, profundamente humana.

Las codirectoras del curso Elena Sanz y Lorena Sánchez, con Xurxo Mariño y Jorge Drexler en el punto y final de La aventura de divulgar ciencia.
The Conversation, CC BY

The Conversation

ref. La aventura de divulgar ciencia ‘al otro lado del río’ – https://theconversation.com/la-aventura-de-divulgar-ciencia-al-otro-lado-del-rio-261122

Torre Pacheco: cómo comprender el odio que nace del prejuicio y la deshumanización

Source: The Conversation – (in Spanish) – By Sergio García Magariño, Investigador de I-Communitas, Institute for Advanced Social Research, Universidad Pública de Navarra

Por mucho odio y violencia que aparezca en los medios al reflejar la actualidad, los seres humanos somos seres sociales interdependientes. La supervivencia del Homo sapiens como especie y la aparición de la civilización han dependido, principalmente, de la colaboración y la solidaridad.

Entonces, ¿qué hace que haya tanto odio, que se generen polos violentos opuestos, que se orquesten cacerías de unos grupos contra otros en un pueblo como Torre Pacheco? Y más importante aún: puesto que la ciencia no solo describe las realidades y sus causas tal cuales son, sino que explora soluciones tras realizar diagnósticos, ¿cómo se puede evitar y reconducir una situación así?

En Torre Pacheco –que nos sirve de muestra, de indicador de algo que lleva tiempo gestándose en España y en otras democracias liberales– confluyen, al menos, tres procesos:

Problemas grandes en lugares pequeños

En primer lugar, la emergencia de “un Torre Pacheco” visibiliza tanto el déficit de gobernanza global, europea y nacional de los flujos migratorios como la poca efectividad de las políticas de integración y de gestión de la diversidad.

Los problemas globales e internacionales se sienten con mayor crudeza en los ámbitos locales: las islas pequeñas son las más afectadas por el cambio climático, el tráfico internacional de diamantes golpea las aldeas de la República Democrática del Congo y la especulación mundial con criptomonedas depende de “criptomineros” asentados en una finca consumiendo gran cantidad de energía.

Hoy es Torre Pacheco, pero mañana puede ser otra localidad como Marcilla, en Navarra, un barrio de Sabadell (Barcelona) o la zona de San Francisco, en Bilbao. La diversidad incrementa la riqueza cultural, pero también trae conflictos si no hay una buena gestión de la diversidad y promoción de la convivencia.

Aquí, las personas, las instituciones y las comunidades son responsables de encontrar un modelo satisfactorio que tenga como umbral mínimo moral el respeto de los derechos humanos.

En segundo lugar, el prejuicio, el odio de unos grupos hacia otros, la deshumanización del diferente (ya sea racial, nacional o ideológicamente) es la antesala de la violencia.

Las teorías más consolidadas sobre la violencia muestran que los seres humanos tendemos a condolernos con lo que les pasa a otras personas. Sin embargo, cuando percibimos injusticias y dolor ajeno también generamos narrativas de justificación y culpabilización contra quienes las víctimas, lo que disipa esa empatía natural. De lo contrario, ante mucho sufrimiento nos desmoronaríamos, salvo que nos levantáramos a actuar decididamente para atajar dichos males.

El sociólogo noruego y el principal fundador de la disciplina de los estudios sobre la paz y los conflictos, Jonathan Galtung, habla de la violencia cultural. Esta puede dirigirse hacia innumerables direcciones: “los migrantes”, “los de derechas”, “los progres”, “las mujeres”, “los jóvenes”, “los ricos”, “los pobres”, “los del Barcelona” o “los gitanos”.

La Escuela de Frankfurt también hablaba de reificación para describir las categorías de identidad grupal que nos orientan, pero que, con el uso, se cosifican y nos impiden ver a quien está enfrente como igual en dignidad.

El gran problema es que, de un lado, apelamos al sentido común (construido socialmente) para justificar dicho rechazo y, de otro, el odio y el rechazo suelen canalizarse hacia la persona que está objetivamente más oprimida, tiene menos derechos y vive una vida menos digna. En breve, todo prejuicio y odio hacia un grupo contribuye a la violencia más cruel y legitima la opresión económica y estructural de dicho grupo.

Vivir en un clima de crispación permanente

En tercer y último lugar, la polarización de la sociedad –azuzada desde las campañas políticas y las redes desde hace décadas–, la polarización ideológica y la polarización política tienen al menos dos costes: afectan paulatinamente la calidad democrática y alimentan procesos de radicalización violenta de individuos y organizaciones.

La conexión entre polarización y radicalización violenta en Estados Unidos ha sido clara desde hace años, pero en Europa se ha tendido a separar ambos fenómenos y a encomiar el efecto estimulante y movilizador de la polarización político-afectiva.

No obstante, vivir en un clima permanente de crispación, de campaña, de descalificación, de demagogia, de lucha despiadada por llegar al poder o por mantenerlo, nutre los extremos ideológicos e impulsa a personas a unirse a ellos. Y los polos, cuando se tensan demasiado, traspasan los límites de lo estrictamente democrático y pacífico, haciendo aparecer grupos que justifican la violencia desde uno y otro flanco ideológico.

Incluso los diagnósticos que demonizan, desde un espectro, a los colectivos sin estatus legal y los no nativos y, desde el otro, a los ultras, probablemente hayan caído inadvertidamente en dicha lógica polarizada que contribuye a la persistencia del problema. Esta constatación no exime de responsabilidades, sino que evita la simplificación.

Caminos a seguir

En definitiva, mejorar la gobernanza global de los flujos migratorios, las políticas de integración y de gestión de la diversidad; abordar las causas culturales y económicas de los prejuicios, que nos insensibilizan hacia el dolor ajeno; y elevar el debate político y mediático para que se acerque a unos estándares mínimos de decoro, sobresalen como tres de las avenidas más prometedoras, y a largo plazo, que deberían recorrerse.

Y un recordatorio final: cada persona, cada comunidad y cada institución tiene la oportunidad y el deber de contribuir al fortalecimiento de la convivencia pacífica y democrática de una sociedad que cada vez es más diversa, como también lo fue en el pasado.

The Conversation

Sergio García Magariño no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Torre Pacheco: cómo comprender el odio que nace del prejuicio y la deshumanización – https://theconversation.com/torre-pacheco-como-comprender-el-odio-que-nace-del-prejuicio-y-la-deshumanizacion-261324