¿Cómo de fuerte es la interacción fuerte que evita que nos desintegremos?

Source: The Conversation – (in Spanish) – By Javier Llorente Merino, Investigador en Física de Partículas, Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT)

Canal de Gravelines (1890), del pintor francés Georges Seurat, fundador del neo-impresionismo (o puntillismo), técnica que “desintegra” la realidad en pequeños puntos. Wikiart/Georges Seurat, CC BY

La interacción fuerte es la responsable de la estabilidad de la materia. O sea, de que nosotros mismos, con todo lo que nos rodea, no nos desintegremos. Hablamos de la más intensa de las cuatro interacciones fundamentales de la naturaleza. A distancias muy pequeñas, es aproximadamente 100 veces más intensa que la fuerza electromagnética, unas 106 veces mayor que la fuerza débil y 1038 veces más fuerte que la gravedad que nos sujeta a la Tierra y construye el universo tal y como lo conocemos.

La interacción fuerte se conoce bastante bien, pero no con total exactitud. Para investigarla, los físicos nucleares han llevado a cabo cientos de experimentos a lo largo de los años. Y las últimas medidas tomadas en el Gran Colisionador de Hadrones (LHC) del CERN, han cuantificado con gran precisión la intensidad de la interacción fuerte a energías cada vez más altas. Del orden de 7 teraelectronvoltios, y subiendo.

La distancia importa

Su acción sobre las partículas elementales que componen el núcleo atómico, quarks y gluones, depende en gran medida de la distancia entre esas partículas: su intensidad aumenta a medida que se separan en el espacio y se desvanece en las distancias cortas. La explicación de esta propiedad, conocida como “libertad asintótica”, valió un premio Nobel en 2004.

La interacción fuerte es tan intensa que las distancias necesarias para que deje de operar resultan realmente inalcanzables. Nunca llega a ser cero, de ahí el término libertad asintótica (una curva que se aproxima indefinidamente a una recta o a otra curva, sin llegar a encontrarse con ella). Y justamente por ser “asintótica”, aún hoy se sigue explorando a distancias cada vez más cortas.

La otra cara de la misma moneda es el efecto de “confinamiento”. Cuando dos quarks se separan lo suficiente entre sí, la energía aumenta lo suficiente como para crear nuevos quarks que, inmediatamente, se asocian a los primeros. Esto conlleva que estas partículas no se puedan observar de forma aislada sino “confinadas” en grupos de dos o más quarks llamados hadrones.

Como la cuerda de una guitarra

Así como una cuerda de guitarra más corta produce notas más agudas (mayores frecuencias), explorar distancias más pequeñas entre partículas requiere energías mayores, ya que la resolución espacial en física cuántica está limitada por el principio de incertidumbre. Es por esto que, para estudiar las interacciones a muy corta distancia, necesitamos colisionadores de muy alta energía. El más potente jamás construido, el Gran Colisionador de Hadrones (LHC) de Ginebra, sigue recogiendo datos cada vez más precisos sobre el comportamiento de las interacciones fundamentales. Y resulta que, toda vez que se comparan con la teoría, se ajustan a ella con sorprendente exactitud.

Los chorros de hadrones

Las medidas experimentales de los procesos que tienen lugar en el LHC consisten, a menudo, en determinar la probabilidad de que ocurran en función de ciertas variables.

Ejemplos de estas variables serían la energía o el momento de las partículas que podemos observar en nuestros experimentos. Sin embargo, ya hemos visto cómo los quarks (y gluones) están afectados por la propiedad del “confinamiento”.

Esto implica que cuando una de estas partículas se crea tras una colisión en el LHC, lo que se observa no es una partícula aislada, sino un chorro que arrastra decenas de partículas distintas que han perdido la capacidad de interactuar fuertemente entre ellas.

El estudio de las propiedades de estos chorros de hadrones (llamados jets en inglés) proporciona una de las maneras más directas de estudiar la interacción fuerte.

Chorro de hadrones (jet) resultante tras colisionar haces de protones en el experimento CMS del CERN.
Quantumdiaries, CC BY

El parámetro más fundamental de la física de partículas

La cromodinámica cuántica, QCD por sus siglas en inglés, es la teoría que describe la interacción fuerte. Contiene un parámetro, la constante de acoplamiento αs, que cuantifica cómo de intensa es esta interacción. Es decir, define la probabilidad de que dadas dos partículas a cierta distancia, interaccionen fuertemente dando lugar a otras.

Las sucesivas potencias de este parámetro, posiblemente el más fundamental de la física de partículas, permiten describir matemáticamente la teoría con diferentes grados de aproximación. Cada uno de estos grados, llamados “órdenes perturbativos”, va apilándose sobre los anteriores como bloques de piedra en una catedral, permitiéndonos acercarnos de forma cada vez más precisa a la verdad: las distribuciones de probabilidad que podemos medir experimentalmente.

Dos resultados clave en 20 años de trabajo

Basándose en medidas del ángulo entre las direcciones de producción de chorros hadrónicos, la colaboración o experimento ATLAS del LHC publicó en 2023 una de las medidas más precisas hasta la fecha de la constante de acoplamiento αs. Esta constante se determinó en el rango de energía de varios teraelectronvoltios. Esto equivale a escalas de distancia miles de veces más pequeñas que el radio de un protón, entre 0,87 y 0,88 femtómetros (1 femtómetro son 10-15 m), mientras que los nuevos resultados lo reducen a 0,84 femtómetros.

Una de las claves de la enorme precisión obtenida fue el uso de predicciones teóricas a tercer orden en cronodinámica cuántica. Para que estos desarrollos se materializaran, fueron necesarios veinte años de intenso trabajo teórico desde la publicación previa del cálculo a segundo orden. Además, hicieron falta decenas de millones de horas de cálculo paralelo por computador para obtener la predicción. Tal es la envergadura de la tarea.

Algo más recientemente, a finales de 2024, un grupo de físicos de cinco países ha publicado el estudio de la intensidad de la interacción fuerte con mayor alcance hasta la fecha. En este estudio se ha determinado la constante de acoplamiento a escalas de energía un 70 % más altas que las obtenidas previamente en la colaboración ATLAS, gracias a la combinación de distintas medidas experimentales.

Estas medidas, que combinan resultados a tres energías de colisión protón-protón en dos experimentos distintos, cuantifican la probabilidad de producir dos chorros hadrónicos en diferentes condiciones. La comparación de estos datos con la mejor aproximación teórica de la que se dispone, a tercer orden, permite determinar la intensidad de la fuerza fuerte a distancias tan pequeñas que no habían sido accesibles hasta ahora.

Medir la interacción fuerte para buscar nueva Física

Comprender con precisión la interacción fuerte es una de las claves de la física de partículas a día de hoy y cada vez somos capaces de alcanzar resultados más precisos en condiciones más extremas.

De momento la teoría se sigue ajustando con enorme precisión a los datos experimentales, pero al adentrarnos en territorio inexplorado podría dejar de ser así. Si, eventualmente, se encontrasen desviaciones suficientemente grandes entre la teoría y los datos podríamos estar ante el descubrimiento de nuevas partículas desconocidas. Estas nuevas partículas hipotéticas, necesariamente muy pesadas, se acoplarían a los quarks y gluones ya conocidos a través de la interacción fuerte, provocando tales desviaciones.

Sólo realizando experimentos más precisos a energías más altas se podrá seguir arrojando luz sobre estas cuestiones. Entre tanto, no vamos a desintegrarnos, ni nosotros ni el universo.

The Conversation

Javier Llorente Merino recibe fondos del programa de Atracción de Talento de la Comunidad de Madrid.

ref. ¿Cómo de fuerte es la interacción fuerte que evita que nos desintegremos? – https://theconversation.com/como-de-fuerte-es-la-interaccion-fuerte-que-evita-que-nos-desintegremos-259473

¿Cómo se evalúa la parte oral de un examen oficial de inglés? Claves para entender la competencia pragmática

Source: The Conversation – (in Spanish) – By Cristina Heras Ramírez, Doctora en Lingüística , Universidad de Cádiz

Imaginemos la siguiente situación: dos amigas se han preparado juntas el examen C1 de inglés y, tras realizar todas las pruebas, lo comentan entre ellas. Sara dice que el “listening” le ha salido fenomenal y Carmen que la prueba escrita le resultó más fácil de lo que esperaba. Con respecto a la parte oral del examen, ninguna de las dos está muy segura de cómo les ha ido: “He hablado un rato largo sobre las imágenes y he contestado bien a las preguntas del examinador… pero ¿quién sabe?”

¿Qué busca esta prueba oral de los exámenes oficiales? Su objetivo es evaluar la producción oral (y en algunos casos, la interacción) de los candidatos, incluyendo la capacidad de usar la lengua de manera efectiva para la comunicación. Esto es lo que se conoce como competencia “pragmática”. La pragmática es la parte de la lengua que analiza cómo el contexto afecta al significado e interpreta lo que decimos.

Chiste sobre las competencias pragmáticas.
Elaboración propia.

¿Cómo podemos demostrar en una prueba oral nuestra capacidad de comunicarnos de manera efectiva, teniendo en cuenta el contexto, los interlocutores y las reglas específicas de la lengua? Se trata de adaptar el lenguaje a diferentes contextos y registros, desarrollar ideas de forma coherente y cohesionada (por ejemplo, con conectores o siguiendo una estructura lógica en el discurso), intervenir en una conversación y expresar opiniones con fluidez y espontaneidad.

¿Qué se busca en el examen?

La competencia pragmática es una de las competencias comunicativas que contempla el Marco Común Europeo de Referencia, estándar internacional para el aprendizaje, la enseñanza y la evaluación de lenguas. Por tanto, debe formar parte de los exámenes de acreditación lingüística que certifican niveles de inglés del A1 al C2, ¿pero pueden evaluarse de manera objetiva?

En un reciente estudio, hemos analizado cómo perciben la competencia pragmática 60 examinadores de dos exámenes de acreditación muy populares en la actualidad: Cambridge Advanced English y Aptis ESOL Advanced. El objetivo era conocer qué destrezas pragmáticas y en qué medida se tienen en cuenta en las pruebas orales de nivel C1.




Leer más:
¿Por qué podemos leer finés sin saber hablarlo? Qué es la transparencia ortográfica


Los resultados indican que lo más valorado en el nivel C1 es la capacidad de producir y desarrollar ideas claras, siguiendo una estructura lógica. Los examinadores están de acuerdo en que un buen manejo del discurso, teniendo en cuenta la claridad y relevancia de las ideas, es esencial a este nivel.

Por ejemplo, un examinador comentó que a veces los candidatos responden brevemente dando vueltas sobre la misma idea. En otras ocasiones, se van por las ramas porque no han entendido el tema. Otras veces, se centran en la tarea y se explayan de forma razonable, con control y estructura. Éstos últimos son los que demuestran una buena competencia pragmática.

Estructuras gramaticales y entonación

Es muy importante emplear distintas estructuras gramaticales de manera flexible. Por ejemplo: imaginemos que nos preguntan sobre lo que hemos hecho la noche anterior. Una posible respuesta sería: “By the time I arrived home, my husband had cooked dinner. If I had known, I would not have already eaten a sandwich at work”. En esta respuesta, el uso flexible de los tiempos pasados y del tercer condicional contribuye a la organización lógica de las ideas.

El uso de verbos modales, como “You might be right”, o expresiones similares a “I see your point, but…” o “I guess that…” podrían ser de gran ayuda para expresar opiniones de manera educada. Es importante recordar que la entonación es clave para que se interprete de manera correcta nuestra intención. Por tanto, debemos acompañar estas expresiones de una entonación ligeramente ascendente al final para que se perciba como una sugerencia respetuosa y no una oposición tajante.

Autocorregirse sobre la marcha: buena idea

Si cometemos algún error durante el examen, don’t panic! Si nos autocorregimos o parafraseamos rápidamente y con naturalidad, especialmente si añadimos una frase como “What I really mean is…” o “Let me explain…”, suele valorarse positivamente.




Leer más:
¿Adquirimos o aprendemos una lengua? Cómo se construye la competencia lingüística


Conectores sin sentido: mala idea

Sin embargo, el uso de conectores como “moreover”, “furthermore” o “nevertheless”, que muchos usan en el examen oral para causar una buena impresión, rara vez tiene el efecto deseado. Esto se debe a que a menudo se nota que son memorizados y se suelen meter con calzador en un contexto en el que no tienen mucho sentido.

Para demostrar la capacidad de relacionar ideas, podemos dar ejemplos y razones para apoyar argumentos. El uso de sinónimos y expresiones que ayuden a seguir el argumento, comprender la relación entre las ideas y anticipar lo que vendrá a continuación, como “As you mentioned earlier…”, también son buenos recursos.

‘Good question’: demasiado obvio

Ocurre algo parecido con frases, como “that’s a good question, let me think…”, que los candidatos suelen usar para tomar el turno de palabra o ganar tiempo para pensar. Aunque pueden ser útiles, no sirven como reflejo fiel de la competencia interactiva por ser demasiado mecánicas.

Para demostrar esta capacidad de interactuar con otra persona en un examen por parejas, podemos hacer preguntas al compañero (“What do you mean by…?” o “Would you agree that…?”), interrumpiendo solo cuando sea necesario y demostrando escucha activa mediante lenguaje no verbal y contacto visual.

Factores paralingüísticos

No obstante, los examinadores reconocieron que evaluar aspectos pragmáticos era todo un reto. Frecuentemente, prestaban atención a “un habla natural”, lo que podría hace referencia al modelo de hablante nativo. Un estándar que resulta obsoleto en el mundo actual donde el inglés funciona, en la mayoría de los casos, como lengua franca o vehicular entre hablantes no nativos.

Además, varios examinadores reconocieron que a menudo pueden verse influenciados por aspectos personales de los candidatos, como la inteligencia, madurez, confianza y cultura. Estos resultados alertan sobre cierta subjetividad que puede estar presente en la evaluación.

Más allá de “saber inglés”

En resumen, tener un nivel C1 no es solo acumular conocimientos de gramática y vocabulario, sino saber usar la lengua con intención. La competencia pragmática es compleja de determinar porque depende del contexto, pero es crucial para comunicarnos de forma efectiva. Por ello, debemos seguir investigando qué papel juega en los exámenes de acreditación lingüística para poder enseñarla y evaluarla de manera justa, objetiva y eficaz.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Cómo se evalúa la parte oral de un examen oficial de inglés? Claves para entender la competencia pragmática – https://theconversation.com/como-se-evalua-la-parte-oral-de-un-examen-oficial-de-ingles-claves-para-entender-la-competencia-pragmatica-259212

Los algoritmos no saben negociar, pero pueden ayudar a los abogados a ser mejores negociadores

Source: The Conversation – (in Spanish) – By María del Pilar Galeote Muñoz, Directora de la Cátedra Cervelló, Profesora de Negociación, Derecho de Sociedades y M&A, IE University

Alexander Limbach/Shutterstock

“¿Qué habilidades considera que son las más importantes para su firma?”. Esta pregunta se le hizo hace unos meses a 460 abogados de algunos de los mayores despachos de abogados de España, como parte de una encuesta recogida en el informe Innovation Beyond Technology. La principal respuesta fue que la negociación y la toma de decisiones eran las más importantes, con un 57 %.

Los abogados son conscientes de que gran parte de su trabajo consiste en negociar y tomar decisiones con diferentes interlocutores: compañeros, socios, clientes, la parte contendiente, etcétera. Pero, cuando se les pregunta: “¿Qué habilidades considera que se han visto más afectadas por la tecnología en su trabajo?”, la respuesta es la comunicación, con un 64 %.

La introducción de las nuevas tecnologías y de la inteligencia artificial puede tener ventajas en el ejercicio de la abogacía, pero también es necesario conocer los perjuicios que pueden acarrear.

La encuesta arroja resultados obvios: a más uso de la inteligencia artificial, la comunicación, esencial para la negociación y la toma de decisiones, puede resultar afectada. Y una comunicación ineficiente implica negociaciones y toma de decisiones ineficientes.

Abogados ayudados por la IA

Entendemos la comunicación como un proceso de intercambio de información mediante la utilización de elementos verbales y no verbales: asertividad, empatía y control emocional. Éstas son las dimensiones que pueden verse alteradas y que son la clave para negociar y tomar decisiones.

La comunicación se convierte en información si los seres humanos se desdibujan y desaparecen como interlocutores válidos. Si un algoritmo transmite información se pierde el control sobre el mensaje. De ahí que sea necesario un ejercicio de la abogacía en el que el algoritmo ayude, pero donde no sustituya nada. Se trata de que humanos ayudados por la inteligencia artificial negocien y tomen decisiones.

Titulares como “Los abogados encuentran en la inteligencia artificial a su nuevo socio” son realmente reveladores.

Este escenario obliga a que el abogado tenga un manejo excelente de sus habilidades interpersonales ya que, en la medida en que imponen el respeto y los límites en la relación con el otro, aseguran la ética en la toma de decisiones.

Entre las habilidades interpersonales a desarrollar destaca la negociación. Hasta este momento, no existe un algoritmo capaz de negociar, aunque sí de adjudicar la razón en función de unos parámetros dados.

Negociar es otra cosa: es influir, crear impactos y afianzar relaciones entre las partes, teniendo en cuenta la marca corporativa a la que se representa y la marca personal del abogado que negocia.




Leer más:
Estrategias de negociación: ¿es usted un buen negociador?


Potenciar el trabajo con la IA

Otro titular: “Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados”. Noticias como esta llaman la atención sobre dos puntos:

  1. La importancia de la ética cuando, en el ejercicio de la profesión, se cuenta con el respaldo de la inteligencia artificial.

  2. El valor del juicio humano para validar lo que la inteligencia artificial afirma de manera tajante.

El abogado del siglo XXI debe tener conocimientos de derecho, claro, pero también competencias tecnológicas e interpersonales, y una base ética sólida para ejercer la profesión con el apoyo de las nuevas tecnologías.




Leer más:
¿Es rentable ser ético en la empresa?


Volver a la escuela

El papel de las escuelas de derecho es clave en este proceso y deberá tomar en cuenta la combinación de conocimientos y habilidades necesarias para el desempeño laboral de los abogados. Entre las habilidades destaca la comunicación, esencial para el desarrollo de otras más avanzadas, como la negociación y la toma de decisiones.

Los abogados de la encuesta detectaron que la tecnología afecta a su capacidad de comunicación (y, por tanto, a las de negociación y toma de decisiones). Y esto irá en aumento a medida que la inteligencia artificial se siga desarrollando. La manera de potenciar las ventajas del trabajo con inteligencia artificial sin detrimento de la ética es la formación continua del abogado, bien a través de mentorías de compañeros más sénior o a través de las escuelas de derecho.

The Conversation

Este artículo surge a partir del Proyecto realizado para LawAhead Centre on the Legal Profession https://www.ie.edu/lawahead-center/wp-content/uploads/sites/610/2025/05/INFORME-LAWAHEAD-2025-1.pdf de IE Law School.

ref. Los algoritmos no saben negociar, pero pueden ayudar a los abogados a ser mejores negociadores – https://theconversation.com/los-algoritmos-no-saben-negociar-pero-pueden-ayudar-a-los-abogados-a-ser-mejores-negociadores-260498

Nanomedicina: la tecnología de lo diminuto al servicio del diagnóstico y la cura de enfermedades

Source: The Conversation – (in Spanish) – By Isidoro Martínez González, Científico Titular de OPIs, Instituto de Salud Carlos III

Recreación artística de nanopartículas con fármacos circulando por el torrente sanguíneo. Kateryna Kon/Shutterstock

Cuando pensamos en medicina del futuro, es fácil imaginar hospitales con robots, tratamientos a medida y diagnósticos instantáneos. Lo que pocos saben es que mucho de eso ya está empezando a suceder, en gran parte, gracias a una ciencia que trabaja en lo invisible: la nanotecnología.

La nanotecnología se basa en manipular la materia a escalas diminutas, del orden de los nanómetros (un nanómetro equivale a la milmillonésima parte de un metro). A esa escala, las propiedades de los materiales cambian: lo que no conduce electricidad a tamaño normal puede hacerlo cuando se reduce a nivel nano; lo que es inerte puede volverse reactivo. Y esto abre todo un abanico de posibilidades para la medicina.

¿Por qué esta escala es tan importante para la medicina? Porque muchos procesos biológicos ocurren a nanoescala. Nuestro ADN, las proteínas y otros componentes de nuestras células están todos dentro de este rango de tamaño. Para hacerse una idea, una hebra de ADN mide unos 2 nanómetros de ancho. La nanomedicina utiliza nanomateriales y nanodispositivos que son similares en tamaño a estas moléculas biológicas, lo que les permite interactuar con el cuerpo de maneras altamente específicas.

Lo que ya está ocurriendo: avances actuales de la nanomedicina

Aunque parezca ciencia ficción, muchas aplicaciones de la nanotecnología en medicina ya son una realidad. Uno de los campos más desarrollados es el diagnóstico, especialmente en enfermedades como el cáncer. Gracias a nanopartículas que se adhieren a células tumorales, hoy es posible detectarlas mucho antes que con técnicas tradicionales. Algunas de estas partículas están diseñadas para brillar bajo ciertos tipos de luz, haciendo visibles incluso pequeños tumores que antes pasaban desapercibidos.

En el ámbito del tratamiento, la nanotecnología también está marcando un antes y un después. Un ejemplo es la liberación controlada de fármacos. En lugar de tomar medicamentos que afectan a todo el cuerpo, los investigadores están desarrollando “vehículos nanométricos” capaces de transportar la medicina directamente al órgano o célula enferma. Esto no solo aumenta la eficacia, sino que reduce efectos secundarios (pensemos, por ejemplo, en la pérdida de pelo y las náuseas asociadas con la quimioterapia anticancerígena tradicional).

En enfermedades neurodegenerativas, cardiovasculares o infecciosas, se están probando nuevos métodos basados en nanotecnología para mejorar la administración de tratamientos. Incluso en vacunas (como ocurrió en parte con las vacunas de ARN mensajero contra la covid-19), las nanopartículas de lípidos (pequeñas burbujas de grasa) han sido clave para transportar el material genético hasta las células de forma segura.

Además, se están creando biomateriales “inteligentes” que reaccionan al entorno del cuerpo. Por ejemplo, apósitos que liberan antibióticos solo cuando detectan infección, o implantes que se integran mejor con el tejido humano gracias a recubrimientos nanométricos.

Lo que viene: posibilidades futuras y desafíos

A medida que esta tecnología evoluciona, las posibilidades se multiplican. Una de las más llamativas es el uso de nanorrobots, pequeñas estructuras programables que podrían viajar por el cuerpo humano realizando tareas específicas, como destruir células cancerosas una por una, limpiar arterias obstruidas o reparar tejidos dañados. Aunque suena a ciencia ficción, ya hay prototipos que se mueven por impulsos químicos o magnéticos, y que algún día podrían formar parte de la medicina personalizada del futuro.

También se investiga cómo integrar la nanotecnología con la inteligencia artificial para crear sistemas de diagnóstico autónomos, capaces de identificar una enfermedad en sus primeras fases y actuar de forma inmediata. Esto podría cambiar radicalmente la forma en la que entendemos la salud: pasar de una medicina reactiva (que actúa cuando ya estamos enfermos) a una medicina preventiva y proactiva.

Pero estas promesas también vienen acompañadas de desafíos importantes. Uno de ellos es la seguridad. ¿Qué efectos a largo plazo pueden tener las nanopartículas en el cuerpo? ¿Cómo se eliminan? ¿Pueden acumularse en órganos?

Además, existen dilemas éticos: ¿Quién controla esta tecnología? ¿Podría usarse para modificar genéticamente a una persona sin su consentimiento?

Estas preguntas aún están en debate, y hacen que la regulación y la investigación responsable sean fundamentales. La nanomedicina tiene un potencial enorme, pero necesita avanzar con transparencia, con controles rigurosos y siempre pensando en el beneficio de los pacientes.

Una revolución silenciosa

La nanotecnología en medicina no es solo una promesa futurista, y aunque todavía hay camino por recorrer, lo que está claro es que este campo marcará el rumbo de la medicina en las próximas décadas.

Entender cómo funciona, qué avances se están produciendo y qué preguntas debemos hacernos como sociedad es clave para no quedarnos atrás. Porque lo nano, aunque invisible a simple vista, está cambiando cosas enormes, desde nuestra salud hasta nuestra forma de vivir. Incluso, en un futuro no muy lejano, podría ofrecernos la posibilidad de curarnos incluso antes de llegar a enfermar.

The Conversation

Salvador Resino es Investigador Científico en el Instituto de Salud Carlos III, del cual recibe financiación para llevar a cabo sus proyectos de investigación.

Daniel Sepúlveda Crespo y Isidoro Martínez González no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Nanomedicina: la tecnología de lo diminuto al servicio del diagnóstico y la cura de enfermedades – https://theconversation.com/nanomedicina-la-tecnologia-de-lo-diminuto-al-servicio-del-diagnostico-y-la-cura-de-enfermedades-259551

Cambio climático y costas rocosas: el mar está ganando la batalla a los acantilados

Source: The Conversation – (in Spanish) – By Montserrat Jiménez Sánchez, Catedrática Geodinámica Externa, Universidad de Oviedo

Vista aérea del retroceso de los acantilados por inestabilidad de laderas en la playa de Vallina (Cudillero, Asturias). Fotografía tomada el 20 de julio de 2024. Saúl González Lemos, CC BY-SA

Una de las cuestiones que más nos preocupa actualmente es el cambio global, inducido a escala planetaria por factores naturales y acelerado por la acción humana. Entre sus consecuencias destacan el calentamiento de la atmósfera, el retroceso de los glaciares y el ascenso del nivel del mar. Esta subida ha aumentado de 2,1 milímetros al año en 1993 a 4,5 mm/año en 2023, aunque más frecuentemente se habla de valores en torno a 3,4 mm/año.

Asimismo, se está observando una mayor frecuencia e intensidad de fenómenos meteorológicos extremos capaces de modificar la dinámica de los procesos erosivos –que causan la pérdida y el desgaste de la superficie del terreno– en distintas zonas costeras del mundo.

En Europa, se ha calculado que al menos el 25 % de las costas sufren procesos erosivos, especialmente durante los temporales, cuya acción es particularmente evidente en las playas. Por ejemplo, en la playa de Piles (Valencia, España), se cuantificó un retroceso de 40 metros en solo dos semanas (entre el 6 y el 20 de enero de 2020) vinculado a la tormenta Gloria.

Aunque el retroceso puede pasar más desapercibido en los acantilados que en las playas, sus consecuencias son igualmente severas para las comunidades costeras más cercanas y expuestas. De hecho, la frecuencia de los procesos de inestabilidad de ladera en los acantilados parece ir en aumento, involucrando en ocasiones grandes volúmenes de terreno y fenómenos complejos.

La lluvia y las olas desgastan los acantilados

El retroceso de los acantilados en costas rocosas resulta de la inexorable competición entre la energía erosiva del oleaje y la resistencia de las rocas. La acción del mar socava la base de los acantilados provocando diferentes mecanismos de inestabilidad, como desprendimientos y deslizamientos, entre otros. Estos son particularmente intensos en acantilados altamente fracturados o compuestos por rocas que se erosionan fácilmente.

La dinámica del proceso erosivo en costas rocosas está fuertemente influida por factores climáticos como las precipitaciones, la humedad del suelo y la altura del oleaje.

Durante períodos lluviosos, el suelo incrementa su humedad y peso, perdiendo resistencia y aumentando la probabilidad de desestabilizarse. Durante los temporales, la capacidad erosiva del oleaje se incrementa y con ella el número de inestabilidades de ladera en los acantilados.

Todos estos procesos conducen inevitablemente al avance progresivo del mar hacia la tierra ocasionando el retroceso de la línea de costa. El actual contexto de cambio climático sugiere que estos fenómenos serán cada vez más frecuentes e intensos.




Leer más:
Cambio climático: hay que alejar a la gente de algunas zonas costeras (también en España)


Ejemplos en todo el mundo

Para ilustrar el problema, existen ejemplos espectaculares de episodios actuales de dinámica intensa de retroceso de acantilados en distintas zonas del mundo.

Durante el evento de El Niño 2015-2016, el 12 % de los acantilados de un tramo de costa de 300 kilómetros del sur de California (zona de Palos Verdes) llegaron a registrar retrocesos de 10-15 metros.

En el norte de España existe un deslizamiento (Faro de Tazones, Asturias) con un volumen estimado de más de 3 millones de metros cúbicos que se volvió muy activo entre febrero de 2018 y febrero de 2021. Son destacables los desplazamientos superiores a 14 metros en algunos puntos durante el año 2019, coincidiendo con episodios de elevadas precipitaciones (821 mm en 24 horas) y temporales con olas superiores a 9 metros.

Evolución de la pendiente del faro de Tazones ilustrada en las imágenes tomadas por un dron en: a. 2018 y b. 2019. La flecha indica un deslizamiento plano superficial. c. Vista del acantilado desde el mar, en la que se observan algunos bloques desprendidos y árboles.
Domínguez-Cuesta et al., 2021, CC BY

El retroceso de los acantilados se acelera

En distintos sectores costeros de Europa, se han realizado estudios que ponen de manifiesto que las tasas de retroceso actuales son superiores a las de los últimos miles de años.

Así, en la costa de Normandía se han estimado valores entre un 33 % y 57 % más bajos que los medidos actualmente (0,10-0,18 m/año). En la costa de Gran Bretaña se han registrado tasas de retroceso histórico que varían entre 2 y 25 cm/año.

Estas mismas investigaciones –basadas en la combinación de datos históricos, topográficos, geocronológicos, meteorológicos y sensores remotos– subrayan la importancia del clima en la erosión costera y sugieren que, debido al aumento del nivel del mar, la velocidad del retroceso de acantilados podría incrementarse hasta diez veces para finales del siglo XXI.

Ante esta perspectiva, las estrategias de adaptación son esenciales. Para ello, es preciso mejorar nuestra comprensión actual de la evolución de los acantilados y su relación con el cambio climático. Potenciar la investigación para incrementar el conocimiento, fomentar la educación de la ciudadanía y mejorar la ordenación del territorio son fundamentales para anticipar riesgos futuros, proteger vidas e infraestructuras, y promover una gestión costera sostenible. Así se podrá contribuir a mitigar el impacto del calentamiento global en las costas.


Este artículo es fruto de una colaboración con la Cátedra Cambio Climático de la Universidad de Oviedo.


The Conversation

Montserrat Jiménez Sánchez codirige el Proyecto de Investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y dirige el Proyecto de Investigación GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

Laura Rodríguez Rodríguez participa en los proyectos de investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

María José Domínguez Cuesta codirige el Proyecto de Investigación RETROCLIFF (PID2021-122472NB-100) financiado por MCIN, AEI y FEDER, UE y participa en el Proyecto de Investigación GEOCANTABRICA (IDE/2024/000753. SEK-25-GRU-GIC-24-072) financiado por SEKUENS-Gobierno del Principado de Asturias y Fondos Europeos.

ref. Cambio climático y costas rocosas: el mar está ganando la batalla a los acantilados – https://theconversation.com/cambio-climatico-y-costas-rocosas-el-mar-esta-ganando-la-batalla-a-los-acantilados-261025

Rater mieux, rater encore plus mal : l’art du kitsch

Source: The Conversation – France (in French) – By Franz Johansson, Docteur en Littérature française, Sorbonne Université

Aussi indéfinissable qu’insaisissable, le kitsch prolifère partout, des musées les plus prestigieux aux vide-greniers. Une consécration paradoxale pour un phénomène dont l’essence même est son caractère commun.


Vieille d’un siècle et demi – si on la fait commencer avec l’apparition du mot lui-même, dans la deuxième moitié du XIXᵉ siècle, l’histoire du kitsch est celle d’une irrésistible extension dont, en 1939, le critique américain Clement Greenberg annonçait le caractère impérieux (et impérialiste) :

« Il a effectué un tour du monde triomphal, envahissant et défigurant les cultures particulières de chacun des pays qu’il a successivement colonisés ; il est en train de s’imposer comme une culture universelle, la première culture universelle qui ait jamais existé. »

Elle est aussi, depuis un quart de siècle notamment, celle d’une ascension non moins spectaculaire, lui ayant permis d’accéder aux lieux les plus prestigieux. Dans les expositions Pierre et Gilles au Jeu de Paume (2007) ou Takashi Murakami au château de Versailles (2010) se montre un kitsch débarrassé de tout relent de marginalité, géographique, sociale ou artistique. Le succès de Jeff Koons – détenant le titre d’artiste vivant le plus cher de l’histoire – est peut-être l’indice le plus certain d’un triomphe envahissant, insolent parfois, du kitsch.

Mais la possibilité même d’une apothéose est paradoxale pour un phénomène impliquant dans sa définition, dans son essence même, un caractère commun, bas ou indigne. Il est impossible de définir en quelques lignes un terme dont presque tous les penseurs qui l’ont abordé soulignent le caractère éminemment fuyant. « Le kitsch échappe comme un lutin à toute définition » écrit le philosophe Theodor Adorno. Cependant, on peut se rappeler utilement son étymologie probable. Celle-ci le rattache aux verbes exprimant en dialecte allemand mecklembourgeois l’action de bâcler (« kitschen ») ou de tromper sur la marchandise (« verkitschen »).

Se pourrait-il qu’il y ait dans ce mensonge le germe d’une sagesse ? Qu’à l’arrogance de la victoire se mêle parfois la lucidité d’un échec ?

Dialectique du kitsch

Il est arrivé plusieurs fois dans l’histoire de l’art qu’un mouvement reprenne à son compte le mot par lequel on a d’abord voulu le dénigrer, et en efface ou en renverse toute nuance péjorative : les mots « impressionnisme » ou « cubisme » étaient à leur début empreints d’un accent de raillerie qui s’est très vite dissipé.

Il en va tout autrement pour le « kitsch ». Celui-ci continue d’impliquer, quel que soit l’éclat de son triomphe, la présence d’une sous-valeur, une fausse valeur ou une contre-valeur. Dans la variété de nuances auxquelles elle peut donner lieu – humour ou cynisme, provocation ou ironie, et jusqu’au plus sincère enthousiasme –, l’adhésion au kitsch est toujours scindée : non l’oubli pur et simple d’un stigmate originel, mais une manière de faire avec lui, de l’intégrer dans une forme de dialectique.

N’est-ce pas là une sophistication inutile ? Est-il réellement besoin d’introduire une dialectique dans l’attrait que peuvent inspirer les couleurs criardes d’un nain de jardin ou les coûteuses surcharges de l’hôtel Luxor de Las Vegas ? Oui, en définitive. L’appréhension d’une œuvre kitsch suppose la présence active (même lorsqu’elle est enfouie) d’une inversion de sa valeur, d’un renversement possible : l’expérience esthétique (et, le cas échéant, critique) s’inscrit dans une tension ou dans la virtualité d’un basculement possible entre l’authentique et l’artificiel, l’unique et le sériel, le dérisoire et le grandiose.

Ce qui relève de la médiocrité aspire à s’élever, et la cuillère ou la salière se chargent alors d’ornements, le mug s’affuble des symboles de la haute culture (de la Joconde aux autoportraits de Frida Kahlo). À l’inverse, ce qui vise le sublime (celui des grands idéaux ou des beaux sentiments) fait naufrage (ou, plus prosaïquement, trébuche et se casse la figure) dans le poncif ou la mièvrerie : les éclats pharaoniques de l’Aïda de Verdi ou les innocences lisses des toiles de William Bouguereau.

L’intelligence du toc

« Tu m’as donné ta boue et j’en ai fait de l’or », écrit Baudelaire dans un projet d’épilogue aux Fleurs du mal. Aussi curieux que le rapprochement puisse paraître, l’orgueil d’une alchimie anime à son tour cette esthétique du confort, cet « art du bonheur » (comme l’appelle, dans les années 1970, le sociologue Abraham Moles) qu’est le kitsch. Excepté qu’ici, il suffit de gratter un peu pour reconnaître dans l’or la dorure. Il reste pourtant quelque chose de cette alchimie en toc une fois que l’écaille dorée est tombée : l’échec lui-même, dans la richesse de ses nuances. On peut échouer un peu, beaucoup, à la folie, passionnément ou lamentablement. Ce qu’on perd en grandeur prométhéenne, on le gagne en complexité.

On peut appeler intelligence, au plus près de l’étymologie, ce qui, dans le kitsch nous incite à lire et à lier ensemble des éléments n’ayant en eux-mêmes rien de précieux ni d’éclairant ; ce n’est que par le réseau qu’ils forment, par la manière dont ils articulent et souvent renversent des matériaux enchevêtrés, qu’ils jettent une certaine lumière sur le monde.

Contre ceux qui y voyaient un phénomène frivole et sans conséquences, Theodor Adorno prônait la nécessité de prendre le kitsch au sérieux, en précisant « critiquement au sérieux ». À l’intelligence du kitsch exigée par le penseur de l’École de Francfort, extérieure à l’objet examiné, on pourrait en ajouter une autre : non plus celle qui le surplombe pour en percer à jour les mécanismes insidieux et néfastes, mais celle qui se loge auprès de lui et en lui. Celle-ci n’entre pas en contradiction avec la première : il serait appauvrissant et absurde de ne pas prendre en considération l’incitation au conformisme politique autant qu’esthétique, la dimension aliénante dénoncée par les grands penseurs de ce kitsch devenant, dans la célèbre formule de l’écrivain Hermann Broch, « le mal dans le système des valeurs de l’art ».

Mais une intelligence du kitsch peut aussi prêter attention à l’idée formulée par le philosophe Walter Benjamin : celle qu’un art devenu accessible au corps, un art qui se laisse enfin toucher, ouvre la possibilité d’un nouveau rapport à l’intériorité humaine. Ou à celle d’Umberto Eco rétorquant aux « apocalyptiques », effrayés par l’irrévocable déchéance de la culture que trahissent le succès du jazz et des films d’Hollywood, que le monde des communications de masse est, qu’on le veuille ou non, notre monde. Ou encore à celle de l’autrice new-yorkaise Susan Sontag rendant compte de la sensibilité « camp », ce « dandysme de l’ère des masses » où le connaisseur le plus délicat et le plus blasé trouve sa délectation dans l’objet kitsch précisément parce qu’il est tel : « Affreux à en être beau ! »

Le kitsch partout ?

S’il n’est peut-être pas faux de dire que le kitsch est omniprésent dans notre monde contemporain, ce n’est pas que la possibilité ne nous soit plus offerte d’expériences entièrement étrangères au kitsch, c’est que celui-ci est toujours susceptible de surgir à l’improviste ou de projeter son ombre n’importe où. Quel que soit le champ où on se situe, artistique, social, économique, politique ou religieux, on court le risque de glisser ou de culbuter vers lui, avec innocence ou lucidité, tendresse ou ironie, par provocation ou par instinct, sentimentalisme ou démagogie.

Des outrances effroyablement sirupeuses de la campagne électorale de Donald Trump, aux bigarrures de la dernière collection de Miuccia Prada, où la transgression des codes du luxe se veut aussi leur parodie, de l’orientalo-hellénisme ploutocratique de l’Atlantis de Dubaï au romano-byzantinisme mystique de la basilique du Sacré-Cœur à Montmartre, d’André Rieu à Richard Wagner (exemple d’un « kitsch génial », selon Hermann Broch), de la Barbie « western rose » en vente dans un mall de Miami ou de Manilla au Barbie (2023), de Greta Gerwig où l’univers de la poupée de Mattel investit l’écran d’une manière si littérale qu’il en éveille de manière étonnante une forme de réflexivité…

Les positions monolithiques, surplombantes et dogmatiques s’avèrent de moins en moins capables de rendre compte d’un kitsch qui, en proliférant, a aussi amplifié ses registres, multiplié ses dimensions ou ses strates. Et qui nous oblige alors à le considérer au cas par cas, en tenant compte, à chaque fois qu’il paraît, de tous les éléments en présence au sein d’équations tantôt très élémentaires, tantôt très subtiles. Et dont on n’est pas certain de pouvoir dire, dans les meilleurs des cas, dans quelques œuvres rares, si elles aboutissent au succès ou à l’échec.

« Rater mieux encore. Ou mieux plus mal. Rater plus mal encore. Encore plus mal encore. »

Laquelle de ces quêtes, énoncées par Samuel Beckett, est celle de celui qui accepte dans son art d’avoir partie liée avec le kitsch ?

The Conversation

Franz Johansson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Rater mieux, rater encore plus mal : l’art du kitsch – https://theconversation.com/rater-mieux-rater-encore-plus-mal-lart-du-kitsch-258197

La mission spatiale CO3D, ou comment cartographier la Terre en 3D et au mètre près

Source: The Conversation – France in French (2) – By Laurent Lebegue, Responsable performances système du projet CO3D, Centre national d’études spatiales (CNES)

Quatre satellites de nouvelle génération vont quitter Kourou, en Guyane, le 25 juillet, à bord d’une fusée Vega-C.

La mission CO3D, consacrée à la cartographie en trois dimensions des terres émergées du globe, s’appuie sur de nombreuses innovations technologiques. Son défi principal ? Couvrir une surface considérable avec une précision de l’ordre du mètre, en imageant aussi les objets mobiles comme les véhicules ou panaches de fumée, tout en se fondant sur des traitements entièrement automatisés pour réduire les coûts de production.


La mission CO3D, développée conjointement par le Centre national d’études spatiales (Cnes) et Airbus, doit fournir une cartographie des reliefs, que l’on appelle dans le domaine « modèles numériques de surface », pour des besoins bien identifiés – qu’ils soient civils ou militaires –, mais aussi de développer de nouveaux usages de ces informations 3D, encore insoupçonnés, que ce soit par des organismes de recherches ou des start-ups.

Pourquoi cartographier la Terre en 3D ?

Les données acquises par la mission CO3D permettront de surveiller la Terre depuis l’espace. Ainsi, les scientifiques pourront par exemple suivre les variations du volume des glaciers ou des manteaux neigeux en montagne.

Ils pourront aussi étudier l’évolution du trait de côte ou encore l’effondrement des falaises, et ainsi simuler l’impact de la montée du niveau des mers sur les terres littorales.

La cartographie 3D de la biomasse permet aussi de suivre à grande échelle la déforestation ou, plus localement, l’évolution de la végétalisation des villes et la gestion des îlots de chaleur.

L’ensemble de ces données, qui forment l’une des briques de base des jumeaux numériques, sont essentielles pour mieux comprendre l’impact du dérèglement climatique sur les écosystèmes et les territoires.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Au-delà des sciences, la modélisation 3D précise est un outil indispensable pour les acteurs du secteur public comme les collectivités ou la sécurité civile. Ces dernières exploitent les données 3D dans le cadre de l’aménagement du territoire, la gestion des espaces tels que les zones inondables ou encore pour la connaissance précise des terrains en cas de gestion de crise à la suite d’une catastrophe naturelle.

Par exemple, en cas de tremblement de Terre, les satellites d’observation sont activés pour évaluer les dégâts à grande échelle afin d’aider les secours à prioriser leurs interventions, mais aussi pour évaluer les reconstructions à prévoir. Ces opérations sont réalisables avec de l’imagerie 2D classique, mais estimer l’effondrement d’un étage de bâtiment avec une simple vue verticale n’est pas forcément adapté, contrairement à l’imagerie 3D qui permet de mesurer directement les hauteurs.

En matière de défense, les données CO3D aideront, par exemple, à préparer les missions aériennes d’avion ou de drones à basse altitude ainsi que les déploiements de véhicules et de troupes sur divers terrains accidentés.

Comment fonctionne cette nouvelle imagerie 3D ?

La constellation s’articule autour de quatre satellites construits par Airbus, d’une masse de 285 kilogrammes chacun et d’une durée de vie de huit ans, permettant d’acquérir des images en couleurs d’une résolution de 50 centimètres – soit la résolution nécessaire pour produire des modèles numériques de surface avec une précision altimétrique d’environ un mètre.

vue d’artiste d’une paire de satellites
Acquisition stéréoscopique d’une paire de satellites CO3D.
CNES, Fourni par l’auteur

Les quatre satellites seront regroupés en deux paires positionnées sur une même orbite (à 502 kilomètres d’altitude), mais en opposition afin de réduire le temps nécessaire aux satellites pour revenir photographier un même site.

Le principe de génération des modèles numériques de surface à partir des images est celui qui nous permet de voir en trois dimensions : la vision stéréoscopique. Les images d’un site sur Terre sont acquises par deux satellites avec un angle différent comme le font nos yeux. La parallaxe mesurée entre les deux images permet, grâce à de puissants logiciels, de calculer la troisième dimension comme le fait notre cerveau.

schéma de principe
Principe de génération de modèle numérique de surface par stéréoscopie spatiale.
Cnes, Fourni par l’auteur

De plus, les images étant acquises avec deux satellites différents que l’on peut synchroniser temporellement, il est possible de restituer en 3D des objets mobiles, tels que des véhicules, des panaches de fumée, des vagues, etc. Cette capacité, encore jamais réalisée par des missions précédentes, devrait améliorer la qualité des modèles numériques de surface et ouvrir le champ à de nouvelles applications.

Les couleurs disponibles sont le rouge, le vert, le bleu mais aussi le proche infrarouge, ce qui permet d’avoir des images en couleur naturelle comme les voient nos yeux, mais aussi d’augmenter la capacité à différencier les matériaux, au-delà de ce que peut faire la vision humaine. Par exemple, un terrain de sport apparaissant en vert en couleur naturelle pourra être discriminé en herbe ou en synthétique grâce au proche infrarouge. Notons que la résolution native de 50 centimètres dans le proche infrarouge est inégalée à ce jour par d’autres missions spatiales. Elle permettra par exemple de générer automatiquement des cartes précises de plans d’eau et de végétation qui sont des aides à la production automatique de nos modèles numériques de surface de précision métrique.

Les satellites ont chacun la capacité d’acquérir environ 6 500 images par jour mais malgré cela, il faudra environ quatre ans pour couvrir l’ensemble des terres émergées attendues et produire les données associées ; une image élémentaire ayant une emprise au sol de 35 kilomètres carrés, il faudra environ 3,5 millions de couples d’images stéréoscopiques pour couvrir les 120 millions de kilomètres carrés.

Un gros travail au sol pour tirer le meilleur des données

De nombreuses innovations concernent également la planification de la mission et les traitements réalisés au sol.

Les satellites optiques ne voyant pas à travers les nuages, la prise en compte de prévisions météorologiques les plus fraîches possible est un élément clé des performances de collecte des données. En effet, les satellites sont très agiles et on peut les piloter pour observer entre les nuages. Avec CO3D, la prévision météo est rafraîchie à chaque orbite, à savoir quinze fois par jour.

Ouverture du container contenant les quatre satellites CO3D, en salle blanche à Kourou (Guyane).
2025 ESA-Cnes-Arianespace/Optique vidéo du CSG-P. Piron, Fourni par l’auteur

Le volume de données à générer pour couvrir le monde en 4 ans est considérable, environ 6 000 téraoctets (l’équivalent d’un million de DVD). La seule solution possible pour atteindre cet objectif dans une durée contrainte et à des coûts réduits a été pour le Cnes de développer des chaînes de traitement robustes, sans reprise manuelle et massivement parallélisées dans un cloud sécurisé.

Le Cnes développe aussi un centre de calibration image, consacré à la mission CO3D, qui sera chargé, pendant les six mois qui suivent le lancement, d’effectuer les réglages des satellites, des instruments et des logiciels de traitement qui permettront d’avoir la meilleure qualité possible des images. À l’issue de ces phases de qualification des satellites et des données, les cartographies 3D seront accessibles aux partenaires institutionnels du Cnes (scientifiques, collectivités locales ou équipes de recherche et développement) au fur et à mesure de leur production.

Par la suite, après une phase de démonstration de production à grande échelle de dix-huit mois, Airbus commercialisera également des données pour ses clients.

À quelques jours du lancement, la campagne de préparation des satellites bat son plein à Kourou et l’ensemble des équipes de développement et d’opérations finalise à Toulouse les derniers ajustements pour démarrer les activités de mise à poste et de recette en vol, les activités de positionnement des satellites sur leur orbite finale, de démarrage des équipements des satellites et de leurs instruments, puis de réglage des paramètres des traitements appliqués au sol.

The Conversation

Laurent Lebegue ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La mission spatiale CO3D, ou comment cartographier la Terre en 3D et au mètre près – https://theconversation.com/la-mission-spatiale-co3d-ou-comment-cartographier-la-terre-en-3d-et-au-metre-pres-260747

Comment amener quelqu’un à faire librement ce que l’on désire ?

Source: The Conversation – France in French (3) – By Fabien Girandola, Professeur de Psychologie Sociale, Aix-Marseille Université (AMU)

Publié en 1987, vendu à plus de 500 000 exemplaires en France, le Petit Traité de manipulation à l’usage des honnêtes gens, de Robert-Vincent Joule et Jean-Léon Beauvois, est un véritable phénomène de librairie. Fondé sur les recherches en psychologie sociale, l’ouvrage propose de connaître les techniques de manipulation auxquelles nous sommes confrontés quotidiennement ou qui permettent de convaincre.


Comment amener quelqu’un à faire librement ce qu’on désire le voir faire ? C’est à cette question, qui nous concerne probablement toutes et tous, que répondent Robert-Vincent Joule et Jean-Léon Beauvois dans leur ouvrage, Petit Traité de manipulation à l’usage des honnêtes gens (1987, rééd. 2024). Ils le font à la lumière des connaissances élaborées au fil des décennies pas les psychologues sociaux, depuis les travaux précurseurs de Kurt Lewin jusqu’à nos jours, et donc durant soixante-quinze années de recherches.

L’un des mérites majeurs de l’ouvrage de Joule et Beauvois est d’avoir travaillé ce corpus expérimental au sein de l’espace francophone, notamment en rendant accessibles des recherches anglo-saxonnes jusque-là peu diffusées. Une conférence donnée par Robert-Vincent Joule à l’Université Grenoble Alpes illustre parfaitement cette logique de l’influence librement consentie.

Dans la dernière édition augmentée et actualisée, parue en octobre 2024, les auteurs explicitent une trentaine de techniques d’influence dont l’efficacité est expérimentalement démontrée dans des recherches de laboratoire et de terrain. Ces procédures, qu’ils qualifient de techniques de manipulation, permettent de multiplier (par deux, par trois, parfois par dix) nos chances d’arriver à nos fins, pour le meilleur et pour le pire.

La connaissance de ces techniques et des processus psychologiques en jeu donnent au lecteur des armes pour éviter de se faire manipuler et pour forger son esprit critique, le rendant moins poreux aux influences néfastes s’exerçant sur lui. Certains blogs de « vulgarisation » estiment même que l’ouvrage relève de l’utilité publique – une appréciation rare pour un traité de psychologie sociale.

L’ouvrage concerne essentiellement les influences interpersonnelles, celles qui opèrent entre deux personnes (en famille, au travail, dans la rue, sur Internet, ou encore ici ou là entre un vendeur et un client), sans négliger pour autant les influences de masse. Les chercheurs en sciences de l’information et de la communication (SIC) s’intéressent aussi particulièrement à ces dynamiques, dès lors qu’elles s’inscrivent dans des dispositifs médiatisés (affichages, interfaces, plateformes numériques) ou ritualisés (conférences, campagnes, échanges transactionnels). Enfin, le conditionnement évaluatif, sur lequel s’appuient volontiers les spécialistes du marketing.




À lire aussi :
Soldes : les commerçants sont-ils d’honnêtes manipulateurs ?


Le conditionnement évaluatif

Vous écoutez la Marseillaise avant un match de football de l’équipe de France. La caméra passe lentement d’un joueur à l’autre. En plan serré, on voit le visage concentré de chaque joueur mais aussi le haut de chaque maillot avec le logo d’une certaine marque. Bien sûr, on ne prête pas attention à ce logo et pourtant, sans qu’on en ait conscience, la positivité de la Marseillaise, l’hymne national, va se transférer sur la marque, rendant ainsi plus probables les comportements d’achat attendus de la part des spectateurs. Les recherches qui illustrent ce phénomène sont légion.

Une étude célèbre a ainsi montré l’effet du conditionnement évaluatif sur le choix d’un stylo en fonction d’une musique plaisante ou déplaisante. Les participants étaient amenés à regarder une publicité pour un stylo. Le stylo était de couleur bleue pour une moitié des participants et beige pour l’autre moitié. Une musique était diffusée, agréable pour certains, désagréable pour d’autres.

À la fin de l’expérience chaque participant se voyait offrir un stylo dont il pouvait choisir la couleur (bleu ou beige). Comme attendu, les participants choisirent massivement la couleur associée aux musiques plaisantes (qu’il s’agisse du bleu ou du beige) et délaissèrent la couleur associée aux musiques déplaisantes (qu’il s’agisse du bleu ou du beige). Mais il y a plus, lorsqu’on leur demande d’expliquer leur choix, ils en appellent à leur goût personnel pour la couleur choisie, sans faire la moindre allusion à la musique !

Les techniques décrites dans le Petit traité de manipulation peuvent évidemment être utilisées à nos dépens par des individus malintentionnés ; par exemple, pour obtenir de nous des informations confidentielles, comme nos coordonnées bancaires, ou de façon plus générale, pour obtenir de nous des décisions que nous regretterons. Mais elles peuvent aussi, entre les mains d’honnêtes gens, se montrer très utiles – et bien plus efficaces que la persuasion – pour promouvoir des comportements « socialement utiles » recherchés. Un exemple : la technique de l’étiquetage.

L’étiquetage

Dans une des recherches rapportées dans l’ouvrage de Joule et Beauvois, des chercheurs américains comparent l’efficacité de deux stratégies pour inciter des élèves de 9-10 ans à ne pas jeter les papiers de bonbons par terre : une stratégie persuasive et une stratégie reposant sur des étiquetages.

Pendant huit leçons sur le respect de l’environnement, l’enseignante s’efforçait, en mettant en avant des arguments appropriés, de convaincre certains élèves d’être propres et ordonnés (condition persuasive). Elle n’essayait pas de convaincre d’autres élèves, se contentant de leur dire « Vous êtes des enfants propres et ordonnés » (condition d’étiquetage).

Au terme de ces leçons, on distribuait aux enfants des sucreries soigneusement emballées et on comptait le nombre de papiers de bonbons laissés sur le sol. Les chercheurs ont constaté que les enfants placés dans la condition d’étiquetage se conformaient davantage aux attentes éducatives que ceux placés dans la condition persuasive : moins d’emballages de bonbon sur le sol et davantage dans les poubelles. Mais il y a plus : cet effet persistait après la fin de l’expérience, alors que plus rien n’était demandé aux enfants, prouvant ainsi l’impact durable de l’étiquetage sur les comportements ultérieurs de propreté des élèves.

La supériorité de l’étiquetage sur la persuasion est également démontrée dans d’autres recherches qui portent cette fois sur la performance scolaire (résultats obtenus à des exercices de mathématiques, par exemple).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Il ne faudrait pas croire que seuls les enfants sont sensibles à l’étiquetage. Les adultes le sont tout autant, comme le montre, par exemple, une autre expérience rapportée dans le Petit traité de manipulation. Après avoir fait passer un pseudo test de personnalité à des participants, les chercheurs leur disaient, indépendamment de leurs résultats, « Vos résultats montrent que vous êtes une personne bienveillante et généreuse » (étiquetage).

Un peu plus tard, un complice des chercheurs laissait tomber un jeu de cartes pour étudier leur réaction. L’aiderait-on ou pas à ramasser les cartes sur le sol ? Comme attendu, les personnes s’étant entendu dire qu’elles étaient bienveillantes et généreuses – bien qu’il s’agisse d’un étiquetage purement arbitraire – furent significativement plus nombreuses à aider « spontanément » le complice que les personnes d’un groupe témoin qui n’avaient pas, quant à elles, reçu d’étiquetage.

Serions-nous les messieurs Jourdain de la manipulation ?

Le succès de cet ouvrage auprès du grand public s’explique certainement par la façon dont les auteurs éclairent, à la lumière du savoir psychologique disponible, les interactions les plus courantes de notre existence sociale.

Force est de reconnaître que nous sommes tous, tour à tour, manipulateur et manipulé. Qui ne s’est jamais servi de moyens plus ou moins détourné pour arriver à ses fins ? Qui n’a jamais fait, après y avoir été habilement conduit, quelque chose qu’il n’aurait pas fait de lui-même. Nous avons tous un jour, plus ou moins, agi de la sorte.

À titre d’exemple, Joule et Beauvois rapportent dans leur ouvrage une des façons de procéder à laquelle nous avons probablement tous eu recours pour essayer d’obtenir une faveur : la technique du « je-ne-vous-demanderai-rien-d’autre », dont le principe consiste précisément à faire savoir à notre interlocuteur que la demande qu’on lui adresse ne sera pas suivie d’une autre.

Je-ne-vous-demanderai-rien-d’autre

Dans une recherche réalisée par Grzyb et Dolinski de 2017, des personnes étaient sollicitées par un chercheur durant un concert. « Bonjour, je collecte des fonds pour un centre de soins pour enfants […]. Accepteriez-vous de faire un don ? C’est la seule chose que je vais vous demander. » Près de 55 % acceptèrent contre 15 % seulement dans la condition contrôle, condition dans laquelle le propos du chercheur était exactement le même mais sans la phrase : « C’est la seule chose que je vais vous demander. »

Ce type de manipulations est-il répréhensible ? Certainement pas.

Aussi étonnant que cela puisse paraître, le recours aux techniques de manipulation – sauf, bien sûr, lorsqu’elles sont mises au service d’intérêts moralement répréhensibles – fluidifie la vie sociale. Peut-être même ce recours entretient-il l’amitié ? Imaginons qu’un ami obtienne de vous, en vous manipulant, une faveur que vous ne lui auriez pas accordée spontanément (par exemple : l’aider à déménager). Il vous en sera très reconnaissant et, évidemment, à la première occasion, c’est lui qui vous rendra, volontiers de surcroît, un service de la même importance sans que vous ayez besoin, à votre tour, de le manipuler. La morale est donc sauve.

Et vous, à quelles formes d’influence avez-vous cédé sans le savoir ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment amener quelqu’un à faire librement ce que l’on désire ? – https://theconversation.com/comment-amener-quelquun-a-faire-librement-ce-que-lon-desire-257571

En Russie et ailleurs, les mesures natalistes en question

Source: The Conversation – France in French (3) – By Jennifer Mathers, Senior Lecturer in International Politics, Aberystwyth University

Dans un contexte de grave crise démographique accentuée par la guerre en Ukraine, plusieurs régions de Russie octroient désormais des allocations spéciales aux adolescentes ayant des enfants. De plus en plus de pays, de la Hongrie aux États-Unis en passant par la Pologne, mettent en place des mesures similaires – des initiatives dont la portée est à la fois sociale, économique et idéologique.


Dans certaines parties de la Russie, les adolescentes qui tombent enceintes recevront désormais plus de 100 000 roubles (environ 1 100 euros, au taux de change actuel) pour donner naissance à leurs enfants et les élever.

Cette nouvelle mesure, introduite ces derniers mois dans une dizaine de régions du pays, s’inscrit dans la nouvelle stratégie démographique russe. Elle est en réalité un élargissement de décisions déjà adoptées en mars 2025, qui s’appliquaient alors uniquement aux femmes adultes. L’objectif est de remédier à la baisse spectaculaire du taux de natalité observée dans le pays : en 2023, le nombre de naissances par femme en Russie était de 1,41, un niveau très inférieur aux 2,05, niveau requis pour assurer le renouvellement des générations.

Rémunérer des adolescentes pour avoir des enfants alors qu’elles sont encore scolarisées est une idée qui ne fait pas consensus en Russie. Selon une récente enquête publiée par le Centre russe d’études de l’opinion publique (VTsIOM), 43 % des Russes approuvent cette mesure, tandis que 40 % s’y opposent. En tout état de cause, l’adoption d’une telle politique témoigne de la priorité élevée accordée par l’État à l’augmentation du nombre de naissances.

Vladimir Poutine considère qu’une population nombreuse est l’un des signes distinctifs d’une grande puissance florissante, au même titre qu’un vaste territoire (en pleine expansion) et une armée puissante. L’attaque conduite sur l’Ukraine a permis à la Russie d’annexer illégalement plusieurs zones du territoire ukrainien, peuplées de quelque deux ou trois millions de personnes ; pour autant, la guerre a aussi eu des effets désastreux pour la taille actuelle et future de la population russe.

D’après certaines estimations, 250 000 soldats russes auraient été tués sur le champ de bataille. De plus, des centaines de milliers de personnes parmi les Russes les plus instruits, souvent de jeunes hommes fuyant le service militaire, ont quitté le pays. Bon nombre de soldats tués et de jeunes exilés auraient pu devenir les pères de la prochaine génération de citoyens russes.

Un phénomène qui ne se limite pas uniquement à la Russie

Mais si la situation démographique de la Russie est extrême, la baisse des taux de natalité est désormais une tendance mondiale. On estime que, d’ici à 2050, plus des trois quarts des pays du monde auront des taux de fécondité si bas qu’ils ne pourront plus maintenir leur population.

Arte, 2 avril 2024.

Poutine n’est pas le seul dirigeant mondial à avoir mis en place des politiques visant à encourager les femmes à avoir plus d’enfants. Le gouvernement de Viktor Orban en Hongrie propose toute une série de mesures incitatives, telles que des allégements fiscaux généreux et des prêts hypothécaires subventionnés réservés aux ménages de trois enfants ou plus.

La Pologne alloue mensuellement 500 zlotys (117 euros, selon le taux actuel) par enfant aux familles à partir de deux enfants. Cependant, cela n’a pas un effet déterminant sur la natalité, car les Polonaises, surtout celles dont les revenus sont déjà relativement élevés, ne sont pas prêtes à renoncer à une ascension professionnelle ou à un salaire élevé pour avoir un enfant de plus.

Aux États-Unis, Donald Trump a proposé de verser 5 000 dollars (4 300 euros environ) aux mères à chaque naissance, vision inscrite dans l’idéologie MAGA qui vise à encourager la natalité.

« Natalistes aux États-Unis : ils veulent sauver l’humanité », TF1, 17 mai 2024.

Inverser la baisse de la natalité est une affaire complexe, car les raisons qui poussent les individus et les couples à devenir parents le sont tout autant. Les préférences des individus, leurs aspirations personnelles et leurs convictions quant à leur capacité à subvenir aux besoins de leurs enfants, ainsi que les normes sociales et les valeurs culturelles et religieuses jouent toutes un rôle dans ces décisions. En conséquence, l’impact des politiques dites natalistes a été jusqu’ici pour le moins mitigé. Aucun pays n’a trouvé de solution facile pour inverser la baisse des taux de natalité.

Il convient de s’intéresser, sur ces questions, à la politique choisie par l’Espagne, qui cherche à lutter contre le déclin démographique par des mesures alternatives, sans encourager directement les femmes à avoir plus d’enfants. Le pays facilite désormais l’accès à la citoyenneté pour les migrants, y compris à ceux qui sont entrés illégalement dans le pays. L’accueil favorable réservé aux immigrants par Madrid est considéré comme l’un des facteurs à l’origine de l’essor économique du pays.

Quelles familles veut-on privilégier ?

Les gouvernements qui adoptent des politiques natalistes se préoccupent non seulement de l’augmentation du nombre total de personnes vivant et travaillant dans leur pays, mais désirent également encourager certaines catégories de personnes à procréer. En d’autres termes, il existe une dimension idéologique inhérente à ses pratiques.

Les mesures incitatives en faveur des grossesses et des familles nombreuses ciblent généralement les personnes que l’État considère comme ses citoyens les plus « souhaitables » – en raison de leur origine ethnique, de leur langue, de leur religion, de leur orientation sexuelle ou d’une autre identité ou combinaison d’identités.

Par exemple, la proposition espagnole visant à augmenter la population en augmentant l’immigration s’adresse principalement aux hispanophones. Les migrants originaires de pays catholiques d’Amérique latine ont assez facilement accès à des emplois, alors que les possibilités de rester dans le pays ou de s’y installer ne semblent pas s’étendre aux migrants originaires d’Afrique. Parallèlement, les aides accordées aux familles en Hongrie sont accessibles uniquement aux couples hétérosexuels disposant de revenus assez élevés.

L’accent mis sur l’augmentation de la proportion des citoyens les plus souhaitables explique pourquoi l’administration Trump ne voit aucune contradiction à appeler à la naissance de plus d’enfants aux États-Unis, tout en ordonnant l’arrestation et l’expulsion de centaines de migrants présumés illégaux, tentant ainsi de revenir sur la garantie constitutionnelle de la citoyenneté américaine à toute personne née dans le pays et même de retirer la citoyenneté à certains Américains.

Quelles sont les mères visées ?

Le succès ou l’échec des gouvernements et des sociétés qui encouragent la natalité dépend de leur capacité à persuader les gens, et en particulier les femmes, d’accepter de devenir ou redevenir parents. Outre des incitations financières et autres récompenses tangibles pour avoir des enfants, certains États offrent une reconnaissance symbolique aux mères de familles nombreuses.

La réintroduction par Poutine du titre, datant de l’époque stalinienne, de « mère-héroïne » pour les femmes ayant dix enfants ou plus en est un exemple. Parfois, cette reconnaissance vient de la société, comme l’engouement actuel des Américains pour les « trad wives » (« épouses traditionnelles ») – des femmes qui deviennent des influenceuses sur les réseaux sociaux en renonçant à leur carrière pour élever un grand nombre d’enfants et mener une vie socialement conservatrice.

Le revers de cette célébration de la maternité est la critique implicite ou explicite des femmes qui retardent la maternité ou la rejettent complètement. Le Parlement russe a adopté en 2024 une loi visant à interdire la promotion du mode de vie sans enfants, ou « propagande en faveur de l’absence d’enfants ». Cette législation s’ajoute à d’autres mesures telles que les restrictions d’avortements pratiqués dans les cliniques privées, ainsi que des propos publics de hauts responsables invitant les femmes à donner la priorité au mariage et à l’éducation des enfants plutôt qu’aux études universitaires et à une carrière professionnelle.

Les États conduisant des politiques natalistes seraient favorables à l’immigration si leur objectif était uniquement de garantir une main-d’œuvre suffisante pour soutenir leur économie et leur société. Mais le plus souvent, ces efforts visant à restreindre ou à dicter les choix que font les citoyens – et en particulier les femmes – dans leur vie personnelle, et à favoriser la présence au sein de leur population de profils spécifiques.

The Conversation

Jennifer Mathers ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En Russie et ailleurs, les mesures natalistes en question – https://theconversation.com/en-russie-et-ailleurs-les-mesures-natalistes-en-question-260866

Sun advice from a skin cancer researcher and physician

Source: The Conversation – Canada – By Elaine McWhirter, Chair, Melanoma/Skin Disease Site Group, Juravinski Cancer Centre, Hamilton Health Sciences, and Associate Professor, Oncology, McMaster University

There is certainly growing awareness of the damaging effects of overexposure to the sun, including skin cancers.

Still, I see in both my medical practice as a skin cancer specialist and in the course of my research as an associate professor of oncology that there are still many harmful habits and ideas about tanning that still circulate.

As a result, many may think they’re already doing enough to look after themselves and their families when the incidence of skin cancer is actually growing. Clearly, we need to do more to stay safe, and that starts with knowledge.

Perhaps someday, we will look at lying on a beach slathered with oil in the same way we look at smoking cigarettes. Ultraviolet (UV) radiation is also a carcinogen and, like smoking, is a modifiable risk factor for cancer.

Here are some sun facts to think about and act on:

  • Being outdoors and in the shade is better than being in the direct sun, but even in the shade, one is still exposed to damaging UV rays, especially if there are nearby reflective surfaces, such as water or sand.
  • Sun protection is necessary all year round. Damage can happen when people think July and August are the only months when it’s necessary to pay attention to sun exposure. Hauling out the bike during a winter thaw? Protect yourself. Spring gardening or fall raking and it’s only 10 degrees outside? It’s time for some protection. Check your local weather forecast for the UV index; if it’s three or greater, wear sunscreen.

  • Sun exposure is cumulative over the course of a lifetime. If you had too much sun as a child or young adult, it’s even more important to protect yourself over the entire course of your adult life. Having two blistering sunburns as a child or young adult increases the lifetime chance of developing the most harmful form of skin cancer, melanoma, by 10 times.

  • Any suntan or sunburn is evidence of sun damage. Developing a tan is the body’s response to harm to the DNA of cells in our skin. The persistent idea of a “healthy tan” is simply incorrect. When I see someone tanning, I see a future with premature wrinkles and risk of skin cancers, including melanoma. A burn is far more damaging. Avoid both.

  • While fair-skinned people with red or blonde hair and blue or green eyes are the most susceptible to serious harm from the sun, all people, regardless of their skin, hair or eye colour, are vulnerable and should limit exposure.

  • Sunscreen with a sun protection factor (SPF) of 50, applied every two to three hours, starting 30 minutes before exposure, is the most practical protection for exposed skin. Pick something you like, whether a lotion, stick or spray, and be sure to use enough. Reapply more often when you are very active outdoors, and hourly if in water. Remember when applying sunscreen to protect your feet, which is easy to forget in flip flops. I see a lot of ears and back of necks get missed as well!

  • Wear a hat, of course, but also choose your hat carefully. Ball caps leave the ears and neck too exposed. The best hats have broad brims that go all the way around the head. The very best hats have a flap in the back that covers the neck.

  • It is possible to experience sun damage even through your clothes. Special SPF clothing, made from purposely formulated material and labelled as such, is optimal for reducing sun exposure. A white cotton summer T-shirt offers an SPF of maybe four or five — a small fraction of the protection a good sunscreen or SPF clothing will provide.

  • Though sun exposure does provide beneficial Vitamin D, it is better to use Vitamin D supplements year-round — something in the range of 600-800 IU is a good benchmark – rather than risking unprotected sun exposure.

  • People exposed to the sun at higher altitudes, such as skiers, are receiving more UV exposure than people at lower altitudes and should protect themselves accordingly.

  • Skiers, boaters, swimmers and fishers are all more susceptible to sun damage because they are both in the direct path of the sun and receive significant UV exposure from light reflecting off snow or water. Many people describe receiving a windburn from such outdoor activities when what they have is a sunburn.

  • People who swim outdoors should seriously consider a special swimming shirt — like a rash guard or board shirt that surfers use — made from swimsuit fabric with SPF.

Remember to check your skin monthly for skin cancer using the ABCDE rule. Our warm weather season is short, and it’s important to enjoy the outdoors. The point isn’t to be sun-scared — just stay sun-safe.

The Conversation

Elaine McWhirter has participated in advisory boards for BMS, Merck, Pfizer, Novartis,Regeron and Sanofi. She was a Board member of Melanoma Canada from 2015-2024.

ref. Sun advice from a skin cancer researcher and physician – https://theconversation.com/sun-advice-from-a-skin-cancer-researcher-and-physician-260749