Así usamos la inteligencia artificial para devolver la voz a pacientes de ELA

Source: The Conversation – (in Spanish) – By Jordi Linares Pellicer, Dr. en informática y profesor en la Universitat Politècnica de València, Universitat Politècnica de València

Nuestra voz nos define. No es solo un instrumento para comunicar palabras: transmite nuestra personalidad, nuestra esencia. Una broma dicha con nuestra propia entonación tiene un significado diferente al de una voz sintética. Un “te quiero” susurrado con nuestro timbre único llega de una manera que ninguna voz robótica puede replicar.

Para los enfermos de esclerosis lateral amiotrófica (ELA), perder la voz significa perder una parte fundamental de su identidad. Esta enfermedad neurodegenerativa va despojando progresivamente a quienes la padecen de sus capacidades motoras, incluido el habla. Los sistemas de comunicación aumentativa les permiten seguir expresándose, pero a través de voces genéricas que no tienen nada que ver con quienes fueron.

En el grupo de investigación VertexLit, perteneciente al Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València, nos propusimos cambiar eso. Nuestro proyecto ha conseguido clonar la voz de Fran Vivó, un paciente de ELA, devolviéndole algo que parecía perdido para siempre.

Más allá de lo funcional

Este trabajo no pretendía resolver un problema estrictamente técnico. Los pacientes de ELA disponen ya de sistemas que les permiten comunicarse mediante texto o voces sintéticas predefinidas . Lo que nosotros buscábamos era diferente: devolver dignidad.

Cuando Fran puede volver a “hablar” con su propia voz, con su prosodia, su tono, sus particularidades, algo cambia profundamente en él y en sus familiares. No es una mejora práctica en sentido estricto, pero representa un aporte enorme a la calidad de vida emocional de los afectados. Es poder escuchar de nuevo a la persona que conocían, recordarla en algo tan propio como su manera de hablar.

El reto real no está en la tecnología en sí misma, sino en ajustarla a las fuentes disponibles. Porque cuando alguien pierde la voz, las grabaciones que conserva suelen ser escasas y de calidad variable: notas de audio en el móvil, vídeos familiares, quizás algún mensaje guardado por casualidad.

Inyectar emoción en las palabras

El proyecto ha implicado identificar las mejores herramientas y modelos disponibles, y realizar entrenamientos específicos que permitan no solo mantener las características originales de la voz, sino inyectar elementos de emoción y expresividad.

Los sistemas actuales de clonación de voz son capaces de replicar con notable fidelidad el tono y el timbre de una persona. Sin embargo, cuando hablamos no solo emitimos una señal acústica característica: también tenemos un ritmo particular, usamos muletillas, hacemos pausas en ciertos momentos y modulamos las frases de formas que nos identifican tanto como nuestra propia voz. Esta dimensión expresiva, lo que podríamos llamar nuestra “huella prosódica”, es precisamente lo que hemos querido capturar.

Para conseguirlo, utilizamos modelos de inteligencia artificial que analizan en profundidad las grabaciones disponibles del paciente. Estos modelos extraen patrones de entonación, variaciones dialectales, cadencias y otros rasgos que definen su manera única de expresarse. El resultado es un perfil detallado que va mucho más allá de las características puramente acústicas de la voz.

Con ese perfil, transformamos cualquier texto que se quiera generar antes de pasarlo al sistema de clonación. En lugar de sintetizar directamente las palabras escritas, las adaptamos para que reflejen cómo las diría realmente esa persona: con sus pausas, sus énfasis y sus giros característicos. De este modo, la voz generada no solo suena como el paciente, sino que habla como él.

Nuestra meta es crear una plataforma accesible que permita, sin tecnicismos, entrenar el sistema con grabaciones disponibles y generar nuevas locuciones. Queremos que tanto el enfermo como sus familiares puedan producir mensajes en un entorno de máxima privacidad, convirtiendo esta tecnología en un complemento humano a los sistemas de comunicación actuales.

Un puente entre el mundo y las personas

Vivimos un momento crucial para la inteligencia artificial. Por desgracia, recibe más atención por sus potenciales abusos que por los beneficios que ya está aportando en campos como la salud o la calidad de vida. Se habla mucho de regularla, y es importante distinguir: lo que hay que regular son sus aplicaciones, no la investigación ni la exploración de sus posibilidades.

Para quienes investigamos en este terreno, el sentido de la inteligencia artificial está en usarla como puente, como intermediario inteligente entre la complejidad del mundo y las personas, especialmente aquellas con necesidades especiales.

Este proyecto está ahora en proceso de escalado. Trabajamos para que pueda estar disponible a través de asociaciones y organismos, permitiendo que otros afectados realicen el proceso con autonomía. El objetivo es contemplar más posibilidades, no solo para enfermos de ELA, sino para todas las personas que ven afectada su comunicación.

Utilizar la inteligencia artificial como un elemento que nos asiste, nos complementa y se adapta a las características únicas de cada individuo. Eso, en definitiva, es lo que buscamos.

The Conversation

Jordi Linares Pellicer no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así usamos la inteligencia artificial para devolver la voz a pacientes de ELA – https://theconversation.com/asi-usamos-la-inteligencia-artificial-para-devolver-la-voz-a-pacientes-de-ela-270897

No, un mono no podría haber pintado ese cuadro: lo que revela el arte abstracto sobre la mente humana

Source: The Conversation – (in Spanish) – By Juan Olvido Perea García, Profesor Distinguido especializado en investigaciones de Biología y Psicología Evolutiva, Universidad de Las Palmas de Gran Canaria

_Una visita al estudio del artista_, pintura de Gabriel von Max. Wikimedia Commons

Quien haya visitado una galería de arte abstracto habrá oído alguna vez el comentario de “esto lo hace mi perro”. La idea parece convincente: si una obra no representa nada reconocible, cualquiera podría producirla. Sin embargo, la investigación muestra que esa intuición es falsa. Cuando observamos con atención, somos capaces de distinguir si una obra abstracta fue creada por un ser humano o por un animal, incluso sin saber explicar cómo lo hacemos.

Esto plantea una pregunta interesante: ¿qué señales visuales nos permiten detectar intención en un conjunto de trazos, manchas o líneas? Y, sobre todo, ¿hay algo en la manera humana de dejar marcas que nos resulte reconocible incluso cuando el autor no es un artista profesional?

Sabemos qué pintó un ser humano

Nuestro reciente estudio aporta nuevas respuestas. Recogimos diez pinturas abstractas creadas por personas sin entrenamiento formal en artes plásticas y diez elaboradas por chimpancés, sacados de la colección Schretlen (cedida por el museo de historia natural NATURALIS, en Leiden, Países Bajos). Todas ellas se mostraron a voluntarios en una prueba en la que debían decidir si cada imagen procedía de una persona o de un chimpancé.

Algunas de las obras usadas en el estudio. A la izquierda, obras hechas por chimpancés, parte de la colección Schretlen. A la derecha, obras hechas por personas sin entrenamiento formal.
Larissa M. Straffon, Juan O. Perea-García, Tijmen den Blaauwen, Mariska E. Kret, CC BY

Las imágenes se presentaron en dos versiones: tal cual fueron creadas y también en una versión modificada digitalmente, en la que se igualaron color y textura. Así se eliminaban pistas superficiales para comprobar si la diferencia estaba realmente en la estructura de la composición. En ambos casos, los participantes acertaron por encima del azar: incluso tras manipular las imágenes, seguían distinguiendo autorías humanas de autorías animales.

Este resultado sugiere que existe algún tipo de “firma humana” reconocible incluso en obras no profesionales. Pero ¿qué aspectos concretos de una imagen evocan esa sensación de intención?

Buscando patrones

Para explorarlo, hicimos otro estudio. Un nuevo grupo de participantes evaluó las mismas veinte obras según varios criterios: intencionalidad, equilibrio, complejidad y organización. Además, debían indicar cuánto les gustaba cada pieza.

Las obras humanas recibieron puntuaciones más altas en todos los aspectos salvo en complejidad. Es decir, no eran necesariamente más recargadas, pero sí parecían más equilibradas y organizadas, y transmitían una mayor sensación de propósito. Cuando los autores analizaron cómo contribuían estas tres características (equilibrio, organización y complejidad) a las valoraciones de intencionalidad y preferencia, encontraron conexiones claras en todos los casos.

En otras palabras, cuando una composición reparte sus elementos de forma coherente y presenta un cierto orden interno, tendemos a interpretarla como producto deliberado de una mente humana. Esas claves, que percibimos de manera casi automática, parecen guiar nuestras decisiones incluso sin que podamos verbalizarlas.

¿Por qué presentamos esta tendencia? Como especie, no podemos evitar ver patrones. Nuestra visión parece estar especialmente afinada para detectar variaciones sutiles en distribución y organización. Esto hace que busquemos señales de intención en prácticamente cualquier disposición que nos rodea. Los lectores más veteranos recordarán el entusiasmo por lo que parecía ser una cara en la superficie de Marte. ¿Acaso no nos ha recordado alguna vez un enchufe a una cara humana?

A lo largo de la evolución, reconocer cuándo un patrón había sido producido por otro ser humano probablemente supuso una ventaja. Identificar rastros, señales o símbolos creados por nuestros semejantes habría facilitado la cooperación y la comunicación a través del espacio y el tiempo. Que funcionemos así incluso en un museo no es más que un eco moderno de una habilidad ancestral.

Dónde está la intención

Otro punto interesante del estudio es la relación entre intencionalidad y preferencia. Las obras que parecían más deliberadas también tendían a gustar más, lo que sugiere que quizá estemos predispuestos a prestar atención y a valorar positivamente los patrones que creemos generados por otros humanos.

Una foto en blanco y negro de un mono sujetando unos pinceles sentado sobre unos óleos.
A mediados del siglo pasado era bastante común experimentar con simios cautivos dejándoles pintar con óleos. En la foto aparece Peter, también conocido como Pierre Brassau, del zoo sueco Borås Djurpark.
Wikimedia Commons

En conjunto, estos resultados permiten desmontar una idea común: el arte abstracto no es un conjunto de manchas aleatorias, ni mucho menos algo indistinguible de los trazos de un animal. Aunque a primera vista pueda parecer caótico, contiene rasgos de equilibrio, estructura y organización que nuestro cerebro interpreta como señales de una mente detrás del gesto.

Esto tampoco significa que cualquier persona pueda replicar la obra de un gran artista. Los experimentos solo comparan obras de estudiantes con los dibujos espontáneos de chimpancés. Pero sí muestran que, incluso en niveles muy básicos de producción artística, hay un sello humano reconocible: un modo particular de distribuir las formas que transmite intención.

El hallazgo también ayuda a entender por qué seguimos debatiendo qué es arte y qué no lo es. Parte de ese debate surge porque tratamos de identificar intención en las imágenes. Cuando la percibimos, asignamos significado, valor o emoción. Cuando no la vemos, la atribuimos a un niño o un animal. Sin embargo, incluso sin darnos cuenta, nuestro cerebro detecta patrones formales propios de la acción humana.

En resumen, nuestro estudio muestra por primera vez de manera explícita que ciertos rasgos formales como el equilibrio, la complejidad u organización interactúan para generar la impresión de intencionalidad en una obra. Y esa impresión nos permite identificar correctamente qué piezas han sido creadas por personas, incluso cuando no son artistas y aunque la obra sea abstracta.

La próxima vez que alguien diga “esto lo pinta mi perro”, quizá valga la pena recordar que incluso los garabatos menos deliberados llevan la huella de una mano humana.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Juan Olvido Perea García recibe fondos de NAWA-Ulam (Agencia de Intercambio Académico Polaca) y es Profesor Distinguido por una ayuda Beatriz Galindo del Ministerio de Ciencia, Innovación y Universidades.

Larissa M Straffon recibe fondos del Consejo Noruego de Investigación a través de su Centro de Excelencia Centre for Early Sapiens Behaviour, SapienCE y del Consejo Europeo de Investigación a través del proyecto ‘Evolution of Cognitive Tools for Quantification’ (QUANTA). El estudio aquí reportado fue parcialmente financiado por la Universidad de Leiden, Países Bajos, y la Fundación John Templeton (beca no. 61403 a LMS).

ref. No, un mono no podría haber pintado ese cuadro: lo que revela el arte abstracto sobre la mente humana – https://theconversation.com/no-un-mono-no-podria-haber-pintado-ese-cuadro-lo-que-revela-el-arte-abstracto-sobre-la-mente-humana-270032

Mediciones del mar en los confines del mundo: la ciencia española en la Antártida

Source: The Conversation – (in Spanish) – By Bismarck Jigena Antelo, Profesor Titular de Unversidad, Area de Ciencias y Técnicas de la Navegación y Ciencias Marinas, Universidad de Cádiz

Buque de investigación BIO Las Palmas, fondeado en la bahía de Puerto Foster (Isla Decepción), frente a la Base Antártica Española (BAE) Gabriel de Castilla.
Biskmarck, J. A. et al

En los confines más australes del planeta, donde convergen hielo, volcanes y océano, investigadores españoles han registrado con precisión las fluctuaciones del nivel del mar en las islas Decepción y Livingston, dos enclaves estratégicos de las islas Shetland del Sur. El océano refleja los cambios del clima global: almacena calor, recibe agua del deshielo y muestra sus efectos a través de las variaciones del nivel del mar. Más allá de los resultados, es también una historia de perseverancia y ciencia en un entorno extremo.

Caldera volcánica en isla Decepción.
Wikimedia Commons., CC BY

Trabajo de campo (helado)

En la Antártida se concentra cerca del 70 % del agua dulce del mundo; pequeñas variaciones en su masa de hielo influyen en las costas de todo el planeta. Además, como área protegida por el Tratado Antártico, la región constituye un laboratorio natural ideal para estudiar los efectos del cambio climático.

Nuestro proyecto combinó sensores oceanográficos modernos con un estricto control geodésico para establecer referencias precisas. Ampliamos mediciones previas de corta duración y generamos un registro continuo a largo plazo. Estos datos sirven de puente entre las observaciones de campo y la altimetría satelital, contribuyendo a mejorar la monitorización del nivel del mar en la Antártida.

Y es que, aunque los satélites proporcionan una visión global, las observaciones locales son indispensables para validar sus mediciones.

Medidas y georeferenciación de sensores llevadas a cabo por los autores.
Bismarck Jigena Antelo.

Con este objetivo, se establecieron dos estaciones cercanas a las bases españolas Gabriel de Castilla (Isla Decepción) y Juan Carlos I (Isla Livingston), puntos clave para obtener referencias fiables del nivel del mar y comprender la dinámica del océano Austral.

Laboratorio natural en el fin del mundo

La isla Decepción es una caldera volcánica activa inundada por el mar. Su bahía, llamada Puerto Foster, combina refugio natural con riesgos geológicos, lo que convierte la medición del nivel del mar en un desafío técnico. Livingston, en contraste, es una isla abierta al océano, moldeada por glaciares y sometida a condiciones marinas más dinámicas. Juntas representan dos escenarios distintos para estudiar el comportamiento del océano.

Estas islas han sido centros de referencia para el programa antártico español y acumula décadas de mediciones mareográficas. Nuestro proyecto se apoyó en ese legado científico, incorporando instrumentación avanzada para actualizar y ampliar los registros existentes.

Midiendo el pulso del océano

En 2011, se instalaron estaciones mareográficas y meteorológicas en ambas islas: DECMAR en Decepción y LIVMAR en Livingston. Cada estación incluía sensores de presión sumergidos para medir el peso de la columna de agua, junto con sondas CTD, instrumentos oceanográficos de alta precisión que miden la conductividad, la temperatura y la profundidad.

En tierra, las estaciones fueron conectadas a puntos geodésicos mediante nivelación de alta precisión –técnica topográfica para medir diferencias de altura entre puntos con exactitud milimétrica– y posicionamiento GNSS –Sistema Global de Navegación por Satélite–. Ello permitió que cada lectura se integrara en un marco de referencia internacional, un paso esencial para diferenciar los cambios oceánicos reales de los movimientos verticales del terreno.

Control altimétrico de los sensores de presión fondeados en isla Decepción.
Bismarck Jigena Antelo.

El sistema también registró presión atmosférica y otros parámetros necesarios para corregir las variaciones. Durante los inviernos antárticos, los equipos funcionaron de forma autónoma, resistiendo meses de tormentas, hielo y ausencia de mantenimiento. Al regresar en verano, los instrumentos se encontraban cubiertos de nieve, pero seguían operativos y registrando datos valiosos.

Dos años bajo el hielo

Durante más de dos años, se recopilaron datos de mareas, ciclos estacionales y marejadas provocadas por tormentas. A pesar de las condiciones extremas, la precisión alcanzada fue centimétrica.

La comparación entre estaciones reveló diferencias constantes: Decepción, situada en una caldera cerrada, mostró mayor dependencia de las condiciones atmosféricas y geotérmicas locales; Livingston, abierta al océano, registró señales representativas del comportamiento del océano Austral.

Conjuntamente, estos datos constituyen una de las referencias más fiables del nivel del mar en las Shetland del Sur y son fundamentales para la monitorización climática de la región.

Su significado para el planeta

Variaciones aparentemente pequeñas en el nivel del mar tienen grandes repercusiones en los modelos climáticos. Así, las mediciones locales ayudan a mejorar las predicciones sobre el futuro de las costas en un escenario de calentamiento. También sirven para calibrar misiones satelitales como CryoSat-2 y Sentinel-6, esenciales para garantizar la coherencia de las observaciones globales.

La misión de la Agencia Espacial Europea Sentinel lleva un radar altímetro para observar cambios en la superficie del mar con una precisión de centímetros.
ESA., CC BY

La Antártida experimenta, además, movimientos verticales del terreno debido a cambios en la carga de hielo. Las conexiones geodésicas establecidas permiten separar estos movimientos de las variaciones reales del nivel del mar, mejorando la interpretación de las señales a largo plazo.

Ciencia española en la frontera

Este proyecto, que integra geodesia, geofísica, oceanografía y climatología, forma parte de la sostenida contribución española a la investigación polar. Se hizo posible gracias a la colaboración entre universidades, programas nacionales, bases antárticas y buques de investigación.

Trabajar en la Antártida exige afrontar fallos de equipos, congelación de instrumentos y dificultades logísticas. Sin embargo, cada dato recuperado demuestra la resiliencia de los equipos y el valor científico del esfuerzo.

Las mediciones en Decepción y Livingston muestran que, incluso en los lugares más remotos, es posible observar con precisión los mecanismos del cambio global. Escuchar el pulso del océano es escuchar la transformación continua de nuestro planeta.

The Conversation

Los autores agradecen el apoyo del Ministerio de Ciencia e Innovación de España (proyectos CGL2007-28768-E/ANT, CTM2008-03113-E/ANT, CTM2009-07251/ANT) y la asistencia logística en las Campañas Antárticas Españolas (2009-2013) en las Bases Antárticas Españolas Gabriel de Castilla (Decepción) y Juan Carlos I (Livingston), así como a las tripulaciones de los Buques de Investigación BIO Las Palmas (A-52) y BIO Hespérides (A-33).
Agradecemos a la Agencia Española de Cooperación y Desarrollo (AECID) y a la Universidad de Cádiz, que financiaron los estudios de Doctorado del Dr. Bismarck Jigena Antelo, y cuyos resultados son materia del presente artículo.

Juan J. Muñoz y Juan Manuel Vidal Pérez no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Mediciones del mar en los confines del mundo: la ciencia española en la Antártida – https://theconversation.com/mediciones-del-mar-en-los-confines-del-mundo-la-ciencia-espanola-en-la-antartida-269828

Violencia vicaria: ¿acaso son los niños “menos” víctimas que sus propias madres?

Source: The Conversation – (in Spanish) – By Lourdes Gaitán Muñoz, Co-directora revista científica complutense Sociedad e Infancias, Universidad Complutense de Madrid

Oleksandra Naumenko/Shutterstock

La figura de Janusz Korckzak es reconocida como una de las más influyentes en lo que se refiere a la consideración de niños y niñas como seres humanos, merecedores de amor, atención, respeto y derechos.

Resulta difícil definir a Korczak en una sola dimensión: médico pediatra, pedagogo, activista, locutor de radio, escritor… Escribir para él era una costumbre en la que se inició desde la escuela y siguió practicando hasta la víspera de su muerte.

Sin embargo, muy poco de su extensa obra está traducido al español, lo que dificulta, pero no impide, que sus ecos lleguen a los ámbitos de la pedagogía y la educación de tiempo en tiempo.

Existe en especial un pequeño texto titulado El derecho del niño al respeto (1928) en el que el autor vuelca las ideas fundamentales que surgen de sus largos años dedicados a observar, cuidar y tratar de comprender a los niños. En este texto podemos encontrar reflexiones como la siguiente, referida a la manera en que las personas adultas perciben a las niñas y niños:

Es como si hubiera dos tipos de vida: una seria y respetada, otra tolerada y menos valorada. Decimos que son personas del futuro, futuros trabajadores, futuros ciudadanos. Que lo serán, que su vida empezará de verdad más tarde, que no es seria hasta el futuro. Permitimos con indulgencia que se entretengan, pero estamos más cómodos sin ellos.

Nos vienen estas frases a la memoria a propósito del anteproyecto de Ley Orgánica de medidas en materia de violencia vicaria. Presentado el pasado septiembre por el Ministerio de Igualdad de España, tipifica la violencia vicaria como delito en el marco de la protección contra la violencia de género. La creadora del término, Sonia Vaccaro, define esta violencia “como su nombre indica: una violencia secundaria a la víctima principal, que es la mujer”.

Víctimas principales y secundarias

Más allá de la dudosa división entre víctimas principales (las mujeres) y víctimas secundarias (las personas sobre quienes ejerce violencia el maltratador), este término ha encontrado fácil acomodo en la costumbre de encerrar fenómenos complejos en etiquetas de fácil repetición y recuerdo –tan apreciadas por la cultura mediática– y que rápidamente se instalan en el pensamiento colectivo, llegando a convertirse en fenómenos en sí mismos.

Siendo tan grave por sí toda forma de violencia infligida a las mujeres, no necesitaría desviar el foco de la gravedad de las personas que sufren en su propio ser y en su propia carne esa violencia, es decir, las hijas e hijos de la mujer a quien se desea causar el mayor daño posible.

La doctrina jurídica y el propio diccionario de la RAE ya contienen la definición de figuras que ponen nombre a los delitos cometidos contra los propios hijos, o contra otros niños, con resultado de muerte. Son conceptos como “filicidio”, “neonaticidio” o “infanticidio”, que cuentan con décadas de investigación empírica y perfiles criminológicos bien estudiados. Del mismo modo lo están los conceptos de abuso o maltrato psicológico o físico ejercidos sobre niños y niñas.

El pensamiento, las prácticas y las enseñanzas de Janusz Korczak fueron una de las fuentes de inspiración de la primera Declaración Universal de los Derechos del Niño –la conocida como Declaración de Ginebra, de 1924–, si bien él mismo la criticaba por su indefinición y falta de compromiso. Mas esta indefinición quedó superada por la Convención sobre los Derechos del Niño de las Naciones Unidas, de 1989, que establece sin dudas el “principio del superior interés”. Esta expresión debe interpretarse como que, ante cualquier situación, es prioritario velar por el bienestar y la protección del niño, niña o adolescente, por encima de cualquier otro interés.

Los derechos de los niños deben funcionar de manera independiente

Esto significa que los derechos de los niños deben tomarse en consideración de forma independiente, sin quedar subordinados a los derechos, necesidades o intereses de las personas adultas, sean estas madres, padres, autoridades o instituciones.

El derecho al propio nombre, a ser nombrado como protagonista de la muerte propia, es un derecho que no puede ser negado a los niños cuando son víctimas de asesinato o maltrato. Son víctimas directas de esa agresión mortal, como lo son de otras formas de abuso y maltrato que hace tiempo fueron reconocidas por las leyes como tales.

Empatizar con el terrible dolor que sufre una madre a la que le arrebatan a sus hijos de manera trágica, no justifica que se desvíe la atención sobre la gravedad de un hecho, el infanticidio, que nunca es menos terrible que el feminicidio. Tristemente, la utilización del término “violencia vicaria” parece hacerle el juego al victimario, en cuanto que se reafirma la subordinación de la infancia, a la que se considera como un medio y no como un fin en sí misma, en el estricto sentido de la ética kantiana.

La asimilación de un término como “violencia vicaria” por parte de una sociedad bien intencionada y sensible frente a la violencia contra las mujeres no deja de representar la manifestación de un adultismo rampante; ese que considera a la persona adulta como superior, como medida de todas las cosas, mientras los niños y niñas son vistos como cargas que se acarrean, propiedades que se reclaman o daños colaterales que conlleva la violencia en las relaciones entre personas adultas.

Es consecuencia de admitir que, como decía Korczak, habría dos formas de vida: una seria y respetada (la de las mujeres adultas) y otra tolerada y menos valorada (la de los niños y niñas).

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Violencia vicaria: ¿acaso son los niños “menos” víctimas que sus propias madres? – https://theconversation.com/violencia-vicaria-acaso-son-los-ninos-menos-victimas-que-sus-propias-madres-270546

Doscientos días de verano

Source: The Conversation – (in Spanish) – By Armand Hernández, Investigador Ramón y Cajal en Ciencias de la Tierra y del Agua, Centro Interdiscilplinar de Química e Bioloxía (CICA), Universidade da Coruña

Massimo Todaro/Shutterstock

Seguramente todos hemos comentado lo caluroso y largo que fue el pasado verano. En el ascensor, en la cola del supermercado, en una sala de espera o mientras aguardamos a que nuestros hijos salgan del colegio; el “verano eterno” ha sido el tema estrella de muchas conversaciones cotidianas.

En Europa se empieza a sentir que el verano no termina. Las primaveras se acortan, los otoños llegan tarde y el frío del invierno, aunque puede ser extremo, dura poco. No es una impresión pasajera: la comunidad científica lleva tiempo observándolo, y ahora sabemos que el Viejo Continente se encamina hacia un cambio estacional sin precedentes en la historia humana.

En un estudio reciente, analizamos la evolución del verano durante los últimos 10 000 años y mostramos que, hace unos 6 000 años, esta estación llegó a extenderse durante casi 200 días. Entonces, las causas fueron naturales. Hoy el escenario es parecido, pero con una diferencia fundamental: el calentamiento actual tiene origen antropogénico y avanza a un ritmo muy superior al de aquel periodo.

Un archivo climático en el fondo de los lagos

Para reconstruir esta evolución, estudiamos las llamadas varvas, láminas de sedimento depositadas estacionalmente en algunos lagos. Cada varva suele incluir dos capas, una asociada al verano y otra al invierno. Midiendo su grosor es posible reconstruir, año a año, la duración e intensidad de cada estación.

El estudio de estas laminaciones en lagos europeos revela un patrón claro: los veranos del Holoceno medio (hace entre 8 000 y 4 000 años aproximadamente) duraban de media 200 días, casi un mes más que a principios del siglo XX.

¿Qué provocó esos veranos tan largos? La explicación principal está en el gradiente latitudinal de temperatura, la diferencia térmica entre el ecuador y el Ártico.

Cuando el Ártico se calienta más rápido que las zonas tropicales, ese gradiente se debilita y la circulación atmosférica se ralentiza. El chorro polar, la corriente de vientos rápidos que rodea el hemisferio norte, pierde intensidad y comienza a ondularse. Esta configuración favorece los llamados bloqueos atmosféricos: situaciones en las que un anticiclón estacionario permanece sobre Europa durante semanas, desviando las borrascas atlánticas y exponiendo al continente a aire cálido sostenido.




Leer más:
Fusión extrema en el Ártico: el nuevo rostro del deshielo acelerado por el cambio climático


Las consecuencias son veranos más largos y episodios más frecuentes de olas de calor, sequías y lluvias torrenciales al inicio del otoño. Según nuestra investigación, existe una relación estadística sólida entre la duración del verano y la intensidad del gradiente térmico: cerca de dos tercios de la variabilidad estacional del Holoceno se explica por cambios en este gradiente. Por cada grado de debilitamiento, Europa suma unos seis días adicionales de verano.

Lecciones del pasado

Lo preocupante es que este mecanismo está reactivándose hoy en día. La comparación con el pasado aporta perspectiva, pero también urgencia. Durante el Holoceno, las modificaciones del gradiente se debieron a variaciones orbitales o al retroceso de grandes masas de hielo, procesos lentos y graduales. Hoy, el motor del cambio es el calentamiento global inducido por la actividad humana, y la atmósfera responde con rapidez.

El Ártico se calienta unas cuatro veces más rápido que el resto del planeta, un fenómeno conocido como “amplificación ártica”, lo que reduce el gradiente térmico a una velocidad sin precedentes en los últimos diez milenios.




Leer más:
El Ártico, un termómetro del cambio climático


Desde los años ochenta, los veranos europeos muestran una clara tendencia a alargarse, confirmada por los registros meteorológicos. También lo reflejan los sistemas naturales: plantas que florecen antes, insectos que aparecen antes de lo habitual y aves migratorias que adelantan sus desplazamientos. El reloj climático de Europa está cambiando, y la diferencia principal respecto al pasado es la velocidad a la que ocurre.

Si las emisiones continúan al ritmo actual, Europa podría sumar hasta 42 días más de verano para el año 2100. Esto supondría veranos fuera de los umbrales naturales bajo los que se ha desarrollado la humanidad. En escenarios más optimistas, el aumento sería menor, pero aun así relevante: unos 13 días adicionales.

Aunque estas cifras puedan parecer pequeñas, dos semanas extra de verano extremo tienen consecuencias directas: mayor mortalidad por calor, estrés hídrico en cultivos, incendios más frecuentes, alteraciones en ecosistemas sensibles y presión añadida sobre las infraestructuras energéticas. A ello se suma el impacto en los inviernos que, aunque cada vez con más eventos extremos, duran poco, lo que afecta a la acumulación de nieve y la recarga de acuíferos, generando procesos de retroalimentación.

Una ventana al mañana

Aunque no existan predicciones exactas del futuro, aún es posible influir en su trayectoria. Cada decisión para reducir nuestras emisiones, cada avance tecnológico, cada política climática orientada a la neutralidad en carbono contribuye a frenar esta tendencia.

Contamos con herramientas científicas sólidas, sociedades más conscientes y una innovación climática en pleno desarrollo. El mismo conocimiento que permite reconstruir los veranos del Holoceno ayuda hoy a anticipar riesgos, transformar sistemas energéticos, restaurar ecosistemas y diseñar soluciones que hace poco parecían inalcanzables. La historia climática nos advierte. Queda por ver si sabremos escucharla.

The Conversation

Armand Hernández recibe fondos del Ministerio de Ciencia e Innovación (España).

Celia Martin Puertas recibe fondos de UK Research and Innovation

ref. Doscientos días de verano – https://theconversation.com/doscientos-dias-de-verano-270363

España suspende en formación emprendedora: por qué es importante y cómo mejorar

Source: The Conversation – (in Spanish) – By Pau Sendra Pons, Profesor de Contabilidad, Universitat de València

insta_photos/Shutterstock

Crear empleo, crecer económicamente, estimular la innovación, atraer inversión o aumentar la competitividad son objetivos comunes y recurrentes de cualquier economía mundial. Aunque las recetas para lograrlo varíen, hay un elemento que contribuye de manera significativa a conseguirlos: el emprendimiento, entendido como la puesta en marcha de proyectos empresariales basados en ideas innovadoras orientadas a la creación de valor.

Pero si preguntamos a cualquier niño o niña qué es lo que quieren ser de mayores, “emprendedor” o “emprendedora” no suele ser una respuesta habitual. Y sin embargo, es importante darles a conocer esta opción profesional y animarles a tenerla en cuenta.

Lo que se conoce como “formación emprendedora” –toda aquella que ayuda a una persona a convertir una idea de negocio innovadora en un proyecto empresarial real– pone al talento joven frente a un itinerario profesional que muchos aún no se habían planteado recorrer. En España, pese a los avances alcanzados en los últimos años, los jóvenes todavía no muestran una preferencia clara por emprender frente a otras alternativas de empleo por cuenta ajena.

Por otro lado, esta formación les dota de competencias y habilidades que, con independencia de que finalmente emprendan o no, favorecen una forma de trabajar ágil, resolutiva y alineada con las exigencias del entorno actual.

Suspensos en formación emprendedora

En España la formación emprendedora sigue siendo una asignatura pendiente: en una escala de 1 a 10, la educación y formación emprendedora en la etapa escolar apenas llega a un 2,6 según la valoración experta. Su evolución no está siendo muy prometedora: de un aprobado ajustado (5,1) en 2022 se descendió a un preocupante 2,1 en 2023, seguido del ligero avance citado.

En la etapa universitaria y de formación profesional, la puntuación alcanza un 5,2, una mejora notable respecto al 4,3 de 2023, y sigue una tendencia claramente ascendente. Pese a este avance, se sitúa lejos de niveles considerados sólidos. De hecho, el 68,4 % de los universitarios afirma no haber asistido a cursos de emprendimiento.

Valoración de los expertos (1-10) de la educación y formación emprendedora en la etapa escolar y postescolar.
Fuente: Informe Global Entrepreneurship Monitor: datos sobre España 2024-25.

Aun así, el emprendimiento ha ganado relevancia dentro de la educación superior en los últimos años: el 92 % de las universidades españolas desarrollan iniciativas para fomentarlo, más del 75 % de las universidades públicas cuentan con estructura propia en este ámbito y casi el 60 % dispone de recursos destinados específicamente a esas acciones.

Situación parecida en el resto del mundo

Los países de la Unión Europea obtienen resultados ligeramente superiores a los de España en la formación emprendedora escolar. En cambio, se sitúan por debajo en la formación postescolar: España alcanza un 5,2, frente al 4,5 de la media europea.

¿Y a escala mundial? Tanto en la etapa escolar como en la postescolar, los resultados son heterogéneos y en ningún caso superan el 6,5 en la valoración experta de la formación emprendedora escolar ni el 7,1 en la postescolar.

Formación y educación emprendedora escolar en el mundo según la National Expert Survey de GEM para 2024. Ilustración creada por el Banco Mundial.
GEM National Expert Survey (https://www.gemconsortium.org/data/key-nes).
Formación y educación emprendedora postescolar en el mundo según la National Expert Survey de GEM para 2024. Ilustración creada por el Banco Mundial.
GEM National Expert Survey (https://www.gemconsortium.org/data/key-nes)

Ahora bien, aunque la formación es relevante, no es el único condicionante: la infraestructura comercial de un país, su cultura, la facilidad en el acceso a financiación o la simplificación burocrática, entre otros aspectos, también influyen de forma notable y determinan que unos países presenten mayores tasas de emprendimiento que otros.




Leer más:
Los retos del empleo juvenil en España


¿Un talento innato?

La capacidad de emprender no es algo con lo que se nazca, pero tampoco depende solo de la formación que se reciba. Es el resultado de una combinación de predisposiciones personales, experiencias, aprendizajes y contexto.

La educación primaria, secundaria y superior tienen un papel destacado en dar a conocer el emprendimiento como vocación profesional y, a su vez, en dotar al estudiantado de las herramientas, los conocimientos y las destrezas para poder decantarse por esa opción.

Favorecer la formación emprendedora

Integrar la formación emprendedora en la educación escolar supone introducir desde etapas tempranas cuestiones clave como la innovación, la generación de valor compartido, la creatividad, el pensamiento crítico, la toma de decisiones en contextos de incertidumbre y la iniciativa personal. Existen varias formas de enseñar emprendimiento: de manera transversal, como asignatura obligatoria o como optativa. Integrarlo transversalmente en el currículum representa el enfoque más extendido en etapas tempranas a nivel europeo.




Leer más:
Educación para emprendedores: ¿qué es el enfoque 360?


En la educación superior, lo fundamental ahora es:

  • Consolidar buenas prácticas, reforzando e institucionalizando programas de formación y asesoramiento dirigidos al talento emprendedor universitario.

  • Dotar de mayores recursos, incrementando no solo la financiación, sino también la disponibilidad de espacios seguros de aprendizaje y de infraestructura tecnológica.

  • Comunicar bien lo que hay disponible, haciendo visible la estrategia emprendedora de los centros, su propósito y el alcance esperado de sus iniciativas. Este empeño requiere el compromiso del sector educativo, de los decisores políticos y, en definitiva, de la sociedad.

Todo ello desde un enfoque multidisciplinar, promoviendo equipos de trabajo en los que participe estudiantado de distintas áreas de conocimiento. A mayor diversidad de perfiles, mayor facilidad para identificar oportunidades de emprendimiento que resulten exitosas.

The Conversation

Pau Sendra Pons no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. España suspende en formación emprendedora: por qué es importante y cómo mejorar – https://theconversation.com/espana-suspende-en-formacion-emprendedora-por-que-es-importante-y-como-mejorar-272925

NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them

Source: The Conversation – USA – By Daniel Apai, Associate Dean for Research and Professor of Astronomy and Planetary Sciences, University of Arizona

A new NASA mission will study exoplanets around distant stars. European Space Agency, CC BY-SA

On Jan. 11, 2026, I watched anxiously at the tightly controlled Vandenberg Space Force Base in California as an awe-inspiring SpaceX Falcon 9 rocket carried NASA’s new exoplanet telescope, Pandora, into orbit.

Exoplanets are worlds that orbit other stars. They are very difficult to observe because – seen from Earth – they appear as extremely faint dots right next to their host stars, which are millions to billions of times brighter and drown out the light reflected by the planets. The Pandora telescope will join and complement NASA’s James Webb Space Telescope in studying these faraway planets and the stars they orbit.

I am an astronomy professor at the University of Arizona who specializes in studies of planets around other stars and astrobiology. I am a co-investigator of Pandora and leading its exoplanet science working group. We built Pandora to shatter a barrier – to understand and remove a source of noise in the data – that limits our ability to study small exoplanets in detail and search for life on them.

Observing exoplanets

Astronomers have a trick to study exoplanet atmospheres. By observing the planets as they orbit in front of their host stars, we can study starlight that filters through their atmospheres.

These planetary transit observations are similar to holding a glass of red wine up to a candle: The light filtering through will show fine details that reveal the quality of the wine. By analyzing starlight filtered through the planets’ atmospheres, astronomers can find evidence for water vapor, hydrogen, clouds and even search for evidence of life. Researchers improved transit observations in 2002, opening an exciting window to new worlds.

When a planet passes in front of its star, astronomers can measure the dip in brightness, and see how the light filtering through the planet’s atmosphere changes.

For a while, it seemed to work perfectly. But, starting from 2007, astronomers noted that starspots – cooler, active regions on the stars – may disturb the transit measurements.

In 2018 and 2019, then-Ph.D. student Benjamin V. Rackham, astrophysicist Mark Giampapa and I published a series of studies showing how darker starspots and brighter, magnetically active stellar regions can seriously mislead exoplanets measurements. We dubbed this problem “the transit light source effect.”

Most stars are spotted, active and change continuously. Ben, Mark and I showed that these changes alter the signals from exoplanets. To make things worse, some stars also have water vapor in their upper layers – often more prominent in starspots than outside of them. That and other gases can confuse astronomers, who may think that they found water vapor in the planet.

In our papers – published three years before the 2021 launch of the James Webb Space Telescope – we predicted that the Webb cannot reach its full potential. We sounded the alarm bell. Astronomers realized that we were trying to judge our wine in light of flickering, unstable candles.

The birth of Pandora

For me, Pandora began with an intriguing email from NASA in 2018. Two prominent scientists from NASA’s Goddard Space Flight Center, Elisa Quintana and Tom Barclay, asked to chat. They had an unusual plan: They wanted to build a space telescope very quickly to help tackle stellar contamination – in time to assist Webb. This was an exciting idea, but also very challenging. Space telescopes are very complex, and not something that you would normally want to put together in a rush.

The Pandora spacecraft with an exoplanet and two stars in the background
Artist’s concept of NASA’s Pandora Space Telescope.
NASA’s Goddard Space Flight Center/Conceptual Image Lab, CC BY

Pandora breaks with NASA’s conventional model. We proposed and built Pandora faster and at a significantly lower cost than is typical for NASA missions. Our approach meant keeping the mission simple and accepting somewhat higher risks.

What makes Pandora special?

Pandora is smaller and cannot collect as much light as its bigger brother Webb. But Pandora will do what Webb cannot: It will be able to patiently observe stars to understand how their complex atmospheres change.

By staring at a star for 24 hours with visible and infrared cameras, it will measure subtle changes in the star’s brightness and colors. When active regions in the star rotate in and out of view, and starspots form, evolve and dissipate, Pandora will record them. While Webb very rarely returns to the same planet in the same instrument configuration and almost never monitors their host stars, Pandora will revisit its target stars 10 times over a year, spending over 200 hours on each of them.

NASA’s Pandora mission will revolutionize the study of exoplanet atmospheres.

With that information, our Pandora team will be able to figure out how the changes in the stars affect the observed planetary transits. Like Webb, Pandora will observe the planetary transit events, too. By combining data from Pandora and Webb, our team will be able to understand what exoplanet atmospheres are made of in more detail than ever before.

After the successful launch, Pandora is now circling Earth about every 90 minutes. Pandora’s systems and functions are now being tested thoroughly by Blue Canyon Technologies, Pandora’s primary builder.

About a week after launch, control of the spacecraft will transition to the University of Arizona’s Multi-Mission Operation Center in Tucson, Arizona. Then the work of our science teams begins in earnest and we will begin capturing starlight filtered through the atmospheres of other worlds – and see them with a new, steady eye.

The Conversation

Daniel Apai is a professor of astronomy, planetary sciences and optical science at the University of Arizona. He receives funding from NASA.

ref. NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them – https://theconversation.com/nasas-pandora-telescope-will-study-stars-in-detail-to-learn-about-the-exoplanets-orbiting-them-272155

Quand les IA cadrent l’information et façonnent notre vision du monde

Source: The Conversation – in French – By Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong

Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les IA cadrent l’information et façonnent notre vision du monde – https://theconversation.com/quand-les-ia-cadrent-linformation-et-faconnent-notre-vision-du-monde-272768

Groenland : rester avec les Inuit polaires

Source: The Conversation – in French – By Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland – taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Groenland : rester avec les Inuit polaires – https://theconversation.com/groenland-rester-avec-les-inuit-polaires-273057

L’avenir de l’impression 3D passera par les matériaux

Source: The Conversation – in French – By Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’avenir de l’impression 3D passera par les matériaux – https://theconversation.com/lavenir-de-limpression-3d-passera-par-les-materiaux-258652