Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail

Source: The Conversation – in French – By Melise Panetta, Lecturer of Marketing in the Lazaridis School of Business and Economics, Wilfrid Laurier University

Pendant longtemps, l’expression « le robot m’a pris mon emploi » évoquait des machines dans les usines. Aujourd’hui, la génération Z fait face à un nouveau défi : l’IA s’invite dans les stages et les postes d’entrée.

Les stages et les emplois débutants ont toujours constitué un tremplin prévisible vers le monde du travail, en offrant aux nouveaux employés l’expérience et les compétences nécessaires à leur développement professionnel à long terme.

Mais à mesure que l’intelligence artificielle (IA) se répand dans tous les coins du monde du travail moderne, ces postes sont susceptibles d’être remplacés par l’automatisation.


25-35 ans : vos enjeux, est une série produite par La Conversation/The Conversation.

Chacun vit sa vingtaine et sa trentaine à sa façon. Certains économisent pour contracter un prêt hypothécaire quand d’autres se démènent pour payer leur loyer. Certains passent tout leur temps sur les applications de rencontres quand d’autres essaient de comprendre comment élever un enfant. Notre série sur les 25-35 ans aborde vos défis et enjeux de tous les jours.

Les postes d’entrée impliquent généralement des tâches peu complexes et fréquentes, telles que la saisie de données, la planification ou la rédaction de rapports, tâches que l’IA générative peut accomplir à un coût nettement inférieur et plus rapidement qu’un être humain. Cela signifie presque certainement une diminution du nombre d’échelons traditionnels au bas de l’échelle professionnelle.

Nous en constatons déjà les effets : les emplois de premier échelon se font plus rares, les candidats étant confrontés à une augmentation de 14 % du nombre de candidatures par poste, selon LinkedIn.

L’IA transforme le monde du travail

L’intégration de l’IA dans tous les secteurs est en train de remodeler fondamentalement le marché du travail.

Près de la moitié des professionnels craignent que l’IA ne remplace leur emploi. Et ils ont de bonnes raisons de s’inquiéter : d’ici 2030, on estime que près de 30 % des tâches pourraient être automatisées par l’IA générative.

Par ailleurs, près des deux tiers des cadres se disent prêts à utiliser des outils d’IA pour augmenter la productivité, au risque de réduire les effectifs. À l’inverse, seul un cadre sur trois est prêt à conserver son personnel au détriment d’une productivité attendue plus élevée.

On prévoit également que la diminution des postes traditionnels de niveau débutant ou junior dans des secteurs tels que la restauration, le service à la clientèle, la vente et le soutien administratif pourrait représenter près de 84 % des changements professionnels attendus d’ici 2030.

Pénurie de talents et de postes d’entrée à l’avenir

Les données sur l’IA et l’avenir du travail soulignent également un autre problème potentiel : la pénurie de talents pour certaines compétences. Un rapport publié en 2024 par Microsoft et LinkedIn révèle que les dirigeants s’inquiètent de la pénurie dans des domaines tels que la cybersécurité, l’ingénierie et la conception créative.

Bien que ces données puissent sembler contradictoires, elles indiquent qu’outre la diminution du nombre de postes de débutants disponibles, des changements dans les rôles et les compétences sont également à prévoir.

En conséquence, la concurrence pour les postes de débutants devrait s’intensifier, et les candidats capables d’utiliser des outils d’IA pour améliorer leur productivité et leur efficacité seront davantage valorisés.

Au lieu de simplement supprimer des postes, de nombreux emplois se transforment pour exiger de nouvelles compétences. Il existe également une demande croissante de talents spécialisés dans les domaines où l’IA ne peut pas encore augmenter pleinement les capacités humaines.

La maîtrise de l’IA est la nouvelle condition d’entrée

À mesure que l’IA se généralise dans le monde du travail, les postes « débutants » ne consistent plus seulement à accomplir des tâches de base, mais aussi à savoir travailler efficacement avec les nouvelles technologies, y compris l’IA.

Les employeurs commencent à accorder une grande importance à la maîtrise de l’IA. Deux tiers des cadres affirment qu’ils n’embaucheraient pas une personne sans compétences en IA et 71 % déclarent qu’ils préféreraient un candidat moins expérimenté, mais possédant des compétences en IA à un candidat plus expérimenté, mais qui n’en possède pas.

Avec moins de postes de débutants disponibles, les jeunes travailleurs devront trouver comment se démarquer sur un marché du travail concurrentiel. Mais malgré ces défis, la génération Z est peut-être la mieux placée pour s’adapter à ces changements.

En tant que natifs du numérique, de nombreux membres de la génération Z intègrent déjà des outils d’IA dans leur travail. Un rapport de LinkedIn et Microsoft a révélé que 85 % d’entre eux utilisent des outils d’IA tels que ChatGPT ou Copilot sur leur lieu de travail, ce qui indique qu’ils sont à la fois à l’aise et désireux d’utiliser cette technologie.

Cette tendance reflète des tendances plus générales au sein de la population active. Un rapport a révélé que 76 % des professionnels estiment avoir besoin de compétences liées à l’IA pour rester compétitifs. Ce même rapport de Microsoft et LinkedIn a révélé une augmentation de 160 % des cours de formation à l’IA.

Cette importance croissante accordée aux compétences en IA s’inscrit dans une tendance plus large vers le « renforcement des compétences », c’est-à-dire le processus qui consiste à améliorer ses compétences pour s’adapter à l’évolution du marché du travail. Aujourd’hui, l’amélioration des compétences consiste à apprendre à utiliser l’IA pour améliorer, accélérer et renforcer ses performances sur le lieu de travail.

Un nouveau type d’emploi de premier échelon

Étant donné que la maîtrise de l’IA devient une compétence professionnelle essentielle, il est important de pouvoir se présenter comme un candidat possédant des compétences en IA pour se démarquer sur un marché de l’emploi de premier échelon très concurrentiel. Cela implique de savoir utiliser les outils d’IA, d’évaluer leurs résultats de manière critique et de les appliquer dans un contexte professionnel. Cela signifie également apprendre à présenter ses compétences en IA sur un CV et lors d’entretiens.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les employeurs ont également un rôle à jouer dans tout cela. S’ils veulent attirer et retenir des employés, ils doivent repenser les postes d’entrée. Au lieu de les supprimer, ils devraient se recentrer sur des activités à plus forte valeur ajoutée qui nécessitent un esprit critique ou de la créativité. Ce sont là les domaines dans lesquels les humains surpassent les machines et où l’IA peut servir de soutien plutôt que de remplacement.

Mais pour que cela fonctionne, les employeurs doivent réévaluer leurs pratiques d’embauche afin de privilégier la maîtrise de l’IA et le savoir-faire transférable plutôt que des exigences d’expérience dépassées.

L’avenir du travail ne réside pas dans le remplacement des humains par les robots, mais dans l’apprentissage de la technologie pour renforcer les compétences et ouvrir de nouvelles voies vers l’emploi.

La Conversation Canada

Melise Panetta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail – https://theconversation.com/un-robot-ma-pris-mon-stage-limpact-de-lia-sur-lentree-des-jeunes-dans-le-monde-du-travail-266134

¿Por qué el termómetro marca 25 º y la sensación térmica es de 27 º?

Source: The Conversation – (in Spanish) – By Natalia Limones, Hidroclimatología y riesgos hidrometeorológicos, Universidad de Sevilla

DimaBerlin/Shutterstock

Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com


Pregunta formulada por María Elena, de 16 años. IES V Centenario (Sevilla)


No es un fallo de la app o del aparato: se trata de dos cosas distintas. Entender esa diferencia te ayuda a planificar mejor tu actividad, escoger la ropa que debes ponerte e hidratarte adecuadamente. Veamos qué mide cada indicador.

Lo que mide el termómetro y lo que percibe la piel

En primer lugar, un termómetro meteorológico registra la temperatura del aire en condiciones controladas: a la sombra, con ventilación y a una altura estándar. Es una referencia física estable y comparable entre lugares y días. En cambio, la sensación térmica, o temperatura aparente, es una estimación de lo que percibe el cuerpo.

El objetivo práctico de la segunda es claro: traducir condiciones meteorológicas en confort o estrés térmico. No sustituye al termómetro, sino que lo contextualiza desde la fisiología humana.

Para calcular esa sensación se combinan diversas variables que alteran nuestro intercambio de calor con el ambiente: la temperatura, la humedad, el viento y la radiación solar. Por eso, dos días con la misma temperatura pueden sentirse distintos; si cambian esas condiciones, cambia lo que siente nuestra piel.

Nuestro aire acondicionado biológico

El sudor es nuestro aire acondicionado biológico: al evaporarse, extrae calor de la piel y nos enfría. Pero esa evaporación depende de cuánta humedad (es decir, cuánto vapor de agua) hay flotando en el aire. Con humedad alta, el aire está “cargado” de vapor y cuesta más que el sudor se convierta en gas.

El resultado es que notamos el sudor líquido en la piel –no lo evacuamos–, con la consecuencia de que nos enfriamos peor y sentimos más calor a igual temperatura. Por eso, en días pegajosos, de mucha humedad, hablamos de “bochorno”.

Con humedad baja, ocurre lo contrario: el sudor se evapora con facilidad, la piel pierde calor con más eficacia y la sensación puede ser más fresca. Ahora bien, en esos días, y aunque no lo notemos, estaremos sudando mucho. De ahí la importancia de reponer líquidos para evitar deshidratarnos.

El “efecto ventilador”

La sensación térmica también depende del movimiento del aire. El viento acelera el intercambio y la renovación de aire junto a la piel y favorece la evaporación del sudor porque llega continuamente nuevo aire seco. Como ese “efecto ventilador” hace que puedas sudar –y, con ello, refrigerarte–, notarás una sensación térmica más baja que la que correspondería a la temperatura del aire. Una brisa ligera ya se nota, pero con viento sostenido puede haber realmente mucha diferencia.

Por otro lado, el sol directo actúa al revés: añade radiación que el cuerpo absorbe como calor. Lo mismo pasa con superficies calientes como el asfalto, el metal o las fachadas soleadas: irradian energía hacia nosotros, sin que realmente la temperatura del aire que nos rodea cambie mucho. Estar a pleno sol o junto a un pavimento recalentado eleva la sensación térmica, y por eso en las ciudades dicha percepción suele incrementarse.

A consecuencia de ello, la suma de sombra y brisa normalmente reduce la sensación térmica, mientras que la conjunción de sol y superficies calientes suelen aumentarla. Ponerse a la sombra, o desviarse a una calle ventilada, suponen una diferencia significativa sin que el termómetro necesariamente se modifique. De noche, si hay poca humedad y algo de viento, esa diferencia en la sensación térmica se hace muy evidente.

Por qué importa saberlo

Algunas aplicaciones del tiempo suelen mostrar un índice de calor corporal. Por ejemplo, puedes calcular uno de estos índices en la web del Instituto de Salud Global de Barcelona de forma muy simple, combinando temperatura y humedad. Este parámetro nos puede resultar especialmente útil cuando el aire supera los 27–30 °C y tenemos que planificar actividades exigentes como deporte intenso o trabajos al sol.

En interiores también cambia lo que sentimos aunque el termómetro marque la misma temperatura. Un gimnasio cerrado, una cocina industrial o un taller con hornos pueden acumular radiación procedente de superficies calientes. Si además de esto la ventilación es pobre, la humedad sube y el sudor se evapora peor. Resultado: con 25 °C “oficiales” puedes notar más calor que en el exterior a la sombra.

Por eso, cuando realizamos una actividad intensa o prolongada, no basta con mirar la temperatura: hay que valorar el estrés térmico real. En el mundo laboral, el Instituto Nacional de Seguridad y Salud en el Trabajo usa otro indicador, el Wet Bulb Globe Temperature, que integra la temperatura del aire, la humedad, el efecto del sol o de superficies radiantes y la ventilación. Este cálculo se recomienda para evaluar condiciones tanto en interiores como en exteriores, y sirve decidir las pausas, el ritmo o qué equipos de protección llevar en los trabajos.

¿Y por qué importa todo esto? Importa porque de esa sensación térmica dependen nuestro confort y nuestra salud. Entenderlo ayuda a cuidarnos mejor, ya que planificar la actividad según el sol y la humedad, hidratarse bien y usar ropa transpirable marcan la diferencia. En olas de calor, por ejemplo, nos sirve de referencia para tomar decisiones prudentes.


El museo interactivo Parque de las Ciencias de Andalucía y su Unidad de Cultura Científica e Innovación colaboran en la sección The Conversation Júnior.


The Conversation

Natalia Limones no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Por qué el termómetro marca 25 º y la sensación térmica es de 27 º? – https://theconversation.com/por-que-el-termometro-marca-25-y-la-sensacion-termica-es-de-27-252140

La ciencia del café de especialidad

Source: The Conversation – (in Spanish) – By José Ángel Rufián Henares, Catedrático del departamento de Nutrición y Bromatología, Universidad de Granada

Narong Khueankaew/Shutterstock

El café de especialidad es, como bien dice su nombre, un café “especial”, singular. Pero ¿por qué? ¿Qué lo hace diferente al resto?

Pues el secreto está en su procesamiento. En el fruto del café existen varias capas que se deben tener en cuenta para poder comprender los pretratamientos a los que se ve sometido. La capa más externa es la cáscara, seguida de una capa de pectina, también llamada pulpa y, finalmente, en el centro, se encuentra la semilla (el café verde), que se conoce como almendra.

Los cafés de especialidad, tras ser recolectados, sufren tres tipos de pretratamientos que modifican el sabor y aroma del café final: lavado, honey y natural.

  • Para obtener el café lavado, se separa la cáscara de la almendra con su cubierta de pectina. Posteriormente se lava con agua para eliminar la pulpa y se lleva a cabo un proceso de fermentación.

  • En el café honey solo se realiza el proceso de descascarillado para eliminar la cáscara, llevándose a cabo posteriormente la fermentación y el secado de la almendra recubierta de la capa de pectina.

  • Por último, en el café natural todo el fruto (con todas sus capas) se ve expuesto al proceso fermentativo y de secado.

Cada uno de estos pretratamientos otorga al café de especialidad características de sabor y aroma diferentes antes de su tostado.

El proceso de tostado

El grano de café verde, aunque se haya sometido a los pretratamientos comentados anteriormente, carece de los matices del tostado. Es en este proceso, al aplicar temperaturas den 170 °C y 220 °C , cuando se permite llegar al grano al punto de ruptura para conseguir unas propiedades organolépticas óptimas.

En el caso de que el tostado sea demasiado ligero, tendremos notas más similares al café verde, con mayor acidez y menor amargor; sin embargo, cuando el tostado es más intenso, el café adquiere un perfil mucho más amargo y menos ácido.

Un ejemplo de café muy tostado es el café torrefacto, que se consume bastante en España (aunque está prohibido en varios países de la Unión Europea). Se tuesta junto con azúcar a altas temperaturas, dando como resultado un café con notas a quemado, caramelo, tierra y carbón.

Café de especialidad vs comercial

El café de especialidad se diferencia del comercial en dos aspectos fundamentales.

En primer lugar, en el primero se conocen todas las características que modifican los aromas y el sabor del café: procedencia, variedad, especie…

En segundo lugar, el café de especialidad es avalado por la Speciality Coffee Association (SCA) mediante la realización de una cata, donde se valora el café con un número comprendido entre el 0 y el 100. Así, el café solo será considerado de especialidad si este valor se encuentra por encima de 80.

Esto implica que la etiqueta “de especialidad” otorga importancia a la calidad, trazabilidad y sostenibilidad de toda la cadena productiva y de distribución, mientras que el café comercial busca un precio más bajo en detrimento de la calidad.

Beneficios nutricionales

El café de especialidad presenta grandes beneficios nutricionales frente al café comercial estándar. Se debe a que su riguroso proceso de fabricación garantiza la presencia de compuestos bioactivos.

Algunas de las propiedades saludables son:

  • Capacidad antioxidante: una taza de café puede aportar entre 200 y 550 miligramos de compuestos antioxidantes, lo que en algunos países puede llegar a suponer el 60 % de la ingesta total de antioxidantes diaria.

  • Cambios en la expresión de los genes: ciertos estudios demuestran que el café, gracias a sus compuestos bioactivos, puede modificar la activación de genes en patologías como el cáncer de colon, la leucemia y el cáncer de mama, entre otros.

  • Cambios en la microbiota intestinal: su consumo puede favorecer una microbiota intestinal más diversa, con una mayor capacidad antiinflamatoria.

En conclusión, el café de especialidad no solo es una bebida con unas características sensoriales superiores a la del café comercial, sino que también posee unos beneficios nutricionales que hacen de este alimento un potenciador de la salud humana.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. La ciencia del café de especialidad – https://theconversation.com/la-ciencia-del-cafe-de-especialidad-263565

Rusia obliga a Europa a prepararse frente a la amenaza de los drones

Source: The Conversation – (in Spanish) – By Michele Testoni, Professor of International Relations, IE University

Anelo/Shutterstock

Mientras la ofensiva militar de Moscú continúa en el extremo oriental de Europa, las tensiones se disparan en el continente debido a las repetidas y descaradas violaciones del espacio aéreo europeo orquestadas deliberadamente por Rusia. La Unión Europea ha anunciado contramedidas, en forma de un “muro antidrones”, para combatir esta nueva amenaza.

Entre el 9 y el 10 de septiembre, se avistaron 19 drones entrando en el espacio aéreo polaco. Se activó inmediatamente una respuesta de defensa aérea liderada por la OTAN, con F-16 polacos y F-35 holandeses despegando en una misión de alerta de reacción rápida. Tres de los drones fueron derribados, mientras que al menos otros ocho se estrellaron en territorio polaco. Otro dron penetró hasta 260 km en Polonia, más allá de la capital, Varsovia, lo que obligó al cierre temporal de cuatro aeropuertos.

Un incidente aún más grave se produjo el 13 de septiembre, cuando tres cazas rusos MiG-31 violaron el espacio aéreo de Estonia durante más de 10 minutos. Los aviones volaron en paralelo a la frontera, penetrando menos de 10 km en territorio estonio antes de ser escoltados de vuelta por cazas de la OTAN.

Polonia y Estonia invocaron el artículo 4 del Tratado de Washington, un mecanismo de consulta colectiva que se activa cuando “la integridad territorial, la independencia política o la seguridad de cualquiera de las Partes se ve amenazada”. La OTAN respondió condenando “las acciones imprudentes de Rusia” y prometiendo reforzar la “postura de disuasión y defensa de la Alianza, incluso mediante una defensa aérea eficaz”.

Se han producido otras presuntas violaciones en Dinamarca (que acababa de anunciar la compra de “armas de precisión de largo alcance”), Finlandia, Francia, Alemania, Letonia, Noruega y Rumanía. El 3 de octubre, los avistamientos de drones provocaron el cierre del aeropuerto de Múnich durante unas horas y la cancelación de casi 20 vuelos.

¿Qué pretende Rusia?

A través de estas intrusiones, Rusia quiere poner a prueba la preparación de los mecanismos de defensa colectiva de la OTAN. Putin quiere saber hasta dónde está dispuesta a llegar Europa para defender a Ucrania ante la ambivalente política exterior de Estados Unidos. En otras palabras: ¿sigue siendo el artículo 5 de la OTAN un elemento disuasorio creíble contra los planes imperialistas del Kremlin?

La estrategia de Rusia ha tomado claramente esa dirección tras el fracaso de la Cumbre de Alaska entre Trump y Putin el 15 de agosto de 2025. La reunión no dio lugar a medidas concretas y, para empeorar las cosas, Trump reconoció abiertamente la imposibilidad de alcanzar un alto el fuego entre Rusia y Ucrania.

La política arriesgada de Putin –la práctica de llevar una negociación al borde del conflicto abierto para lograr el resultado deseado– debe interpretarse como una señal hostil. El Kremlin está diciendo que no quiere detener los combates (todavía), ya que percibe una ventaja en prolongar la guerra. Es más, están pisando el acelerador.




Leer más:
Misiles, drones y sabotajes: cómo Rusia intensifica su ofensiva ‘silenciosa’ sobre Europa


Drones ficticios y la “zona gris”

El objetivo de esta escalada calculada se ve confirmado por el arma elegida por el Kremlin. La mayoría de los dispositivos derribados o recuperados han resultado ser drones kamikaze de fabricación rusa Geran-2 (Geranium-2), una versión simplificada y más barata del Shahed-136 iraní, ampliamente utilizado en Ucrania.

Estos drones se emplean principalmente como señuelos para saturar y distraer a las defensas aéreas, aunque también pueden realizar reconocimientos y ataques oportunistas con pequeñas cargas explosivas.

Un dron negro yace en el suelo mientras dos soldados lo inspeccionan
Un dron ruso Geran-2, encontrado en la región de Vinnytsia, en Ucrania, en marzo de 2024.
Policía Nacional de Ucrania / Wikimedia Commons, CC BY

Las imprudentes acciones de Rusia también tienen un segundo objetivo en mente: evaluar la cohesión general de la opinión pública occidental, y de los europeos en particular. Las dimensiones informativas y psicológicas de la guerra son fundamentales en este tipo de operaciones y están profundamente arraigadas en el pensamiento estratégico de Rusia, especialmente en sus últimas iteraciones.

Esto incluye la difusión de información errónea a través de las redes sociales o el empoderamiento de partidos políticos antieuropeístas y prorrusos, pero ahora ha ido más allá: Rusia está operando deliberadamente en la “zona gris”. Se trata del espacio entre la guerra y la paz en el que se llevan a cabo acciones coercitivas no militares con el fin de alcanzar objetivos estratégicos por debajo del umbral de los conflictos armados convencionales.

Sin embargo, sus recientes provocaciones pueden correr el riesgo de escalar a una guerra abierta que, al menos oficialmente, nadie desea y que sería devastadora para todas las partes.




Leer más:
¿Qué implica para España el ataque ruso con drones en Polonia?


¿Un frente unido?

Rusia está poniendo a prueba la determinación colectiva de Europa mediante un peligroso juego de “divide y vencerás” con las diferentes percepciones de amenaza del continente. Puede que esté funcionando. El canciller alemán Friedrich Merz ha afirmado que “Europa ya no está en paz con Rusia”, y la primera ministra danesa Mette Fredriksen ha argumentado que “Europa se encuentra en la situación más peligrosa desde la Segunda Guerra Mundial”, pero otros responsables políticos europeos parecen reacios a adoptar una postura tan firme.

Además, las protestas propalestinas generalizadas que estallaron a raíz de la interceptación por parte de Israel de la flotilla de ayuda a Gaza han puesto de relieve las persistentes diferencias en la percepción de la amenaza dentro de las sociedades europeas.

Estas divisiones no solo están determinadas por factores geográficos o físicos, sino también por alineamientos ideológicos: las posiciones pro-Palestina se asocian en gran medida con los sentimientos de izquierda, mientras que las actitudes pro-Ucrania se vinculan con opiniones centristas o de derecha. La debilidad de Europa, reforzada por las inconsistencias de la política exterior estadounidense, explica en gran medida la fortaleza de Rusia.

A pesar de estas diferencias, la reciente reunión de la Comunidad Política Europea (EPC) en Copenhague vio a los líderes europeos proyectar una imagen de unidad, cohesión y resiliencia al aprobar una nueva iniciativa emblemática denominada “muro antidrones”.

No se trataría de una barrera física, sino de una red por capas de sistemas de detección e interceptación. Se basaría en las capacidades antidrones existentes en cada uno de los países europeos.

A día de hoy, se sabe poco sobre cómo será realmente este “muro” y cuánto tiempo llevará ejecutarlo (el ministro de Defensa alemán, Boris Pistorius, dijo que podría ser cuestión de tres o cuatro años), y quién se encargará de su implementación: ¿la Comisión Europea o los Estados miembros?

La guerra está evolucionando

Lo que está totalmente claro es que los países de la UE y la OTAN tienen que adaptar sus sistemas de defensa aérea a un panorama estratégico cambiante. La amenaza que representa Rusia ya no proviene únicamente de dispositivos de movimiento rápido –aviones, misiles balísticos, de crucero o incluso hipersónicos–, sino también de la tecnología en rápida evolución de los drones no tripulados. Esta nueva amenaza debe contrarrestarse incorporando métodos de guerra electrónica más baratos, como el bloqueo, la suplantación o la interrupción de las señales electrónicas de las que dependen los drones.

La guerra en Ucrania ya ha demostrado que los drones son un elemento revolucionario en la estrategia militar del siglo XXI. Son baratos, pequeños (lo que significa que son difíciles de detectar con la tecnología existente), capaces de infligir daños importantes y, en general, capaces de suponer una amenaza desproporcionada. Los drones están haciendo que la seguridad internacional se enfrente a nuevos peligros y sea más inestable, ya que desplazan el equilibrio militar de la defensa hacia el ataque.

Por esta razón, la racionalización de los sistemas de defensa contra los drones es una necesidad estratégica para Europa. La respuesta de los Estados miembros de la UE y la OTAN debe ser decisiva, rápida y eficaz, ya que en este momento no se puede descartar una acción mucho más agresiva por parte de Rusia, como una invasión terrestre de los Estados bálticos.

The Conversation

Michele Testoni no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Rusia obliga a Europa a prepararse frente a la amenaza de los drones – https://theconversation.com/rusia-obliga-a-europa-a-prepararse-frente-a-la-amenaza-de-los-drones-266962

¿Está España preparada para liderar la diplomacia de datos en la era digital?

Source: The Conversation – (in Spanish) – By Armando Alvares Garcia Júnior, Professor de Direito Internacional, Relações Internacionais e Geopolítica/Geoeconomia, UNIR – Universidad Internacional de La Rioja

Carlos andre Santos/Shutterstock

La diplomacia clásica encontró en los salones recién pintados de las cancillerías y en las mesas de negociación su espacio natural. Hoy esa escena se ha trasladado al ciberespacio, un ámbito en el que la soberanía de los Estados se mide por su capacidad para gestionar, proteger y compartir datos.

Bajo el paraguas de la diplomacia cibernética –o diplomacia de datos– los gobiernos y las instituciones internacionales debaten la regulación de flujos de información, la defensa frente a ciberataques y el establecimiento de protocolos comunes para el cifrado y la certificación de identidades. El impulso por colocar la información en el centro de la acción exterior revela un cambio profundo: los datos se han convertido en un recurso estratégico equivalente al petróleo o al acero.

Oportunidades y obstáculos para liderar el sector

En este contexto, España cuenta con ventajas singulares. Su red de centros de datos se alinea con cables submarinos que la vinculan directamente con América Latina, que le otorga una posición geoestratégica única. La implementación temprana del Reglamento General de Protección de Datos y el prestigio de la Agencia Española de Protección de Datos consolidan una reputación de rigor que resulta atractiva para socios europeos y latinoamericanos.

No obstante, la fragmentación competencial entre el Estado y las comunidades autónomas dificulta la convergencia en una sola voz. El artículo 149.1.29 de la Constitución reserva al Estado la competencia exclusiva en materia de seguridad pública –que abarca la ciberseguridad–, mientras que las comunidades autónomas gestionan de forma independiente sus propios sistemas de respuesta, el SOC de la Comunidad de Madrid o el CERT de la Generalitat de Cataluña), lo que obliga a sincronizar procedimientos entre múltiples instituciones antes de hablar con la UE.

Para minimizar este problema, movimientos como el Foro Nacional de Ciberseguridad –impulsado en julio de 2020 por el Centro Criptológico Nacional y el Departamento de Seguridad Nacional y que integra a ministerios, INCIBE, CCN-CERT, universidades y empresas– están comenzando a sentar las bases de una estrategia nacional coordinada.

Retraso en cumplir la normativa

Estas nuevas dinámicas buscan consolidar una coordinación indispensable. La Directiva (UE) 2022/2555, conocida como NIS 2, obliga a las entidades de 18 sectores críticos a implantar un sólido sistema de gestión de riesgos, notificar incidentes en un plazo de 24–72 horas, reforzar la cooperación transfronteriza y exigir la rendición de cuentas de sus máximos responsables. Esta norma ha intensificado la presión de Bruselas sobre España, que aún no ha completado su transposición y se expone a posibles sanciones por parte de la Comisión Europea.

La mayoría de los Estados miembros de la UE ya han incorporado la Directiva NIS2 a su ordenamiento, pero España sigue pendiente de culminar el proceso legal y no notificó a la Comisión Europea la aprobación definitiva de su Ley de Coordinación y Gobernanza de la Ciberseguridad dentro del plazo previsto (principios de julio de 2025). Como resultado, sigue abierto el procedimiento de infracción y el país podría ser condenado por el Tribunal de Justicia de la Unión Europea, lo que supondría sanciones y, sobre todo, comprometería la eficiencia del escudo cibernético europeo, dificultando la plena integración de España en el sistema europeo de respuesta y alerta mientras empresas y administraciones continúan sujetas a las normativas previas de ciberseguridad, en un momento crítico de creciente sofisticación de los ciberataques.




Leer más:
La ciberdelincuencia es un reto económico global


El talento investigador español contribuye en el fortalecimiento de esta iniciativa. Equipos de la Universidad Politécnica de Madrid, de la UPV/EHU y de la Universidad de Málaga lideran proyectos en ciberseguridad y análisis masivo de datos. Sus publicaciones y colaboraciones con organismos internacionales demuestran que España participa activamente en el Internet Governance Forum de la ONU, en comités de la OCDE y en grupos de trabajo de la Organización para la Seguridad y la Cooperación en Europa (OSCE). Cada una de estas plataformas sirve como escenario para exponer propuestas, intercambiar mejores prácticas y forjar alianzas que trascienden fronteras.

Alianzas necesarias para lograr un objetivo

La diplomacia de datos demanda vínculos con el sector privado y con la sociedad civil. Google, Microsoft, Amazon, Meta y Apple actúan como interlocutores influyentes, capaces de impulsar inversiones en infraestructuras estratégicas y de negociar criterios de cumplimiento normativo. En España, las conversaciones con proveedores de hardware, con empresas de servicios en la nube y con operadores de telecomunicaciones han permitido diseñar una hoja de ruta que no sacrifica la protección de datos personales a cambio de potenciar la innovación. Resulta necesario afianzar esas relaciones, fomentando alianzas público-privadas que permitan convertir las políticas de datos abiertos en un motor de desarrollo económico responsable.




Leer más:
Derechos digitales para proteger a los ciudadanos de los riesgos de la tecnología


Una oportunidad única que aprovechar

La propuesta de conectar Europa con América Latina y el Caribe mediante un corredor digital seguro capitaliza el valor geográfico y cultural de España. Madrid, Lisboa y Santos (Brasil) podrían constituir nodos fundamentales de intercambio de información respetando normativas homogéneas. Un proyecto de este tipo serviría para impulsar la investigación, facilitar la movilidad académica y fortalecer la cooperación en áreas como la salud pública, el cambio climático y la seguridad alimentaria. La diplomacia académica tendría un papel decisivo en este planteamiento, convocando foros internacionales en Barcelona y Madrid que reúnan a diplomáticos, técnicos y representantes del sector tecnológico.

El ámbito de la ciberseguridad cooperativa exige también una respuesta coordinada. Prevenir ataques a infraestructuras críticas, como redes eléctricas o sistemas hospitalarios, requiere mecanismos de alerta temprana y canales confidenciales de intercambio de información. España dispone de propuestas de colaboración con países vecinos para la creación de un centro europeo de excelencia en ciberinteligencia que agrupe a Portugal, Italia y Grecia en un esfuerzo conjunto. Esa iniciativa reflejaría una visión compartida y reforzaría la capacidad de respuesta frente a amenazas que traspasan cualquier frontera.

Grandes retos para España

La formación de profesionales en diplomacia digital constituye otro pilar esencial. Instituir cátedras especializadas en universidades nacionales y desarrollar programas de posgrado orientados a la gestión de datos en el ámbito internacional incrementaría la masa crítica de expertos. Eventos organizados en sedes universitarias y centros de congresos permitirían articular un diálogo permanente entre la academia, la Administración y la industria. Esta diplomacia académica alimentaría la práctica diplomática con análisis rigurosos y casos de estudio aplicables en cada negociación.




Leer más:
Para qué sirve una red privada virtual (y por qué nos conviene)


España ha avanzado en la regulación de la localización de datos y en la adopción de estándares internacionales de cifrado, pero mantiene dependencia de proveedores extraeuropeos de hardware. Cubrir esa debilidad exige impulsar la industria nacional de servidores y componentes de red, fomentando un ecosistema de startups capaz de competir con polos tecnológicos de Berlín, Londres o Estocolmo. El respaldo institucional a través de ayudas a la innovación y a fondos de capital riesgo especializados en ciberseguridad resultaría determinante para consolidar un tejido emprendedor robusto.

Horizontes de la diplomacia de datos española

La diplomacia de los datos no puede entenderse sin una participación activa de la ciudadanía. Generar conciencia sobre la importancia de la protección de datos, la soberanía digital y la ética en el uso de la información es condición previa para que los acuerdos internacionales cuenten con un respaldo social sólido. Iniciativas de formación en centros educativos y campañas de divulgación contribuirían a cerrar brechas de conocimiento y consolidar un entorno en el que las estrategias de ciberdiplomacia cuenten con legitimidad democrática.

Su construcción con sello español requiere combinar la fortaleza en protección de datos, la infraestructura de conectividad y el talento académico con una estrategia coordinada entre administraciones y con la sociedad civil. Transformar a España en referente de esta nueva frontera de la influencia global depende de alcanzar un equilibrio entre la innovación tecnológica y la protección de derechos, consolidar corredores digitales con América Latina y articular un ecosistema público-privado vibrante. De prosperar este planteamiento, España hablará con autoridad en el idioma universal de los datos.

The Conversation

Armando Alvares Garcia Júnior no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Está España preparada para liderar la diplomacia de datos en la era digital? – https://theconversation.com/esta-espana-preparada-para-liderar-la-diplomacia-de-datos-en-la-era-digital-259622

Nobel de Física 2025: el despegue de los bits cuánticos

Source: The Conversation – (in Spanish) – By Ramon Aguado, Doctor en Física Teórica que trabaja en materiales cuánticos en el Instituto de Ciencia de Materiales de Madrid (ICMM) como Investigador Científico, Consejo Superior de Investigaciones Científicas (CSIC)

GarryKillian/Shutterstock

¿Puede un objeto que cabe en la palma de la mano exhibir comportamiento cuántico? Aunque parecía imposible hace unas décadas, hoy sabemos que sí. El Premio Nobel de Física de 2025 ha reconocido a John Clarke, Michel H. Devoret y John M. Martinis por demostrar de forma inequívoca que un circuito eléctrico basado en superconductores –materiales que conducen electricidad sin resistencia eléctrica ni pérdida de energía cuando se enfrían por debajo de su temperatura crítica– puede exhibir dos fenómenos cuánticos fundamentales: el efecto túnel cuántico macroscópico y la cuantización de la energía.

El premio Nobel de Física 2025 ha recaído en John Clarke, Michel H. Devoret y John M. Martinis.
Niklas Elmehed / Nobel Prize Outreach.

Huevos y péndulos cuánticos en un chip

Para entender la magnitud de su logro, es útil recurrir a una analogía “casera”. Imaginemos un cartón de huevos con un huevo en uno de los huecos. Si inclinamos ligeramente el cartón, con mucho cuidado, el huevo sigue en su hueco, en una posición bien definida. Algo similar ocurre si empujamos ligeramente un péndulo: oscilará levemente alrededor de su posición estable antes de que la gravedad le haga regresar a su punto de equilibrio. En ambos ejemplos, el huevo y el péndulo están en su estado de mínima energía, estable y predecible, como dicta la física clásica.

Ahora, imaginemos lo imposible: que el huevo, al inclinar levemente el cartón, apareciese mágicamente en el hueco contiguo, como si hubiera atravesado la pequeña protuberancia de dicho cartón, la “barrera de potencial”, que los separa. Este fenómeno, impensable en nuestra experiencia cotidiana, es el efecto túnel en física cuántica.

El efecto túnel gobierna algunos de los procesos fundamentales del universo. Es el responsable de la desintegración radiactiva de núcleos atómicos pesados y hace posible la fusión nuclear que alimenta a las estrellas.

Pero su influencia va mucho más allá: el efecto túnel y la superconductividad, el fenómeno que permite a los materiales conducir electricidad sin resistencia, han estado extraordinariamente presentes en la historia de los Premios Nobel.

A hombros de gigantes

El camino a este Nobel de 2025 está cimentado sobre otros galardones anteriores. La teoría BCS de la superconductividad –llamada así por las iniciales de John Bardeen, Leon Cooper y Robert Schrieffer, que recibieron el Nobel en 1972– fue revolucionaria.

Esta teoría explica que la clave para entender la superconductividad es la formación de pares de Cooper, parejas de electrones que, a temperaturas extremadamente bajas, se acoplan en vez de repelerse.

Estos pares se comportan como una sola entidad cuántica, con una función de onda macroscópica con una fase coherente bien definida. Y dan lugar a un maravilloso ejemplo de fenómeno emergente en física de la materia condensada: de la interacción de billones de electrones surge un estado colectivo con propiedades que no existen a nivel individual.

Inspirándose en estas ideas rompedoras de la teoría BCS y en los experimentos de Ivar Giaever sobre el efecto túnel, el físico Brian Josephson realizó una predicción audaz en 1962. Postuló que una corriente eléctrica, compuesta por estos pares de Cooper, podría atravesar por efecto túnel una barrera aislante que separase dos superconductores (una configuración hoy en día conocida como “unión Josephson”). Esta “supercorriente” podría fluir eternamente, sin resistencia y sin necesidad de aplicar un voltaje, desafiando la comprensión clásica de la electricidad. Ambos compartirían el premio Nobel de Física en 1973.

Por último, Anthony Leggett (Nobel en 2003) desarrolló las bases teóricas para entender la coherencia cuántica a escala macroscópica.

Los primeros pasos de un Nobel

Alrededor de 1985, John Clarke, profesor en la Universidad de California en Berkeley, propuso a Michel Devoret (investigador postdoctoral) y a John Martinis (investigador predoctoral) un experimento crucial que fusionaba conceptos fundamentales de superconductividad y mecánica cuántica. El objetivo era demostrar experimentalmente que la fase cuántica colectiva de los pares de Cooper en una unión Josephson –una variable electromagnética macroscópica– exhibía efectos cuánticos observables.

Su configuración experimental permitió detectar el efecto túnel macroscópico de la fase superconductora entre dos estados de energía potencial, equivalente al salto cuántico de un sistema colectivo formado por millones de pares de Cooper.

Volviendo a nuestra analogía del huevo: el estado de supercorriente sin voltaje es como el huevo en reposo en su hueco. Pero, cuánticamente, existe una probabilidad de que el huevo “cambie” de hueco. Esta imagen es físicamente muy poderosa porque el potencial energético que describe el efecto Josephson puede visualizarse precisamente como el cartón de huevos, donde la fase cuántica del estado superconductor representa la posición efectiva en ese cartón.

Igual que nuestro huevo cuántico puede cambiar de hueco mediante efecto túnel, la fase del estado superconductor puede realizar saltos cuánticos entre diferentes estados. Este fenómeno, traducido al circuito eléctrico, se manifiesta como un voltaje medible donde antes el voltaje era nulo.

En busca del “átomo artificial”

Esta medición directa del efecto túnel coherente de una variable macroscópica representó un avance fundamental, pues demostraba de manera incontrovertible que las leyes cuánticas gobiernan no solo a las partículas subatómicas, sino también estados colectivos en sistemas superconductores macroscópicos.

Pero Clarke, Devoret y Martinis fueron más allá. Así como los átomos absorben y emiten luz de colores (frecuencias) muy específicas, lo que revela sus niveles de energía cuantizados, sus experimentos demostraron que su circuito superconductor solo respondía a frecuencias de microondas muy concretas, con transiciones precisas, cuya vida media dependía del nivel energético.

Esto probó de manera espectacular que el chip no solo presentaba efecto túnel, sino que se comportaba como un “átomo artificial”. De nuevo, podemos usar nuestra imagen del cartón de huevos, esta vez como un conjunto de pozos de potencial: un sistema cuántico diseñado a medida con estados energéticos discretos y cuantizados.

Del laboratorio a la revolución cuántica

El legado de este experimento, sin embargo, resultó ser mucho más trascendental. Aquel “átomo artificial” creado en Berkeley se convirtió en el primer ladrillo para demostrar un cúbit –unidad básica de información en la computación cuántica– superconductor. La conexión no es meramente conceptual: el dispositivo superconductor phase qubit, uno de los primeros diseños, utilizaba precisamente el efecto túnel macroscópico para leer el estado cuántico, del mismo modo que lo hicieron los galardonados en 1985.

La carrera práctica comenzó en 1999, cuando Y. Nakamura, Yu. A. Pashkin y J. S. Tsai observaron por primera vez en la compañía NEC en Japón oscilaciones cuánticas coherentes en una pequeña isla superconductora, un electrodo microscópico donde los pares de Cooper quedan confinados. Aunque estas primeras oscilaciones solo duraban 3 nanosegundos, este frágil primer paso inspiró diseños más robustos. Poco después, a principios de la década de 2000, se demostraron oscilaciones coherentes en phase qubits.

Computación con cúbits, una realidad

Desde aquellas primeras demostraciones hasta los cúbits modernos, la tecnología de circuitos superconductores –que es la base de los procesadores cuánticos con cientos de cúbits que desarrollan compañías como Google e IBM– ha tenido unos avances espectaculares en apenas 25 años. En la actualidad se han observado cúbits que mantienen su coherencia cuántica hasta varios milisegundos, ¡un millón de veces más que aquellos primeros 3 nanosegundos!

Los mismos fenómenos que han merecido el premio Nobel de este año ahora se replican y controlan a escala para ejecutar algoritmos que prometen revolucionar la criptografía, el descubrimiento de fármacos y la ciencia de materiales.

Sin embargo, para alcanzar estas promesas, aún debemos resolver un desafío tecnológico de enormes proporciones: escalar masivamente el número de cúbits –de cientos a millones– y combatir la decoherencia –proceso cuántico en el que un sistema pierde sus características cuánticas (como la superposición o el entrelazamiento) al interactuar con su entorno–.

Precisamente, esta búsqueda colectiva de soluciones subraya el valor de la investigación fundamental: el trabajo de Clarke, Devoret y Martinis muestra que la ciencia guiada por la curiosidad es, con frecuencia, la que acaba marcando la dirección de las futuras revoluciones tecnológicas.

The Conversation

Ramon Aguado no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Nobel de Física 2025: el despegue de los bits cuánticos – https://theconversation.com/nobel-de-fisica-2025-el-despegue-de-los-bits-cuanticos-267022

Simone Weil y el arte de prestar atención ‘suspendiendo el pensamiento’

Source: The Conversation – (in Spanish) – By Sofía Esteban Moreno, Investigadora Predoctoral Teoría de la Literatura , Universidad de Valladolid

Elona Agug/Pexels

En tiempos de notificaciones constantes, mensajes que reclaman una respuesta inmediata y un flujo incesante de información, la atención se ha convertido en un recurso escaso. No solo es difícil concentrarse, también lo es sostener la concentración el tiempo suficiente para profundizar en una idea, un problema o un texto.

La filósofa francesa Simone Weil (1909-1943) propuso hace casi un siglo una concepción de la atención que, lejos de quedar obsoleta, sigue hoy más vigente que nunca. En 1942 escribió el ensayo Reflexiones sobre el buen uso de los estudios escolares como medio de cultivar el amor a Dios. Lo dirigió al dominico Joseph-Marie Perrin, como guía para acompañar a jóvenes cristianos. Aunque el texto tiene un trasfondo religioso, sus ideas pueden leerse en clave universal.

‘Aquel que pasa sus años de estudio sin desarrollar la atención pierde un gran tesoro’

En la vida académica y profesional solemos asociar prestar atención con hacer un esfuerzo sostenido. Weil rompe con esta visión. Para ella, atender no consiste en contraer la mente como un músculo, sino en abrirla. Es un acto de receptividad, no de tensión.

Imagen en blanco y negro de una mujer joven de melena corta.
Retrato de Simone Weil de joven.
Wikimedia Commons

“La atención consiste en suspender el pensamiento, en dejarlo disponible, vacío y penetrable al objeto”, escribe. No se trata de forzar la solución, sino más bien de crear el espacio interior donde pueda aparecer lo que buscamos. Atender es, en gran medida, una manera de esperar.

Esta forma de entender la atención tiene implicaciones profundas en la educación. Para Weil aprender no es solo una cuestión de memoria, técnica o voluntad. Así, cuestiona la idea de que trabajar mucho deba equivaler a fatigarse. Propone, en cambio, un ritmo natural, como la respiración: se inspira y se espira. En sus palabras: “Veinte minutos de atención intensa y sin fatiga valen infinitamente más que tres horas de esa dedicación de cejas fruncidas”.

Aprender como fin en sí mismo, no como medio

La pensadora llega a afirmar que “la facultad de atención es el objetivo verdadero y casi el único interés de los estudios –escolares–”; lo que significa que, aunque olvidemos fechas, datos o fórmulas, el hábito de prestar atención permanece. Por eso considera que todas las materias, incluso las que parecen alejadas de nuestras afinidades, son valiosas como campo de práctica.

Imaginemos que un estudiante de letras se enfrenta a un problema de geometría que no logra resolver. Según la lógica habitual, ese tiempo podría considerarse “perdido” porque no ha encontrado la solución. Para la filósofa, en cambio, el esfuerzo atento servirá después para leer un poema, escuchar a un amigo o tomar una decisión importante. También Leonardo Da Vinci recomendaba a sus discípulos que contemplaran una pared blanca durante horas hasta hallar inspiración. Lo esencial no es el contenido puntual, sino la disposición interior que florece en la atención sostenida.

Portada del libro en francés de Simone Weil en el que habla de la atención, Attente de Dieu.
Portada del libro en francés de Simone Weil en el que habla de la atención, Attente de Dieu.
Wikimedia Commons

Además, la inteligencia se mueve únicamente por el deseo, y ese deseo necesita de la alegría para mantenerse vivo. “La alegría de aprender –escribe– es tan indispensable para el estudio como la respiración para el atleta”. Sin placer, el esfuerzo se convierte en una tensión dolorosa.

¿Prestar atención nos hace mejores?

Weil insiste en que la atención verdadera exige humildad. Reconocer que no sabemos, que quizás nos hemos equivocado, que necesitamos volver atrás y mirar de otro modo. Este reconocimiento no es una derrota, es parte del proceso. Al vaciar la mente de certezas apresuradas, la dejamos libre para percibir conexiones y matices que antes no veíamos.

La leyenda del Grial sirve como ejemplo. En Perceval o el cuento del Grial (siglo XII), Chrétien de Troyes narra la historia del joven caballero Perceval y su llegada al castillo del Rey Pescador, guardián del Grial. El monarca sufre una herida misteriosa que vuelve estériles sus tierras.

Una de las pruebas del relato nos muestra que la consecución del propósito no depende de la fuerza. Perceval presencia una procesión en la que aparece el Grial, una copa sagrada y legendaria. Sin embargo, no pregunta: “¿Qué es el Grial? ¿A quién sirve?”. Versiones posteriores relacionarán ese silencio con el incumplimiento de su destino caballeresco: el héroe que podía restaurar la fertilidad del reino no logra cumplir su misión por falta de atención y compasión.

Weil retoma este gesto sencillo para señalar la repercusión de la atención fecunda en nuestra relación con el mundo, con nuestro presente, y con los otros. La humildad también está en mirar al otro y reconocerlo como único e irrepetible.

Contra la dispersión contemporánea

Aunque el ensayo de Reflexiones tiene un trasfondo espiritual explícito –ella concibe la atención como la forma más pura de oración–, su propuesta puede entenderse fuera de un marco religioso. En el contexto contemporáneo, se acerca a lo que llamamos atención plena. Pero Weil no escribe sobre una estrategia para mejorar el rendimiento o la productividad, sino como un camino para dejar de imponer al mundo nuestros prejuicios y ampliar así nuestra capacidad de encuentro con lo real.

En el fondo, lo que está en juego es nuestra presencia. Cultivar la atención es aprender a mirar y a escuchar de tal modo que dejemos un espacio para que la verdad pueda aparecer, en cualquier ámbito de la vida. Si estamos atentos, estamos presentes.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Sofía Esteban Moreno recibe fondos de ayudas de Formación del Profesorado Universitario (FPU) financiadas por la Agencia Estatal de Investigación, el Ministerio de Ciencia, Innovación y Universidades. Asimismo, forma parte del proyecto TRANSFERRE. Referencia: PID2023-148361NB-I00), financiado por la Agencia Estatal de Investigación, el Ministerio de Ciencia, Innovación y Universidades y cofinanciado por la Unión Europea.

ref. Simone Weil y el arte de prestar atención ‘suspendiendo el pensamiento’ – https://theconversation.com/simone-weil-y-el-arte-de-prestar-atencion-suspendiendo-el-pensamiento-264083

The Nobel peace prize has a record of being awarded to controversial nominees

Source: The Conversation – UK – By Colin Alexander, Senior Lecturer in Political Communications, Nottingham Trent University

The Nobel peace prize is rarely awarded to the most humble, modest or compassionate nominee. Instead, it all-too often ends up in the hands of high-profile figures who want it.

US president Donald Trump has said several times that he thinks he is deserving of it. And calls for him to win the award have only intensified since Israel and Hamas signed off on the first phase of Trump’s peace plan for Gaza.

The predicament is that, if the Nobel committee were to give the prize to Trump, they would be awarding it to a man whose administration has armed Israel’s continuing aggression in Gaza. This has led to devastating loss of life and, as confirmed by UN humanitarian chief Tom Fletcher, the area suffering famine.

Still, he has managed to engineer at least a ceasefire, which after two years of bitter conflict feels like a significant achievement.

But as a political communications analyst, I often worry that the Nobel peace prize committee has been too hasty to judge. I also worry that, while the institution might want to claim it is fully independent and works on the principle of group consensus, the reality is that its decision is often a political one.

Indeed, many previous recipients of the Nobel peace prize have, like Trump, not been the most peace-loving of people either.

High-profile controversies

In Nobel’s more than 120 years of awarding its prize, one of its most controversial decisions came in 1973. The award that year was given to Henry Kissinger, the then-US secretary of state. It is a decision that still divides opinion today.

Kissinger had been instrumental in the withdrawal of US troops from Vietnam in 1973. But he had also spent much of his political and academic career advocating for the proliferation of nuclear weapons and the development of a smaller “battlefield” range – Kissinger’s thesis that nuclear weapons could be used and were not just for deterrence.

He was a key decision-maker in the US’s “secret war” in Laos, which ran parallel to its operations in Vietnam, and in the US military’s invasion of Cambodia in 1970. More broadly, though, Kissinger’s political philosophy of realpolitik – politics based on practical objectives rather than ideals – appeared to have had little care for individual human life and saw global politics as a game between superpowers.

Kissinger was a man of great ego – the epitome of someone who wanted his own actions to be important and remembered.

Four decades later, the 2013 Nobel peace prize was awarded to the Organisation for the Prohibition of Chemical Weapons (OPCW). When the announcement was made, it seemed a fitting acknowledgement for an organisation that had been trying to do good in the world.

It felt like an apt award at a time when western political leaders and news media had roundly condemned the use of chemical weapons in Syria’s civil war. A gas attack in the Ghouta suburb of Damascus in August 2013 was widely condemned on the international stage.

However, the credibility of the OPCW has come under scrutiny since then. In 2019, British journalist Peter Hitchens published several articles about how the OPCW had suppressed the findings of its own staff to support its conclusion that the regime of Bashar al-Assad had used chemical weapons in an attack on the Syrian city of Douma.

Hitchens and others who sought to bring this to public attention, most notably a small group of academics called the Working Group on Syria, Propaganda and Media, were targeted by a smear campaign in which they were called “war crime deniers” and “apologists for Assad”.

But the Nobel committee’s most controversial decision has perhaps not been in who to award the prize to, but in who it did not award one to. From the 1920s until his assassination in 1948, Mohandas “Mahatma” Gandhi’s philosophy of non-violent civil disobedience against British colonial rule in India inspired many around the world. It led to his imprisonment on several occasions.

As I have detailed in my own work on the end of colonial rule in India, many British administrators privately acknowledged their deep admiration of Gandhi despite the extent to which his methods threatened their power. Gandhi is surely the individual most deserving of a peace prize who did not receive one.

The Conversation

Colin Alexander does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The Nobel peace prize has a record of being awarded to controversial nominees – https://theconversation.com/the-nobel-peace-prize-has-a-record-of-being-awarded-to-controversial-nominees-267152

La paz según Trump: el acuerdo contempla pocas garantías para el futuro del pueblo palestino

Source: The Conversation – (in Spanish) – By Aritz Obregón Fernández, Investigador y profesor de Derecho internacional, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Panorama de la ciudad gazatí de Rafah en enero de 2025. Anas-Mohammed/Shutterstock

Israel y Hamás han anunciado que han alcanzado un alto al fuego, que constituiría una primera fase de un acuerdo mayor inspirado en el plan del presidente de Estados Unidos, Donald Trump.

Por el momento, no se ha publicado ningún texto del acuerdo, por lo que todas las informaciones se basan en declaraciones de las partes, en algunos puntos contradictorias.

A grandes rasgos, en esta primera fase de duración indeterminada, se daría un cese a las hostilidades, se permitiría la entrada de ayuda humanitaria, se realizaría un intercambio de personas retenidas y se produciría una retirada parcial de Israel a la zona de amortiguación dentro de la Franja de Gaza.

Hamás liberaría a las 20 personas que llevan en su poder desde el 7 de octubre de 2023, entregando de forma gradual los cuerpos de los fallecidos. Israel, por su parte, liberaría a 2 000 detenidos, 250 de ellos condenados a cadena perpetua, excluyendo a los implicados en el ataque del 7 de octubre.

Asimismo, hay informaciones que apuntan a que la retirada del ejército israelí solo se produciría después de la liberación de todos los rehenes retenidos y estaría condicionada al desarme de Hamás.

Primera fase de un plan en el aire

Lo cierto es que el alto al fuego anunciado no es el acuerdo de “paz fuerte, duradera y eterna” que buscaba el presidente estadounidense. En este sentido, es similar a la primera fase del acuerdo alcanzado en enero de 2025 que, sin lugar a dudas, supuso un respiro momentáneo para la población gazatí.

A partir de aquí, queda pendiente negociar el resto de los aspectos fundamentales: retirada de la Franja de Gaza, desarme y futuro papel de Hamás, creación y despliegue de la fuerza internacional y forma de gobierno de la Franja. El propio marco de acuerdo establecido por la propuesta de Trump y la experiencia reciente no invitan al optimismo.

Aunque los 20 puntos del plan de Trump tienen aspectos indudablemente positivos, como la liberación de personas retenidas ilegalmente, el restablecimiento de la ayuda humanitaria bajo la supervisión de Naciones Unidas, la renuncia al desplazamiento forzado y el fin de las hostilidades, adolece de unos elementos que en su origen socavan una resolución definitiva.

Por ejemplo, prevé la anexión ilegal de un “perímetro de seguridad” en Gaza, la creación de una fuerza internacional que podría constituir una nueva fuerza de ocupación o el establecimiento de un gobierno que excluye a la Autoridad Nacional Palestina, que quedaría supeditada a un organismo de naturaleza colonial.

La coacción estadounidense resumible en “genocidio u ocupación” no es ninguna solución, si bien es comprensible que para las víctimas este plan sea preferible a la continuación del genocidio.

El comportamiento de Israel durante el acuerdo de enero es otro aspecto que desalienta la posibilidad de que se alcance una paz definitiva. El ejecutivo israelí cumplió únicamente con la primera fase para tratar de recuperar al mayor número posible de rehenes, mientras saboteaba cualquier posibilidad de acuerdo y preparaba la Operación Poder y Espada.

En la medida en la que la correlación de fuerzas en el interior de Israel no cambie y, sobre todo, no renuncie a sus aspiraciones coloniales, la continuidad de estas negociaciones se fía a la voluntad de Trump.

Trump: un hombre en busca del Nobel de la Paz y del negocio

Es de dominio público que el presidente estadounidense ansía el premio Nobel de la Paz, galardón que está previsto que se anuncia este 10 de octubre. No en vano, en su peculiar campaña como candidato, durante su discurso ante la Asamblea General de Naciones Unidas, afirmó que había puesto fin a siete guerras. Un somero repaso evidencia que no estuvo implicado en la resolución de estos conflictos o, en su caso, se trató de acuerdos de marketing sin relevancia práctica.

Junto con esta aspiración personalísima se encuentra la necesaria reconstrucción de la Franja de Gaza, percibida como una oportunidad de negocio. Jared Kushner, el yerno de Trump y miembro de la delegación negociadora, animó a Israel a expulsar a la población local gazatí señalando que las propiedades costeras de la Franja podrían ser muy valiosas. Podríamos encontrarnos ante una explotación ilegal de los recursos palestinos sin su consentimiento, una práctica que violaría la soberanía permanente del pueblo palestino a sus recursos.

El resto de actores

La mayor parte de Estados, con los matices que se quieran hacer, han respaldado el plan de Trump. Destacan los países de la zona, que han presionado a Hamás para que acepte los términos del acuerdo. Su voluntad por recomponer cierto equilibrio en la región, que desde 2023 se ha ido inclinando en favor de Israel, y garantizar que los palestinos de Gaza no son expulsados a sus países, son garantía de que continuarán presionando a Hamás.

Quien destaca, por su inacción, es la Unión Europea y sus Estados miembros. Tradicionalmente implicados en los intentos de procesos de paz de Oriente Próximo, en esta ocasión no han jugado ningún papel. En este sentido, es remarcable la pasividad de la Alta Representante de la UE para Asuntos Exteriores y Política de Seguridad, Kaja Kallas, quien se ha limitado a aplaudir con seguidismo la labor estadounidense calificando el acuerdo de un “gran logro diplomático”.

Por el bien de la población gazatí, esperemos que se negocie una segunda fase, si es posible, en línea con la Declaración de Nueva York de septiembre, más acorde con el derecho internacional vigente.

The Conversation

Aritz Obregón Fernández no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La paz según Trump: el acuerdo contempla pocas garantías para el futuro del pueblo palestino – https://theconversation.com/la-paz-segun-trump-el-acuerdo-contempla-pocas-garantias-para-el-futuro-del-pueblo-palestino-267179

László Krasznahorkai: vida, obra literaria y el camino hacia el Premio Nobel

Source: The Conversation – (in Spanish) – By Dra. Emőke Jámbor, Hungarian Language Reader, Teacher, Universitat de Barcelona

Fotografía de László Krasznahorkai en 1990. Lenke Szilágyi/Wikimedia Commons, CC BY-SA

La Academia Sueca acaba de otorgarle al escritor húngaro László Krasznahorkai el Premio Nobel de Literatura, destacando su “obra visionaria y sin concesiones que explora las ruinas espirituales de la modernidad”. Aunque muchas de sus obras se han traducido al español, ¿qué se puede decir de él a quien todavía no haya leído nada de su literatura?

László Krasznahorkai nació el 5 de enero de 1954 en Gyula, una pequeña ciudad del sureste de Hungría, cerca de la frontera con Rumanía. Este entorno periférico, marcado por la historia y el aislamiento, influyó profundamente en su sensibilidad literaria.

Cursó la escuela primaria y secundaria en su ciudad natal, en el Instituto Erkel Ferenc, donde estudió en la sección de latín entre 1968 y 1972. Más tarde, estudió Derecho en la Universidad de Szeged y en la Universidad Eötvös Loránd (ELTE) de Budapest, pero pronto abandonó los estudios jurídicos para dedicarse a la literatura y la filología húngara. Durante sus años universitarios comenzó a publicar sus primeros textos, entre ellos Tebenned hittem (“Creí en ti”, 1977), que llamó la atención por su estilo oscuro y filosófico.

Trayectoria literaria y estilo

Krasznahorkai es uno de los escritores húngaros más singulares y complejos de su generación. Su obra se caracteriza por una prosa densa, hipnótica y desafiante, con frases extremadamente largas y una estructura narrativa ininterrumpida. Su estilo combina la melancolía centroeuropea con una visión apocalíptica del mundo moderno, y en ocasiones incorpora influencias filosóficas orientales derivadas de sus viajes a China y Japón.

Sus textos abordan con frecuencia la desesperanza, la decadencia social, el colapso moral y la búsqueda de sentido en un universo desintegrado. El tono sombrío de su narrativa no excluye una profunda espiritualidad ni una sutil ironía.

Entre sus obras más destacadas se encuentran:

Portada del libro Tango satánico de László Krasznahorkai.
Edición en español de Tango satánico.
Acantilado
  • Sátántangó (Tango satánico, 1985): su primera gran novela, ambientada en un pueblo abandonado tras la caída del comunismo. Es una alegoría sobre la corrupción, la fe y la manipulación colectiva. La versión cinematográfica de Béla Tarr (de más de siete horas de duración) consolidó la fama internacional de ambos artistas.

  • Az ellenállás melankóliája (Melancolía de la resistencia, 1989): explora la irrupción del caos en una comunidad provincial y el enfrentamiento entre el orden y el colapso moral.

  • Herscht 07769 (2021): esta narración está compuesta por una sola frase de cientos de páginas, ejemplo extremo de su dominio formal y su experimentación lingüística.

Además, ha publicado colecciones de relatos y ensayos que profundizan en los mismos temas: la soledad, la violencia y la imposibilidad de redención. Sus textos se han traducido a numerosos idiomas, y varios de ellos han sido adaptados al cine por directores como el ya citado Béla Tarr y György Fehér.

El Premio Nobel de Literatura 2025

A la hora de otorgarle el Nobel de Literatura, la Academia Sueca se ha basado en varios aspectos esenciales:

Ilustración de un hombre de barba y pelo largo.
Ilustración de László Krasznahorkai en los Premios Nobel.
Niklas Elmehed © Nobel Prize Outreach
  1. Una visión apocalíptica profundamente humana: Krasznahorkai describe un mundo en descomposición –social, moral y espiritual–, pero su escritura conserva una fe radical en el poder del arte. La Academia subrayó que su literatura “busca redención en medio del derrumbe”, un gesto que conecta con la tradición de autores como Franz Kafka o Samuel Beckett.

  2. La herencia centroeuropea y la innovación formal: aunque se inscribe en la tradición centroeuropea, Krasznahorkai no la repite: la transforma. Su prosa recuerda la intensidad de Thomas Bernhard o la lucidez de Kafka, pero su tono es propio, casi musical. En sus frases interminables se refleja la obsesión por el tiempo, la percepción y el pensamiento continuo.

  3. El riesgo estilístico y la experimentación: su uso del lenguaje es radical. Al rechazar la estructura tradicional de la novela, propone un flujo narrativo sin pausas que desafía al lector. Obras como Herscht 07769 son prueba de su voluntad de llevar la literatura al límite, donde la forma se convierte en una experiencia existencial.

  4. Reconocimiento internacional: antes del Nobel, Krasznahorkai ya había recibido el Man Booker International Prize en 2015 por el conjunto de su obra. Críticos y escritores de todo el mundo lo han considerado una de las voces más originales de la literatura contemporánea.

  5. El arte como resistencia: su literatura no ofrece consuelo, sino conciencia. En un tiempo marcado por la saturación de información y la pérdida de sentido, Krasznahorkai propone un acto de resistencia: la lentitud, la atención al lenguaje, la exploración interior. Esa ética de la escritura –exigente, profunda, sin adornos– es precisamente lo que la Academia quiso reconocer.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Conciencia de nuestro tiempo

László Krasznahorkai es hoy una figura central de la literatura universal. Desde su infancia en Gyula hasta su consagración con el Premio Nobel, su trayectoria representa la fidelidad absoluta a una visión artística propia. En un mundo que busca la inmediatez, él reivindica la complejidad; frente a la superficialidad, ofrece profundidad; ante el caos, una forma literaria que lo contiene y lo trasciende.

Sus novelas, difíciles pero luminosas, recuerdan que el lenguaje puede ser un espejo de la desesperación y, al mismo tiempo, un instrumento de redención. Por ello, Krasznahorkai no solo es un escritor húngaro galardonado: es una de las conciencias más agudas de nuestro tiempo.

The Conversation

Dra. Emőke Jámbor no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. László Krasznahorkai: vida, obra literaria y el camino hacia el Premio Nobel – https://theconversation.com/laszlo-krasznahorkai-vida-obra-literaria-y-el-camino-hacia-el-premio-nobel-267166