L’océan est aussi l’affaire des élus locaux : exemples en Aquitaine, en Bretagne et en Occitanie

Source: – By Gwenaël Leblong-Masclet, Chaire Mers, Maritimités et Maritimisations du Monde (4M), Sciences Po Rennes

À Lacanau, des projets de désurbanisation volontaire ont été lancés pour anticiper le recul du littoral, en concertation avec les habitants et les acteurs économiques. sylv1rob1/Shutterstock

La 3ᵉ Conférence des Nations unies sur l’océan (Unoc 3) se tient à Nice à partir du 9 juin 2025. Elle met notamment en lumière un enjeu souvent sous-estimé : la place stratégique des collectivités territoriales dans la gouvernance maritime. Étude de cas à Lacanau en Aquitaine, au Parc naturel marin d’Iroise en Bretagne et au Parlement de la mer en Occitanie.


L’océan, théâtre des bouleversements de l’anthropocène, n’est pas une abstraction lointaine. Pour les territoires littoraux, il est une réalité concrète, quotidienne, faite de défis de submersion, d’érosion, d’aménagement, de développement portuaire ou encore d’adaptation des politiques touristiques. C’est depuis ces territoires que la préservation des océans peut – et doit – être repensée.

Dans un prochain article « Les politiques publiques locales au prisme de la maritimité » dans la revue Pouvoirs locaux, nous nous sommes demandé si, plutôt que de voir la mer comme un obstacle, nous la considérions comme un levier de transformation de l’action publique ?

Les élus au chevet du trait de côte

Les élus locaux sont les premiers à affronter les conséquences visibles du changement climatique : tempêtes plus fréquentes, recul du trait de côte, érosion accélérée. La compétence de gestion des milieux aquatiques et prévention des inondations (Gemapi), confiée aux intercommunalités, les placent en première ligne.

À Lacanau, des projets de désurbanisation volontaire ont été lancés pour anticiper le recul du littoral, en concertation avec les habitants et les acteurs économiques. Au programme : suppression des parkings littoraux, aménagement d’un pôle d’échange multimodal plus à l’intérieur des terres, repositionnement des missions de secours ou encore le déplacement de certains commerces situés sur le front de mer.

Ce processus implique des arbitrages difficiles entre maintiens des activités touristiques, relocalisation des infrastructures, préservation des écosystèmes et accompagnement des habitants concernés. La loi Climat et résilience de 2021 a introduit des outils juridiques pour anticiper ce recul. Leur mise en œuvre concrète reste à parfaire. Sans action locale forte et coordonnée, les effets du changement climatique sur le littoral risquent d’être incontrôlables et, surtout, d’être une nouvelle source d’inégalités humaines et territoriales.

Gouverner un espace fragile

Si l’océan couvre 70 % de la planète, son interface avec la terre – le littoral – est l’un des espaces les plus disputés et les plus fragiles. Y coexistent des usages parfois antagonistes : tourisme, conchyliculture, urbanisation, activités portuaires, pêche, énergies marines renouvelables (EMR)… Cette multiplicité appelle une gouvernance intégrée, à la fois verticale – de l’échelon local à l’échelon international – et horizontale – entre acteurs publics, privés et citoyens.

Elle implique de penser une gouvernance écosystémique des littoraux, s’appuyant sur :

  • des mécaniques démocratiques multiscalaires (à plusieurs échelles),
  • les savoirs empiriques des communautés locales comme les pêcheurs,
  • les parties prenantes économiques.

Aux collectivités, mises en situation d’agir par la gestion intégrée des zones côtières ou par les documents stratégiques de façade, de savoir créer les espaces de négociation et de consensus entre ces acteurs.

Certaines collectivités ont déjà innové. En Bretagne, le Parc naturel marin d’Iroise a été conçu avec les pêcheurs locaux et les associations environnementales, permettant une cogestion efficace.

L’exemple de la Région Occitanie, avec son Parlement de la mer, lancé dès 2013, montre que les collectivités peuvent innover en matière de gouvernance maritime. Ce parlement régional fédère élus, professionnels, ONG et chercheurs pour co-construire une stratégie maritime partagée.

À Brest, la métropole a su capitaliser sur sa fonction portuaire et scientifique pour faire émerger une véritable « capitale des océans », mobilisant universités, centres de recherche, industriels et autorités portuaires autour d’une même ambition.

Laboratoire maritime… d’innovation territoriale

Acteurs traditionnellement davantage « terriens » que maritimes, les collectivités territoriales revendiquent aujourd’hui une place à la table des négociations sur les politiques océaniques.

À rebours d’une vision exclusivement étatique, les élus locaux portent une connaissance fine des dynamiques littorales, des conflits d’usages et des attentes citoyennes. Ces démarches incitent à penser la mer comme bien commun.

L’un des apports essentiels de la conférence Unoc 3 sera, du moins peut-on l’espérer, de rappeler que la protection des océans ne peut se faire sans la reconnaissance de l’ensemble des acteurs territoriaux.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La mobilisation des territoires insulaires, par exemple au sein de l’ONG Smilo, contribue à une reconnaissance du rôle des initiatives locales comme levier de changement. L’insularité est le « laboratoire » d’un développement durable et concerté des stratégies territoriales.

Le développement des aires marines protégées (AMP) en est une bonne illustration : leur efficacité dépend en grande partie de l’implication des communautés locales, des pêcheurs, des associations. À ce titre, intégrer les savoirs empiriques dans les politiques de gestion maritime n’est pas un luxe, mais une nécessité. Ainsi, le rahui polynésien – interdiction temporaire d’exploitation d’une zone pour permettre sa régénération – inspire désormais les pratiques de préservation de la ressource halieutique, bien au-delà du seul triangle polynésien.

Recommandations de l’ONG Smilo pour tendre vers une gestion durable des ressources en milieu insulaire.
Fourni par l’auteur

Plus globalement, l’insularité, problématique récurrente dans les Outre-mer, implique de penser et d’accepter la différenciation des politiques publiques. Les élus d’Ouessant, de Mayotte ou des Marquises rappellent que les contraintes logistiques, la dépendance à la mer et la fragilité des écosystèmes appellent des réponses sur mesure, souvent loin des seuls standards gouvernementaux.

Penser global, agir local

Observer les politiques locales depuis le large permet d’inverser le regard. Le littoral, espace de contact entre l’humain et le vivant, devient alors un laboratoire d’innovation démocratique, écologique et institutionnelle, où se dessinent des formes renouvelées de coopération et d’engagement. L’Unoc 3 offre une occasion décisive de rappeler que la transition maritime ne se fera pas sans les territoires.

Il est donc temps de reconnaître pleinement le rôle des élus locaux dans cette dynamique. Ils sont les chevilles ouvrières d’une action publique renouvelée, plus proche du terrain, plus attentive aux équilibres écosystémiques et plus sensible aux savoirs citoyens.

Parce que la mer est ici – sur les plages, dans les ports, dans les écoles et les projets municipaux –, elle engage la responsabilité de tous, à commencer par celles et ceux qui construisent au quotidien les politiques publiques locales.

The Conversation

Je suis DGA de Brest métropole.

Romain Pasquier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’océan est aussi l’affaire des élus locaux : exemples en Aquitaine, en Bretagne et en Occitanie – https://theconversation.com/locean-est-aussi-laffaire-des-elus-locaux-exemples-en-aquitaine-en-bretagne-et-en-occitanie-257592

¿Por qué algunos jóvenes creen que “con Franco se vivía mejor”?

Source: The Conversation – France – By Maite Aurrekoetxea Casaus, Profesora Doctora en Sociología en la Facultad de Ciencias Sociales y Humanas, Universidad de Deusto

La idealización del pasado franquista está detrás de ciertas posturas políticas nostálgicas. En la imagen, cartel de propaganda a favor del ‘sí’ en el Referéndum sobre la Ley Orgánica del Estado celebrado el 14 de diciembre de 1966. Wikimedia Commons, CC BY

Hace algunos días hemos visto frente a la sede del PSOE en Madrid, en la calle Ferraz, a grupos de jóvenes coreando “Franco, Franco” mientras agitaban banderas anticonstitucionales. Pocas mujeres, por cierto. Y no lo hacían como cita histórica ni como provocación irónica. Lo hacían en serio. Jóvenes nacidos más de 25 años después de la muerte del dictador, reivindicando un pasado que no vivieron y cuya dureza desconocen. ¿Por qué?

La explicación no está en la historia, sino en el presente. Esta nostalgia no es espontánea: es inducida. La consigna “Con Franco se vivía mejor” opera como síntoma cultural de una narrativa que ha ganado terreno en el campo político y mediático: la idea de que la juventud actual ha fracasado, de que “vive peor” que sus padres y madres y de que solo el orden del pasado puede restaurar una supuesta normalidad.

Un relato que no es inocente

La frase “los jóvenes viven peor” se ha convertido en uno de los mantras más repetidos por la derecha y la ultraderecha europeas. Su eficacia no radica en su veracidad, sino en su capacidad emocional: activa la comparación, el resentimiento, el sentimiento de pérdida. Y, a partir de ahí, legitima el retroceso.

Este discurso no describe una realidad: la construye. Porque se habla de vivir peor, pero ¿en qué términos? ¿Menores ingresos? ¿Menos libertad? ¿Peor salud mental? ¿Mayor dificultad para acceder a una vivienda? Cada una de esas dimensiones tiene matices. Pero este discurso no necesita complejidad: le basta con una certeza simple y pesimista para justificar la nostalgia.

Idealizar el pasado implica ignorar que muchas generaciones anteriores trabajaron desde los 14 años sin derechos laborales, sin conciliación, sin educación superior accesible ni cobertura de salud. Es preciso señalar que la legislación laboral anterior a 1980 permitía jornadas largas, sueldos bajos y escasa protección social.

No existía la conciliación familiar, y el acceso a derechos como vacaciones pagadas, formación continua o cobertura de desempleo estaba limitado a ciertos sectores privilegiados. El pasado no fue un periodo de bienestar generalizado, sino uno definido por la precariedad, desigualdad y escasas oportunidades reales de mejora.

Esa vida “mejor” es en gran parte una invención retroactiva que despolitiza las desigualdades estructurales del presente. Y lo curioso del eslogan “con Franco se vivía mejor” es que rara vez rememora cómo vivían las mujeres.

La dictadura no solo impuso un modelo autoritario en lo político, sino que anuló los derechos conquistados durante la II República y reinstauró un régimen jurídico que reducía a las mujeres a la obediencia y la dependencia. Al casarse, las mujeres perdían su capacidad de obrar: no podían administrar sus bienes, abrir una cuenta bancaria, ni siquiera firmar un contrato sin autorización del marido.

Esta restricción estaba amparada por la llamada licencia marital, recogida en los artículos 60 a 71 del Código Civil de 1889, vigente hasta su derogación por la Ley 14/1975, de 2 de mayo. El artículo 57 de ese código establecía literalmente que “el marido debe proteger a la mujer y ésta obedecer al marido”.

Además, el Estado abolió el divorcio (Ley de 23 de septiembre de 1939), suprimió el matrimonio civil (Ley de 10 de marzo de 1941) y restauró el régimen de patria potestad exclusiva para el padre. Incluso en caso de separación, la mujer era “depositada” en casa de sus padres y podía ser despojada de la vivienda conyugal y de la custodia de sus hijos. Si se volvía a casar, podía perder a sus hijos, salvo autorización expresa del marido fallecido en su testamento.

Este modelo no fue anecdótico: fue ley vigente en España hasta bien entrada la Transición, y moldeó toda una cultura jurídica de sumisión femenina. Por eso, la idealización del pasado franquista como una época de orden y bienestar ignora que dicho orden se construyó sobre la subordinación legal de la mitad de la población. ¿Este es el escenario que añoran estos jóvenes para sus parejas, sus hermanas o sus compañeras de trabajo?

El tiempo libre como elección política

Volviendo a la realidad actual, como señala el sociólogo Chris Knoester en un estudio reciente, lo que ha ocurrido en las últimas décadas a las personas jóvenes no es un deterioro o un declive de manera comparativa con generaciones anteriores, sino todo lo contrario: un cambio profundo en las formas de criar, de convivir y de valorar el bienestar.

Debemos tener presente que las familias hoy invierten más tiempo y recursos en el ocio estructurado de sus hijos e hijas, especialmente en el deporte, como expresión de implicación emocional y apoyo integral. Esta transformación, lejos de ser síntoma de debilidad generacional, es un logro intergeneracional.

El tiempo libre, tan denostado por los discursos conservadores como símbolo de pereza o evasión es, en realidad, una forma diferente de entender el bienestar de las personas. Las nuevas generaciones priorizan la salud mental, el cuidado de los vínculos y la autonomía personal. No porque rechacen el esfuerzo, sino porque no están dispuestas a pagar el precio de una productividad desmedida sin garantías de futuro.

Según la Encuesta de Presupuestos Familiares del Instituto Nacional de Estadística (2024), en 2023 el gasto medio por hogar en España fue de 32 617 €, un 3,8 % más que el año anterior. De ese total, los hogares destinaron un 10,2 % a restaurantes y hoteles de media, lo que equivale a 3 311 € anuales. Y un 5,1 % a ocio y cultura, es decir, 1 651 € por hogar.

Lejos de ser un comportamiento exclusivo de las clases altas, el incremento del gasto en estos sectores es transversal a todos los niveles de renta. Entre los hogares con ingresos más elevados, las partidas de ocio, restauración y cultura llegaron a representar hasta el 34,7 % del presupuesto familiar, frente al 14 % en los hogares con menos ingresos. Llamar a eso “vivir peor” es una falacia interesada. Y, sin embargo, esa falacia circula. Se normaliza. Se grita en la calle como consigna política.

Franco como consigna eficaz

Que jóvenes coreen “Franco, Franco” es un síntoma de una falta de símbolos alternativos para nombrar su frustración. En ese vacío, el relato reaccionario ofrece refugio. “Con Franco se vivía mejor” no es historia, es síntesis emocional: orden, jerarquía, autoridad, seguridad. Una traducción emocional del miedo a un presente con una brújula algo manipulada.

Y ese miedo se alimenta desde los discursos políticos que repiten que todo va a peor, que todo se ha roto, que la culpa es del feminismo, de la inmigración o de la diversidad. Un discurso que no busca comprender el malestar juvenil, sino apropiarse de él y convertirlo en adhesión reaccionaria.

Se trata de ofrecer otra lectura recordando que el bienestar no se mide solo por propiedad o salario, sino por tiempo libre, dignidad vital, vínculos y salud. Se trata de decir que hay otras formas de vivir bien que no pasan por parecerse al pasado.

The Conversation

Maite Aurrekoetxea Casaus no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Por qué algunos jóvenes creen que “con Franco se vivía mejor”? – https://theconversation.com/por-que-algunos-jovenes-creen-que-con-franco-se-vivia-mejor-259425

Un recorrido por la larga y tortuosa relación entre EE. UU. e Irán

Source: The Conversation – France – By Jeffrey Fields, Professor of the Practice of International Relations, USC Dornsife College of Letters, Arts and Sciences

Varias personas observan el fuego y el humo provocados por un ataque aéreo israelí contra un depósito de petróleo en Teherán, el 15 de junio de 2025. Stringer/Getty Images

Con el bombardeo estadounidense de tres instalaciones nucleares en Irán, las relaciones entre ambos países han alcanzado posiblemente uno de los puntos más bajos de la historia moderna. Pero la enemistad entre ambos países no es nueva: Estados Unidos e Irán llevan décadas en conflicto, al menos desde que Estados Unidos ayudó a derrocar a un primer ministro demócrata, Mohammed Mossadegh, en agosto de 1953. A continuación, Estados Unidos apoyó el largo y represivo reinado del sah de Irán, cuyos servicios de seguridad brutalizaron a los ciudadanos iraníes durante décadas.

Los dos países han sido particularmente hostiles entre sí desde que los estudiantes iraníes tomaron la embajada estadounidense en Teherán en noviembre de 1979, lo que dio lugar a sanciones económicas y la ruptura de las relaciones diplomáticas oficiales.

Desde 1984, el Departamento de Estado de EE. UU. incluye a Irán en la lista de “países que patrocinan el terrorismo”, alegando que el Gobierno iraní proporciona a los terroristas entrenamiento, dinero y armas.

1953: Estados Unidos derriba a Mossadegh

Mohammed Mossadegh.
Wikimedia Commons

En 1951, el Parlamento iraní eligió un nuevo primer ministro, Mossadegh, quien llevó a los legisladores a votar a favor de tomar el control de la Anglo-Iranian Oil Company, expulsar a los propietarios británicos de la empresa y declarar que querían convertir los beneficios del petróleo en inversiones para el pueblo iraní. Estados Unidos temía que se interrumpiera el suministro mundial de petróleo y le preocupaba que Irán cayera presa de la influencia soviética. Los británicos temían perder el petróleo barato iraní.

El presidente Dwight Eisenhower decidió que lo mejor era deshacerse de Mossadegh. La Operación Ajax, una acción conjunta de la CIA y el Reino Unido, convenció al sah, el monarca del país, para que destituyera a Mossadegh y lo expulsara del poder por la fuerza. Mossadegh fue sustituido por un primer ministro mucho más favorable a Occidente, elegido personalmente por la CIA.

Manifestantes en Teherán exigen el establecimiento de una república islámica.
AP Photo/Saris

1979: Los revolucionarios derrocan al sha y toman rehenes

Tras más de 25 años de relativa estabilidad en las relaciones entre Estados Unidos e Irán, la población iraní estaba descontenta con las condiciones sociales y económicas que se desarrollaron bajo el régimen dictatorial del sah Mohammad Reza Pahlavi.

Pahlavi se enriqueció y utilizó la ayuda estadounidense para financiar al ejército, mientras que muchos iraníes vivían en la pobreza. La disidencia era a menudo reprimida violentamente por la SAVAK, el servicio de seguridad del sah. En enero de 1979, el sah abandonó Irán, aparentemente para recibir tratamiento contra el cáncer. Dos semanas después, el ayatolá Ruhollah Jomeini regresó del exilio en Irak y lideró una campaña para abolir la monarquía y proclamar un gobierno islámico.

Estudiantes iraníes en la embajada de Estados Unidos en Teherán muestran a la multitud un rehén estadounidense con los ojos vendados en noviembre de 1979.
AP Photo

En octubre de 1979, el presidente Jimmy Carter accedió a permitir que el sah viajara a Estados Unidos para recibir tratamiento médico avanzado. Estudiantes iraníes indignados asaltaron la embajada estadounidense en Teherán el 4 de noviembre, tomando como rehenes a 52 estadounidenses. Esto convenció a Carter de romper las relaciones diplomáticas con Irán el 7 de abril de 1980.

Dos semanas más tarde, el ejército estadounidense lanzó una misión para rescatar a los rehenes, pero fracasó y se estrellaron varios aviones, lo que causó la muerte de ocho militares estadounidenses.

El sah murió en Egipto en julio de 1980, pero los rehenes no fueron liberados hasta el 20 de enero de 1981, tras 444 días de cautiverio.

Un clérigo iraní, a la izquierda, y un soldado iraní llevan máscaras antigás para protegerse de los ataques con armas químicas iraquíes en mayo de 1988.
Kaveh Kazemi/Getty Images

1980-1988: Estados Unidos se pone tácitamente del lado de Irak

En septiembre de 1980, Irak invadió Irán, lo que supuso una escalada de la rivalidad regional y las diferencias religiosas entre ambos países: Irak estaba gobernado por musulmanes suníes, pero su población era mayoritariamente musulmana chií; Irán estaba liderado y poblado en su mayoría por chiíes.

Estados Unidos temía que el conflicto limitara el flujo de petróleo de Oriente Medio y quería asegurarse de que no afectara a su estrecho aliado, Arabia Saudí.

Estados Unidos apoyó al líder iraquí Saddam Hussein en su lucha contra el régimen iraní antiamericano. Como resultado, Estados Unidos hizo en gran medida la vista gorda ante el uso de armas químicas por parte de Irak contra Irán.

Los funcionarios estadounidenses moderaron su habitual oposición a esas armas ilegales e inhumanas porque el Departamento de Estado de EE. UU. no “quería hacerle el juego a Irán” alimentando su propaganda contra Irak. En 1988, la guerra terminó en un empate. Murieron más de 500 000 militares y 100 000 civiles.

1981-1986: Estados Unidos vende armas en secreto a Irán

EE. UU. impuso un embargo de armas después de que Irán fuera designado Estado patrocinador del terrorismo en 1984. Esto dejó al ejército iraní, en plena guerra con Irak, desesperado por conseguir armas, aviones y piezas de vehículos para seguir luchando.

La administración Reagan decidió que el embargo probablemente empujaría a Irán a buscar el apoyo de la Unión Soviética, rival de Estados Unidos en la Guerra Fría. En lugar de poner fin oficialmente al embargo, los funcionarios estadounidenses acordaron vender armas en secreto a Irán a partir de 1981.

El último envío, de misiles antitanque, se realizó en octubre de 1986. En noviembre de ese año, una revista libanesa reveló el acuerdo. Esta revelación desató el escándalo Irán-Contra en Estados Unidos, al descubrirse que funcionarios de la administración Reagan habían recaudado dinero de Irán para comprar las armas y enviado ilegalmente esos fondos a rebeldes antisocialistas (la contra nicaragüense).

En el funeral multitudinario de 76 de las 290 personas fallecidas en el derribo del vuelo 655 de Iran Air, los dolientes sostienen un cartel que representa el incidente.
AP Photo/CP/Mohammad Sayyad

1988: La Marina de los Estados Unidos derriba el vuelo 655 de Iran Air

En la mañana del 8 de julio de 1988, el USS Vincennes, un crucero lanzamisiles que patrullaba en aguas internacionales del Golfo Pérsico, entró en aguas territoriales iraníes mientras se encontraba en una escaramuza con lanchas artilladas iraníes.

Durante o justo después de ese intercambio de disparos, la tripulación del Vincennes confundió un avión civil de pasajeros Airbus que pasaba por allí con un caza F-14 iraní. Lo derribaron, matando a las 290 personas a bordo.

Estados Unidos lo calificó de “accidente trágico y lamentable”, pero Irán creyó que el derribo del avión fue intencionado. En 1996, Estados Unidos acordó pagar 131 millones de dólares en concepto de indemnización a Irán.

1997-1998: Estados Unidos busca el contacto

En agosto de 1997, un reformista moderado, Mohammad Khatami, ganó las elecciones presidenciales de Irán.

El presidente estadounidense Bill Clinton intuyó una oportunidad, y envió un mensaje a Teherán a través del embajador suizo en ese país en el que proponía conversaciones directas entre ambos gobiernos.

Poco después, a principios de enero de 1998, Jatamí concedió una entrevista a la CNN en la que expresó su “respeto por el gran pueblo estadounidense”, condenó el terrorismo y recomendó un “intercambio de profesores, escritores, académicos, artistas, periodistas y turistas” entre Estados Unidos e Irán.

Sin embargo, el líder supremo, el ayatolá Alí Jamenei, no estuvo de acuerdo, por lo que las gestiones mutuas no dieron muchos frutos cuando Clinton llegó al final de su mandato.

En su discurso sobre el estado de la Unión de 2002, el presidente George W. Bush calificó a Irán, Irak y Corea del Norte como un “Eje del Mal” que apoyaba el terrorismo y buscaba armas de destrucción masiva, lo que tensó aún más las relaciones.

Dentro de estos edificios de la instalación nuclear de Natanz, en Irán, los técnicos enriquecen uranio.
AP Photo/Vahid Salemi

2002: El programa nuclear de Irán despierta la alarma

En agosto de 2002, un grupo rebelde en el exilio anunció que Irán había estado trabajando en secreto en armas nucleares en dos instalaciones que no se habían revelado públicamente hasta entonces.

Esto constituía una violación de los términos del Tratado de No Proliferación Nuclear, que Irán había firmado y que exigía a los países revelar sus instalaciones relacionadas con la energía nuclear a los inspectores internacionales.

Una de esas instalaciones anteriormente secretas, Natanz, albergaba centrifugadoras para enriquecer uranio, que podía utilizarse en reactores nucleares civiles o enriquecerse aún más para fabricar armas.

A partir de 2005, ciberataques de los gobiernos de Estados Unidos e Israel se dirigieron contra las centrifugadoras de Natanz con un software malicioso creado a medida que se conoció como Stuxnet.

Esa iniciativa, que ralentizó el programa nuclear iraní, fue uno de los muchos intentos estadounidenses e internacionales, en su mayoría infructuosos, para frenar el avance de Irán hacia la construcción de una bomba nuclear.

2003: Irán escribe a la administración Bush

Un extracto del documento enviado desde Irán, a través del Gobierno suizo, al Departamento de Estado de EE. UU. en 2003, parece buscar conversaciones entre EE. UU. e Irán.
Washington Post via Scribd

En mayo de 2003, altos funcionarios iraníes se pusieron en contacto discretamente con el Departamento de Estado a través de la embajada suiza en Irán, en busca de “un diálogo en el respeto mutuo” que abordara cuatro grandes cuestiones: las armas nucleares, el terrorismo, la resistencia palestina y la estabilidad en Irak.

Los partidarios de la línea dura del Gobierno de Bush no estaban interesados en ninguna reconciliación importante, aunque el secretario de Estado Colin Powell se mostraba a favor del diálogo y otros funcionarios se habían reunido con Irán para tratar el tema de Al Qaeda.

Cuando el radical iraní Mahmud Ahmadineyad fue elegido presidente de Irán en 2005, la oportunidad se esfumó. Al año siguiente, Ahmadineyad hizo su propia apertura a Washington en una carta de 18 páginas dirigida al presidente Bush. La carta fue ampliamente rechazada.

Representantes de varias naciones se reunieron en Viena en julio de 2015 para ultimar el acuerdo nuclear con Irán.
Ministerio Federal de Europa, Integración y Asuntos Exteriores de Austria/Flickr

2015: Firma del acuerdo nuclear con Irán

Tras una década de intentos infructuosos por frenar las ambiciones nucleares de Irán, la Administración Obama emprendió una vía diplomática directa a partir de 2013.

Dos años de negociaciones secretas y directas, inicialmente bilaterales entre Estados Unidos e Irán y posteriormente con otras potencias nucleares, culminaron en el Plan de Acción Integral Conjunto, a menudo denominado acuerdo nuclear con Irán.

Irán, Estados Unidos, China, Francia, Alemania, Rusia y el Reino Unido firmaron el acuerdo en 2015. Este limitaba severamente la capacidad de Irán para enriquecer uranio y obligaba a inspectores internacionales a supervisar y hacer cumplir el acuerdo por parte de Irán.

A cambio, se concedió a Irán el levantamiento de las sanciones económicas internacionales y estadounidenses. Aunque los inspectores certificaron periódicamente que Irán cumplía los términos del acuerdo, el presidente Donald Trump se retiró del acuerdo en mayo de 2018.

2020: Drones estadounidenses matan al general iraní Qassem Soleimani

Una foto oficial del Gobierno iraní muestra al general Qassem Soleimani, asesinado el 3 de enero en un ataque con drones ordenado por el presidente Donald Trump.
Oficina de prensa del líder supremo iraní/Agencia Anadolu a través de Getty Images

El 3 de enero de 2020, un dron estadounidense disparó un misil que mató al general Qassem Soleimani, líder de la Fuerza Quds de élite iraní. Los analistas consideraban a Soleimani el segundo hombre más poderoso de Irán, después del líder supremo, el ayatolá Jamenei.

En ese momento, la administración Trump afirmó que Soleimani estaba dirigiendo un ataque inminente contra activos estadounidenses en la región, pero las autoridades no han proporcionado pruebas claras que respalden esa afirmación.

Irán respondió lanzando misiles balísticos que impactaron en dos bases estadounidenses en Irak.

2023: Los ataques del 7 de octubre contra Israel

El descarado ataque de Hamás contra Israel el 7 de octubre de 2023 provocó una temible respuesta militar por parte de Israel que continúa hoy en día y sirvió para debilitar gravemente a los aliados de Irán en la región, especialmente Hamás, autor de los ataques, y Hezbolá en el Líbano.

2025: Trump 2.0 e Irán

Trump vio la oportunidad de forjar un nuevo acuerdo nuclear con Irán y de buscar otros acuerdos comerciales con Teherán. Una vez investido para su segundo mandato, el presidente estadounidense nombró a Steve Witkoff, un inversor inmobiliario amigo del presidente, como enviado especial para Oriente Medio y para liderar las negociaciones.

Las negociaciones para alcanzar un acuerdo nuclear entre Washington y Teherán comenzaron en abril, pero los países no llegaron a un acuerdo. Estaban planeando una nueva ronda de conversaciones cuando Israel atacó Irán con una serie de ataques aéreos el 13 de junio, lo que obligó a la Casa Blanca a reconsiderar su posición.

En la madrugada del 22 de junio, Estados Unidos decidió actuar con contundencia en un intento de paralizar la capacidad nuclear de Irán, bombardeando tres instalaciones nucleares y causando lo que los responsables del Pentágono calificaron de “daños graves”. Irán prometió tomar represalias.

Este artículo ha sido actualizado para reflejar el bombardeo estadounidense de instalaciones nucleares iraníes el 22 de junio de 2025.


Reciba artículos como este cada día en su buzón. 📩 Suscríbase gratis a nuestro boletín diario para tener acceso directo a la conversación del día de The Conversation en español.


The Conversation

Jeffrey Fields recibe financiación de la Carnegie Corporation de Nueva York y Schmidt Futures.

ref. Un recorrido por la larga y tortuosa relación entre EE. UU. e Irán – https://theconversation.com/un-recorrido-por-la-larga-y-tortuosa-relacion-entre-ee-uu-e-iran-259550

No más ‘chuches’ en la escuela: la importancia de la nueva normativa para el comedor

Source: The Conversation – France – By David Cobos Sanchiz, Profesor Titular Dpto. Educación y Psicología Social, Universidad Pablo de Olavide

Regular los comedores escolares contribuye a crear hábitos saludables.

¿Se imagina una herramienta educativa con la capacidad de reducir la pobreza infantil, fomentar hábitos saludables para toda la vida y mejorar la convivencia y la autonomía? Todo esto es lo que puede lograr un comedor escolar bien gestionado.

Recientemente ha sido aprobada en España una nueva normativa para la promoción de una alimentación saludable y sostenible en los centros educativos. El texto reconoce la relación entre los derechos del niño y las políticas de salud alimentaria, e impulsa un modelo escolar que garantiza entornos protectores y promotores de bienestar para todo el alumnado. ¿Cómo plantea hacerlo?

Límites en máquinas expendedoras

Para empezar, se establecen límites estrictos a las bebidas azucaradas y a los envases monodosis de azúcar, sal, aceite, vinagre y otras salsas, regulando sus contenidos máximos. También se prohíbe la venta de productos no saludables (ricos en grasas trans, azúcares añadidos o cafeína en máquinas expendedoras y cafeterías escolares.

Otra medida importante que recoge el texto es la priorización de alimentos frescos, locales y de temporada, como frutas, verduras, legumbres y cereales integrales. Esta no es solo una recomendación, sino una obligación legal. Así, los centros escolares están obligados a cumplir estos criterios nutricionales al elaborar los menús escolares, mientras que las comunidades autónomas deben supervisar y garantizar el cumplimiento a través de inspecciones y planes de control.

Un buen menú, según la ley

Los menús deben ser equilibrados, estar adaptados a la edad del alumnado y contar con la supervisión de profesionales en nutrición o dietética. De este modo, el comedor escolar deja de concebirse únicamente como un espacio logístico para la alimentación diaria y pasa a ser entendido como un instrumento educativo, social y de equidad.

El decreto busca prevenir la obesidad infantil, reducir las desigualdades sociales en el acceso a una nutrición adecuada y fomentar hábitos saludables desde edades tempranas. Se trata, por tanto, de una apuesta por una escuela comprometida con la salud pública y con el desarrollo integral de la infancia. Sin olvidar que establecer hábitos alimentarios saludables repercute directamente en la salud a lo largo de toda la vida, mejorando incluso el rendimiento académico y el bienestar emocional.




Leer más:
Una infancia sedentaria: los niños y las niñas ya no se mueven como deberían


Hay que decir que se trata de una buena norma que viene a paliar un déficit legislativo que tenía España respecto a muchos otros países europeos. Sin ir más lejos, la prohibición de máquinas expendedoras de bebidas azucaradas en las escuelas comenzó en Francia hace dos décadas. En cuanto al Reino Unido, ya en 2015 estableció requisitos nutricionales para las comidas escolares, incluyendo la limitación de productos ultraprocesados y bebidas azucaradas.




Leer más:
¿Influye el envase de los alimentos en los hábitos nutricionales de los niños y niñas?


Una visión avalada por la investigación científica

Muchos estudios, clásicos y recientes, han demostrado que las intervenciones que modifican el entorno del comedor, combinadas con acciones de formación y sensibilización, son eficaces para mejorar los hábitos alimentarios del alumnado. Distintas iniciativas han logrado aumentar el consumo de frutas y verduras, reducir la ingesta de bebidas azucaradas y reforzar la autoeficacia de los estudiantes a la hora de elegir alimentos saludables.

Además, la participación activa del alumnado en estas iniciativas –por ejemplo, mediante la organización de campañas, talleres o huertos escolares– refuerza el aprendizaje y lo convierte en una experiencia transformadora, logrando cambios profundos y sostenibles en las actitudes y comportamientos alimentarios.

El impacto de los menús

En el sentido contrario, también se ha demostrado que los entornos escolares que permiten el acceso libre a productos ultraprocesados, o que no cuidan la calidad de los menús, dificultan gravemente la promoción de hábitos saludables. La presencia de alimentos no nutritivos en las escuelas puede anular los efectos positivos de cualquier programa de educación alimentaria.




Leer más:
La fórmula para desayunos y meriendas infantiles sanos y sostenibles


Por tanto, es clave entender el comedor escolar como un espacio con un enorme potencial pedagógico y social. Un comedor escolar bien gestionado alimenta pero también educa, cuida e incluye. No solo enseña a comer mejor, sino que puede convertirse en un escenario de aprendizajes interdisciplinarios y transversales, donde se refuercen áreas como las ciencias naturales, la ética, la economía o la ecología, a través de actividades participativas y experienciales. El comedor es también un espacio para transmitir valores y aprender a convivir, a respetar normas, a compartir y a cuidar de uno mismo y de los demás.

Repensar el comedor escolar con mirada pedagógica

Este enfoque holístico de la alimentación escolar promueve una visión más rica y transformadora del acto de comer. No solo como una necesidad fisiológica, sino como una práctica social, cultural, educativa y política. Las escuelas, al integrar este enfoque, forman ciudadanos más conscientes, autónomos y responsables.

Además de mejorar la calidad de la alimentación en la escuela, esta nueva mirada destaca el papel del comedor como un espacio educativo de primer orden, capaz de generar cambios reales y duraderos en la vida de los estudiantes. Promover hábitos saludables, garantizar entornos equitativos y formar en valores desde el comedor escolar es una obligación ética y pedagógica. Porque una escuela que alimenta bien es una escuela que educa mejor.


Reciba artículos como este cada día en su buzón. 📩 Suscríbase gratis a nuestro boletín diario para tener acceso directo a la conversación del día de The Conversation en español.


The Conversation

David Cobos Sanchiz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. No más ‘chuches’ en la escuela: la importancia de la nueva normativa para el comedor – https://theconversation.com/no-mas-chuches-en-la-escuela-la-importancia-de-la-nueva-normativa-para-el-comedor-258246

Light-powered reactions could make the chemical manufacturing industry more energy-efficient

Source: The Conversation – USA (2) – By Arindam Sau, Ph.D. Candidate in Chemistry, University of Colorado Boulder

Plants use light to make energy – and a team of scientists is using the same principle to power chemical reactions. fhm/Moment via Getty Images

Manufactured chemicals and materials are necessary for practically every aspect of daily life, from life-saving pharmaceuticals to plastics, fuels and fertilizers. Yet manufacturing these important chemicals comes at a steep energy cost.

Many of these industrial chemicals are derived primarily from fossil fuel-based materials. These compounds are typically very stable, making it difficult to transform them into useful products without applying harsh and energy-demanding reaction conditions.

As a result, transforming these stubborn materials contributes significantly to the world’s overall energy use. In 2022, the industrial sector consumed 37% of the world’s total energy, with the chemical industry responsible for approximately 12% of that demand.

Conventional chemical manufacturing processes use heat to generate the energy needed for reactions that take place at high temperatures and pressures. An approach that uses light instead of heat could lower energy demands and allow reactions to be run under gentler conditions — like at room temperature instead of extreme heat.

Sunlight represents one of the most abundant yet underutilized energy sources on Earth. In nature, this energy is captured through photosynthesis, where plants convert light into chemical energy. Inspired by this process, our team of chemists at the Center for Sustainable Photoredox Catalysis, a research center funded by the National Science Foundation, has been working on a system that uses light to power reactions commonly used in the chemical manufacturing industry. We published our results in the journal Science in June 2025.

We hope that this method could provide a more economical route for creating industrial chemicals out of fossil fuels. At the same time, since it doesn’t rely on super-high temperatures or pressures, the process is safer, with fewer chances for accidents.

A diagram showing a flower, where light from the Sun and CO2 go into the flower and water go into its roots, carbohydrates are stored in its leaves, and oxygen leaves.
Plants capture sunlight to convert carbon dioxide from the air into carbohydrates, or sugars.
Wattcle, Nefronus/Wikimedia Commons, CC BY-SA

How does our system work?

The photoredox catalyst system that our team has developed is powered by simple LEDs, and it operates efficiently at room temperature.

At the core of our system is an organic photoredox catalyst: a specialized molecule that we know accelerates chemical reactions when exposed to light, without being consumed in the process.

Much like how plants rely on pigments to harvest sunlight for photosynthesis, our photoredox catalyst absorbs multiple particles of light, called photons, in a sequence.

These photons provide bursts of energy, which the catalyst stores and then uses to kick-start reactions. This “multi-photon” harvesting builds up enough energy to force very stubborn molecules into undergoing reactions that would otherwise need highly reactive metals. Once the reaction is complete, the photocatalyst resets itself, ready to harvest more light and keep the process going without creating extra waste.

Designing molecules that can absorb multiple photons and react with stubborn molecules is tough. One big challenge is that after a molecule absorbs a photon, it only has a tiny window of time before that energy fades away or gets lost. Plus, making sure the molecule uses that energy the right way is not easy. The good news is we’ve found that our catalyst can do this efficiently at room temperature.

A researcher in lab goggles, gloves and a lab coat holds a bright slide over a lab bench.
Center for Sustainable Photoredox Catalysis researcher Amreen Bains performs a light-driven photoredox catalyzed reaction.
John Cline, Colorado State University Photography

Enabling greener chemical manufacturing

Our work points toward a future where chemicals are made using light instead of heat. For example, our catalyst can turn benzene — a simple component of crude oil — into a form called cyclohexadienes. This is a key step in making the building blocks for nylon. Improving this part of the process could reduce the carbon footprint of nylon production.

Imagine manufacturers using LED reactors or even sunlight to power the production of essential chemicals. LEDs still use electricity, but they need far less energy compared with the traditional heating methods used in chemical manufacturing. As we scale things up, we’re also figuring out ways to harness sunlight directly, making the entire process even more sustainable and energy-efficient.

Right now, we’re using our photoredox catalysts successfully in small lab experiments — producing just milligrams at a time. But to move into commercial manufacturing, we’ll need to show that these catalysts can also work efficiently at a much larger scale, making kilograms or even tons of product. Testing them in these bigger reactions will ensure that they’re reliable and cost-effective enough for real-world chemical manufacturing.

Similarly, scaling up this process would require large-scale reactors that use light efficiently. Building those will first require designing new types of reactors that let light reach deeper inside. They’ll need to be more transparent or built differently so the light can easily get to all parts of the reaction.

Our team plans to keep developing new light-driven techniques inspired by nature’s efficiency. Sunlight is a plentiful resource, and by finding better ways to tap into it, we hope to make it easier and cleaner to produce the chemicals and materials that modern life depends on.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Light-powered reactions could make the chemical manufacturing industry more energy-efficient – https://theconversation.com/light-powered-reactions-could-make-the-chemical-manufacturing-industry-more-energy-efficient-257796

How do atoms form? A physicist explains where the atoms that make up everything around come from

Source: The Conversation – USA (2) – By Stephen L. Levy, Associate Professor of Physics and Applied Physics and Astronomy, Binghamton University, State University of New York

Many heavy atoms form from a supernova explosion, the remnants of which are shown in this image. NASA/ESA/Hubble Heritage Team

Curious Kids is a series for children of all ages. If you have a question you’d like an expert to answer, send it to CuriousKidsUS@theconversation.com.


How do atoms form? – Joshua, age 7, Shoreview, Minnesota


Richard Feynman, a famous theoretical physicist who won the Nobel Prize, said that if he could pass on only one piece of scientific information to future generations, it would be that all things are made of atoms.

Understanding how atoms form is a fundamental and important question, since they make up everything with mass.

The question of where atoms come from requires a lot of physics to be answered completely – and even then, physicists like me only have good guesses to explain how some atoms are formed.

What is an atom?

An atom consists of a heavy center, called the nucleus, made of particles called protons and neutrons. An atom has lighter particles called electrons that you can think of as orbiting around the nucleus.

The electrons each carry one unit of negative charge, the protons each carry one unit of positive charge, and the neutrons have no charge. An atom has the same number of protons as electrons, so it is neutral − it has no overall charge.

A diagram of an atom, with protons and neutrons clumped together in the center and ovals representing electron orbits surrounding them.
An atom consists of positively charged protons, neutrally charged neutrons and negatively charged electrons.
AG Caesar/Wikimedia Commons, CC BY-SA

Now, most of the atoms in the universe are the two simplest kinds: hydrogen, which has one proton, zero neutrons and one electron; and helium, which has two protons, two neutrons and two electrons. Of course, on Earth there are lots of atoms besides these that are just as common, such as carbon and oxygen, but I’ll talk about those soon.

An element is what scientists call a group of atoms that are all the same, because they all have the same number of protons.

When did the first atoms form?

Most of the universe’s hydrogen and helium atoms formed around 400,000 years after the Big Bang, which is the name for when scientists think the universe began, about 14 billion years ago.

Why did they form at that time? Astronomers know from observing distant exploding stars that the size of the universe has been getting bigger since the Big Bang. When the hydrogen and helium atoms first formed, the universe was about 1,000 times smaller than it is now.

And based on their understanding of physics, scientists believe that the universe was much hotter when it was smaller.

Before this time, the electrons had too much energy to settle into orbits around the hydrogen and helium nuclei. So, the hydrogen and helium atoms could form only once the universe cooled down to something like 5,000 degrees Fahrenheit (2,760 degrees Celsius). For historical reasons, this process is misleadingly called recombination − combination would be more descriptive.

The helium and deuterium − a heavier form of hydrogen − nuclei formed even earlier, just a few minutes after the Big Bang, when the temperature was above 1 billion F (556 million C). Protons and neutrons can collide and form nuclei like these only at very high temperatures.

Scientists believe that almost all the ordinary matter in the universe is made of about 90% hydrogen atoms and 8% helium atoms.

How do more massive atoms form?

So, the hydrogen and helium atoms formed during recombination, when the cooler temperature allowed electrons to fall into orbits. But you, I and almost everything on Earth is made of many more massive atoms than just hydrogen and helium. How were these atoms made?

The surprising answer is that more massive atoms are made in stars. To make atoms with several protons and neutrons stuck together in the nucleus requires the type of high-energy collisions that occur in very hot places. The energy needed to form a heavier nucleus needs to be large enough to overcome the repulsive electric force that positive charges, like two protons, feel with each other.

A close up of a bright star, which looks like a sphere with some flashes on its surface, against a dark background.
The immense heat and pressure in stars can form atoms through a process called fusion.
NASA/SDO

Protons and neutrons also have another property – kind of like a different type of charge – that is strong enough to bind them together once they are able to get very close together. This property is called the strong force, and the process that sticks these particles together is called fusion.

Scientists believe that most of the elements from carbon up to iron are fused in stars heavier than our Sun, where the temperature can exceed 1 billion F (556 million C) – the same temperature that the universe was when it was just a few minutes old.

The periodic table of elements, color-coded by how each element formed. Lighter elements formed by cosmic ray fission or exploding stars, while larger elements formed by merging neurtron stars or dying low mass stars. Hydrogen and Helium formed through Big Bang fusion.
This periodic table shows which astronomical processes scientists believe are responsible for forming each of the elements.
Cmglee/Wikimedia Commons (image) and Jennifer Johnson/OSU (data), CC BY-SA

But even in hot stars, elements heavier than iron and nickel won’t form. These require extra energy, because the heavier elements can more easily break into pieces.

In a dramatic event called a supernova, the inner core of a heavy star suddenly collapses after it runs out of fuel to burn. During the powerful explosion this collapse triggers, elements that are heavier than iron can form and get ejected out into the universe.

Astronomers are still figuring out the details of other fantastic stellar events that form larger atoms. For example, colliding neutron stars can release enormous amounts of energy – and elements such as gold – on their way to forming black holes.

Understanding how atoms are made just requires learning a little general relativity, plus some nuclear, particle and atomic physics. But to complicate matters, there is other stuff in the universe that doesn’t appear to be made from normal atoms at all, called dark matter. Scientists are investigating what dark matter is and how it might form.


Hello, curious kids! Do you have a question you’d like an expert to answer? Ask an adult to send your question to CuriousKidsUS@theconversation.com. Please tell us your name, age and the city where you live.

And since curiosity has no age limit – adults, let us know what you’re wondering, too. We won’t be able to answer every question, but we will do our best.

The Conversation

Stephen L. Levy receives funding from the National Science Foundation and the National Institutes of Health. He is affiliated with CyteQuest, Inc.

ref. How do atoms form? A physicist explains where the atoms that make up everything around come from – https://theconversation.com/how-do-atoms-form-a-physicist-explains-where-the-atoms-that-make-up-everything-around-come-from-256172

Astronomy has a major data problem – simulating realistic images of the sky can help train algorithms

Source: The Conversation – USA (2) – By John Peterson, Assoc. Professor of Physics and Astronomy, Purdue University

A simulation of a set of synthetic galaxies. Photons are sampled from these galaxies and have been simulated through the Earth’s atmosphere, a telescope and a sensor using a code called PhoSim. John Peterson/Purdue

Professional astronomers don’t make discoveries by looking through an eyepiece like you might with a backyard telescope. Instead, they collect digital images in massive cameras attached to large telescopes.

Just as you might have an endless library of digital photos stored in your cellphone, many astronomers collect more photos than they would ever have the time to look at. Instead, astronomers like me look at some of the images, then build algorithms and later use computers to combine and analyze the rest.

But how can we know that the algorithms we write will work, when we don’t even have time to look at all the images? We can practice on some of the images, but one new way to build the best algorithms is to simulate some fake images as accurately as possible.

With fake images, we can customize the exact properties of the objects in the image. That way, we can see if the algorithms we’re training can uncover those properties correctly.

My research group and collaborators have found that the best way to create fake but realistic astronomical images is to painstakingly simulate light and its interaction with everything it encounters. Light is composed of particles called photons, and we can simulate each photon. We wrote a publicly available code to do this called the photon simulator, or PhoSim.

The goal of the PhoSim project is to create realistic fake images that help us understand where distortions in images from real telescopes come from. The fake images help us train programs that sort through images from real telescopes. And the results from studies using PhoSim can also help astronomers correct distortions and defects in their real telescope images.

The data deluge

But first, why is there so much astronomy data in the first place? This is primarily due to the rise of dedicated survey telescopes. A survey telescope maps out a region on the sky rather than just pointing at specific objects.

These observatories all have a large collecting area, a large field of view and a dedicated survey mode to collect as much light over a period of time as possible. Major surveys from the past two decades include the SDSS, Kepler, Blanco-DECam, Subaru HSC, TESS, ZTF and Euclid.

The Vera Rubin Observatory in Chile has recently finished construction and will soon join those. Its survey begins soon after its official “first look” event on June 23, 2025. It will have a particularly strong set of survey capabilities.

The Rubin observatory can look at a region of the sky all at once that is several times larger than the full Moon, and it can survey the entire southern celestial hemisphere every few nights.

An observatory, which looks like a building with a dome atop it, on a mountainside, with a starry sky shown in the background.
The Vera Rubin Observatory will take in lots of light to construct maps of the sky.
Rubin Observatory/NSF/AURA/B. Quint, CC BY-SA

A survey can shed light on practically every topic in astronomy.

Some of the ambitious research questions include: making measurements about dark matter and dark energy, mapping the Milky Way’s distribution of stars, finding asteroids in the solar system, building a three-dimensional map of galaxies in the universe, finding new planets outside the solar system and tracking millions of objects that change over time, including supernovas.

All of these surveys create a massive data deluge. They generate tens of terabytes every night – that’s millions to billions of pixels collected in seconds. In the extreme case of the Rubin observatory, if you spent all day long looking at images equivalent to the size of a 4K television screen for about one second each, you’d be looking at them 25 times too slow and you’d never keep up.

At this rate, no individual human could ever look at all the images. But automated programs can process the data.

Astronomers don’t just survey an astronomical object like a planet, galaxy or supernova once, either. Often we measure the same object’s size, shape, brightness and position in many different ways under many different conditions.

But more measurements do come with more complications. For example, measurements taken under certain weather conditions or on one part of the camera may disagree with others at different locations or under different conditions. Astronomers can correct these errors – called systematics – with careful calibration or algorithms, but only if we understand the reason for the inconsistency between different measurements. That’s where PhoSim comes in. Once corrected, we can use all the images and make more detailed measurements.

Simulations: One photon at a time

To understand the origin of these systematics, we built PhoSim, which can simulate the propagation of light particles – photons – through the Earth’s atmosphere and then into the telescope and camera.

A simulation of photons traveling from a single star to the Vera Rubin Observatory, made using PhoSim. The layers of turbulence in the atmosphere move according to wind patterns (top middle), and the mirrors deform (top right) depending on the temperature and forces exerted on them. The photons with different wavelengths (colors) are sampled from a star, refract through the atmosphere and then interact with the telescope’s mirrors, filter and lenses. Finally, the photons eject electrons in the sensor (bottom middle) that are counted in pixels to make an image (bottom right). John Peterson/Purdue

PhoSim simulates the atmosphere, including air turbulence, as well as distortions from the shape of the telescope’s mirrors and the electrical properties of the sensors. The photons are propagated using a variety of physics that predict what photons do when they encounter the air and the telescope’s mirrors and lenses.

The simulation ends by collecting electrons that have been ejected by photons into a grid of pixels, to make an image.

Representing the light as trillions of photons is computationally efficient and an application of the Monte Carlo method, which uses random sampling. Researchers used PhoSim to verify some aspects of the Rubin observatory’s design and estimate how its images would look.

Rubin simulation with PhoSim, showing black dots representing stars and galaxies against a bright background
A simulations of a series of exposures of stars, galaxies and background light through the Rubin observatory using PhoSim. Photons are sampled from the objects and then interact with the Earth’s atmosphere and Rubin’s telescope and camera.
John Peterson/Purdue

The results are complex, but so far we’ve connected the variation in temperature across telescope mirrors directly to astigmatism – angular blurring – in the images. We’ve also studied how high-altitude turbulence in the atmosphere that can disturb light on its way to the telescope shifts the positions of stars and galaxies in the image and causes blurring patterns that correlate with the wind. We’ve demonstrated how the electric fields in telescope sensors – which are intended to be vertical – can get distorted and warp the images.

Researchers can use these new results to correct their measurements and better take advantage of all the data that telescopes collect.

Traditionally, astronomical analyses haven’t worried about this level of detail, but the meticulous measurements with the current and future surveys will have to. Astronomers can make the most out of this deluge of data by using simulations to achieve a deeper level of understanding.

The Conversation

John Peterson does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Astronomy has a major data problem – simulating realistic images of the sky can help train algorithms – https://theconversation.com/astronomy-has-a-major-data-problem-simulating-realistic-images-of-the-sky-can-help-train-algorithms-258786

How do scientists calculate the probability that an asteroid could hit Earth?

Source: The Conversation – USA (2) – By Toshi Hirabayashi, Associate Professor of Aerospace Engineering, Georgia Institute of Technology

NASA’s Webb telescope captured a photo of the asteroid 2024 YR4 from afar. European Space Agency via AP

I was preparing for my early morning class back in January 2025 when I received a notice regarding an asteroid called 2024 YR4. It said the probability it could hit Earth was unusually high.

As defending Earth from unexpected intruders such as asteroids is part of my expertise, I immediately started receiving questions from my students and colleagues about what was happening.

When scientists spot an asteroid whose trajectory might take it close to Earth, they monitor it frequently and calculate the probability that it might collide with our planet. As they receive more observational data, they get a better picture of what could happen.

Just having more data points early doesn’t make scientists’ predictions better. They need to keep following the asteroid as it moves through space to better understand its trajectory.

Reflecting on the incident a few months later, I wondered whether there might have been a better way for scientists to communicate about the risk with the public. We got accurate information, but as the questions I heard indicated, it wasn’t always enough to understand what it actually means.

Numbers change every day

The 2024 YR24 asteroid has a diameter of about 196 feet (60 meters) – equivalent to approximately a 15-story building in length.

At the time of the announcement in January, the asteroid’s impact probability was reported to exceed 1%. The impact probability describes how likely a hazardous asteroid is to hit Earth. For example, if the impact probability is 1%, it means that in 1 of 100 cases, it hits Earth. One in 100 is kind of rare, but still too close for comfort if you’re talking about the odds of a collision that could devastate Earth.

Over time, though, further observations and analyses revealed an almost-zero chance of this asteroid colliding with Earth.

After the initial notice in January, the impact probability continuously increased up to 3.1% on Feb. 18, but dropped to 1.5% on Feb. 19. Then, the impact probability continuously went down, until it hit 0.004% on Feb. 24. As of June 15, it now has an impact probability of less than 0.0000081%.

A diagram showing the orbit paths of Earth, 2024 YR4 and some other planets in the solar system. 2024 YR4's orbit intersects with Earth's.
The orbit of 2024 YR4 will take it close to Earth, but scientists have found the chance of a collision to be exceedingly low.
NASA/JPL

But while the probability of hitting Earth went down, the probability of the asteroid hitting the Moon started increasing. It went up to 1.7% on Feb. 24. As of April 2, it is 3.8%.

If it hits the Moon, some ejected materials from this collision could reach the Earth. However, these materials would burn away when they enter the Earth’s thick atmosphere.

Impact probability

To see whether an approaching object could hit Earth, researchers find out what an asteroid’s orbit looks like using a technique called astrometry. This technique can accurately determine an object’s orbit, down to only a few kilometers of uncertainty. But astrometry needs accurate observational data taken for a long time.

If an asteroid might get close to Earth, astronomers take observational data to better track the object’s path and eliminate uncertainty.

Any uncertainty in the calculation of the object’s orbit causes variations in the predicted solution. Instead of one precise orbit, the calculation usually gives scientists a cloud of its possible orbits. The ellipse enclosing these locations is called an error ellipse.

The impact probability describes how many orbital predictions in this ellipse hit the Earth.

Without enough observational data, the orbital uncertainty is high, so the ellipse tends to be large. In a large ellipse, there’s a higher chance that the ellipse “accidentally” includes Earth – even if the center is off the planet. So, even if an asteroid ultimately won’t hit Earth, its error ellipse might still include the planet before scientists collect enough data to narrow down the uncertainty.

As the level of uncertainty goes down, the ellipse shrinks. So, when Earth is inside a small error ellipse, the impact probability may become higher than when it’s inside a large error ellipse. Once the error ellipse shrinks enough that it no longer includes Earth, the impact probability goes down significantly. That’s what happened to 2024 YR4.

A diagram showing impact probability on the y axis and time on the x axis, with three drawings of the Earth and an error ellipse. As time goes on, the ellipse shrinks and in the third drawing it isn't overlapping with the Earth.
As the error ellipse shrinks, the chance of the asteroid hitting Earth either goes down or goes way up, if it ends up overlapping with the Earth.
Toshi Hirabayashi

The impact probability is a single, practical value offering meaningful insight into an impact threat. However, just using the impact probability without any context may not provide meaningful guidelines to the public, as we saw with 2024 YR4.

Holding on and waiting for more data to refine a collision prediction, or introducing new metrics for assessing impacts on Earth, are alternative courses of action to provide people with better guidelines for future threats before adding confusion and fear.

The Conversation

I have been studying planetary defense, particularly being part of past, ongoing, and future small body missions. I was part of the NASA/DART mission. I am currently part of the NASA/Lucy mission and the ESA/Hera mission. I am also on the Hayabusa2# team, led by the Japanese Aerospace Exploration Agency (JAXA), as part of an international collaboration. I have no affiliation with JAXA.

ref. How do scientists calculate the probability that an asteroid could hit Earth? – https://theconversation.com/how-do-scientists-calculate-the-probability-that-an-asteroid-could-hit-earth-249834

Uranium enrichment: A chemist explains how the surprisingly common element is processed to power reactors and weapons

Source: The Conversation – USA (2) – By André O. Hudson, Dean of the College of Science, Professor of Biochemistry, Rochester Institute of Technology

Yellowcake is a concentrated form of mined and processed uranium. Nuclear Regulatory Commission, CC BY

When most people hear the word uranium, they think of mushroom clouds, Cold War standoffs or the glowing green rods from science fiction. But uranium isn’t just fuel for apocalyptic fears. It’s also a surprisingly common element that plays a crucial role in modern energy, medicine and geopolitics.

Uranium reentered the global spotlight in June 2025, when the U.S. launched military strikes on sites in Iran believed to be housing highly enriched uranium, a move that reignited urgent conversations around nuclear proliferation. Many headlines have mentioned Iran’s 60% enrichment of uranium, but what does that really mean?

As a biochemist, I’m interested in demystifying this often misunderstood element.

What is uranium?

Uranium holds the 92nd position on the periodic table, and it is a radioactive, metallic element. Radioactivity is a natural process where some atoms – like uranium, thorium and radium – break down on their own, releasing energy.

The German chemist Martin Heinrich Klaproth initially identified uranium in 1789, and he named it after the newly discovered planet Uranus. However, its power was not unlocked until the 20th century, when scientists discovered that uranium atoms could split via a process known as nuclear fission. In fission, the nucleus of the atom splits into two or more nuclei, which releases large amounts of energy.

Uranium is found almost everywhere. It is in rocks, soil and water. There are even traces of uranium in plants and animals – albeit tiny amounts. Most of it is found in the Earth’s crust, where it is mined and concentrated to increase the amount of its most useful radioactive form, uranium-235.

The enrichment dilemma

Uranium-235 is an isotope of uranium, which is a version of an element that has the same basic identity but weighs a little more or less. Think about apples from the same tree. Some are big and some are small, but they are all apples – even though they have slightly different weights. Basically, an isotope is the same element but with a different mass.

Unprocessed uranium is mostly uranium-238. It only contains approximately 0.7% uranium-235, the isotope that allows the most nuclear fission to occur. So, the enrichment process concentrates uranium-235.

Enrichment can make uranium more useful for the development of nuclear weapons, since natural uranium doesn’t have enough uranium-235 to work well in reactors or weapons. The process usually contains three steps.

Centrifuges spin the uranium to separate out its isotopes.

The first step is to convert the uranium into a gas, called uranium hexafluoride. In the second step, the gas gets funneled into a machine called a centrifuge that spins very fast. Because uranium-235 is a little lighter than uranium-238, it moves outward more slowly when spun, and the two isotopes separate.

It’s sort of like how a salad spinner separates water from lettuce. One spin doesn’t make much of a difference, so the gas is spun through many centrifuges in a row until the uranium-235 is concentrated.

Uranium can typically power nuclear plants and generate electricity when it is 3%-5% enriched, meaning 3%-5% of the uranium is uranium-235. At 20% enriched, uranium-235 is considered highly enriched uranium, and 90% or higher is known as weapons-grade uranium.

Three pie charts showing the proportion of isotopes in each type of uranium. Natural uranium is almost all U238, low-enriched uranium is 3%-20% U235, highly enriched uranium is mostly U235
The enrichment level depends on the proportion of uranium-235 to uranium-238.
Wikimedia Commons

This high grade works in nuclear weapons because it can sustain a fast, uncontrolled chain reaction, which releases a large amount of energy compared with the other isotopes.

Uranium’s varied powers

While many headlines focus on uranium’s military potential, this element also plays a vital role in modern life. At low enrichment levels, uranium powers nearly 10% of the world’s electricity.

In the U.S., many nuclear power plants run on uranium fuel, producing carbon-free energy. In addition, some cancer therapies and diagnostic imaging technologies harness uranium to treat diseases.

The smoking stacks of a nuclear power plant
Enriched uranium is used for nuclear power.
Raimond Spekking/Wikimedia Commons, CC BY-SA

In naval technology, nuclear-powered submarines and aircraft carriers rely on enriched uranium to operate silently and efficiently for years.

Uranium is a story of duality. It is a mineral pulled from ancient rocks that can light up a city or wipe one off the map. It’s not just a relic of the Cold War or science fiction. It’s real, it’s powerful, and it’s shaping our world – from global conflicts to cancer clinics, from the energy grid to international diplomacy.

In the end, the real power is not just in the energy released from the element. It is in how people choose to use it.

The Conversation

André O. Hudson receives funding from the National Institutes of Health.

ref. Uranium enrichment: A chemist explains how the surprisingly common element is processed to power reactors and weapons – https://theconversation.com/uranium-enrichment-a-chemist-explains-how-the-surprisingly-common-element-is-processed-to-power-reactors-and-weapons-259646

Israel-Iran war recalls the 2003 US invasion of Iraq – a war my undergraduate students see as a relic of the past

Source: The Conversation – USA (2) – By Andrea Stanton, Associate Professor of Islamic Studies & Faculty Affiliate, Center for Middle East Studies, University of Denver

American troops topple a statue of Saddam Hussein on April 9, 2003, in Baghdad. Gilles Bassignac/Gamma-Rapho via Getty Images

After 12 days of trading deadly airstrikes, Israel and Iran confirmed on June 24, 2025, that a ceasefire is in effect, one day after President Donald Trump proclaimed the countries reached a deal to end fighting. Experts are wondering how long the ceasefire, which does not contain any specific conditions, will hold.

Meanwhile, Republicans and Democrats alike have debated whether the Trump administration’s decision to bomb Iran’s three nuclear facilities on June 22 constituted an unofficial declaration of war – since Trump has not asked Congress to formally declare war against Iran.

The United States’ involvement in the fighting between Iran and Israel, which Israel started on June 12, has also sparked concerned comparisons with the eight-year war the U.S. waged in Iraq, another Middle Eastern country.

The U.S. invaded Iraq more than 20 years ago in March 2003, claiming it had to disarm the Iraqi government of weapons of mass destruction and end the dictatorial rule of President Saddam Hussein. U.S. soldiers captured Saddam in December 2003, but the war dragged on through 2011.

A 15-month search by U.S. and United Nations inspectors revealed in 2004 that Iraq had no weapons of mass destruction to seize.

The Trump administration, bolstered by the Israeli government, has claimed that Iran’s development of nuclear weapons represents an imminent, dangerous threat to Western countries and the rest of the world. Iran says that its nuclear development program is for civilian use. While the International Atomic Energy Agency, an independent organization that is part of the United Nations, monitors Iran and other countries’ nuclear development work, Iran has not complied with recent IAEA requests for information about its nuclear program.

Trump has also called for regime change in Iran, writing on his Truth Social media platform on June 22 that he wants to “Make Iran Great Again”, though he has since walked back that plan. The case of U.S. involvement in Iraq might offer some lessons in this current moment.

The start and cost of the Iraq War

The conflict between Western powers and Iraq dragged on until 2011. More than 4,600 American soldiers died in combat – and thousands more died by suicide after they returned home.

More than 288,000 Iraqis, including fighters and civilians, have died from war-related violence since the invasion.

The war cost the U.S. over $2 trillion.

And Iraq is still dealing with widespread political violence between rival religious-political groups and an unstable government.

Most of these problems stem directly or indirectly from the war. The 2003 U.S. invasion of Iraq and the war that followed are defining events in the histories of both countries – and the region. Yet, for many young people in the United States, drawing a connection between the war and its present-day impact is becoming more difficult. For them, the war is an artifact of the past.

I am a Middle East historian and an Islamic studies scholar who teaches two undergraduate courses that cover the 2003 invasion and the Iraq War. My courses attract students who hope to work in politics, law, government and nonprofit groups, and whose personal backgrounds include a range of religious traditions, immigration histories and racial identities.

The stories of the invasion and subsequent war resonate with them in the same way that stories of other past events do – they’re eager to learn from them, but don’t see them as directly connected to their lives.

A white man with grey hair wears a dark suit and red tie and is seated at a table with an American flag behind him.
Former President George W. Bush formally declared war on Iraq in a televised address on March 19, 2003.
Brooks Kraft LLC/Corbis via Getty Images

A generational shift

Since I started teaching courses related to the Iraq War in 2010, my students have shifted from millennials to Generation Z. The latter were born between the mid-1990s and early 2010s. There has also been a change in how these students understand major early 21st-century events, including the U.S. invasion of Iraq.

I teach this event by showing things like former President George W. Bush’s March 19, 2003, televised announcement of the invasion.

I also teach it through the flow of my lived experience. That includes remembering the Feb. 15, 2003, anti-war protests that took place in over 600 cities around the world as an effort to prevent what appeared to be an inevitable war. And I show students aspects of material culture, like the “Iraqi most wanted” deck of playing cards, distributed to deployed U.S. military personnel in Iraq, who used the cards for games and to help them identify key figures in the Iraq government.

The millennial students I taught around 2010 recalled the U.S. invasion of Iraq from their early teen years – a confusing but foundational moment in their personal timelines.

But for the Gen-Z students I teach today, the invasion sits firmly in the past, as a part of history.

Why this matters

Since the mid-2010s, I have not been able to expect students to enroll in my course with personal prior knowledge about the invasion and war that followed. In 2013, my students would tell me that their childhoods had been defined by a United States at war – even if those wars happened far from U.S. soil.

Millennial students considered the trifecta of 9/11, the war in Afghanistan and the war in Iraq to be defining events in their lives. The U.S. and its allies launched airstrikes against al-Qaida and Taliban targets in Afghanistan on Oct. 7, 2001, less than a month after the Sept. 11 terrorist attacks. This followed the Taliban refusing to hand over Osama bin Laden, the architect of 9/11.

By 2021, my students considered Bush’s actions with the same level of abstract curiosity that they had brought to the class’s earlier examination of the 1957 Eisenhower Doctrine, which said that a country could request help from U.S. military forces if it was being threatened by another country, and was used to justify U.S. military involvement in Lebanon in 1958.

On an educational level, this means that I now provide much more background information on the first the Gulf War, the 2000 presidential elections, the Bush presidency, the immediate U.S. responses to 9/11 and the Afghanistan invasion than I had to do before. All of these events help students better understand why the U.S. invaded Iraq and why Americans felt so strongly about the military action – whether they were for or against the invasion.

The Iraq invasion lost popularity among Americans within two years. In March 2003, 71% of Americans said that the U.S. made the right decision to use military force in Iraq.

That percentage dropped to 47% in 2005, following the revelation that there were no weapons of mass destruction. Yet those supporters continued to strongly endorse the invasion in later polls.

In 2018, just over half of Americans believed that the U.S. failed to achieve its goals, however those goals might have been defined in Iraq.

A man in white holds on to a woman covered in a black dress, while another man in white holds a baby and walks behind him. Smoke billows in the sky.
An Iraqi family flees past British tanks from the city of Basra in March 2003.
Odd Andersen/AFP via Getty Images

A new set of priorities

Older Americans age 65 and up are more likely than young people to prioritize foreign policy issues, including maintaining a U.S. military advantage.

Younger Americans – age 18 to 39 – say the top issues that require urgency are providing support to refugees and limiting U.S. military commitments abroad, according to a 2021 Pew research survey.

Generation Z members are also less likely than older Americans to think that the U.S. should act by itself in defending or protecting democracy around the world, according to a 2019 poll by the think tank Center for American Progress.

They also agree with the statement that the United States’ “wars in the Middle East and Afghanistan were a waste of time, lives, and taxpayer money and they did nothing to make us safer at home.” They prefer that the U.S. use economic and diplomatic means, rather than military intervention, to advance American interests around the world.

Israel’s conflict with Iran may not flare again and give way to more airstrikes and violence. If the countries resume fighting, however, their conflict threatens to draw in Lebanon, Qatar and other countries in the Middle East, as well as likely the U.S. – and to drag on for a long time.

This is an update from a story originally published on March 15, 2023.

The Conversation

Andrea Stanton does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Israel-Iran war recalls the 2003 US invasion of Iraq – a war my undergraduate students see as a relic of the past – https://theconversation.com/israel-iran-war-recalls-the-2003-us-invasion-of-iraq-a-war-my-undergraduate-students-see-as-a-relic-of-the-past-259652