ChatGPT is in classrooms. How should educators now assess student learning?

Source: The Conversation – Canada – By Sarah Elaine Eaton, Professor and Research Chair, Werklund School of Education, University of Calgary

Generative artificial intelligence (GenAI) is now a reality in higher education, with students and professors integrating chatbots into teaching, learning and assessment. But this isn’t just a technical shift; it’s reshaping how students and educators learn and evaluate knowledge.

Our recent qualitative study with 28 educators across Canadian universities and colleges — from librarians to engineering professors — suggests that we have entered a watershed moment in education.

We must grapple with the question: What exactly should be assessed when human cognition can be augmented or simulated by an algorithm?

Research about AI and academic integrity

In our review of 15 years of research that engages how AI affects cheating in education, we found that AI is a double-edged sword for schools.

On one hand, AI tools like online translators and text generators have become so advanced that they can write just like humans. This makes it difficult for teachers to detect cheating. Additionally, these tools can sometimes present fake news as facts or repeat unfair social biases, such as racism and sexism, found in the data used to train them.




Read more:
I used AI chatbots as a source of news for a month, and they were unreliable and erroneous


On the other hand, the studies we reviewed showed AI can be a legitimate assistant that can make learning more inclusive. For instance, AI can provide support for students with disabilities or help those who are learning an additional language.

Because it’s nearly impossible to block every AI tool, schools should not just focus on catching cheaters. Instead, schools and post-secondary institutions can update their policies and provide better training for both students and teachers. This helps everyone learn how to use technology responsibly while maintaining a high standard of academic integrity.

Participants in our study positioned themselves not as enforcers, but as stewards of learning with integrity.

Their focus was on distinguishing between assistance that supports learning and assistance that substitutes for it. They identified three skill areas where assessment boundaries currently fall: prompting, critical thinking and writing.

Prompting: A legitimate and assessable skill

Participants widely viewed prompting — the ability to formulate clear and purposeful instructions for a chatbot — as a skill they could assess. Effective prompting requires students to break down tasks, understand concepts and communicate precisely.

Several noted that unclear prompts often produce poor outputs, forcing students to reflect on what they are really asking.

Prompting was considered ethical only when used transparently, drawing on one’s own foundational knowledge. Without these conditions, educators feared prompting may drift into over-reliance or uncritical use of AI.

Critical thinking

Educators saw strong potential for AI to support assessing critical thinking. Because chatbots can generate text that sounds plausible but may contain errors, omissions or fabrications, students must evaluate accuracy, coherence and credibility. Participants reported using AI-generated summaries or arguments as prompts for critique, asking students to identify weaknesses or misleading claims.

These activities align with a broader need to prepare students for work in a future where assessing algorithmic information will be a routine task. Several educators argued it would be unethical not to teach students how to interrogate AI-generated content.

Writing: Where boundaries tighten

Writing was the most contested domain. Educators distinguished sharply between brainstorming, editing and composition:

• Brainstorming with AI was acceptable when used as a starting point, as long as students expressed their own ideas and did not substitute AI suggestions for their own thinking.

• Editing with AI (for example, grammar correction) was considered acceptable only after students had produced original text and could evaluate whether AI-generated revisions were appropriate. Although some see AI as a legitimate support for linguistic diversity, as well as helping to level the field for those with disabilities or those who speak English as an additional language, others fear a future of language standardization where the unique, authentic voice of the student is smoothed over by an algorithm.

• Having chatbots draft arguments or prose was implicitly rejected. Participants treated the generative phase of writing as a uniquely human cognitive process that needs to be done by students, not machines.

Educators also cautioned that heavy reliance on AI could tempt students to bypass the “productive struggle” inherent in writing, a struggle that is central to developing original thought.




Read more:
What are the key purposes of human writing? How we name AI-generated text confuses things


Our research participants recognized that in a hybrid cognitive future, skills related to AI, together with critical thinking are essential skills for students to be ready for the workforce after graduation.

Living in the post-plagiarism era

The idea of co-writing with GenAI brings us into an post-plagiarism era where AI is integrated into into teaching, learning and communication in a way that challenges us to reconsider our assumptions about authorship and originality.

This does not mean that educators no longer care about plagiarism or academic integrity. Honesty will always be important. Rather, in a post-plagiarism context, we consider that humans and AI co-writing and co-creating does not automatically equate to plagiarism.

Today, AI is disrupting education and although we don’t yet have all the answers, it’s certain that AI is here to stay. Teaching students to co-create with AI is part of learning in a post-plagiarism world.

Design for a socially just future

Valid assessment in the age of AI requires clearly delineating which cognitive processes must remain human and which can be legitimately cognitively offloaded. To ensure higher education remains a space for ethical decision-making especially in terms of teaching, learning and assessment, we propose five design principles, based on our research:

1. Explicit expectations: The educator is responsible for making clear if and how GenAI can be used in a particular assignment. Students must know exactly when and how AI is a partner in their work. Ambiguity can lead to unintentional misconduct, as well as a breakdown in the student-educator relationship.

2. Process over product: By evaluating drafts, annotations and reflections, educators can assess the learning process, rather than just the output, or the product.

3. Design assessment tasks that require human judgment: Tasks requiring high-level evaluation, synthesis and critique of localized contexts are areas where human agency is still important.

4. Developing evaluative judgment: Educators must teach students to be critical consumers of GenAI, capable of identifying its limitations and biases.

5. Preserving student voice: Assessments should foreground how students know what they know, rather than what they know.

Preparing students for a hybrid cognitive future

Educators in this study sought ethical, practical ways to integrate GenAI into assessment. They argued that students must understand both the capabilities and the limitations of GenAI, particularly its tendency to generate errors, oversimplifications or misleading summaries.

In this sense, post-plagiarism is not about crisis, but about rethinking what it means to learn and demonstrate knowledge in a world where human cognition routinely interacts with digital systems.

Universities and colleges now face a choice. They can treat AI as a threat to be managed, or they can treat it as a catalyst for strengthening assessment, integrity and learning. The educators in our study favour the latter.

The Conversation

Sarah Elaine Eaton receives funding from the Social Sciences and Humanities Research Council of Canada and the University of Calgary.

Rahul Kumar has received funding from SSHRC in the past.

Robert Brennan receives funding from the Natural Sciences and Engineering Research Council of Canada (NSERC).

Beatriz Antonieta Moya Figueroa does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ChatGPT is in classrooms. How should educators now assess student learning? – https://theconversation.com/chatgpt-is-in-classrooms-how-should-educators-now-assess-student-learning-270933

Addressing climate change without the ‘rules-based order’

Source: The Conversation – Canada – By Matthew Hoffmann, Professor of Political Science and Co-Director of Environmental Governance Lab, University of Toronto

At the recent World Economic Forum in Switzerland, Canadian Prime Minister Mark Carney proclaimed “a rupture” in the global “rules-based order” and a turn to great power rivalry.

While its demise is not certain, even the current disruption to global order, largely due to the Donald Trump administration in the United States, promises profound impacts on the global response to climate change. The world is at risk of losing even the insufficient progress made in the last decade.

But it’s unclear what that effect will be. That uncertainty is both a cause for concern and a source of hope. The climate crisis is not slowing, and humanity must figure out how to navigate the disruption.




Read more:
Venezuela attack, Greenland threats and Gaza assault mark the collapse of international legal order


Unfortunately, much of what we know about how climate politics works has depended on a relatively stable rules-based order. That order, however problematic, provided institutions like the United Nations Framework Convention on Climate Change and the Paris Agreement.

It also established trade rules for energy technology, co-operative agreements on public and private climate finance, and parameters for how civil society and states interact. It structured the opportunities and obstacles for acting on climate change.

Everyone who cares about climate action must now grapple with how climate politics can function in a new world of uncertainty. It won’t be easy.

But, to inject a slight note of hope, I’m not convinced that meeting the climate challenge is harder now. It’s difficult in a different way. Let’s be clear: the rules-based order was not producing effective global co-operation on climate change.

Limited successes of the rules-based order

Canadian Prime Minister Mark Carney’s speech in Davos where he noted the ‘rupture’ in the global rules-based order.(The Journal)

The U.S. has consistently been an obstacle to global climate action. As Carney noted, under the the rules-based order “the strongest would exempt themselves when convenient.” Clearly the U.S. decided from very early on that a stable climate was not a public good it was willing to seriously support.

The U.S. failed to see benefits from climate action that outweighed the perception of costs and has consistently been influenced by status quo, fossil-capital economic interests.

That’s not to say there was no progress under the old rules-based system. At least five sources of progress are worth highlighting:

Possibilities for progress

These sources of past progress on climate action could survive the current disruption and play a role in increasing momentum in the global response to climate change. But uncertainties and questions are more plentiful than answers.

A coalition of the ambitious is clearly what Carney’s speech is seeking to catalyze among middle powers. He was not talking about climate change, but a commitment to climate action could and should be a cornerstone that a new order is built upon. This may even attract one of those competing great powers that he alluded to — China. Will China see climate leadership as a means to enhance its global position?

The political economy of renewable energy has momentum that is at least somewhat insulated from the current disruption. How insulated it remains depends on a number of uncertainties.

What will trade rules and practices look like moving forward? What happens within the fossil-fuel energy sector as the U.S. continues to engage in resource imperialism? How will resource competition and co-operation in the renewables sector (over critical minerals, for example) play out moving forward?

Can experimental efforts be a source of resistance and change within the U.S., especially among individual states? And can they play the same role that they did previously, catalyzing further innovation and public support?

Public support for climate action in this new era will likely vary wildly by country. How will growing dissatisfaction with the status quo play out as it intersects with increasingly severe climate impacts?

This could generate further support for right-wing populism. However, affordability and inequality concerns could also become the foundation for building support for climate action and a just transition.

Does the Paris Agreement survive this? It could become a backbone institution for the coalition of the ambitious. The U.S. is gone, again. Maybe other recalcitrant governments should be sidelined from multilateral climate efforts as well, and those willing to act can proceed.

If full global co-operation around climate change is no longer even a façade of the possible now, then the imperative to bring everyone along at each step in the process may evaporate.

None of the ways forward I’ve laid out here are easy. Even if the positive possibilities materialize, they do not guarantee decarbonization and a just transition that is fast and effective enough to matter; to head off the worst of climate change.

What is clear, though, is that like Carney, climate scholars and activists may need to let the fiction of the global rules-based order go. It was not working either in addressing climate change or enhancing justice. Perhaps its disruption is an opportunity to build better foundations for a just and effective global response to climate change.

The Conversation

Matthew Hoffmann receives funding from Social Science and Humanities Research Council and the Lawson Climate Institute.

ref. Addressing climate change without the ‘rules-based order’ – https://theconversation.com/addressing-climate-change-without-the-rules-based-order-273745

El Helicoide caraqueño: del brutalismo arquitectónico a la brutalidad

Source: The Conversation – (in Spanish) – By Tulio Alberto Álvarez-Ramos, Profesor/Investigador Instituto de Investigaciones Jurídicas de la Universidad Católica Andrés Bello. Jefe de Cátedra de Derecho Constitucional de la Universidad Central de Venezuela, Universidad Católica Andrés Bello

Edificio El Helicoide, en Caracas. Damián D. Fossi Salas/Wikimedia Commons

Mi esposa me pidió algo que parecía sencillo: acercarla al Helicoide para tomar unas fotografías. Artista plástica, suele recorrer Caracas buscando en cada edificio las huellas de la ciudad que fuimos y la que aún disfrutamos. En las visitas, sus grupos de amigos celebran la diversidad de estilos, la modernidad truncada y las cicatrices arquitectónicas que marcan nuestro paisaje.

El Helicoide, levantado en tiempos de la dictadura de Marcos Pérez Jiménez e hibernado en las administraciones democráticas posteriores, fue concebido como un manifiesto del brutalismo: hormigón desnudo, monumentalidad sin ornamentos, funcionalidad que pretendía simbolizar progreso.

Mercedes me recordó que esa estética buscaba revelar la expresividad de los materiales, la honestidad del hormigón. Pero en Caracas, esa sinceridad se volvió metáfora de otra brutalidad: la del poder que encierra y castiga.

Esta vez, el paseo dominical no me fue grato. Durante años lo visité para acompañar a amigos condenados por haber defendido la vida en aquella célebre jornada cívica del 11 de abril de 2022. Hasta que un día normal de visita, la amenaza se hizo explícita: “Si entra, no sale; si regresa, se queda aquí”. El Helicoide se convirtió así en un fantasma personal, un recordatorio de cómo el hormigón puede ser cómplice del terror.

Sin dignidad y sin Dios

El ejercicio del poder revela siempre una tensión entre el bien y el mal. Su peor rostro se muestra en la violencia y humillación de quienes padecen persecución por causa de la justicia. La tortura, física y mental, constituye uno de los crímenes más horrendos, pues destruye cuerpos y también almas.

El Helicoide se inscribe en una genealogía de lugares donde la brutalidad se institucionalizó: la ESMA en Argentina, convertida hoy en espacio de memoria; los centros de detención en Cuba; Tadmur, conocido como “el reino de la muerte y la locura”, en Siria; Bagram en Afganistán, donde prisioneros fueron encadenados y golpeados hasta la muerte; y los centros clandestinos de la Stasi en Alemania Oriental. Todos comparten una misma lógica: el poder que se cree absoluto y convierte al ser humano en objeto de sufrimiento.

Orden de cierre, pero no de olvido

El anuncio de Delcy Rodríguez, el 30 de enero de 2026, sobre el cierre del Helicoide y otros centros de detención, fue presentado como un gesto de apertura y reconversión hacia espacios comunitarios. Sin embargo, la memoria no se borra con decretos. El Helicoide no es solo un edificio: es un símbolo de represión documentado en informes internacionales que lo señalan como escenario de tortura y violaciones sistemáticas de derechos humanos.

En 2019, la Alta Comisionada Michelle Bachelet, tras su visita a Venezuela, incluyó al Helicoide en su informe como centro de detención del Servicio Bolivariano de Inteligencia Nacional (SEBIN). Allí se denunciaron torturas, tratos crueles e inhumanos, falta de acceso a abogados y condiciones degradantes para los presos políticos. Un año después, la Misión Internacional de Determinación de los Hechos del Consejo de Derechos Humanos de la ONU identificó al Helicoide como uno de los principales centros de tortura en el país, junto con la sede de la Dirección General de Contrainteligencia Militar (DGCIM). El informe detalló prácticas sistemáticas como descargas eléctricas, asfixia, violencia sexual y aislamiento prolongado, calificándolas como crímenes de lesa humanidad (ONU, 2020).

Los informes posteriores (2021–2024) confirmaron que el Helicoide seguía siendo utilizado para detenciones arbitrarias y torturas. Testimonios lo describieron como un “laberinto de miedo” y lo señalaron como “símbolo de la represión institucionalizada”. La arquitectura brutalista que alguna vez pretendió representar modernidad se convirtió en arquitectura del dolor, un espacio donde la dignidad humana fue sistemáticamente negada.

La Comisión Interamericana de Derechos Humanos también ha denunciado al Helicoide. En 2025 solicitó una visita para verificar las condiciones de los detenidos, subrayando las denuncias de tortura y hacinamiento. Ese mismo año, en un comunicado reiteró su competencia sobre Venezuela y describió al Helicoide como “símbolo del horror”. La Corte Interamericana de Derechos Humanos, en una sentencia de agosto de 2025, reafirmó su jurisdicción sobre el país y vinculó su supervisión con centros como el que nos ocupa.

Existe plena coincidencia de los órganos internacionales en materia de derechos humanos: el Helicoide es un escenario de crímenes contra la humanidad. Su cierre administrativo no borra las huellas del dolor ni las responsabilidades históricas que allí se gestaron.

Presentado en el MoMA de Nueva York

El Helicoide, que en 1961 alcanzó protagonismo internacional al ser presentado en el debate arquitectónico del MoMA de Nueva York, fue concebido como símbolo de modernidad y progreso bajo el signo del brutalismo. Hoy, sin embargo, carga con una triste fama: emblema de brutalidad, represión y tortura. Esta paradoja no es ajena a la historia urbana latinoamericana: Venezuela, como tantos países de la región, heredó los sueños de civilización y modernidad, pero los distorsionó bajo dictaduras, populismos y regímenes autoritarios.

El Helicoide encarna esa contradicción: una obra monumental que debía ser centro comercial futurista, convertida en cárcel de cuerpos y esperanzas. La arquitectura, pensada como motor de desarrollo, se transformó en escenario de indignidad e impunidad.

Hoy, lo que representó un desafío arquitectónico constituye un reto para instaurar en nuestro país la Justicia y restaurar la dignidad humana como centro de toda acción política. Como proclamaron nuestros hermanos argentinos, después de superar la prueba y asumir el costo de los errores de su clase política. Nunca más.

The Conversation

Tulio Alberto Álvarez-Ramos no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El Helicoide caraqueño: del brutalismo arquitectónico a la brutalidad – https://theconversation.com/el-helicoide-caraqueno-del-brutalismo-arquitectonico-a-la-brutalidad-274825

¿Podemos anticiparnos a las sequías? Lecciones desde una cuenca semiárida del Mediterráneo

Source: The Conversation – (in Spanish) – By Dariana Isamel Avila Velasquez, Investigadora predoctoral en Ingeniería del Agua y Medioambiental, Universitat Politècnica de València

Embalse de Ulldecona (Castellón) durante un periodo de sequía. Guillermo Guerao Serra/Shutterstock

La sequía es uno de los riesgos climáticos más relevantes en el Mediterráneo, especialmente en cuencas semiáridas como la del Júcar, en el este de España.
Aunque sabemos que el clima de la región es naturalmente variable, en las últimas décadas las sequías se han vuelto más intensas y duraderas, generando una creciente preocupación social, e impactos económicos y ambientales.

Hasta ahora, gran parte de los estudios de sequías se ha centrado en analizar las series históricas o las proyecciones de cambio climático a medio y largo plazo. Estos escenarios de varias décadas son útiles para comprender las tendencias generales, pero resultan poco prácticos para la gestión cotidiana.

España cuenta con sistemas muy completos para monitorizar la sequía a nivel nacional y además con informes de seguimiento dentro de la propia cuenca. Estas herramientas permiten saber qué está ocurriendo en la actualidad o qué ocurrió en los últimos meses. Pero conocer el presente no es lo mismo que anticipar el futuro cercano.




Leer más:
Soluciones basadas en la naturaleza frente a eventos climáticos extremos en cuencas mediterráneas


Del Júcar al resto de cuencas semiáridas del mundo

Entre la monitorización inmediata y los escenarios climáticos a medio-largo plazo faltaba una herramienta intermedia: las predicciones estacionales que ayuden a saber qué podría pasar en los próximos meses.

La Demarcación Hidrográfica del Júcar (DHJ) representa un ejemplo adecuado para abordar este reto. Situada en el este de la península ibérica, se caracteriza por un clima mediterráneo semiárido. En la mayor parte de su territorio predominan los veranos largos, secos y muy calurosos, a menudo acompañados de olas de calor, y con la lluvia concentrada en pocos episodios intensos, sobre todo a finales de verano y en otoño.

Aunque la precipitación media anual ronda los 500 mm, esta cifra esconde una enorme variabilidad espacial: en las zonas más meridionales apenas se alcanzan los 300 mm al año y pueden pasar largos periodos sin lluvias. Esta combinación de escasez de precipitación y altas temperaturas hace que la Demarcación Hidrográfica del Júcar sea especialmente vulnerable a la sequía y un laboratorio natural ideal para estudiar hasta qué punto podemos anticiparnos a ella.

Nuestro estudio aborda justamente esta cuestión. Por un lado, evaluamos cuán fiables han sido las predicciones estacionales en el pasado. Por otro, analizamos cómo estos modelos de predicción meteorológica pueden utilizarse ahora de forma operativa, a través de la plataforma WATER4CAST, que ofrece predicciones reales con varios meses de antelación para la Demarcación Hidrográfica del Júcar, la zona en la que trabaja nuestro equipo de investigación.

Para abordar estas cuestiones, se combinaron distintos modelos climáticos estacionales disponibles a través del Servicio de Cambio Climático de Copernicus a partir de datos históricos de precipitación y temperatura. Y, después, aplicamos un método de inteligencia artificial que corrige el sesgo y mejora la adaptación de los modelos de predicción a la escala local.

A partir de estas predicciones se calcularon los índices de sequía meteorológicas más utilizados internacionalmente: el Índice de Precipitación Estandarizado (SPI) y el Índice Estandarizado de Precipitación-Evapotranspiración (SPEI). Y lo hicimos en distintas escalas temporales: 6, 12, 18 y 24 meses, lo que permitió evaluar no solo los déficit de lluvia, sino también el efecto del aumento de la temperatura, clave en un Mediterráneo cada vez más cálido.

Metodología del estudio, adaptada de artículo: Avila-Velasquez, D.I., Macian-Sorribes, H. & Pulido-Velazquez, M. ¿Qué tan fiables son las predicciones de sequía? Fiabilidad de las predicciones estacionales multimodelo de sequías meteorológicas en una cuenca mediterránea semiárida. Earth Syst Environ (2025). https://doi.org/10.1007/s41748-025-00965-9.
CC BY

Los resultados de nuestro trabajo muestran que las predicciones estacionales de sequías meteorológicas alcanzan alta fiabilidad, hasta casi el 90 %, para escalas temporales de 6 meses en el mismo mes de emisión, y mantienen su fiabilidad incluso a 3 meses de anticipación. En escalas más largas, de 12, 18, y 24 meses, los modelos conservan información útil hasta los 6 meses de anticipación.

Esto nos permite asegurar que sí es posible anticipar parcialmente las sequías con varios meses de antelación, abriendo una ventana de acción para la gestión del agua en la Demarcación Hidrográfica del Júcar.

Resultados adaptados al español del estudio: Avila-Velasquez, D.I., Macian-Sorribes, H. & Pulido-Velazquez, M. How Good Are Drought Forecasts? Skill of multi-model Seasonal Forecast of Meteorological Droughts in a semi-arid Mediterranean Basin. Earth Syst Environ (2025). https://doi.org/10.1007/s41748-025-00965-9.
CC BY



Leer más:
¿Puede la inteligencia artificial ayudar a predecir inundaciones?


Una esperanza para una mejor gestión del agua y del riesgo a sequías

Más allá de la evaluación científica, nuestro estudio demuestra que estas predicciones pueden aplicarse de manera operativa. Los modelos se integran en la plataforma WATER4CAST, que actualmente ofrece predicciones estacionales reales, permitiendo acercar la ciencia al mundo de la gestión del agua y el riesgo. De este modo, los índices y los modelos multimodelo dejan de ser solo herramientas académicas y se convierten en un apoyo práctico para embalses, agricultura y alertas tempranas de sequías.

Plataforma de WATER4CAST con la predicción del índice de sequia del SPI-12, para la demarcación hidrográfica del Júcar.
CC BY

En un contexto de cambio climático, donde la frecuencia e intensidad de las sequías está aumentando, este enfoque permite tomar decisiones más anticipadas, basadas en evidencia científica, y refuerza la resiliencia de las regiones vulnerables. La combinación de múltiples modelos e índices de sequía ofrece una visión más completa del fenómeno y reduce la incertidumbre asociada a los predicciones tradicionales.

Aunque ninguna predicción puede ser perfecta, esta investigación evidencia que las predicciones estacionales de sequías meteorológicas son una herramienta prometedora para anticiparse a los riesgos hídricos, optimizar la gestión del agua y aumentar la capacidad de adaptación frente a un Mediterráneo cada vez más cálido y seco.

The Conversation

Dariana Isamel Avila Velasquez recibe fondos de la ayuda de Formación de profesorado Universitario FPU del Ministerio de Ciencia, Innovación y Universidades (FPU20/0749). Ella trabaja para la Universitat Politècnica de València, en el Instituto de Ingeniería del Agua y Medioambiente (IIAMA), es investigadora predoctoral.

Héctor Macian-Sorribes trabaja para la Universitat Politècnica de València, en el Instituto de Ingeniería del Agua y Medioambiente (IIAMA), es investigador senior y profesor asociado

Manuel Pulido-Velázquez es IP (junto con Félix Francés) del proyecto Enhanced Integrated Multiscale Forecasting System for Agriculture, Water and the Environment (WATER4CAST 2.0) financiado por el Programa para la promoción de la investigación científica, el desarrollo tecnológico y la innovación en la Comunitat Valenciana para grupos de investigación de excelencia (CIPROM/2023/000) de la Conselleria de Educación, Cultura, Universidades y Empleo – Generatitat Valenciana – en el marco del cual se desarrolla esta investigación.

ref. ¿Podemos anticiparnos a las sequías? Lecciones desde una cuenca semiárida del Mediterráneo – https://theconversation.com/podemos-anticiparnos-a-las-sequias-lecciones-desde-una-cuenca-semiarida-del-mediterraneo-270851

La electrónica y el límite físico que ignoramos cuando hablamos de IA

Source: The Conversation – (in Spanish) – By Paula Lamo, Profesora e investigadora, Universidad de Cantabria

La inteligencia artificial precisa, para funcionar, un sustrato físico electrónico que abastezca al sistema de electricidad. Igor Omilaev / Unsplash., CC BY

En los últimos meses se repite una escena llamativa en medios de comunicación especializados en el ecosistema tecnológico: anuncios espectaculares sobre nuevos modelos de inteligencia artificial (IA) que conviven con retrasos en centros de datos, proyectos de computación intensiva paralizados y advertencias crecientes sobre los límites físicos del despliegue de la inteligencia artificial (IA).

La conversación pública suele atribuir estos problemas al consumo energético o al impacto ambiental. Pero el origen del cuello de botella es más específico y menos conocido. Porque la cuestión no es solo cuánta electricidad necesita la inteligencia artificial, sino cómo se gestiona esa electricidad dentro de los propios sistemas de computación avanzada. Y, ahí, entra en juego una disciplina que rara vez aparece en los titulares, pero que condiciona el ritmo real de la IA: la electrónica de potencia.

Control de la potencia

A diferencia de la electrónica digital, que se encarga de procesar información, la electrónica de potencia se ocupa de convertir, regular y controlar la energía eléctrica que alimenta procesadores, aceleradores y sistemas de alto rendimiento. La encontramos en el interior de los equipos, donde la electricidad debe adaptarse de forma extremadamente rápida y precisa a cargas que cambian en microsegundos. Es la tecnología que decide si un sistema puede operar de forma estable o si se convierte en una fuente constante de pérdidas, calor y fallos.

Este aspecto se ha vuelto crítico con la actual carrera por aumentar la capacidad de cálculo. Los aceleradores utilizados para entrenar y ejecutar modelos de IA concentran hoy densidades de potencia inéditas. Alimentarlos ya no es un problema trivial: requiere sistemas capaces de conmutar a muy alta frecuencia, responder a transitorios –variaciones momentáneas de voltaje– bruscos y mantener la estabilidad eléctrica en condiciones límite. Cuando esa conversión falla o se vuelve ineficiente, el problema no se soluciona con más software.

Imprescindible para escalar infraestructuras

Buena parte de las noticias recientes sobre dificultades para escalar infraestructuras de IA apuntan indirectamente a este fenómeno. Se habla de falta de suministro, de saturación de centros de datos o de costes crecientes, pero detrás de muchos de estos titulares hay un reto técnico concreto: la conversión eléctrica interna se ha convertido en un factor limitante del diseño.

A medida que aumenta la potencia por unidad de volumen, la electrónica que alimenta los sistemas pasa de ser un componente más a condicionar toda la arquitectura.

Componente SMD con el que se construyen los circuitos empleados. Paula Lamo.
CC BY-NC-ND

Sin energía, no hay IA

Durante años, el progreso digital se benefició de mejoras continuas en la electrónica convencional que permitían aumentar prestaciones sin replantear el sistema. Sin embargo, este margen se ha reducido. Hoy, cada incremento de capacidad computacional exige rediseñar cómo se entrega la energía, cómo se controla y cómo se disipa el calor generado. En este contexto, la electrónica de potencia deja de ser una tecnología transversal o “de apoyo” y se convierte en una condición de posibilidad para las IAs más avanzadas.

Este giro explica el creciente interés que hay alrededor de los nuevos semiconductores de potencia, capaces de operar a mayores frecuencias, con menos pérdidas y mayor densidad.

No se trata de una mejora incremental, sino de una respuesta directa a los límites físicos que empiezan a aflorar en la computación intensiva. La capacidad de alimentar de forma fiable un sistema de IA determina hoy tanto su viabilidad como la sofisticación del modelo que ejecuta.

Hardware dedicado a Machine Learning, Data Science e IoT. Paula Lamo.
CC BY-NC-ND

Choque con los límites físicos

Desde hace décadas, comunidades técnicas internacionales como la IEEE Power Electronics Society y la IEEE Industrial Electronics Society trabajan, precisamente, en este punto de fricción entre computación avanzada y límites físicos. Su experiencia muestra que muchos de los desafíos actuales de la IA no se resolverán únicamente con mejores modelos, sino con avances en la ingeniería que hace posible su operación continua y segura.

A pesar de todo lo anterior, esta dimensión apenas aparece en el relato público sobre inteligencia artificial, que sigue centrado casi exclusivamente en datos, algoritmos y capacidades cognitivas. La IA se presenta como una tecnología abstracta, cuando, en realidad, depende de infraestructuras electrónicas extremadamente exigentes. Ignorar esta capa conduce a expectativas poco realistas sobre la velocidad a la que se puede escalar y desplegar en entornos reales.

Esto no significa que la inteligencia artificial esté “atascada” ni que su desarrollo vaya a detenerse. Significa que su ritmo real está cada vez más condicionado por factores materiales que rara vez se discuten fuera del ámbito especializado.

Una visión integral

La pregunta relevante ya no es solo qué puede hacer un algoritmo, sino qué puede sostener el hardware que lo alimenta durante años, sin fallar y sin disparar los costes.

Tal vez, por eso, el debate actual sobre la IA necesita ampliarse. No para restar importancia al software, sino para incorporar una visión más completa del sistema tecnológico en su conjunto. Porque el avance de la inteligencia artificial no depende únicamente de lo que somos capaces de imaginar en código, sino de lo que la electrónica puede soportar de forma estable, eficiente y fiable. Y, ese límite, hoy, empieza a hacerse visible.

The Conversation

Este trabajo ha sido apoyado por el Gobierno Regional de Cantabria y financiado por la UE bajo el proyecto de investigación 2023-TCN-008 UETAI. También, este trabajo fue financiado por el Ministerio de Ciencia e Innovación de España MICIU/AEI/10.13039/501100011033 y por FEDER, UE bajo el proyecto de investigación PID2021-128941OB-I00, “Transformación Energética Eficiente en Entornos Industriales”.
La autora es Presidenta del Capítulo conjunto español PELS-IES de IEEE, sociedades mencionadas en este trabajo (http://ieee-pels-ies.es/).

ref. La electrónica y el límite físico que ignoramos cuando hablamos de IA – https://theconversation.com/la-electronica-y-el-limite-fisico-que-ignoramos-cuando-hablamos-de-ia-272634

Los microorganismos resistentes se propagan a través de los alimentos

Source: The Conversation – (in Spanish) – By Laura Botello Morte, Personal Docente e Investigador de la Facultad de Ciencias de la Salud, Universidad San Jorge

Tatevosian Yana/Shutterstock

En el llamado ciclo “de la granja a la mesa” –es decir, desde que se recolectan las materias primas hasta disfrutar del alimento cocinado en nuestro plato– tiene lugar un fenómeno a priori invisible: la resistencia a los antimicrobianos. Este problema surge cuando los microorganismos (bacterias, hongos, etcétera) dejan de responder a los antibióticos y/o los desinfectantes.

Descrito a menudo como una “pandemia silenciosa”, constituye actualmente un importante riesgo para la salud global.

Entornos ideales para su proliferación

En la ganadería y la acuicultura intensivas, los compuestos antimicrobianos se han utilizado de manera rutinaria no solo para prevenir enfermedades en animales hacinados, sino incluso para promover un crecimiento más rápido de los mismos. Aunque esta última práctica está disminuyendo gracias a la actual legislación en materia de higiene y seguridad de los alimentos, el uso masivo de antimicrobianos ha creado entornos ideales donde los microorganismos resistentes pueden emerger y proliferar.

Datos recientes de la Autoridad Europea de Seguridad Alimentaria (EFSA) acerca de la resistencia desarrollada por bacterias zoonóticas –que pueden transmitirse de animales a humanos– y por bacterias indicadoras –las que se utilizan como centinelas para indicar, de manera indirecta, el estado de la higiene y seguridad de los alimentos– ponen el foco sobre esta tendencia en alza.

Por ejemplo, el informe destaca elevados niveles de inmunidad al ciprofloxacino –un antibiótico de uso común en medicina humana– en bacterias como Campylobacter coli, presente tanto en humanos como en animales destinados al consumo, especialmente pollos, pavos, cerdos de engorde y terneros. Dicha resistencia también se detecta en determinadas cepas de Salmonella, lo que subraya la necesidad de concienciar sobre el uso prudente de los antimicrobianos.

Los “superbichos” llegan al plato

Estos superbichos resistentes son capaces de dispersarse a través de las aguas de riego, el suelo, los productos agrícolas y las plantas de procesado para acabar, potencialmente, en nuestros platos. Ser conscientes de esta red de conexiones entre el ambiente, los animales de consumo y las personas es el primer paso para diseñar estrategias eficaces que garanticen la seguridad alimentaria y la salud global.

Un estudio europeo reciente, publicado en Nature Microbiology, analizó más de 2 000 muestras, incluyendo materias primas (como carne fresca), productos finales (como queso) y superficies de trabajo procedentes de varias industrias alimentarias.

En este viaje de la granja a la mesa, más del 70 % de las resistencias a antimicrobianos –incluyendo antibióticos relevantes en medicina humana y veterinaria como la penicilina o la estreptomicina– se intercambian entre las bacterias presentes.

Asimismo, se identificó al denominado grupo ESKAPE (Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumanii, Pseudomonas aeruginosa y Enterobacter spp.) como máximo responsable de ese intercambio. El principal vehículo de transmisión sería S. aureus, ya que está presente en piel y mucosas de aproximadamente un tercio de la población y es, por tanto, relevante en la manipulación de alimentos.

Intercambio de genes y biopelículas

¿Y cómo se comparten las “instrucciones” para sobrevivir al antibiótico o al desinfectante? La respuesta es sencilla: intercambiando genes como el que intercambia cromos. Es lo que se conoce como transferencia horizontal de genes.

Hay tres mecanismos diferentes. Mediante el primero, llamado transformación, la bacteria incorpora un gen directamente del ambiente, como el que coge una nota del suelo y se la mete en el bolsillo. A través del segundo, conocido como transducción, el gen se transporta a través de un bacteriófago, un virus de bacterias, que actúa como el mensajero que entrega una carta. Y por último, mediante la conjugación, dos bacterias entran en contacto físico, como dos ordenadores conectados por un cable, para pasarse la información directamente de una a la otra.




Leer más:
Nuevos antibióticos: tres buenas noticias en la guerra contra las superbacterias


Y por si fuera poco, la industria alimentaria también se enfrenta al problema de la formación de biopelículas polimicrobianas, es decir, conjuntos de microorganismos adheridos a superficies que son muy resistentes a los agentes externos y a los métodos de limpieza y desinfección convencionales. Esas biopelículas pueden albergar especies persistentes que no son capaces de multiplicarse, pero que perduran en el tiempo y constituyen verdaderos focos de contaminación. Además, favorecen la transferencia de genes de resistencia.

Las biopelículas suponen, por tanto, un gran desafío para los sistemas de control actuales. Las nuevas tecnologías en el procesado y conservación de alimentos se centran, en parte, en combatirlas mediante el uso de ozono, luz UV-C, nanopartículas metálicas, plasma frío o, incluso, virus específicos de bacterias.

Aliados de origen vegetal

Afortunadamente, la investigación que se centra en la búsqueda de antimicrobianos de origen vegetal, como los aceites esenciales, ofrece una estrategia complementaria para el control de biopelículas y la conservación de alimentos. Entre estos compuestos destacan el carvacrol (presente en orégano y tomillo), el aceite esencial de menta o el citral (procedente de cítricos), entre otros.

En general, se trata de agentes menos tóxicos que los antimicrobianos convencionales y con una tendencia menos acusada a generar resistencias. Al reducir eficazmente las biopelículas y eliminar las bacterias que las forman, podrían contribuir a frenar el uso de antimicrobianos y el incremento de la resistencia a estos compuestos. La lucha continúa.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Los microorganismos resistentes se propagan a través de los alimentos – https://theconversation.com/los-microorganismos-resistentes-se-propagan-a-traves-de-los-alimentos-270322

Divertida, tierna, graciosa: Catherine O’Hara iluminaba la pantalla cada vez que aparecía

Source: The Conversation – (in Spanish) – By Ben McCann, Associate Professor of French Studies, Adelaide University

Catherine O’Hara, la actriz y comediante que ha fallecido a los 71 años, ocupaba una posición poco común en la cultura cinematográfica contemporánea: era actriz cómica, figura de culto y estrella mainstream. Su carrera se expandió durante más de 50 años, y abarcó desde sketches cómicos improvisados hasta películas de Hollywood y clásicos televisivos poco convencionales.

Era famosa por su incomparable sentido del humor y su capacidad para interpretar personajes camaleónicos. Sus papeles solían ser absurdos y extravagantes, pero ocultaban un humor muy agudo.

Nacida y criada en Toronto en el seno de una familia católica irlandesa muy unida, O’Hara tenía seis hermanos. En una ocasión comentó que el humor formaba parte de su vida cotidiana; contar historias, hacer imitaciones y mantener conversaciones animadas le ayudaron a trabajar su instinto para hacer reír.

Después del instituto, trabajó en el teatro Second City de Toronto, un famoso semillero de talentos cómicos, y perfeccionó sus habilidades para improvisar mientras mantenía una expresión impasible.

El gran salto

El gran salto de O’Hara llegó con Second City Television (SCTV), una serie de sketches cómicos que rivalizaba con Saturday Night Live en creatividad e influencia. Junto a sus contemporáneos Eugene Levy, John Candy, Rick Moranis y Martin Short, definió su voz cómica, claramente inteligente y absurda.

O’Hara no era solo una intérprete en SCTV, sino también guionista, y ganó un premio Emmy por sus contribuciones. Esta doble función moldeó su sensibilidad hacia el ritmo, el lenguaje y la construcción de personajes a lo largo de su carrera.

A diferencia de los intérpretes que basan sus sketches en la repetición o en producir frases célebres, el humor de O’Hara surgía de una lógica cómica diferente. El público se reía no porque el personaje fuera “gracioso”, sino porque se tomaba a sí mismo muy en serio.

Aunque fue contratada brevemente para Saturday Night Live a principios de la década de 1980, O’Hara decidió quedarse en SCTV cuando se renovó, una decisión que más tarde describió como clave para permitir que su carrera creativa floreciera donde debía.

La transición al cine

A mediados de la década de 1980, O’Hara se estaba consolidando como presencia en la pantalla. Apareció en la peculiar comedia negra de Martin Scorsese Jo, ¡qué noche! (1985) y mostró su talento cómico en Se acabó el pastel (1986).

En 1988, consiguió lo que se convertiría en uno de sus papeles cinematográficos más queridos: Delia Deetz en la extravagante Bitelchús (1988) de Tim Burton.

Delia, una pretenciosa trepadora social del mundo artístico neoyorquino, permitió a O’Hara combinar la comedia física y los diálogos absurdos (“Un poco de gasolina… un soplete… no hay problema”).

Burton señaló en una ocasión

“Catherine es muy buena, quizá demasiado. Trabaja a niveles que la gente ni siquiera conoce. Creo que asusta porque opera a niveles muy altos”.

A continuación interpretó a Kate McCallister, la atribulada madre de las superproducciones navideñas Solo en casa (1990) y Solo en casa 2: Perdido en Nueva York (1992). Al público le encantó el hecho de que este papel, bastante poco desarrollado, se convirtiera en el alma de las películas.

Trabajando con Christopher Guest

Otra etapa destacada de la carrera de O’Hara fue su trabajo con el guionista y director Christopher Guest en una serie de falsos documentales, en gran parte improvisados, que se han convertido en clásicos de culto.

Dos de las más destacados fueron El experto (1996), donde interpreta a una desesperada artista local en una compañía teatral de un pequeño pueblo, y Un poderoso viento (2003), donde formó equipo con su viejo amigo Levy como un dúo folk envejecido.

Pero su mejor interpretación llegó con Best in Show (2000), en la que ella y Levy interpretaban a una pareja que competía en una exposición canina nacional. Su personaje, Cookie Fleck, sigue siendo uno de los mejores ejemplos de comedia de improvisación en el cine. Los monólogos sobre sus antiguos amantes son objetivamente inapropiados, pero O’Hara los interpreta con tal entusiasmo y sinceridad que resultan extrañamente cautivadores.

El talento de O’Hara brilló en estas películas: sus excéntricos personajes eran muy divertidos, pero ella nunca se burlaba de ellos.

Éxito tardío

Volvió a la televisión con A dos metros bajo tierra (2001-2005) y con apariciones especiales en The Larry Sanders Show (1992-1998) y Curb Your Enthusiasm (1999-2024). Más recientemente, se la vio en series como The Last of Us (2023-) y The Studio (2025-).

Pero fue el papel de Moira Rose, la excéntrica exestrella de telenovelas de la comedia canadiense Schitt’s Creek (2015-20), creada por Eugene Levy y su hijo Dan, el que se convertiría en el paso más significativo de la carrera tardía de O’Hara. ¡Y qué papel!

Escrito para el talento único de la actriz, Moira era un personaje más grande que la vida, con un vocabulario extraño e inolvidable, cambios de humor dramáticos y un vestuario que se hizo casi tan famoso como el propio personaje.

Los estudiosos feministas de los medios de comunicación han señalado la rareza de que existan papeles tan complejos para mujeres mayores, especialmente en la comedia, lo que hace que la interpretación de O’Hara sea culturalmente significativa.

La serie se convirtió en un éxito mundial en las plataformas de streaming durante la covid-19 y ella, galardonada con múltiples premios, fue un fenómeno en las redes sociales, dando lugar a memes y vídeos virales.

Hay tantos momentos destacados: su crisis alcohólica tras perder sus pelucas, su audición para The Crows Have Eyes 3 o el emotivo final de la serie, en el que interpreta Danny Boy en la graduación de Alexis.

Un legado imperecedero

O’Hara tenía una habilidad extraordinaria para interpretar personajes extravagantes y egocéntricos que a menudo resultaban tremendamente divertidos.

Muchos comediantes y actores la han citado como una influencia por su valentía, su capacidad para combinar lo absurdo con la verdad emocional y su firme compromiso con la integridad de los personajes. Tuvo impacto en la carrera de intérpretes como Tina Fey, Maya Rudolph, Kate McKinnon y Phoebe Waller-Bridge.

O’Hara también se negó a perseguir el estrellato convencional. En lugar de elegir proyectos diseñados para diluir sus excentricidades, O’Hara prefirió entornos colaborativos que valoraban la creatividad por encima del control.

Para ella, la comedia era siempre un arte de inteligencia, empatía y generosidad.

The Conversation

Ben McCann no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Divertida, tierna, graciosa: Catherine O’Hara iluminaba la pantalla cada vez que aparecía – https://theconversation.com/divertida-tierna-graciosa-catherine-ohara-iluminaba-la-pantalla-cada-vez-que-aparecia-274900

Venezuela a un mes del 3 de enero: ¿transición democrática o reconfiguración del poder?

Source: The Conversation – (in Spanish) – By Benigno Alarcón, Director of the Center for Political Studies, Universidad Católica Andrés Bello

La presidenta Delcy Rodríguez en su primer consejo de ministros, el pasado 5 de enero. Wikipedia/Prensa Presidencial de Venezuela, CC BY

La captura de Nicolás Maduro la madrugada del 3 de enero por parte de fuerzas especiales estadounidenses ha marcado un punto de inflexión en la historia política reciente de Venezuela. El mismo día de la extracción se estableció un Gobierno provisional con Delcy Rodríguez al frente. Desde entonces, se han venido produciendo cambios en la política económica y exterior venezolana que han alterado de manera sustantiva el equilibrio de poder.

La pregunta central, sin embargo, sigue abierta: ¿estamos ante el inicio de una transición democrática o frente a una reconfiguración tutelada del poder autoritario?

Responder a esta cuestión exige ir más allá del impacto del evento y analizar el proceso desde la teoría de las transiciones políticas, distinguiendo con claridad entre mecanismos de cambio y condiciones para que exista una transición.

¿Qué ha cambiado en Venezuela desde enero?

A diferencia de otros momentos de la crisis venezolana, desde enero se observan cambios estructurales verificables y no solo gestos políticos o retóricos.

Estos cambios no implican aún una transición democrática, pero sí configuran un cambio de gobierno acompañado del inicio de una alteración del régimen, condición necesaria –aunque no suficiente– para hablar de transición.

Mecanismos y condiciones de transición no son lo mismo

Una confusión frecuente consiste en equiparar los mecanismos mediante los cuales ocurre una transición con las condiciones que permiten afirmar que realmente está en marcha.

Dichos mecanismos incluyen ruptura, reforma, colapso o negociación (voluntaria o bajo coerción). En cambio, las condiciones mínimas para que pueda ocurrir una transición son dos:

  1. Cambio efectivo de gobierno.

  2. Apertura de un proceso de cambio de régimen.

Venezuela hoy no cumple con estas condiciones, aunque se intentan construir mediante un mecanismo atípico: una negociación bajo coerción externa creíble. La extracción de Maduro modificó de forma radical los cálculos de supervivencia de la élite gobernante. A diferencia de intentos previos, la amenaza ya no es retórica y por ello la negociación, aunque no voluntaria sino bajo coerción, es hoy políticamente creíble.




Leer más:
¿Es posible una transición democrática negociada en Venezuela?


La historia explica la cautela de Washington

La forma en que se intenta conducir el proceso venezolano no encaja plenamente en los modelos clásicos. No se trata de una ocupación ni de una transición puramente endógena: existe, más bien, una intervención selectiva acompañada de la preservación temporal del aparato estatal. La expectativa es que este facilite el desmontaje del sistema que le permitió mantenerse en el poder, para seguir con una transición ordenada que no precise el cumplimiento de las amenazas del gobierno estadounidense de realizar más incursiones en territorio venezolano para garantizar la estabilidad del país.

La experiencia comparada muestra que tanto el desmantelamiento completo del aparato estatal (Irak, Afganistán) como su preservación sin reformas profundas (Libia, Camboya) han generado resultados altamente inestables.

El caso venezolano intenta transitar un camino intermedio, con una intervención selectiva orientada a modificar incentivos, sin provocar un colapso institucional inmediato.

El más reciente movimiento diplomático ha sido la llegada a Venezuela, el 31 de enero, de Laura F. Dogu, la nueva enviada principal de Estados Unidos al país. A finales de enero de 2019, Maduro anunció el cierre de la embajada de Estados Unidos en Caracas, incluidos todos los servicios consulares, lo que el Departamento de Estado calificó calificó como una “suspensión temporal de operaciones”. No hay fecha de apertura de la embajada pero parece que poco a poco comienzan a normalizarse las relaciones diplomáticas entre los dos países.

Estados Unidos y la ventana de oportunidad

Las declaraciones de Marco Rubio ante el Congreso de EE. UU. delinean un proceso en tres etapas, explícitamente orientado a una transición democrática, aunque secuencial y condicionada. Esto sugiere que actores clave en Washington sí contemplan una salida democrática en el corto plazo y no solo una estabilización indefinida.

Sin embargo, existe un riesgo real: la ventana de oportunidad es limitada. El calendario político estadounidense –en particular los resultados de las elecciones de medio mandato del próximo mes de noviembre si resultan desfavorables para los republicanos– puede reducir la amenaza creíble sobre los actores venezolanos. Si ello ocurre antes de que se consoliden reformas institucionales clave, el proceso puede estancarse o incluso puede llegar a revertirse.

Washington parece consciente de este peligro, como lo demuestran las luchas en el Senado estadounidense para limitar los poderes del presidente Trump para el uso de la fuerza militar en territorio venezolano. La cuestión es si actuará con la rapidez necesaria.




Leer más:
‘We the People of Venezuela’: la vía constitucional para superar la ocupación y avanzar hacia la soberanía


Escenarios condicionados

Más que asignar probabilidades numéricas, el momento actual exige pensar en trayectorias dependientes de decisiones:

  • Transición democrática viable, si se avanza pronto en garantías y reformas institucionales que permitan la instalación de un gobierno democráticamente electo.

  • Hibridación prolongada, si la estabilización económica sustituye la prioridad por un cambio político.

  • Reversión autoritaria adaptada, si la coerción externa pierde credibilidad antes de consolidarse el proceso.

El desenlace dependerá menos del diseño inicial que de la velocidad, secuencia y consistencia de las decisiones en los próximos meses.




Leer más:
No hay nada como el futuro para hacer política


La transición no ha llegado

Venezuela no está aún en una transición democrática, pero tampoco puede afirmarse que el camino que comenzó a andar el 3 de enero pasado sea solo una simple reconfiguración autoritaria. Se encuentra en una fase intermedia, abierta y altamente dependiente del timing. La teoría comparada es clara: cuando las ventanas de oportunidad se cierran, los regímenes autoritarios aprenden, se adaptan y sobreviven.

El margen para acertar –o para fracasar– es estrecho. Y el reloj ya está corriendo.

The Conversation

Benigno Alarcón no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Venezuela a un mes del 3 de enero: ¿transición democrática o reconfiguración del poder? – https://theconversation.com/venezuela-a-un-mes-del-3-de-enero-transicion-democratica-o-reconfiguracion-del-poder-274752

Por qué algunas personas protegen y otras denuncian: una mirada psicológica a los sucesos de Minneapolis

Source: The Conversation – (in Spanish) – By Albert Flexas Oliver, Profesor permanente laboral en el Departamento de Pedagogía Aplicada y Psicología de la Educación, Universitat de les Illes Balears

Protestas en Minneapolis. Alejandro Diaz Manrique/Shutterstock

En las últimas semanas, las crónicas provenientes de Minnesota nos han devuelto un reflejo incómodo sobre la condición humana. En las redadas del ICE para detener a inmigrantes en la capital de este estado, Minneapolis, se produce un contraste desgarrador.

Por un lado, nos llegan historias de personas que arriesgaron su propia seguridad para proteger a vecinos inmigrantes. Por otro, están quienes, amparándose en la legalidad, deciden denunciar a esos mismos vecinos. Un mismo escenario y dos modelos de respuesta colectiva, a simple vista, completamente divergentes.

Ante tales escenarios, nuestra inclinación natural es clasificar el mundo entre personas valientes y cobardes. Héroes y traidores. Sin embargo, desde un análisis psicológico riguroso, debemos advertir que esta dicotomía es insuficiente para explicar un fenómeno tan complejo.

De escudos humanos a herramientas del poder

El psicólogo estadounidense Lawrence Kohlberg llevó a cabo estudios pioneros en el campo del desarrollo moral. Argumentaba que no nacemos con una brújula ética sino que la construimos, transitando por diferentes etapas. A medida que se encadenan unas con otras, marcan la evolución de la propia moralidad y ponen de manifiesto su transformación durante el recorrido.

En las etapas más elementales, asociadas a la infancia, nuestras respuestas morales se guían por el miedo al castigo o por las posibles recompensas.

A partir de cierta edad, adquirimos normas y cierto sentido de obediencia a la autoridad. Y, en algunas personas, los procesos de maduración y las experiencias vividas facilitan la llegada a un nivel superior.




Leer más:
¿De qué dependen nuestras decisiones morales?


Kohlberg llamaba nivel postconvencional a la cumbre del desarrollo moral. Las personas que llegan a dicho nivel ya no se limitan a la obediencia ciega de la ley o de la autoridad.

En esta etapa, se distingue entre lo legal y lo justo. Se priorizan los principios universales de dignidad humana incluso por encima de las normas institucionales. También por encima de las consecuencias de su incumplimiento o del riesgo personal que puedan suponer.

Lo legal frente a lo justo

Este marco del estudio de la moral se vio enriquecido por las aportaciones de la psicóloga y eticista Carol Gilligan. Sostuvo que el desarrollo moral también puede expresarse a través de una ética del cuidado, centrada en la responsabilidad hacia las otras personas.

Por nuestra parte, en diversos estudios hemos analizado cómo la respuesta a dilemas morales depende de muchos factores. Entre ellos, la pregunta condiciona la respuesta. No respondemos lo mismo ante la pregunta “¿Es correcto?” que ante la pregunta “¿Lo harías?”.

Esto implica que el razonamiento moral, por sí solo, no explica la conducta. En situaciones reales no solo debemos decidir qué es lo correcto. Debemos ejecutar, o no, esa decisión. Y, por supuesto, ello nos llevará a enfrentarnos a las consecuencias que se deriven de nuestras acciones.




Leer más:
¿Pueden los videojuegos ayudar a combatir actitudes sociales no deseadas?


Otra visión del heroísmo

Los datos extraídos de un estudio sobre las personas que rescataban congéneres judíos durante el Holocausto resultan ilustradores. Al preguntarles por qué habían arriesgado todo, muchas personas respondían con una sencillez desconcertante: “¿Qué más podía hacer?”. Para estas personas, la decisión no fue una elección heroica calculada.

Su decisión era una respuesta inevitable. Análogamente, para las defensoras de Minnesota, la inacción habría supuesto una traición a su propia esencia. Una traición que habría resultado más dolorosa que cualquier represalia estatal. La autocondena frente al castigo externo.

Por el contrario, en contextos de persecución o rigidez legal, el sistema presiona al individuo para que “simbolice” obediencia. Si esto implica buenas o malas acciones, es otra historia.

Lealtad con el poder vs maldad

Paradójicamente, la complicidad con la injusticia a menudo no tiene que ver con la maldad. Un estudio reciente sobre la “lealtad como legitimadora” revela que el mismo valor que nos hace “buenos vecinos” puede cegarnos.

Según esta investigación, quienes valoran la lealtad por encima de otros principios son más propensos a percibir actos injustos como legítimos. El robo de salarios o la represión estatal, en este caso, son validados porque provienen de la misma estructura de poder a la que somos leales sin dudarlo.

Desvinculación como escudo

A esto se suma la desvinculación moral. Es un escudo psicológico que nos permite desactivar la autocrítica. Nos llegamos a ver como meros engranajes de una maquinaria superior.

Entonces, nos protegemos de la autocondena mientras participamos en la deshumanización de otra persona.

¿Qué nos queda entonces? La esperanza reside en la capacidad de experimentar lo que el psicólogo social y escritor estadounidense Jonathan Haidt denomina elevación moral.

Heroísmo por contagio

Al observar los actos de excelencia ética en Minnesota, podemos sentir admiración. Podemos experimentar un estado psicológico y físico que nos impulsa a recentrar nuestra propia brújula moral.

El heroísmo funciona como un catalizador que activa nuestra propia tendencia a actuar. Nos recuerda que la responsabilidad hacia otras personas es, en última instancia, una responsabilidad hacia nosotras mismas.

Cada vez que elegimos la justicia sobre la comodidad o la empatía sobre la lealtad ciega, estamos construyendo el yo que responderá cuando llegue la siguiente (o verdadera) crisis.

Vulnerables al miedo y al contexto

Comprenderlo nos advierte sobre nuestra propia fragilidad. Si hoy nos enfrentáramos a una situación como las que nos llegan del panorama internacional, ¿qué haríamos?

Si nuestra seguridad personal dependiera de nuestro silencio o de la denuncia de un vecino, ¿sabemos realmente qué mecanismos de nuestra mente tomarían el control?

La moralidad no es una ciencia exacta. Descansa sobre la interacción bidireccional entre tres aspectos. De una parte, la predisposición biológica. De otra, las normas y valores adquiridos. Y, entre ambos aspectos, nuestro razonamiento y voluntad de actuar.

Mirarse al espejo y reconocer esa vulnerabilidad es el primer paso para asegurarse de que, llegado el momento, la brújula apunte hacia el lado correcto.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Por qué algunas personas protegen y otras denuncian: una mirada psicológica a los sucesos de Minneapolis – https://theconversation.com/por-que-algunas-personas-protegen-y-otras-denuncian-una-mirada-psicologica-a-los-sucesos-de-minneapolis-274783

Why does this river slice straight through a mountain range? After 150 years, scientists finally know

Source: The Conversation – UK – By Adam Smith, Postdoctoral Research Associate, School of Geographical & Earth Sciences, University of Glasgow

The Gates of Lodore mark the beginning of the Green River’s path through the Uinta Mountains. Scott Alan Ritchie / shutterstock

The western US is a geologists’ dream, home to the Rocky Mountains, the Grand Canyon, active volcanoes and striking sandstone arches. But one landform simply doesn’t make sense.

Rivers normally flow around barriers. The Danube river, for example, flows between the Alps and the Carpathians, twisting and turning to avoid the mountains.

But in north-western Colorado, one river does the opposite.

The intimidatingly named Gates of Lodore marks the entrance to the 700-metre deep Canyon of Lodore that slices straight through the Uinta Mountains as if the range wasn’t there at all. It was created by the Green River, the largest tributary of the Colorado River (of Grand Canyon fame).

For more than 150 years, geologists have debated why the Green River chose such an unusual path, creating a spectacular canyon in the process.

Large canyon
The Green River carves its way through the Uintas in Dinosaur National Monument, on the border of Colorado and Utah.
Eric Poulin / shutterstock

In 1876, John Wesley Powell, a legendary explorer and geologist contemplated this question. Powell hypothesised that the river didn’t cut through the mountain, but instead flowed over this route before the range existed. The river must have simply maintained its course as the mountains grew, carving the canyon in the process.

Unfortunately, geological evidence shows this cannot be the case. The Uinta Mountains formed around 50 million years ago, but we know that the Green River has only been following this route for less than 8 million years. As a result, geologists have been forced to seek alternative explanations.

And it seems the answer lies far below the surface.

Drip drip

Colleagues and I have found evidence for a process in which part of the Earth’s crust becomes so dense that it begins to sink into the mantle beneath it. This phenomenon, known as a “lithospheric drip”, occurs deep in the Earth, but can have profound effects on the surface.

Drips often form beneath mountain ranges. The sheer weight of the mountains raise temperatures and pressures at the base of the crust, causing dense minerals to form. As these minerals accumulate, the lower crust can become heavier than the mantle it “floats” on. At this point, the crust begins to detach, or “drip”, into the mantle.

Diagram of lithospheric drip
Dripping (left) then rebounding (right).
Smith et al (2026)

At the surface, this causes two things. Initially as the drip forms, it pulls the crust down, lowering the height of the mountain range above. Then as the drip detaches, the crust springs or rebounds back. The whole process is like pulling a trampoline down and then letting it go again.

For the Green River, this temporary lowering of the Uinta Mountains appears to have removed a critical barrier. The river was able to cross the range during this low period, and then, as the range rebounded, it carved the Canyon of Lodore as it continued on its new course.

A geological bullseye

Our evidence for the lithospheric drip comes from the river networks around the Uinta Mountains. Rivers record a record of past changes to landscapes, which geomorphologists can use to assess how the elevation of a mountain range may have changed in the distant past. The rivers around the Uintas show that the range had recently (in geological terms) undergone a phase of renewed uplift.

By modelling these river networks, we were able to map out the uplift. The result was striking: a bullseye-shaped pattern, with the greatest uplift at the centre of the mountain range, with things decreasing further from the centre. Around the world, this same pattern represents the telltale sign of a lithospheric drip. Similar signals have been identified in places such as the Central Anatolian Plateau in Turkey, as well as closer to the Uinta Mountains on the Colorado Plateau or the Sierra Nevada of California.

To test whether such a process was occurring beneath the Uintas, we turned to seismic tomography. This technique is similar to a medical CT (computerised tomography) scan: instead of using X-rays, geophysicists analyse seismic waves from earthquakes to infer the structure of the deep earth.

Existing seismic imaging reveals a cold, round anomaly more than a hundred miles below the surface of the Uintas. We interpreted this huge feature, some 30-60 miles across, as our broken-off section of the drip.

By estimating the velocity of the sinking drip, we calculated it had detached between 2 and 5 million years ago. This timing matches the uplift inferred from nearby rivers and, crucially, perfectly matches separate geological estimates for when the Green River crossed the Uinta Mountains and joined the Colorado River.

Taken together, these different bits of evidence point towards a lithospheric drip being the trigger that allowed the Green River to flow over the Uintas, resolving a 150-year-old debate.

A pivotal moment in the history of North America

When the Green River carved through the Uinta Mountains, it fundamentally changed the landscape of North America. Rather than flowing eastwards into the Mississippi, it became a tributary of the Colorado River, and its waters were redirected to the Pacific.

This rerouting altered the continental divide, the line that divides North American river systems that flow into the Atlantic from those that flow into the Pacific. In doing so, it created new boundaries and connections for wildlife and ecosystems.

The story of the Green River shows that processes deep within the Earth can have profound impacts for life on the surface. Over geological timescales, movements of country-sized lumps of minerals many miles below the surface can reshape mountains, redirect rivers and ultimately influence life itself.

The Conversation

Adam Smith does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why does this river slice straight through a mountain range? After 150 years, scientists finally know – https://theconversation.com/why-does-this-river-slice-straight-through-a-mountain-range-after-150-years-scientists-finally-know-274888