Los microorganismos resistentes se propagan a través de los alimentos

Source: The Conversation – (in Spanish) – By Laura Botello Morte, Personal Docente e Investigador de la Facultad de Ciencias de la Salud, Universidad San Jorge

Tatevosian Yana/Shutterstock

En el llamado ciclo “de la granja a la mesa” –es decir, desde que se recolectan las materias primas hasta disfrutar del alimento cocinado en nuestro plato– tiene lugar un fenómeno a priori invisible: la resistencia a los antimicrobianos. Este problema surge cuando los microorganismos (bacterias, hongos, etcétera) dejan de responder a los antibióticos y/o los desinfectantes.

Descrito a menudo como una “pandemia silenciosa”, constituye actualmente un importante riesgo para la salud global.

Entornos ideales para su proliferación

En la ganadería y la acuicultura intensivas, los compuestos antimicrobianos se han utilizado de manera rutinaria no solo para prevenir enfermedades en animales hacinados, sino incluso para promover un crecimiento más rápido de los mismos. Aunque esta última práctica está disminuyendo gracias a la actual legislación en materia de higiene y seguridad de los alimentos, el uso masivo de antimicrobianos ha creado entornos ideales donde los microorganismos resistentes pueden emerger y proliferar.

Datos recientes de la Autoridad Europea de Seguridad Alimentaria (EFSA) acerca de la resistencia desarrollada por bacterias zoonóticas –que pueden transmitirse de animales a humanos– y por bacterias indicadoras –las que se utilizan como centinelas para indicar, de manera indirecta, el estado de la higiene y seguridad de los alimentos– ponen el foco sobre esta tendencia en alza.

Por ejemplo, el informe destaca elevados niveles de inmunidad al ciprofloxacino –un antibiótico de uso común en medicina humana– en bacterias como Campylobacter coli, presente tanto en humanos como en animales destinados al consumo, especialmente pollos, pavos, cerdos de engorde y terneros. Dicha resistencia también se detecta en determinadas cepas de Salmonella, lo que subraya la necesidad de concienciar sobre el uso prudente de los antimicrobianos.

Los “superbichos” llegan al plato

Estos superbichos resistentes son capaces de dispersarse a través de las aguas de riego, el suelo, los productos agrícolas y las plantas de procesado para acabar, potencialmente, en nuestros platos. Ser conscientes de esta red de conexiones entre el ambiente, los animales de consumo y las personas es el primer paso para diseñar estrategias eficaces que garanticen la seguridad alimentaria y la salud global.

Un estudio europeo reciente, publicado en Nature Microbiology, analizó más de 2 000 muestras, incluyendo materias primas (como carne fresca), productos finales (como queso) y superficies de trabajo procedentes de varias industrias alimentarias.

En este viaje de la granja a la mesa, más del 70 % de las resistencias a antimicrobianos –incluyendo antibióticos relevantes en medicina humana y veterinaria como la penicilina o la estreptomicina– se intercambian entre las bacterias presentes.

Asimismo, se identificó al denominado grupo ESKAPE (Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumanii, Pseudomonas aeruginosa y Enterobacter spp.) como máximo responsable de ese intercambio. El principal vehículo de transmisión sería S. aureus, ya que está presente en piel y mucosas de aproximadamente un tercio de la población y es, por tanto, relevante en la manipulación de alimentos.

Intercambio de genes y biopelículas

¿Y cómo se comparten las “instrucciones” para sobrevivir al antibiótico o al desinfectante? La respuesta es sencilla: intercambiando genes como el que intercambia cromos. Es lo que se conoce como transferencia horizontal de genes.

Hay tres mecanismos diferentes. Mediante el primero, llamado transformación, la bacteria incorpora un gen directamente del ambiente, como el que coge una nota del suelo y se la mete en el bolsillo. A través del segundo, conocido como transducción, el gen se transporta a través de un bacteriófago, un virus de bacterias, que actúa como el mensajero que entrega una carta. Y por último, mediante la conjugación, dos bacterias entran en contacto físico, como dos ordenadores conectados por un cable, para pasarse la información directamente de una a la otra.




Leer más:
Nuevos antibióticos: tres buenas noticias en la guerra contra las superbacterias


Y por si fuera poco, la industria alimentaria también se enfrenta al problema de la formación de biopelículas polimicrobianas, es decir, conjuntos de microorganismos adheridos a superficies que son muy resistentes a los agentes externos y a los métodos de limpieza y desinfección convencionales. Esas biopelículas pueden albergar especies persistentes que no son capaces de multiplicarse, pero que perduran en el tiempo y constituyen verdaderos focos de contaminación. Además, favorecen la transferencia de genes de resistencia.

Las biopelículas suponen, por tanto, un gran desafío para los sistemas de control actuales. Las nuevas tecnologías en el procesado y conservación de alimentos se centran, en parte, en combatirlas mediante el uso de ozono, luz UV-C, nanopartículas metálicas, plasma frío o, incluso, virus específicos de bacterias.

Aliados de origen vegetal

Afortunadamente, la investigación que se centra en la búsqueda de antimicrobianos de origen vegetal, como los aceites esenciales, ofrece una estrategia complementaria para el control de biopelículas y la conservación de alimentos. Entre estos compuestos destacan el carvacrol (presente en orégano y tomillo), el aceite esencial de menta o el citral (procedente de cítricos), entre otros.

En general, se trata de agentes menos tóxicos que los antimicrobianos convencionales y con una tendencia menos acusada a generar resistencias. Al reducir eficazmente las biopelículas y eliminar las bacterias que las forman, podrían contribuir a frenar el uso de antimicrobianos y el incremento de la resistencia a estos compuestos. La lucha continúa.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Los microorganismos resistentes se propagan a través de los alimentos – https://theconversation.com/los-microorganismos-resistentes-se-propagan-a-traves-de-los-alimentos-270322

Divertida, tierna, graciosa: Catherine O’Hara iluminaba la pantalla cada vez que aparecía

Source: The Conversation – (in Spanish) – By Ben McCann, Associate Professor of French Studies, Adelaide University

Catherine O’Hara, la actriz y comediante que ha fallecido a los 71 años, ocupaba una posición poco común en la cultura cinematográfica contemporánea: era actriz cómica, figura de culto y estrella mainstream. Su carrera se expandió durante más de 50 años, y abarcó desde sketches cómicos improvisados hasta películas de Hollywood y clásicos televisivos poco convencionales.

Era famosa por su incomparable sentido del humor y su capacidad para interpretar personajes camaleónicos. Sus papeles solían ser absurdos y extravagantes, pero ocultaban un humor muy agudo.

Nacida y criada en Toronto en el seno de una familia católica irlandesa muy unida, O’Hara tenía seis hermanos. En una ocasión comentó que el humor formaba parte de su vida cotidiana; contar historias, hacer imitaciones y mantener conversaciones animadas le ayudaron a trabajar su instinto para hacer reír.

Después del instituto, trabajó en el teatro Second City de Toronto, un famoso semillero de talentos cómicos, y perfeccionó sus habilidades para improvisar mientras mantenía una expresión impasible.

El gran salto

El gran salto de O’Hara llegó con Second City Television (SCTV), una serie de sketches cómicos que rivalizaba con Saturday Night Live en creatividad e influencia. Junto a sus contemporáneos Eugene Levy, John Candy, Rick Moranis y Martin Short, definió su voz cómica, claramente inteligente y absurda.

O’Hara no era solo una intérprete en SCTV, sino también guionista, y ganó un premio Emmy por sus contribuciones. Esta doble función moldeó su sensibilidad hacia el ritmo, el lenguaje y la construcción de personajes a lo largo de su carrera.

A diferencia de los intérpretes que basan sus sketches en la repetición o en producir frases célebres, el humor de O’Hara surgía de una lógica cómica diferente. El público se reía no porque el personaje fuera “gracioso”, sino porque se tomaba a sí mismo muy en serio.

Aunque fue contratada brevemente para Saturday Night Live a principios de la década de 1980, O’Hara decidió quedarse en SCTV cuando se renovó, una decisión que más tarde describió como clave para permitir que su carrera creativa floreciera donde debía.

La transición al cine

A mediados de la década de 1980, O’Hara se estaba consolidando como presencia en la pantalla. Apareció en la peculiar comedia negra de Martin Scorsese Jo, ¡qué noche! (1985) y mostró su talento cómico en Se acabó el pastel (1986).

En 1988, consiguió lo que se convertiría en uno de sus papeles cinematográficos más queridos: Delia Deetz en la extravagante Bitelchús (1988) de Tim Burton.

Delia, una pretenciosa trepadora social del mundo artístico neoyorquino, permitió a O’Hara combinar la comedia física y los diálogos absurdos (“Un poco de gasolina… un soplete… no hay problema”).

Burton señaló en una ocasión

“Catherine es muy buena, quizá demasiado. Trabaja a niveles que la gente ni siquiera conoce. Creo que asusta porque opera a niveles muy altos”.

A continuación interpretó a Kate McCallister, la atribulada madre de las superproducciones navideñas Solo en casa (1990) y Solo en casa 2: Perdido en Nueva York (1992). Al público le encantó el hecho de que este papel, bastante poco desarrollado, se convirtiera en el alma de las películas.

Trabajando con Christopher Guest

Otra etapa destacada de la carrera de O’Hara fue su trabajo con el guionista y director Christopher Guest en una serie de falsos documentales, en gran parte improvisados, que se han convertido en clásicos de culto.

Dos de las más destacados fueron El experto (1996), donde interpreta a una desesperada artista local en una compañía teatral de un pequeño pueblo, y Un poderoso viento (2003), donde formó equipo con su viejo amigo Levy como un dúo folk envejecido.

Pero su mejor interpretación llegó con Best in Show (2000), en la que ella y Levy interpretaban a una pareja que competía en una exposición canina nacional. Su personaje, Cookie Fleck, sigue siendo uno de los mejores ejemplos de comedia de improvisación en el cine. Los monólogos sobre sus antiguos amantes son objetivamente inapropiados, pero O’Hara los interpreta con tal entusiasmo y sinceridad que resultan extrañamente cautivadores.

El talento de O’Hara brilló en estas películas: sus excéntricos personajes eran muy divertidos, pero ella nunca se burlaba de ellos.

Éxito tardío

Volvió a la televisión con A dos metros bajo tierra (2001-2005) y con apariciones especiales en The Larry Sanders Show (1992-1998) y Curb Your Enthusiasm (1999-2024). Más recientemente, se la vio en series como The Last of Us (2023-) y The Studio (2025-).

Pero fue el papel de Moira Rose, la excéntrica exestrella de telenovelas de la comedia canadiense Schitt’s Creek (2015-20), creada por Eugene Levy y su hijo Dan, el que se convertiría en el paso más significativo de la carrera tardía de O’Hara. ¡Y qué papel!

Escrito para el talento único de la actriz, Moira era un personaje más grande que la vida, con un vocabulario extraño e inolvidable, cambios de humor dramáticos y un vestuario que se hizo casi tan famoso como el propio personaje.

Los estudiosos feministas de los medios de comunicación han señalado la rareza de que existan papeles tan complejos para mujeres mayores, especialmente en la comedia, lo que hace que la interpretación de O’Hara sea culturalmente significativa.

La serie se convirtió en un éxito mundial en las plataformas de streaming durante la covid-19 y ella, galardonada con múltiples premios, fue un fenómeno en las redes sociales, dando lugar a memes y vídeos virales.

Hay tantos momentos destacados: su crisis alcohólica tras perder sus pelucas, su audición para The Crows Have Eyes 3 o el emotivo final de la serie, en el que interpreta Danny Boy en la graduación de Alexis.

Un legado imperecedero

O’Hara tenía una habilidad extraordinaria para interpretar personajes extravagantes y egocéntricos que a menudo resultaban tremendamente divertidos.

Muchos comediantes y actores la han citado como una influencia por su valentía, su capacidad para combinar lo absurdo con la verdad emocional y su firme compromiso con la integridad de los personajes. Tuvo impacto en la carrera de intérpretes como Tina Fey, Maya Rudolph, Kate McKinnon y Phoebe Waller-Bridge.

O’Hara también se negó a perseguir el estrellato convencional. En lugar de elegir proyectos diseñados para diluir sus excentricidades, O’Hara prefirió entornos colaborativos que valoraban la creatividad por encima del control.

Para ella, la comedia era siempre un arte de inteligencia, empatía y generosidad.

The Conversation

Ben McCann no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Divertida, tierna, graciosa: Catherine O’Hara iluminaba la pantalla cada vez que aparecía – https://theconversation.com/divertida-tierna-graciosa-catherine-ohara-iluminaba-la-pantalla-cada-vez-que-aparecia-274900

Venezuela a un mes del 3 de enero: ¿transición democrática o reconfiguración del poder?

Source: The Conversation – (in Spanish) – By Benigno Alarcón, Director of the Center for Political Studies, Universidad Católica Andrés Bello

La presidenta Delcy Rodríguez en su primer consejo de ministros, el pasado 5 de enero. Wikipedia/Prensa Presidencial de Venezuela, CC BY

La captura de Nicolás Maduro la madrugada del 3 de enero por parte de fuerzas especiales estadounidenses ha marcado un punto de inflexión en la historia política reciente de Venezuela. El mismo día de la extracción se estableció un Gobierno provisional con Delcy Rodríguez al frente. Desde entonces, se han venido produciendo cambios en la política económica y exterior venezolana que han alterado de manera sustantiva el equilibrio de poder.

La pregunta central, sin embargo, sigue abierta: ¿estamos ante el inicio de una transición democrática o frente a una reconfiguración tutelada del poder autoritario?

Responder a esta cuestión exige ir más allá del impacto del evento y analizar el proceso desde la teoría de las transiciones políticas, distinguiendo con claridad entre mecanismos de cambio y condiciones para que exista una transición.

¿Qué ha cambiado en Venezuela desde enero?

A diferencia de otros momentos de la crisis venezolana, desde enero se observan cambios estructurales verificables y no solo gestos políticos o retóricos.

Estos cambios no implican aún una transición democrática, pero sí configuran un cambio de gobierno acompañado del inicio de una alteración del régimen, condición necesaria –aunque no suficiente– para hablar de transición.

Mecanismos y condiciones de transición no son lo mismo

Una confusión frecuente consiste en equiparar los mecanismos mediante los cuales ocurre una transición con las condiciones que permiten afirmar que realmente está en marcha.

Dichos mecanismos incluyen ruptura, reforma, colapso o negociación (voluntaria o bajo coerción). En cambio, las condiciones mínimas para que pueda ocurrir una transición son dos:

  1. Cambio efectivo de gobierno.

  2. Apertura de un proceso de cambio de régimen.

Venezuela hoy no cumple con estas condiciones, aunque se intentan construir mediante un mecanismo atípico: una negociación bajo coerción externa creíble. La extracción de Maduro modificó de forma radical los cálculos de supervivencia de la élite gobernante. A diferencia de intentos previos, la amenaza ya no es retórica y por ello la negociación, aunque no voluntaria sino bajo coerción, es hoy políticamente creíble.




Leer más:
¿Es posible una transición democrática negociada en Venezuela?


La historia explica la cautela de Washington

La forma en que se intenta conducir el proceso venezolano no encaja plenamente en los modelos clásicos. No se trata de una ocupación ni de una transición puramente endógena: existe, más bien, una intervención selectiva acompañada de la preservación temporal del aparato estatal. La expectativa es que este facilite el desmontaje del sistema que le permitió mantenerse en el poder, para seguir con una transición ordenada que no precise el cumplimiento de las amenazas del gobierno estadounidense de realizar más incursiones en territorio venezolano para garantizar la estabilidad del país.

La experiencia comparada muestra que tanto el desmantelamiento completo del aparato estatal (Irak, Afganistán) como su preservación sin reformas profundas (Libia, Camboya) han generado resultados altamente inestables.

El caso venezolano intenta transitar un camino intermedio, con una intervención selectiva orientada a modificar incentivos, sin provocar un colapso institucional inmediato.

El más reciente movimiento diplomático ha sido la llegada a Venezuela, el 31 de enero, de Laura F. Dogu, la nueva enviada principal de Estados Unidos al país. A finales de enero de 2019, Maduro anunció el cierre de la embajada de Estados Unidos en Caracas, incluidos todos los servicios consulares, lo que el Departamento de Estado calificó calificó como una “suspensión temporal de operaciones”. No hay fecha de apertura de la embajada pero parece que poco a poco comienzan a normalizarse las relaciones diplomáticas entre los dos países.

Estados Unidos y la ventana de oportunidad

Las declaraciones de Marco Rubio ante el Congreso de EE. UU. delinean un proceso en tres etapas, explícitamente orientado a una transición democrática, aunque secuencial y condicionada. Esto sugiere que actores clave en Washington sí contemplan una salida democrática en el corto plazo y no solo una estabilización indefinida.

Sin embargo, existe un riesgo real: la ventana de oportunidad es limitada. El calendario político estadounidense –en particular los resultados de las elecciones de medio mandato del próximo mes de noviembre si resultan desfavorables para los republicanos– puede reducir la amenaza creíble sobre los actores venezolanos. Si ello ocurre antes de que se consoliden reformas institucionales clave, el proceso puede estancarse o incluso puede llegar a revertirse.

Washington parece consciente de este peligro, como lo demuestran las luchas en el Senado estadounidense para limitar los poderes del presidente Trump para el uso de la fuerza militar en territorio venezolano. La cuestión es si actuará con la rapidez necesaria.




Leer más:
‘We the People of Venezuela’: la vía constitucional para superar la ocupación y avanzar hacia la soberanía


Escenarios condicionados

Más que asignar probabilidades numéricas, el momento actual exige pensar en trayectorias dependientes de decisiones:

  • Transición democrática viable, si se avanza pronto en garantías y reformas institucionales que permitan la instalación de un gobierno democráticamente electo.

  • Hibridación prolongada, si la estabilización económica sustituye la prioridad por un cambio político.

  • Reversión autoritaria adaptada, si la coerción externa pierde credibilidad antes de consolidarse el proceso.

El desenlace dependerá menos del diseño inicial que de la velocidad, secuencia y consistencia de las decisiones en los próximos meses.




Leer más:
No hay nada como el futuro para hacer política


La transición no ha llegado

Venezuela no está aún en una transición democrática, pero tampoco puede afirmarse que el camino que comenzó a andar el 3 de enero pasado sea solo una simple reconfiguración autoritaria. Se encuentra en una fase intermedia, abierta y altamente dependiente del timing. La teoría comparada es clara: cuando las ventanas de oportunidad se cierran, los regímenes autoritarios aprenden, se adaptan y sobreviven.

El margen para acertar –o para fracasar– es estrecho. Y el reloj ya está corriendo.

The Conversation

Benigno Alarcón no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Venezuela a un mes del 3 de enero: ¿transición democrática o reconfiguración del poder? – https://theconversation.com/venezuela-a-un-mes-del-3-de-enero-transicion-democratica-o-reconfiguracion-del-poder-274752

Por qué algunas personas protegen y otras denuncian: una mirada psicológica a los sucesos de Minneapolis

Source: The Conversation – (in Spanish) – By Albert Flexas Oliver, Profesor permanente laboral en el Departamento de Pedagogía Aplicada y Psicología de la Educación, Universitat de les Illes Balears

Protestas en Minneapolis. Alejandro Diaz Manrique/Shutterstock

En las últimas semanas, las crónicas provenientes de Minnesota nos han devuelto un reflejo incómodo sobre la condición humana. En las redadas del ICE para detener a inmigrantes en la capital de este estado, Minneapolis, se produce un contraste desgarrador.

Por un lado, nos llegan historias de personas que arriesgaron su propia seguridad para proteger a vecinos inmigrantes. Por otro, están quienes, amparándose en la legalidad, deciden denunciar a esos mismos vecinos. Un mismo escenario y dos modelos de respuesta colectiva, a simple vista, completamente divergentes.

Ante tales escenarios, nuestra inclinación natural es clasificar el mundo entre personas valientes y cobardes. Héroes y traidores. Sin embargo, desde un análisis psicológico riguroso, debemos advertir que esta dicotomía es insuficiente para explicar un fenómeno tan complejo.

De escudos humanos a herramientas del poder

El psicólogo estadounidense Lawrence Kohlberg llevó a cabo estudios pioneros en el campo del desarrollo moral. Argumentaba que no nacemos con una brújula ética sino que la construimos, transitando por diferentes etapas. A medida que se encadenan unas con otras, marcan la evolución de la propia moralidad y ponen de manifiesto su transformación durante el recorrido.

En las etapas más elementales, asociadas a la infancia, nuestras respuestas morales se guían por el miedo al castigo o por las posibles recompensas.

A partir de cierta edad, adquirimos normas y cierto sentido de obediencia a la autoridad. Y, en algunas personas, los procesos de maduración y las experiencias vividas facilitan la llegada a un nivel superior.




Leer más:
¿De qué dependen nuestras decisiones morales?


Kohlberg llamaba nivel postconvencional a la cumbre del desarrollo moral. Las personas que llegan a dicho nivel ya no se limitan a la obediencia ciega de la ley o de la autoridad.

En esta etapa, se distingue entre lo legal y lo justo. Se priorizan los principios universales de dignidad humana incluso por encima de las normas institucionales. También por encima de las consecuencias de su incumplimiento o del riesgo personal que puedan suponer.

Lo legal frente a lo justo

Este marco del estudio de la moral se vio enriquecido por las aportaciones de la psicóloga y eticista Carol Gilligan. Sostuvo que el desarrollo moral también puede expresarse a través de una ética del cuidado, centrada en la responsabilidad hacia las otras personas.

Por nuestra parte, en diversos estudios hemos analizado cómo la respuesta a dilemas morales depende de muchos factores. Entre ellos, la pregunta condiciona la respuesta. No respondemos lo mismo ante la pregunta “¿Es correcto?” que ante la pregunta “¿Lo harías?”.

Esto implica que el razonamiento moral, por sí solo, no explica la conducta. En situaciones reales no solo debemos decidir qué es lo correcto. Debemos ejecutar, o no, esa decisión. Y, por supuesto, ello nos llevará a enfrentarnos a las consecuencias que se deriven de nuestras acciones.




Leer más:
¿Pueden los videojuegos ayudar a combatir actitudes sociales no deseadas?


Otra visión del heroísmo

Los datos extraídos de un estudio sobre las personas que rescataban congéneres judíos durante el Holocausto resultan ilustradores. Al preguntarles por qué habían arriesgado todo, muchas personas respondían con una sencillez desconcertante: “¿Qué más podía hacer?”. Para estas personas, la decisión no fue una elección heroica calculada.

Su decisión era una respuesta inevitable. Análogamente, para las defensoras de Minnesota, la inacción habría supuesto una traición a su propia esencia. Una traición que habría resultado más dolorosa que cualquier represalia estatal. La autocondena frente al castigo externo.

Por el contrario, en contextos de persecución o rigidez legal, el sistema presiona al individuo para que “simbolice” obediencia. Si esto implica buenas o malas acciones, es otra historia.

Lealtad con el poder vs maldad

Paradójicamente, la complicidad con la injusticia a menudo no tiene que ver con la maldad. Un estudio reciente sobre la “lealtad como legitimadora” revela que el mismo valor que nos hace “buenos vecinos” puede cegarnos.

Según esta investigación, quienes valoran la lealtad por encima de otros principios son más propensos a percibir actos injustos como legítimos. El robo de salarios o la represión estatal, en este caso, son validados porque provienen de la misma estructura de poder a la que somos leales sin dudarlo.

Desvinculación como escudo

A esto se suma la desvinculación moral. Es un escudo psicológico que nos permite desactivar la autocrítica. Nos llegamos a ver como meros engranajes de una maquinaria superior.

Entonces, nos protegemos de la autocondena mientras participamos en la deshumanización de otra persona.

¿Qué nos queda entonces? La esperanza reside en la capacidad de experimentar lo que el psicólogo social y escritor estadounidense Jonathan Haidt denomina elevación moral.

Heroísmo por contagio

Al observar los actos de excelencia ética en Minnesota, podemos sentir admiración. Podemos experimentar un estado psicológico y físico que nos impulsa a recentrar nuestra propia brújula moral.

El heroísmo funciona como un catalizador que activa nuestra propia tendencia a actuar. Nos recuerda que la responsabilidad hacia otras personas es, en última instancia, una responsabilidad hacia nosotras mismas.

Cada vez que elegimos la justicia sobre la comodidad o la empatía sobre la lealtad ciega, estamos construyendo el yo que responderá cuando llegue la siguiente (o verdadera) crisis.

Vulnerables al miedo y al contexto

Comprenderlo nos advierte sobre nuestra propia fragilidad. Si hoy nos enfrentáramos a una situación como las que nos llegan del panorama internacional, ¿qué haríamos?

Si nuestra seguridad personal dependiera de nuestro silencio o de la denuncia de un vecino, ¿sabemos realmente qué mecanismos de nuestra mente tomarían el control?

La moralidad no es una ciencia exacta. Descansa sobre la interacción bidireccional entre tres aspectos. De una parte, la predisposición biológica. De otra, las normas y valores adquiridos. Y, entre ambos aspectos, nuestro razonamiento y voluntad de actuar.

Mirarse al espejo y reconocer esa vulnerabilidad es el primer paso para asegurarse de que, llegado el momento, la brújula apunte hacia el lado correcto.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Por qué algunas personas protegen y otras denuncian: una mirada psicológica a los sucesos de Minneapolis – https://theconversation.com/por-que-algunas-personas-protegen-y-otras-denuncian-una-mirada-psicologica-a-los-sucesos-de-minneapolis-274783

La electrónica y el límite físico que ignoramos cuando hablamos de IA

Source: The Conversation – (in Spanish) – By Paula Lamo, Profesora e investigadora, Universidad de Cantabria

La inteligencia artificial precisa, para funcionar, un sustrato físico electrónico que abastezca al sistema de electricidad. Igor Omilaev / Unsplash., CC BY

En los últimos meses se repite una escena llamativa en medios de comunicación especializados en el ecosistema tecnológico: anuncios espectaculares sobre nuevos modelos de inteligencia artificial (IA) que conviven con retrasos en centros de datos, proyectos de computación intensiva paralizados y advertencias crecientes sobre los límites físicos del despliegue de la inteligencia artificial (IA).

La conversación pública suele atribuir estos problemas al consumo energético o al impacto ambiental. Pero el origen del cuello de botella es más específico y menos conocido. Porque la cuestión no es solo cuánta electricidad necesita la inteligencia artificial, sino cómo se gestiona esa electricidad dentro de los propios sistemas de computación avanzada. Y, ahí, entra en juego una disciplina que rara vez aparece en los titulares, pero que condiciona el ritmo real de la IA: la electrónica de potencia.

Control de la potencia

A diferencia de la electrónica digital, que se encarga de procesar información, la electrónica de potencia se ocupa de convertir, regular y controlar la energía eléctrica que alimenta procesadores, aceleradores y sistemas de alto rendimiento. La encontramos en el interior de los equipos, donde la electricidad debe adaptarse de forma extremadamente rápida y precisa a cargas que cambian en microsegundos. Es la tecnología que decide si un sistema puede operar de forma estable o si se convierte en una fuente constante de pérdidas, calor y fallos.

Este aspecto se ha vuelto crítico con la actual carrera por aumentar la capacidad de cálculo. Los aceleradores utilizados para entrenar y ejecutar modelos de IA concentran hoy densidades de potencia inéditas. Alimentarlos ya no es un problema trivial: requiere sistemas capaces de conmutar a muy alta frecuencia, responder a transitorios –variaciones momentáneas de voltaje– bruscos y mantener la estabilidad eléctrica en condiciones límite. Cuando esa conversión falla o se vuelve ineficiente, el problema no se soluciona con más software.

Imprescindible para escalar infraestructuras

Buena parte de las noticias recientes sobre dificultades para escalar infraestructuras de IA apuntan indirectamente a este fenómeno. Se habla de falta de suministro, de saturación de centros de datos o de costes crecientes, pero detrás de muchos de estos titulares hay un reto técnico concreto: la conversión eléctrica interna se ha convertido en un factor limitante del diseño.

A medida que aumenta la potencia por unidad de volumen, la electrónica que alimenta los sistemas pasa de ser un componente más a condicionar toda la arquitectura.

Componente SMD con el que se construyen los circuitos empleados. Paula Lamo.
CC BY-NC-ND

Sin energía, no hay IA

Durante años, el progreso digital se benefició de mejoras continuas en la electrónica convencional que permitían aumentar prestaciones sin replantear el sistema. Sin embargo, este margen se ha reducido. Hoy, cada incremento de capacidad computacional exige rediseñar cómo se entrega la energía, cómo se controla y cómo se disipa el calor generado. En este contexto, la electrónica de potencia deja de ser una tecnología transversal o “de apoyo” y se convierte en una condición de posibilidad para las IAs más avanzadas.

Este giro explica el creciente interés que hay alrededor de los nuevos semiconductores de potencia, capaces de operar a mayores frecuencias, con menos pérdidas y mayor densidad.

No se trata de una mejora incremental, sino de una respuesta directa a los límites físicos que empiezan a aflorar en la computación intensiva. La capacidad de alimentar de forma fiable un sistema de IA determina hoy tanto su viabilidad como la sofisticación del modelo que ejecuta.

Hardware dedicado a Machine Learning, Data Science e IoT. Paula Lamo.
CC BY-NC-ND

Choque con los límites físicos

Desde hace décadas, comunidades técnicas internacionales como la IEEE Power Electronics Society y la IEEE Industrial Electronics Society trabajan, precisamente, en este punto de fricción entre computación avanzada y límites físicos. Su experiencia muestra que muchos de los desafíos actuales de la IA no se resolverán únicamente con mejores modelos, sino con avances en la ingeniería que hace posible su operación continua y segura.

A pesar de todo lo anterior, esta dimensión apenas aparece en el relato público sobre inteligencia artificial, que sigue centrado casi exclusivamente en datos, algoritmos y capacidades cognitivas. La IA se presenta como una tecnología abstracta, cuando, en realidad, depende de infraestructuras electrónicas extremadamente exigentes. Ignorar esta capa conduce a expectativas poco realistas sobre la velocidad a la que se puede escalar y desplegar en entornos reales.

Esto no significa que la inteligencia artificial esté “atascada” ni que su desarrollo vaya a detenerse. Significa que su ritmo real está cada vez más condicionado por factores materiales que rara vez se discuten fuera del ámbito especializado.

Una visión integral

La pregunta relevante ya no es solo qué puede hacer un algoritmo, sino qué puede sostener el hardware que lo alimenta durante años, sin fallar y sin disparar los costes.

Tal vez, por eso, el debate actual sobre la IA necesita ampliarse. No para restar importancia al software, sino para incorporar una visión más completa del sistema tecnológico en su conjunto. Porque el avance de la inteligencia artificial no depende únicamente de lo que somos capaces de imaginar en código, sino de lo que la electrónica puede soportar de forma estable, eficiente y fiable. Y, ese límite, hoy, empieza a hacerse visible.

The Conversation

Este trabajo ha sido apoyado por el Gobierno Regional de Cantabria y financiado por la UE bajo el proyecto de investigación 2023-TCN-008 UETAI. También, este trabajo fue financiado por el Ministerio de Ciencia e Innovación de España MICIU/AEI/10.13039/501100011033 y por FEDER, UE bajo el proyecto de investigación PID2021-128941OB-I00, “Transformación Energética Eficiente en Entornos Industriales”.
La autora es Presidenta del Capítulo conjunto español PELS-IES de IEEE, sociedades mencionadas en este trabajo (http://ieee-pels-ies.es/).

ref. La electrónica y el límite físico que ignoramos cuando hablamos de IA – https://theconversation.com/la-electronica-y-el-limite-fisico-que-ignoramos-cuando-hablamos-de-ia-272634

Why does this river slice straight through a mountain range? After 150 years, scientists finally know

Source: The Conversation – UK – By Adam Smith, Postdoctoral Research Associate, School of Geographical & Earth Sciences, University of Glasgow

The Gates of Lodore mark the beginning of the Green River’s path through the Uinta Mountains. Scott Alan Ritchie / shutterstock

The western US is a geologists’ dream, home to the Rocky Mountains, the Grand Canyon, active volcanoes and striking sandstone arches. But one landform simply doesn’t make sense.

Rivers normally flow around barriers. The Danube river, for example, flows between the Alps and the Carpathians, twisting and turning to avoid the mountains.

But in north-western Colorado, one river does the opposite.

The intimidatingly named Gates of Lodore marks the entrance to the 700-metre deep Canyon of Lodore that slices straight through the Uinta Mountains as if the range wasn’t there at all. It was created by the Green River, the largest tributary of the Colorado River (of Grand Canyon fame).

For more than 150 years, geologists have debated why the Green River chose such an unusual path, creating a spectacular canyon in the process.

Large canyon
The Green River carves its way through the Uintas in Dinosaur National Monument, on the border of Colorado and Utah.
Eric Poulin / shutterstock

In 1876, John Wesley Powell, a legendary explorer and geologist contemplated this question. Powell hypothesised that the river didn’t cut through the mountain, but instead flowed over this route before the range existed. The river must have simply maintained its course as the mountains grew, carving the canyon in the process.

Unfortunately, geological evidence shows this cannot be the case. The Uinta Mountains formed around 50 million years ago, but we know that the Green River has only been following this route for less than 8 million years. As a result, geologists have been forced to seek alternative explanations.

And it seems the answer lies far below the surface.

Drip drip

Colleagues and I have found evidence for a process in which part of the Earth’s crust becomes so dense that it begins to sink into the mantle beneath it. This phenomenon, known as a “lithospheric drip”, occurs deep in the Earth, but can have profound effects on the surface.

Drips often form beneath mountain ranges. The sheer weight of the mountains raise temperatures and pressures at the base of the crust, causing dense minerals to form. As these minerals accumulate, the lower crust can become heavier than the mantle it “floats” on. At this point, the crust begins to detach, or “drip”, into the mantle.

Diagram of lithospheric drip
Dripping (left) then rebounding (right).
Smith et al (2026)

At the surface, this causes two things. Initially as the drip forms, it pulls the crust down, lowering the height of the mountain range above. Then as the drip detaches, the crust springs or rebounds back. The whole process is like pulling a trampoline down and then letting it go again.

For the Green River, this temporary lowering of the Uinta Mountains appears to have removed a critical barrier. The river was able to cross the range during this low period, and then, as the range rebounded, it carved the Canyon of Lodore as it continued on its new course.

A geological bullseye

Our evidence for the lithospheric drip comes from the river networks around the Uinta Mountains. Rivers record a record of past changes to landscapes, which geomorphologists can use to assess how the elevation of a mountain range may have changed in the distant past. The rivers around the Uintas show that the range had recently (in geological terms) undergone a phase of renewed uplift.

By modelling these river networks, we were able to map out the uplift. The result was striking: a bullseye-shaped pattern, with the greatest uplift at the centre of the mountain range, with things decreasing further from the centre. Around the world, this same pattern represents the telltale sign of a lithospheric drip. Similar signals have been identified in places such as the Central Anatolian Plateau in Turkey, as well as closer to the Uinta Mountains on the Colorado Plateau or the Sierra Nevada of California.

To test whether such a process was occurring beneath the Uintas, we turned to seismic tomography. This technique is similar to a medical CT (computerised tomography) scan: instead of using X-rays, geophysicists analyse seismic waves from earthquakes to infer the structure of the deep earth.

Existing seismic imaging reveals a cold, round anomaly more than a hundred miles below the surface of the Uintas. We interpreted this huge feature, some 30-60 miles across, as our broken-off section of the drip.

By estimating the velocity of the sinking drip, we calculated it had detached between 2 and 5 million years ago. This timing matches the uplift inferred from nearby rivers and, crucially, perfectly matches separate geological estimates for when the Green River crossed the Uinta Mountains and joined the Colorado River.

Taken together, these different bits of evidence point towards a lithospheric drip being the trigger that allowed the Green River to flow over the Uintas, resolving a 150-year-old debate.

A pivotal moment in the history of North America

When the Green River carved through the Uinta Mountains, it fundamentally changed the landscape of North America. Rather than flowing eastwards into the Mississippi, it became a tributary of the Colorado River, and its waters were redirected to the Pacific.

This rerouting altered the continental divide, the line that divides North American river systems that flow into the Atlantic from those that flow into the Pacific. In doing so, it created new boundaries and connections for wildlife and ecosystems.

The story of the Green River shows that processes deep within the Earth can have profound impacts for life on the surface. Over geological timescales, movements of country-sized lumps of minerals many miles below the surface can reshape mountains, redirect rivers and ultimately influence life itself.

The Conversation

Adam Smith does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why does this river slice straight through a mountain range? After 150 years, scientists finally know – https://theconversation.com/why-does-this-river-slice-straight-through-a-mountain-range-after-150-years-scientists-finally-know-274888

Men rule the Grammys as women see hard drop in wins at 2026 awards

Source: The Conversation – UK – By Luba Kassova, PhD Candidate, Researcher and Journalist, University of Westminster

In her acceptance speech for best pop vocal album at the 68th Grammy Awards ceremony last night, Lady Gaga shone a light on the challenges that women face in studios. “It can be hard,” she said. “So, I urge you to always listen to yourself and … fight for your songs, fight for yourself as a producer. Make sure that you are heard, loudly,” she continued, placing the onus on women to take control of the fight for equality in music.

Many well-established and new female superstars were indeed heard loudly last night in the broadcast, which clearly made sure to display gender balance in front of the camera. However, when it comes to awards, nominations and the wider industry the picture is much different.

Working with my business partner, strategist Richard Addy, I looked at gender representation across all 95 of this year’s Grammy categories. Our analysis reveals that women and female bands sustained a dramatic fall in winners compared to last year. They received less than a quarter of all Grammys (23%), a 14 percentage point drop from last year’s high of 37% and the lowest level since 2022.

This fall has been partly a reflection of women’s declining recognition as Grammy nominees. Women’s representation peaked at under a third (28%) of all nominations last year, and this year just one in four nominations (24%) were given to women.

Despite Lady Gaga’s encouraging words for women to own their music as producers, their fight for a seat at the producers’ table is yet to yield results. Since its introduction 51 years ago, no woman has ever won the coveted Grammy for producer of the year, non-classical. Last year, Alissia became only the tenth woman to even earn a nomination in the category but lost out to Daniel Nigro. This year, all five nominees were male.

Addy and I have previously conducted a year-long data-led investigation of over 9,700 Grammy nominations and over 2,200 wins between 2017, revealing that it takes a village of men to raise a superstar, female or male. The winners of record, album and song of the year – three of the four most coveted Grammy awards – typically come on stage to collect their trophy alone.

In reality, however, they share their award with numerous producers, engineers and mixers, who are overwhelmingly male. So music icons like Beyoncé or Taylor Swift collecting their individual awards masks the male dominated structures behind these wins. For example, Bad Bunny, this year’s album of the year winner, has received it alongside 12 male producers, songwriters and technicians who were not on stage with him.

Despite women’s consistently high visibility at the Recording Academy nominee announcements and broadcasts over the year, their recognition across the Grammys has remained peripheral compared to men’s. Since 2017, 76% of nominations and wins across all categories have been awarded to men. By contrast, women have been nominated for and won only one in five Grammys in the same period.

Research consistently shows that the reasons women remain marginalised in the Grammys and in music more generally, are deeply structural and multifaceted.

Although the Recording Academy’s mission is to advance a strong culture of diversity, inclusion, belonging and respect in the music industry, women remain marginalised as Recording Academy members. The proportion of Grammy voting members who are women has grown from 21% (2018) to 28% (2024). But this growth rate will only deliver gender parity in 2051.

This slow growth is likely linked to 69% of voting members being songwriters, composers, producers and engineers, roles in which women’s marginalisation has repeatedly been reported to be highest. For example, the latest Inclusion In the Recording Studio report from the Recording Academy revealed the overall ratio of men to women songwriters in Billboard Hot 100 year-end charts across 13 years is 6.2 to 1.

Our assessment of 67 academic papers and reports in our report, The Missing Voices of Women in Music and Music News, revealed that gender discrimination, sexual harassment and sexual violence consistently hinder women’s success in music, as do pay gaps, women’s cultural exclusion from the “boys club” and limited discovery and promotional opportunities. According to Be The Change: Gender equity in music, a 2024 report from consultancy Midia based on research conducted across 133 countries 60% of women in the music industry have experienced sexual harassment while one in five women have survived sexual assault.

The evidence points to a reality in which no matter women’s talent or determination to succeed, they will only be able to do so if the music industry changes. Until then, we are unlikely to see women achieving recognition parity at the Grammys or any other music awards.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


The Conversation

Luba Kassova is a co-founder of AKAS, an audience strategy consultancy which works with primarily purpose led not-for-profit organisations. In the past AKAS has received funding from the Gates Foundation for researching the Missing Perspectives of Women reports published between 2020 and 2025. The research of 2026 Grammy nominations and winners, which will form the backbone of a forthcoming report, has not received any external funding.

ref. Men rule the Grammys as women see hard drop in wins at 2026 awards – https://theconversation.com/men-rule-the-grammys-as-women-see-hard-drop-in-wins-at-2026-awards-274884

Crime is no longer just a local issue – that’s why a national police force is needed

Source: The Conversation – UK – By Estelle Marks, Assistant Professor in Criminology, University of Sussex; King’s College London

Brian A Jackson/Shutterstock

Modern crime transcends place and space. From burglary to fraud, crime increasingly crosses local, national and digital borders. England and Wales’ geographically restricted police forces are not well equipped to respond.

This is why the home secretary, Shabana Mahmood, has announced a significant restructuring of the policing system. The proposals include establishing a National Police Service and merging existing local forces areas into larger regional ones.

Currently, England and Wales have 43 local police forces. Each has different organisational structures and levels of expertise in specific areas of crime. Police intelligence databases and digital capabilities vary, which can silo local forces and result in blind spots.

Most of the country’s specialist policing resources are situated in London’s Metropolitan police and the National Crime Agency. This uneven distribution of resources leaves local forces reliant on each other as specialist needs arise.

Even crime we think of as “local” can exploit force boundaries. Burglars and car thieves may cross local force borders to avoid multiple crimes being linked by police. This problem is more evident in serious crimes like weapons or drug trafficking and modern slavery. Organised crime groups move products and people around the country, and often across international borders.

Much modern crime is also placeless or transnational. Technology-enabled crime, phishing and other scams, and image-based abuse can involve victims and perpetrators in multiple locations, both in the UK and abroad. Fraud is currently the most prevalent crime affecting people in the UK.

The problem for British policing is therefore not simply a question of efficiency, but one of fit. The current structure of policing does not match the structure of crime.

The government’s proposals will centralise existing specialist policing capabilities into a single organisation, better equipped to respond to cross-border crime. This, the home secretary argues, will reduce intelligence blind spots, allow police to share data nationally, and save money.

A National Police Service will also provide stronger leadership and accountability. The NPS will be headed by a chief constable who will be Britain’s most senior officer. The proposals have been welcomed by current police leadership organisations including the National Police Chiefs’ Council, the College of Policing and the independent Police Foundation.

A national approach

To understand the benefits of this approach, we can look at another area where the UK has already nationalised its efforts – extradition policing.

A National Extradition Unit was established ahead of Brexit to bring frontline extradition policing into one team. Before this, responsibility was dispersed across all local forces, with the National Crime Agency coordinating and linking UK policing to partners overseas.

The UK receives more extradition requests – to send criminals to other countries – than it issues. The bulk of extradition work involves tracking down fugitives wanted by foreign states, bringing them before the courts and arranging for their removal from the UK. Although larger forces sometimes had dedicated teams, for many local forces this work competed with other duties and force priorities.

Digital illustration of hands typing on a keyboard in the dark, with a glowing lock emanating from the screen
Crime is crossing international and digital borders every day.
Pungu x/Shutterstock

If a fugitive could not be located in one local area, the warrant would be returned to the NCA to reallocate the case to another force, wasting time and money. Once a fugitive was arrested, local forces would need to transport them to London, where extradition courts are located.

Once extradition was agreed by the court, these forces would have to travel again to meet international police officers at airports (often in London) to hand the individual over into foreign custody. All of this cost significant officer time and resources, often at very short notice.

The National Extradition Unit now sits within the newly formed Joint International Crime Centre, which offers a one-stop-shop service to UK policing and international partners.

This centralisation has reduced inefficiency and strengthened international partnerships, which is crucial in the face of growing transnational crime. There is also potential to centralise more international capabilities, such as criminal evidence exchange.

The formation of a National Police Service aims to replicate these benefits across policing: driving down costs and inefficiency, increasing effectiveness and improving governance. If delivered, it should improve the UK response to national and international cross-border crime.

Unresolved issues

Reform of British policing is long overdue – the last structural reforms were in 1964. But the movement to a national structure naturally raises questions about the future of neighbourhood policing. The number of community support officers has fallen 40% since 2010, and the public is disappointed with police responses to crimes like shoplifting, which predominantly affect local areas.

There is also the question of the relationship between the national and regional levels, which is not clearly spelt out in the proposals. Another unresolved issue is the status of the National Crime Agency – currently the UK’s national law enforcement agency that investigates serious and organised crime – as it is absorbed into a future National Police Service.

Of more concern are proposals to expand the home secretary’s powers to dismiss chief constables and to set centralised performance targets. This centralisation of power into government potentially threatens operational independence, a foundational principle of British policing.




Read more:
Why the home secretary can’t fire a police chief who has done wrong – it’s key to the integrity of British policing


The imposition of performance targets under previous governments has tended to focus police on what is measured, not always on what matters most: maintaining public trust while effectively responding to serious crime. It is important that the implementation of these reforms guards against unintended consequences that undermine those capabilities.

A centralised system could better equip police to deal with modern, borderless crime. Yet this must be balanced against the need for local accountability and operational independence.

The success of a National Police Service will depend on how it is designed and governed. As the proposals move through consultation and scrutiny, the challenge for the government will be to modernise policing without undermining the principle of public trust on which it ultimately depends.

The Conversation

Estelle Marks does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Crime is no longer just a local issue – that’s why a national police force is needed – https://theconversation.com/crime-is-no-longer-just-a-local-issue-thats-why-a-national-police-force-is-needed-274543

Stroke survivors can counterintuitively improve recovery by strengthening their stronger arm – new research

Source: The Conversation – USA (3) – By Candice Maenza, Research Project Manager, Associate Director of the Center for Translational Neuromechanics in Rehabilitation, Penn State

Treating your ‘good’ arm after a stroke could help you better tackle everyday activities. MoMo Productions/DigitalVision via Getty Images

Stroke survivors often face substantial and long-lasting problems with their arms. Both arms often decline together: When one arm is more severely affected by the stroke, the other becomes more difficult to use as well. Compared with a healthy person’s dominant hand, a stroke survivor may take up to three times longer to complete everyday tasks using their less-impaired arm.

This creates a frustrating reality. People with severe impairment in one arm must rely almost entirely on their other arm for daily activities, such as eating, dressing and household tasks. When that “good” arm works slowly or awkwardly, even simple activities become tiring and discouraging, and some people may begin to avoid them altogether.

But that good arm can be strengthened. In our newly published research in the journal JAMA Neurology, we found that training the less-impaired arm in people living with chronic stroke can improve everyday hand function, in some cases even better than focusing only on the most impaired arm.

What is a stroke?

A stroke occurs when the flow of oxygen-carrying blood to part of the brain is interrupted by a blockage in a blood vessel or by bleeding. Without oxygen, brain cells begin to die.

Because each side of the brain mainly controls the opposite side of the body, a stroke often causes movement problems on the side of the body opposite the brain injury. For this reason, stroke rehabilitation has traditionally focused on restoring movement in the most impaired arm.

If someone’s face is drooping, their arm is weak or they’re having difficulty with speech, it’s time to call 911.

However, research over the past few decades has shown that both sides of the brain contribute to controlling movements for both arms, although they play different roles. As a result, damage to one side of the brain can affect movement on both sides of the body.

As expected, the arm opposite the brain injury often has major problems with weakness, stiffness and voluntary control, limiting its use for reaching, grasping and manipulating objects. But the other arm, usually thought to be unaffected from the stroke, is frequently not normal either. Many stroke survivors experience reduced strength, slower movements and poorer coordination in the less-impaired arm.

Training the less-impaired arm

As neuroscientists who study how the brain controls movement after stroke, these findings led us to a simple question: Could training the less-impaired arm help it work better?

In a clinical trial of over 50 patients, we studied people living with chronic stroke who had severe impairments in one arm, making it unusable for everyday tasks. These individuals depended almost entirely on their less-impaired arm to manage daily life.

Participants were randomly assigned to one of two rehabilitation groups: one that trained their most-impaired arm, and one that trained their less-impaired arm. Both received five weeks of therapy that involved challenging, goal-directed hand movements, including virtual reality tasks designed to improve coordination and timing.

Close-up of health care provider examining a patient's arm
Improving stroke rehabilitation strategies could improve patients’ everyday lives.
The Good Brigade/DigitalVision via Getty Images

Compared to those who trained their most-impaired arm, we found that participants who conditioned their less-impaired arm became faster and more efficient at everyday hand tasks, such as picking up small objects or lifting a cup. These improvements remained six months after training ended.

We believe the lasting benefit of training the less-impaired arm may come from a simple feedback loop: When their arm works better, people naturally use it more, and that extra practice in daily life helps lock in those gains.

Strengthening what remains

Stroke rehabilitation has long focused on the arm that is most visibly impaired. But for many people, full function in that arm never returns. They adapt and rely on their less-impaired arm to get through the day.

“Less-impaired,” however, does not mean unaffected. When this arm becomes the sole tool for daily activities, even mild problems can have major consequences for independence and quality of life. Improving how well this arm works could make everyday tasks faster, easier and less exhausting, even years after a stroke.

Future work will focus on how best to combine training of the less-impaired arm with standard therapy for the more-impaired arm, and how these approaches translate into everyday life at home.

For many survivors, recovery may not mean restoring what was lost but strengthening what remains.

The Conversation

Candice Maenza received salary support from a National Institutes of Health grant.

Robert Sainburg receives funding from the National Institutes of Health, National Institute of Child Health and Development, National Center for Medical Rehabilitation Research, the National Science Foundation, and the Department of Defense.

ref. Stroke survivors can counterintuitively improve recovery by strengthening their stronger arm – new research – https://theconversation.com/stroke-survivors-can-counterintuitively-improve-recovery-by-strengthening-their-stronger-arm-new-research-274404

La conversación docente: competencias digitales

Source: The Conversation – (in Spanish) – By Eva Catalán, Editora de Educación, The Conversation

BongkarnGraphic/Shutterstock

Para quienes hemos crecido sin internet ni móviles, observar cómo un miembro de la generación Z se maneja digitalmente produce cierto vértigo. La cantidad de tareas, alertas y conversaciones que pueden estar gestionando al mismo tiempo en su móvil y la velocidad a la que lo hacen le dejan a uno sintiéndose como la versión sin actualizar de un software antiguo, de esos que se quedaban un rato “pensando” antes de dar el siguiente paso, con el icono del relojito de arena dando vueltas.

Pero esa habilidad digital tiene una cara oculta. Es posible que, precisamente por ir más despacio, y pararse entre tareas, al final del día un “boomer” esté menos agotado mentalmente que un “zeta”. En su artículo sobre el tecnoestrés en el ámbito académico, los investigadores de la Universidad de Murcia José Luis Serrano y Juan Antonio Gutiérrez Gómez explican cómo ser más “competentes” digitalmente y más capaces de gestionar multitud de tareas online no protege a los universitarios de sentirse sobrecargados, invadidos y abrumados al final del día.

Más bien al contrario: sus destrezas digitales no solo no los preparan sino que a menudo les impiden tener una relación más sostenible con la tecnología en el contexto tan saturado y altamente interdependiente en el que viven. Incluso el ámbito académico se convierte a menudo en un “no parar” de mensajes, alertas, plataformas y tareas digitales. Conclusión: no necesitan que les enseñemos a manejar la tecnología, sino a manejar el flujo constante de atención que requiere y saber ponerle freno.

Veamos otro ejemplo de destrezas técnicas: cuando ChatGPT aterrizó en las universidades hace un par de años, muchos profesores se sorprendían de lo “bien” que escribían de repente todos sus alumnos.

Hoy, el deslumbramiento ha dejado paso a la farragosa tarea de leer frases y más frases estupendamente estructuradas… que no dicen nada. Los angloparlantes ya le han puesto nombre: “workslop”, algo así como vacío academicista. Contenido con una falsa apariencia solvente, que nos sepulta en conceptos y frases huecas que no llevan a ningún lado. Ya existía antes, pero ahora está por todas partes gracias a la IA. María Isabel Labrado Antolín, de la Universidad Complutense, hizo un experimento entre sus estudiantes, y descubrió que los mejores trabajos provenían de los estudiantes que usaban la IA de manera verdaderamente inteligente. Una vez más, conocer la tecnología no es lo mismo que aprovecharla.

Y es que la “competencia digital”, sea de los docentes o de los estudiantes, necesita una reformulación. Aprender a usar programas y aparatos es una cosa, pero aprender a integrarlos en las tareas académicas y en la vida cotidiana otra muy distinta. Los programas y aparatos evolucionan a gran velocidad; por eso, una profesora puede obtener un certificado que avale que tiene unos conocimientos concretos sobre determinadas tecnologías, y al año siguiente sentirse frustrada y estresada con un problema técnico imposible de anticipar.

La verdadera competencia digital pasa por dar a los docentes tiempo, apoyo, redes de colaboración y libertad para equivocarse y experimentar. Solo así podrán ofrecer una visión equilibrada y crítica a esos estudiantes que creen, erróneamente, que la tecnología no tiene secretos para ellos.

Esta semana, además, hemos hablado de cómo mejorar el nivel de inglés de los futuros docentes y de los actuales estudiantes universitarios, de cómo evitar la ansiedad de los cambios de etapa y de lo importante que es la educación de los cero a los 3 años para el futuro académico y la equidad.

The Conversation

ref. La conversación docente: competencias digitales – https://theconversation.com/la-conversacion-docente-competencias-digitales-274801