Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

Source: The Conversation – (in Spanish) – By Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

Roman Samborskyi/Shutterstock

En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

Usando el polígrafo en un caso judicial de 1937.
Biblioteca Nacional de Francia.

Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

Una forma de leer la mente

Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

El antecedente de la prueba P300

Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

¿Se puede detectar la mentira desde la memoria?

Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

Entonces ¿qué detectan estas pruebas?

Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.

The Conversation

Miquel Julià-Pijoan no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”? – https://theconversation.com/deteccion-de-mentiras-y-neurotecnologias-mas-cerca-de-la-verdad-265496

Terapia con células madre: ¿una nueva era en la regeneración cerebral después de un ictus?

Source: The Conversation – (in Spanish) – By Daniel Tornero Prieto, Profesor de Biología Celular y Director del Laboratorio de Células Madre Neurales y Daño Cerebral, Universitat de Barcelona

create jobs 51/Shutterstock

Cada año, millones de personas ven cómo su vida cambia en cuestión de minutos. Un vaso sanguíneo que viaja hacia el cerebro se obstruye, las neuronas empiezan a morir y el tiempo corre. Es un ictus, una de las principales causas de discapacidad en adultos. Se calcula que una de cada seis personas lo sufrirá a lo largo de su vida.

El cerebro humano es, con diferencia, el órgano más complejo de nuestro cuerpo. Su arquitectura celular y su organización en redes neuronales permiten funciones tan sofisticadas como el lenguaje, la memoria o la toma de decisiones abstractas. Pero esa misma complejidad tiene un coste: el tejido cerebral posee una capacidad de regeneración muy limitada. A diferencia de la piel o el hígado, las neuronas que mueren rara vez se reemplazan.

Por eso, las lesiones cerebrales están en el origen de muchas patologías asociadas al envejecimiento, y una de las más graves y frecuentes es el ictus isquémico, causado por la interrupción del riego sanguíneo en una zona del cerebro. Aunque los avances en los tratamientos de urgencia han mejorado las tasas de supervivencia, no existe actualmente una terapia capaz de reparar el daño neuronal derivado de un ictus.

Incidencia internacional del ictus y su cobertura sanitaria. Cada gráfico representa una «planta», donde los pétalos muestran la incidencia del ictus por cada 100 000 personas, y las raíces, el ‘estrés’ del sistema sanitario de cada país (medido en el número de personas que depende de cada unidad ictus). Datos obtenidos del World Data Bank (2023), la Stroke Association for Europe (2017) y The Stroke Foundation (2024). Elaborado por:
Santiago Ramos.

La rehabilitación ayuda a recuperar parte de la función, pero en numerosos casos los pacientes conviven con limitaciones motoras y cognitivas permanentes. Además, tras un ictus aumenta el riesgo de sufrir depresión, demencia y otras enfermedades neurodegenerativas. Pero esto podría cambiar pronto gracias al desarrollo de las terapias basadas en células madre.

Un nuevo horizonte terapéutico

Durante las últimas décadas, las terapias celulares están abriendo la puerta a una nueva generación de tratamientos en medicina regenerativa. Estas terapias buscan reemplazar o reparar tejidos dañados introduciendo células nuevas capaces de sobrevivir, madurar y terminar llevando a cabo las funciones que se han perdido.

Como ya se ha comentado, esto es especialmente importante en las patologías que afectan al cerebro. A pesar de su alto potencial, su desarrollo es lento porque debe ajustarse a la legislación vigente en cada territorio y depende de grandes inversiones económicas.

Un precedente crucial tuvo lugar a finales de los años 80 en el Hospital Universitario de Lund, en Suecia. El equipo encabezado por Anders Björklund y Olle Lindvall logró trasplantar células madre neurales en el cerebro de pacientes con la enfermedad de Parkinson. Esta dolencia neurodegenerativa se caracteriza por la pérdida progresiva de neuronas dopaminérgicas, fundamentales para el control del movimiento corporal.

Los resultados fueron extraordinarios: al sustituir las neuronas dañadas, muchos pacientes recuperaron la función motora durante más de una década. Estos experimentos supusieron la primera demostración sólida de que el cerebro humano puede ser reparado utilizando células vivas.

Médicos y enfermeros vestidos con batas y mascarilla preparan a un paciente en quirófano.
El equipo de Anders Björklund y Olle Lindvall se dispone a trasplantar células fetales en uno de los pacientes de Parkinson que participaron en el primer estudio. Esta intervención pionera marcó un antes y un después en el uso de terapias celulares aplicadas en neurología.
Olle Lindvall.

Desde entonces, la investigación ha avanzado, las técnicas se han refinado y la regulación europea ha establecido marcos estrictos para garantizar la seguridad y la calidad de estos tratamientos, ahora englobados bajo la categoría de medicamentos de terapia avanzada (ATMP por sus siglas en inglés). Actualmente, se están llevando a cabo alrededor del mundo diferentes ensayos clínicos que continúan en la línea de los trabajos de Björklund y Lindvall y que llenan de esperanza a los pacientes de Parkinson y muchas otras enfermedades que afectan a nuestro cerebro.

El reto del ictus

Aunque esta historia inspiró numerosos estudios, el ictus cerebral representa un desafío distinto al de la enfermedad de Parkinson. La lesión isquémica suele ser más extensa y heterogénea: no afecta únicamente a un tipo celular, sino a múltiples poblaciones de neuronas, células gliales y también a los vasos sanguíneos.

Además, tras un trasplante no basta con que las células sobrevivan en el cerebro del paciente. Estas deben integrarse funcionalmente, es decir, enviar sus axones (las prolongaciones que transmiten los impulsos nerviosos) y establecer sinapsis o conexiones adecuadas con las neuronas supervivientes, entrando a formar parte de los circuitos cerebrales.

Es como intentar reconstruir no solo la estructura de un puente, sino también su tráfico: las conexiones deben establecerse de la manera correcta para que la información fluya. Por tanto, además de añadir células nuevas, el desafío del ictus consiste en reconectar el cerebro.

La ingeniería genética como punto de inflexión

Aquí es donde entra en juego la ingeniería genética, una de las tecnologías más transformadoras de la biología moderna. Esta disciplina permite modificar las células para hacerlas más eficaces, más resistentes o más capaces de integrarse en el tejido dañado.

En nuestro caso, hemos incorporado a las células trasplantadas el gen que codifica para la proteína BDNF (del inglés Brain-Derived Neurotrophic Factor), un factor neurotrófico que participa en el desarrollo del cerebro y que favorece el crecimiento de los axones y la formación de sinapsis. Con ello, buscamos facilitar la integración funcional de las nuevas neuronas en el cerebro lesionado, un paso clave para que el trasplante no solo rellene un hueco, sino que restaure la comunicación neuronal.

Imagen de cultivos neuronales derivados de células madre creciendo en un dispositivo microfluídico con dos compartimentos conectados por microcanales (400 μm). La sobreexpresión de BDNF en el compartimento inferior favorece el crecimiento y proyección de axones desde el compartimento opuesto, mostrando el papel de este factor en la integración y conectividad neuronal.
Adaptado de IJMS.

Un debate necesario

Sin embargo, esta capacidad de manipulación genética también plantea dilemas éticos, especialmente en torno a los límites de su aplicación y sus posibles efectos a largo plazo. Por ejemplo, los primeros trasplantes en pacientes de Parkinson, anteriormente citados, se realizaron con células procedentes de tejido fetal.

Hoy en día, gracias a los trabajos del investigador japonés Shinya Yamanaka, Premio Nobel de Medicina en 2012, y su descubrimiento de las células madre pluripotentes inducidas humanas (iPS), es posible generar células madre a partir de las adultas del propio paciente. Por ejemplo, es muy frecuente la generación en el laboratorio de estas células iPS a partir de biopsias de la piel.

Así, se evitan gran parte de los conflictos éticos relacionados con el uso de embriones y se disminuye el riesgo de rechazo inmunológico. Por tanto, la pregunta ya no es si podemos modificar células para reparar el cerebro, sino con qué criterios, bajo qué regulación y con qué responsabilidad.

La historia de la medicina está hecha de pequeñas victorias frente a lo imposible. Hace apenas unas décadas, la idea de curar un cerebro dañado parecía un sueño inalcanzable. Hoy, gracias a la combinación de biología, ingeniería genética y medicina regenerativa, ese sueño comienza a tomar forma en los laboratorios. Aún quedan muchos retos por resolver, pero cada nuevo avance nos recuerda algo esencial: el cerebro no solo puede aprender, sino que también se puede reparar.

The Conversation

Daniel Tornero Prieto recibe fondos para financiar su investigación por parte de instituciones públicas como el Ministerio de Ciencia, Innovación y Universidades y la Unión Europea. También pertenece a la red europea ALBA que trabaja por la diversidad y la equidad en la investigación cientifica sobre el cerebro.

Santiago Ramos Bartolomé es miembro de la Asociación Universitaria de Biología Sintética de Cataluña.

Alba Ortega Gascó no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Terapia con células madre: ¿una nueva era en la regeneración cerebral después de un ictus? – https://theconversation.com/terapia-con-celulas-madre-una-nueva-era-en-la-regeneracion-cerebral-despues-de-un-ictus-268219

La mujer que Marx nunca quiso conocer: Flora Tristán y el socialismo que pudo cambiar la historia

Source: The Conversation – (in Spanish) – By María Begoña Pérez Calle, Professor of Economics, Universidad de Zaragoza

Para Flora Tristán (París, 1803-Burdeos, 1844) la transformación debía ser integral y la comunicación con las masas asalariadas era tan importante como la difusión literaria de su modelo. Por ello no se limitó a escribir para quien pudiera pagar un libro y leerlo, sino que buscó sensibilizar directamente a las clases trabajadoras.

Su propuesta novedosa conllevaba un vínculo inseparable de la cuestión obrera con la cuestión femenina: no habría liberación proletaria sin liberación de las mujeres.

La emancipación era, pues, la condición necesaria para la justicia universal. Flora Tristán se adelantó así a debates que muchos años después ocuparían un lugar central en discursos feministas.

A pesar de nacer en un ambiente aristócrata, la escritora, pensadora socialista y feminista franco-peruana, considerada una de las pioneras del feminismo moderno y una precursora del movimiento obrero internacional, no se formó con institutrices. A los cuatro años, la desgracia aterrizó en su familia al morir el padre, Mariano Tristán y Moscoso, sin haber arreglado jurídicamente el matrimonio con su madre, Thérèse Laisnay. El derecho francés no consideraba legítimo un matrimonio solo religioso.

La joven viuda, esperando otro hijo y desprovista de patrimonio, marchó con Flora durante varios años al campo, y la pequeña familia acusó un importante descenso en su estatus social.

Su vida como una proscrita

Nuevamente en París, siendo una obrera adolescente, Flora Tristán se casó con su joven jefe, André Chazal, en 1821. Cuatro años más tarde, tras muchas desavenencias conyugales y esperando su tercer bebé, huyó de casa abandonando a su marido.

El divorcio no existía. La separación de los Chazal no era legal. Durante varios años, Flora vivió como una proscrita en Francia e Inglaterra. En 1833 cruzó el océano para reclamar su herencia en Perú ante los Tristán. En un principio, la familia la acogió bien y su tío le asignó algunas rentas, pero no le reconoció derecho a heredar.

Volvió a Europa dos años después, uniendo la experiencia personal adquirida con un gran trabajo de campo. Había desarrollado una metodología pionera para describir y denunciar las injusticias de raza, clase y género: viajar, dialogar, recoger datos utilizando el modelo de encuesta y construir modelos y propuestas.

Así, Flora Tristán, autodidacta, hizo verdadera ciencia social a partir de la observación de la realidad, desarrollando trabajos innovadores que fusionaron reflexión teórica y experiencia práctica.

En obras como Peregrinaciones de una paria (1838) o Paseos en Londres (1840) denunció la miseria y falta de instrucción en las clases trabajadoras, la miseria infantil, la prostitución y la discriminación femenina. Señaló las desigualdades estructurales de la sociedad capitalista como raíz de los problemas.

Frente a la situación existente, propuso su modelo de organización social, cuyo elemento central era un proletariado consolidado en la Unión Obrera. Este proletariado contaría con formación y protección social. No solo tenía que configurarse como fuerza productiva, sino que también debía transformar la historia.

Militante de un socialismo en ciernes

A partir de 1835 comenzó a gozar de éxito literario y fue respetada por círculos intelectuales. Precisamente con la Unión Obrera eligió ser militante de un socialismo naciente con estilo propio, ejerciendo cómo apóstol de sus ideas, modelos y teorías.

Comenzó así su Tour de France, un incansable ejercicio de comunicación de masas. Esta forma de vida era inusual en una mujer de su época. Pero Flora Tristán fusionó su talento intelectual con una misión redentora en la que creyó firmemente.

Su visión se caracterizó también por el rechazo a la violencia revolucionaria como único camino. Reconocía el antagonismo entre trabajo y capital, pero sus estrategias reformistas sociales se basaban en la fraternidad. Su fin era alcanzar la justicia y el amor universal.

Su vocación de mujer mesías le dio fuerza para liderar y comunicarse con miles de obreros y obreras en sus giras por Francia. Tenía la salud delicada, con un posible proceso tumoral, y tantos viajes la llevaron a exponerse al desgaste físico y al agotamiento.

Finalmente, los esfuerzos y un posible tifus aceleraron su muerte prematura en 1844, cuatro años antes de publicarse El manifiesto comunista.
Una vez fallecida, su voz no se incorporó al socialismo de Karl Marx y Friedrich Engels, señalado por este último como científico, que otorgaba prioridad casi exclusiva a la lucha de clases. Engels etiquetó las versiones anteriores como utópicas.

Sin embargo, basta recorrer las biografías de Robert Owen, Charles Fourier, los sansimonianos y la propia Tristán, para comprobar que “utopía” no es una calificación que describa lo que sus pensamientos y acciones significaron.

A finales de 1843, el filósofo alemán Arnolk Rüge aconsejó en París al joven Marx que fuera a conocer a Flora Tristán, pero este no lo hizo. Engels sí que dejó constancia de conocer su obra, pero el tono fue indiferente.

Siempre quedó en segundo plano

Tristán quedó en un segundo plano en la historia oficial del socialismo, a pesar de haber anticipado muchos de los debates que más tarde cobrarían importancia.

Más de un siglo después, la puesta en valor –importante y necesaria– del componente feminista de su discurso se apoderó de todos los demás elementos.
En la actualidad, resulta imprescindible reconocer plenamente a Flora Tristán, la pequeña aristócrata empobrecida que no pudo tener institutrices pero acabó aprendiendo de Owen y Fourier.

Y hay que reconocerla como una socialista del Romanticismo, como una pionera en las ciencias sociales, comunicadora de extraordinario talento y creadora de un modelo alternativo de sociedad, producción y trabajo: la Unión Obrera.

Cabe preguntarse qué habría ocurrido si hubiera vivido más. Sin duda jamás habría aceptado que su modelo de socialismo fuese calificado como “utópico”.
De haber llegado a 1864, con toda seguridad habría participado en la Primera Internacional y, por qué no, pese a ser mujer, su presencia arrolladora habría influido de algún modo en el rumbo del socialismo.

The Conversation

María Begoña Pérez Calle no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La mujer que Marx nunca quiso conocer: Flora Tristán y el socialismo que pudo cambiar la historia – https://theconversation.com/la-mujer-que-marx-nunca-quiso-conocer-flora-tristan-y-el-socialismo-que-pudo-cambiar-la-historia-264214

José Capilla, rector de la Universitat Politècnica de Valencia: “La IA nos obliga a revisar cómo enseñamos y cómo evaluamos”

Source: The Conversation – (in Spanish) – By Eva Catalán, Editora de Educación, The Conversation

José Capilla, rector de la UPV. Vicente Lara-ACOM UPV

La inteligencia artificial generativa llegó al mundo académico con grandes promesas de transformación (personalización de itinerarios de aprendizaje, retroalimentación en tiempo real, tutores virtuales) pero hoy, tres años después de su aparición, todavía no está claro si su impacto está siendo positivo. Lo que sabemos hasta la fecha es que su gran potencial solamente puede desarrollarse con un conocimiento profundo de su funcionamiento y que su aplicación depende casi exclusivamente de la ética personal de cada usuario.

Hablamos con José Capilla, rector de la Universitat Politècnica de València y presidente de la Sectorial de Digitalización de la Crue (Conferencia de rectores y rectoras de la universidad española), de esta herramienta tecnológica tan disruptiva en el mundo universitario, de la posibilidad de imponer ciertas normas comunes y de regular su uso, y de cómo pueden las instituciones de educación superior aprovechar la oportunidad y responder al desafío.

¿Qué está suponiendo la inteligencia artificial para el funcionamiento de las universidades?

Parece que la inteligencia artificial lleva diez años con nosotros, porque nos hemos acostumbrado muy rápido, pero en realidad Open AI salió hace menos de tres años. Sin embargo, ha irrumpido en la vida académica de una manera espectacular. Uno de los grandes retos que tenemos es actualizar tanto las estructuras como el personal de la universidad para entenderlas y conocerlas también nosotros, porque los estudiantes ya las están usando, y no necesariamente bien. Y eso plantea ciertos peligros.

Su postura hacia la IA es positiva, la considera una “aliada estratégica”.

No soy partidario de limitar el uso ni de prohibir. Creo que lo que hay que hacer es instruir y buscar la manera de utilizarla lo mejor posible. Todas las nuevas tecnologías, cuando llegan, necesitan de un periodo de análisis. Tenemos que entender cómo nos va a transformar y cómo podemos aprovecharla. Y estamos reflexionando sobre cómo cambiar las metodologías de enseñanza y aprendizaje y de evaluación, porque no pueden seguir siendo las mismas. Quizás podamos evaluar y enseñar centrándonos más en competencias blandas. Y al mismo tiempo, dedicarnos a conocer a fondo esas herramientas de IA que evolucionan a una velocidad impresionante. Hay que incorporar estas tecnologías, aprender a usarlas, aprender qué sesgos pueden tener y, desde luego, incidir mucho en los aspectos éticos sobre su uso.

El gran peligro es la brecha que se puede crear. Antes se hablaba de brecha digital, ahora yo creo que podemos hablar de brecha de IA.

No se trataría tanto de incluir nuevas asignaturas de inteligencia artificial, sino de introducir competencias en IA dentro de las materias de manera transversal. Probablemente sí que puedan ser útiles algún tipo de microcredenciales, con instrucciones de corta duración, orientadas a todo tipo de disciplinas. Pero la revisión de los métodos de enseñanza tiene que ser transversal.

¿Es algo fácil de llevar a cabo?

Esta tecnología evoluciona mucho más deprisa que la capacidad que tenemos de modificar nuestros planes de estudios. Ese es otro gran reto: la rigidez de las normas universitarias, el marco legal, para poder actualizar los contenidos de los planes de estudios o los propios planes. A lo mejor hay algunos que tienen que desaparecer y crearse otros nuevos.

¿Existe un desfase entre lo que ofrecen los planes de estudio de las universidades y lo que necesita la sociedad?

A veces va la universidad por delante y es la propia industria la que tiene que recurrir a los grandes especialistas que están moviendo la frontera del conocimiento. Pero hay desfases, claro. Seguimos con un sistema para aprobar planes de estudios que desde que se hace una propuesta para un grado hasta que se pone en marcha y salen los primeros titulados pueden haber pasado 7 años. Y hay campos donde en siete años todo cambia radicalmente. En el ámbito de las tecnologías, necesitamos más agilidad.

Creo que la regulación es excesiva. Establecida con muy buena intención para controlar la calidad, sin duda, pero no tenemos más que compararnos con lo que pasa en el mundo anglosajón, ver la agilidad que tienen sus universidades porque no se les han impuesto estos corsés. Desde luego tiene que haber entidades independientes que puedan evaluar la calidad y hay que ser transparentes. Pero aquí hemos querido poner unas reglas que garanticen que todos lo hacemos muy bien y al final no está muy claro que lo estemos garantizando, y sin embargo, añadimos trabas para progresar.

¿Cómo lo estamos supliendo las universidades? En la UPV, y sé que otras universidades lo hacen, con los títulos propios y la formación permanente. Ahí podemos dar respuesta a lo que determinadas industrias y sectores necesitan y rompemos el desfase. Por nuestra universidad, por ejemplo, pasan cada año 35 000 estudiantes en formación continua, que son distintos de los de enseñanzas regladas. Esto fomenta y enriquece la relación entre universidad y empresa.

De todas maneras, hay que tener cuidado con un utilitarismo excesivo de la formación superior: también hay que dar formación básica que no está orientada a la empleabilidad. La empleabilidad es fundamental, pero no toda la formación tiene que estar ahí. Y lo mismo pasa con la investigación: debe haber investigación básica en paralelo a la investigación aplicada. Se trata de encontrar un equilibrio. En España a nivel de investigación realmente con respecto al tamaño que tenemos somos una potencia, por la cantidad de publicaciones científicas y de calidad que aportamos. Pero si miramos la parte de patentes, ahí ya cojeamos. Eso lo tenemos que trabajar.

¿Cuáles son ahora mismo las grandes preocupaciones en la universidad española en relación con las nuevas tecnologías?

Estamos viviendo un momento crucial en cuanto a la digitalización de las universidades. La digitalización no es algo nuevo, empezó hace muchos años y las universidades estuvimos ahí desde el primer momento, lo cual no quiere decir que estemos siempre a la cabeza, porque esto es una carrera acelerada. Curiosamente, las universidades que empezaron a digitalizarse antes se encuentran con que ahora pueden estar por detrás de algunas que han empezado después pero se han incorporado con una tecnología más madura. Claramente, es preciso planificar e invertir.

En el tema de la administración electrónica y la contabilidad analítica, en Crue estamos haciendo un diagnóstico de cómo lo están poniendo en marcha las universidades, y antes del verano ya más de la mitad tenían estrategias elaboradas, seguramente ahora sean casi las dos terceras partes. Somos un grupo muy heterogéneo: universidades de distinto tamaño, distintas especializaciones, públicas y privadas.

Las universidades somos estructuras muy complejas, con muchísimos servicios comunes, transversales, y una contabilidad analítica permite mayor transparencia y rendición de cuentas. También hemos ido desarrollando a lo largo de los años herramientas para que el investigador o profesor gestione directamente por la intranet, portales para la investigación. Todo esto es digitalización.

Y también la seguridad…

Sin duda: la ciberseguridad es una preocupación importante. Somos entidades especialmente abiertas, por fuera y por dentro, y no es fácil contar con unas estructuras suficientemente blindadas.

Tenemos cortafuegos, pero eso no evita pequeños incidentes. Estamos siempre pendientes para que no sean graves, con sistemas estructurados en función de la sensibilidad de la información, con partes más blindadas, partes más accesibles… pero en este momento es una gran preocupación. Tenemos que actualizar continuamente servidores y servicios operativos, desechar ordenadores útiles porque ya no están al día de las necesidades de seguridad que se nos plantean.

Una de las inquietudes que plantea el uso de la IA por parte del alumnado tiene que ver con la evaluación… Ahora es más complicado distinguir qué ha hecho el alumno y qué la máquina.

Así es. Existe una preocupación generalizada en las universidades con lo que ocurre con la redacción de trabajos fin de grado y fin de máster, por ejemplo. Tenemos que buscar mecanismos que garanticen la originalidad de esos trabajos. No se trata de impedir que se utilicen las herramientas de inteligencia artificial, pero debemos asegurar que hay un trabajo original del estudiante y un aprendizaje. Y cambiar cómo se les evalúa.

Hemos visto que hasta las revistas científicas han publicado artículos elaborados totalmente con una herramienta de inteligencia artificial: esto demuestra lo difícil que es de detectar, es un reto enorme.

¿En qué áreas dentro de la educación superior puede ser más ventajosa la IA?

Las herramientas de inteligencia artificial nos han permitido automatizar tareas de gestión tediosas. También hay herramientas que se están desarrollando para que complementen y enriquezcan la tarea de tutorización del profesorado, y que el estudiante pueda incluso ir autoevaluándose. Bien empleada, es una herramienta utilísima.

Cuando empezó a hablarse de la enseñanza online, hace muchos años, mucha gente predecía que toda la enseñanza acabaría siendo online. Yo creo que no. La enseñanza presencial es fundamental porque tiene muchas cosas que lo online no puede suplir de ninguna manera. La IA puede ayudar, pero no sustituir. Puede mejorar la experiencia en los campus, potenciar y amplificar el rendimiento, pero habrá que ir al laboratorio, habrá que tener el contacto humano dentro del campus con el profesorado, con los investigadores, con los compañeros. El periodo de enseñanza presencial en la universidad es básico: construyen redes de relaciones humanas que luego en lo personal y en lo profesional se mantienen toda la vida. Todo eso es irreemplazable.

Peter Thiel, empresario tecnológico fundador de Paypal y Palantir, recomienda a los jóvenes que no vayan a la universidad. Ha puesto en marcha un programa para financiar a los que dejen los estudios universitarios y pongan en marcha empresas. ¿Qué opina?

El otro día, en una reunión con funcionarios de la UNESCO, nos hablaron del fenómeno de la desconfianza hacia las instituciones de educación superior. Me parece muy preocupante. En muchos aspectos nos tenemos que reinventar para estar siempre pegados a la realidad de la sociedad y las necesidades de la economía. Es verdad que las oportunidades de aprendizaje que hay ahora son innumerables, pero eso no significa que no sean necesarias las universidades. Sí creo que tenemos la obligación de trabajar muy pegados a la realidad, no se nos puede ir de la cabeza, de nuestras estrategias. Los doctorados industriales, las prácticas en empresas, la formación dual, cada vez van a ser elementos más importantes en la educación universitaria.

The Conversation

ref. José Capilla, rector de la Universitat Politècnica de Valencia: “La IA nos obliga a revisar cómo enseñamos y cómo evaluamos” – https://theconversation.com/jose-capilla-rector-de-la-universitat-politecnica-de-valencia-la-ia-nos-obliga-a-revisar-como-ensenamos-y-como-evaluamos-269149

La gastronomía local fortalece la singularidad de lugares y regiones

Source: The Conversation – (in Spanish) – By Ester Noguer-Juncà, Lector Profesor. Department of Economics and Business, Universitat de Lleida

Si el paisaje, la historia o la cultura ayudan a generar vínculos de apego y pertenencia con un determinado espacio geográfico (un país, una región o una ciudad), también los productos y las tradiciones gastronómicas aportan “sentido de lugar”.

Además, para los visitantes, la gastronomía supone un valor añadido a la experiencia de viaje y, dependiendo de su atractivo, puede jugar un papel crucial tanto en el desarrollo turístico y económico como en el ambiental y social del lugar.

El uso de cadenas cortas de suministro de alimentos (cooperativas agrícolas de la zona, agrotiendas) valorizan la singularidad local. Además, promueve un impacto ambiental y socioeconómico positivo para el desarrollo por la relación directa entre productores y consumidores.

Así pues, la gastronomía ha emergido como una herramienta para proteger y promover la singularidad de los lugares, las personas y sus prácticas. Además, puede ser un elemento clave en la experiencia turística y en la competitividad de los destinos.

En este contexto, hay diferentes casos de valorización regional a través de la gastronomía gracias a la participación de agentes públicos y privados.

Patatas de altura

Un caso de éxito es el de la trumfa, una patata de alta montaña; concretamente, del Valle de Camprodon, una pequeña región del norte de Cataluña de unos 5 000 habitantes.

Allí se produce esta variedad de patata kennebec, que estaba a punto de desaparecer. Sin embargo, con la implicación de los productores, los restauradores, y la administración pública se consiguió revalorizar la trumfa.

Los productores acordaron un precio de venta único, los restauradores la celebración (cada año) de la Campaña Gastrónomica de la Trumfa, y, en el colegio público de la zona, se lanzó el proyecto educativo “Ens Mengem Les Valls” (“Nos comemos el valle”), para promocionar una alimentación sana, de calidad y de proximidad.

Todas estas acciones fomentan los vínculos sociales y culturales entre productores, consumidores y restaurantes de la zona.

Avellana y chocolate

Otro caso interesante es el de la avellana de Brunyola, una región del noreste de Cataluña, en la provincia de Girona. En 2016, con el objetivo de proteger el conocimiento de la avellana local y promover su comercialización, varios productores crearon la Associació Avellana de Brunyola i Comarques Gironines.

Dos años más tarde, cinco de ellos decidieron crear una empresa para consolidar la producción y comercialización de avellanas de la zona. Inicialmente, alquilaron un espacio en un centro de innovación gastronómica industrial, pero en 2022 abrieron su propio taller.

A partir de su propia cosecha, elaboran avellanas tostadas, avellanas con chocolate y crema de avellana con cacao, entre otros productos, que venden directamente al consumidor final a través de su tienda virtual y a diferentes establecimientos de proximidad de la región.

Sin relevo generacional

Sin embargo, también hay casos en los que el futuro no es tan prometedor. Es el caso de Orís (Barcelona), un municipio de 27,33 km² y 355 habitantes del centro de Cataluña, que cada año celebra el Mercat de la Patata del Bufet d’Orís, un producto local que peligra puesto que no está asegurado el relevo generacional de sus productores.

Ante esta realidad, los agentes públicos y la sociedad civil han diversificado el mercado con actividades lúdicas (concursos de pintura rápida, de cocina, etc.) pero alejadas del objetivo principal del evento, que es la promoción y venta de las patatas autóctonas.

Restaurantes, embajadores de la cultura local

Los restaurantes pueden tener un papel estratégico para visibilizar la riqueza culinaria de un lugar. Para ello, deben diseñar sus menús usando productos e ingredientes locales, y conectarlos con la cultura, la historia, la naturaleza y las personas del lugar.

Al emplear productos locales, también ayudan a fortalecer las economías regionales e influir en los hábitos de consumo de sus clientes, haciéndolos más sostenibles.

Redes colaborativas

De los casos analizados podemos extraer dos conclusiones:

  1. La relevancia de las redes de participación y de la colaboración entre todos los agentes públicos y privados para el éxito de las iniciativas de empoderamiento y emprendimiento local.

  2. La pérdida de productos agropecuarios autóctonos como consecuencia de la despoblación, la falta de relevo generacional y el cambio climático, entre otros factores, conlleva consecuencias para el propio sector primario, pero también para el sector turístico.

Para concluir

Quiero acabar este artículo con un par de sugerencias para evitar la desaparición del sector primario. En primer lugar, más allá de las ayudas económicas y las subvenciones, se podría plantear la aprobación de un acuerdo marco de precios justos que garantice la competitividad de los productos locales frente a los productos importados. Y en segundo lugar, la realización de programas de educación alimentaria para establecer conexiones entre las personas y los ciclos naturales de los alimentos y evitar así que se demanden productos fuera de temporada.

The Conversation

Ester Noguer-Juncà no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La gastronomía local fortalece la singularidad de lugares y regiones – https://theconversation.com/la-gastronomia-local-fortalece-la-singularidad-de-lugares-y-regiones-262278

Le Saint-Laurent s’asphyxie : un déséquilibre invisible menace la vie marine et le climat

Source: The Conversation – in French – By Ludovic Pascal, Research associate, Université du Québec à Rimouski (UQAR)

On connaît bien le rôle de l’oxygène (O2) pour la vie sur Terre, mais il est tout aussi essentiel à celle des océans. Dans les eaux profondes du Saint-Laurent, sa raréfaction déclenche une série de réactions, invisibles à l’œil nu, qui modifient la circulation des nutriments, avec des effets potentiels sur la vie marine et sur le climat lui-même.

Dans l’océan, l’azote « fixé », c’est-à-dire sous une forme que les organismes peuvent utiliser, est essentiel à la croissance du phytoplancton, ces organismes marins semblables à des plantes microscopiques. Ces derniers jouent un rôle clé dans la « pompe biologique à CO2 », un processus naturel qui capture du carbone dans l’air et le transporte vers les profondeurs marines.

La figure représente une coupe verticale de l’ocean. A la surface le CO₂ et le N2 diffuse de l’atmosphère vers l’ocean. Le CO₂ est directement utilisé par le phytoplancton alors que le N2 doit passer par une étape dite de fixation avant d’être utilisé
Schéma simplifié représentant le lien entre le cycle de l’azote et du carbone et la probable présence de processus de perte d’azote dans la colonne d’eau.
L. Pascal, CC BY-NC

Mais ce stock d’azote « fixé » peut être réduit lorsque certains microbes le convertissent en diazote (N2), un gaz que la plupart des organismes ne peuvent pas assimiler. On pensait jusqu’à présent que ces réactions de « perte d’azote » ne se déclenchaient que dans des conditions presque totalement dépourvues d’oxygène (moins de 5 micromoles par litre).




À lire aussi :
Les eaux de nos rivières se réchauffent et ce n’est pas sans conséquence pour les poissons


Une découverte qui change la donne

L’étude que nous avons récemment menée remet en question cette idée bien ancrée. Ce phénomène s’inscrit dans un contexte plus large : partout dans le monde, les océans s’appauvrissent en oxygène. Depuis plus d’un demi-siècle, les zones marines pauvres en oxygène s’étendent et leur niveau de désoxygénation s’intensifie. Ces changements résultent en grande partie du réchauffement climatique et des apports excessifs de nutriments, comme l’azote, liés aux activités humaines.

Cette tendance inquiète les scientifiques. Elle menace non seulement la biodiversité marine, mais elle perturbe aussi les grands cycles naturels, comme ceux de l’azote et du carbone, qui régulent le climat de la planète.

Nous avons étudié les eaux profondes de l’estuaire et du golfe du Saint-Laurent, où l’eau est sous-oxygénée, mais non dépourvue d’oxygène. Ces conditions influencent directement la façon dont l’azote est transformé ou perdu dans l’eau. Pour mieux comprendre ces dynamiques, nous avons utilisé des traceurs chimiques, un peu comme des balises invisibles permettant de suivre ces réactions, depuis les zones bien oxygénées du golfe jusqu’à celles où l’oxygène devient plus rare dans l’estuaire.

Nous avons constaté que le stock d’azote utilisable (« fixé », surtout sous forme de nitrates, NO3⁻) diminue et que du N2 est produit dès que l’oxygène descend sous un seuil critique d’environ 58 micromoles par litre. Or, ce seuil est beaucoup plus élevé que ce que l’on pensait nécessaire pour activer les réactions de « perte d’azote ».


Cet article fait partie de notre série Le Saint-Laurent en profondeur

Ne manquez pas les nouveaux articles sur ce fleuve mythique, d’une remarquable beauté. Nos experts se penchent sur sa faune, sa flore, son histoire et les enjeux auxquels il fait face. Cette série vous est proposée par La Conversation.


Mais ce n’est pas tout : sous ce même seuil, nous avons également observé une production de protoxyde d’azote (N2O), un gaz à effet de serre (GES) 300 fois plus puissant que le CO2 en termes de réchauffement global. Or, dans le Saint-Laurent, les eaux profondes remontent naturellement vers la surface près de Tadoussac, poussées par la circulation des masses d’eau de l’estuaire et les marées. Cette remontée d’eaux riche en N2O transforme l’estuaire en une zone potentielle d’émission de GES vers l’atmosphère, montrant clairement le lien entre la désoxygénation des eaux profondes, le cycle de l’azote et le climat.

Où cette production se produit-elle ?

Pour comprendre l’origine de cette production, notre équipe a d’abord examiné les sédiments du fond marin, la zone benthique, un environnement riche en matière organique et quasiment dépourvu en oxygène, où d’importants changements avaient déjà été observés.

Les résultats ont révélé que les sédiments ne racontent pas toute l’histoire : bien que l’azote « fixé » y soit effectivement consommé, cette consommation ne suffit pas à elle seule à expliquer les fortes baisses de concentration d’azote « fixé » observées dans les eaux profondes, ni la production importante de N2 et N2O qui y survient. Il semble donc que ces phénomènes résultent d’une combinaison de processus se déroulant dans la masse d’eau profonde et dans les sédiments.

Carte des sites étudiés dans l’estuaire et le golfe du Saint-Laurent, montrant les concentrations d’oxygène (O₂), de diazote (N₂) et de protoxyde d’azote (N₂O) dans les eaux profondes, du détroit de Cabot (à l’est) jusqu’à Tadoussac (à l’ouest). La ligne rouge marque le seuil d’hypoxie (faible teneur en oxygène). Le N* indique si une masse d’eau contient plus ou moins d’azote que prévu (ligne jaune). La ligne noire montre la zone où commencent les productions de N₂ et de N₂O.
(Fond de carte par Stamen design), CC BY-NC



À lire aussi :
Il faut repenser notre manière d’habiter le fleuve Saint-Laurent


Un déséquilibre qui se propage le long de la chaîne alimentaire ?

Et si le déséquilibre du cycle de l’azote affectait la chaîne alimentaire ? Dans cette même étude, nous avons constaté que la réduction du stock d’azote « fixé » entraînait un déficit de celui-ci par rapport au phosphore disponible (mesuré par l’indice N*).

Même si cela reste à confirmer, ce déséquilibre, combiné à la remontée d’eaux profondes pauvres en azote, mais riches en phosphore vers Tadoussac, pourrait modifier le régime alimentaire du phytoplancton dans les eaux de surface. Or, le phytoplancton est à la base de toute la chaîne alimentaire marine. Un changement dans sa composition pourrait en altérer la qualité nutritive pour le zooplancton, ces minuscules organismes, eux-mêmes mangés par les poissons, maillons essentiels de la chaîne alimentaire.

Selon cette hypothèse, cela pourrait affecter la productivité des pêcheries commerciales et dégrader davantage l’habitat des mammifères marins, comme les baleines et bélugas, déjà vulnérables. Pour les communautés côtières qui dépendent de ses ressources, les conséquences de ces changements écologiques dépasseraient les pertes économiques : elles toucheraient aussi au patrimoine naturel et culturel régional.

Le Saint-Laurent à bout de souffle : des recherches aux solutions

Les eaux profondes du Saint-Laurent sont littéralement « à bout de souffle ». En perdant de l’oxygène, elles déclenchent des réactions biochimiques qui menacent la productivité marine et génèrent des gaz à effet de serre puissants. Face à cette situation, il n’est pas question de tirer des conclusions hâtives. Il devient plutôt nécessaire de renforcer le suivi des conditions chimiques et écologiques dans l’estuaire et le golfe du Saint-Laurent.

Des recherches interdisciplinaires sont indispensables pour mieux comprendre les interactions entre la désoxygénation de l’estuaire et du golfe du Saint-Laurent, les cycles biogéochimiques et les écosystèmes. Par exemple, il demeure primordial de déterminer si le déficit en azote « fixé » influence les communautés de phytoplancton et leur qualité nutritive. Comprendre et suivre ces changements est essentiel, car ils nous rappellent que la santé de nos écosystèmes marins est intimement liée au climat de la planète.

Dans ce contexte, des pistes de solutions commencent à émerger. De récentes études proposent ainsi d’utiliser la transition énergétique pour atténuer les impacts de la désoxygénation des écosystèmes côtiers. Pour l’estuaire et le golfe du Saint-Laurent, certains chercheurs suggèrent d’employer l’oxygène produit lors de la fabrication d’hydrogène vert pour réoxygéner les eaux profondes. Même si les quantités d’oxygène injectées devront être très importantes pour s’assurer de l’oxygénation complète du système, cette approche ouvre des perspectives inédites pour restaurer la santé des milieux côtiers.

Pour être pleinement comprises, ces interventions doivent faire l’objet de recherches interdisciplinaires. Il s’agit non seulement d’évaluer leur faisabilité et leurs impacts écologiques, mais aussi de réfléchir aux enjeux éthiques et sociaux qu’elles soulèvent.

La Conversation Canada

Ludovic Pascal est membre du regroupement inter-institutionnel Québec-Océan et de l’association scientifique Nereis Park. Il a reçu des financements du FRQNT, du réseau de centres d’excellence MEOPAR, du Gouvernement du Québec (Réseau Québec Maritime, MEIE, MELCCFP, MTMD) et du Gouvernement du Canada (CFREF)

Gwénaëlle Chaillou a reçu des financements du Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), des Fonds de Recherche du Québec, des Chaires de Recherche du Canada et du Gouvernement du Québec (Réseau Québec Maritime, MELCCFP, MTMD, MEIE). Elle est la directrice générale du Réseau Québec maritime depuis 2023. Elle est membre de l’ACFAS, de la Geochemical Society et de International Association of Hydrogeologists – Canadian National Committee (IAH-CNC).

ref. Le Saint-Laurent s’asphyxie : un déséquilibre invisible menace la vie marine et le climat – https://theconversation.com/le-saint-laurent-sasphyxie-un-desequilibre-invisible-menace-la-vie-marine-et-le-climat-268062

De Katmandou à Casablanca : la révolte d’une génération sous surveillance

Source: The Conversation – in French – By Amani Braa, Assistant lecturer, Université de Montréal

En 2025, des mobilisations portées par la jeunesse ont éclaté du Maroc au Népal, en passant par Madagascar et l’Europe. Partout, une génération refuse le silence face à la précarité, la corruption et le manque de démocratie.

Nées dans des contextes très différents, ces colères rencontrent pourtant les mêmes réponses : répression, mépris, et suspicion envers une jeunesse jugée irresponsable.

Mobilisation sur plusieurs continents

Au Maroc, le mouvement #Gen212, né sur les réseaux sociaux, dénonce la vie chère, les violences policières, le musellement de la société civile et l’absence de perspectives. Cette mobilisation, d’abord numérique sur des plates-formes telles que Discord, a rapidement débordé les écrans pour s’incarner dans des actions concrètes dans plusieurs villes du pays.

À Madagascar, c’est dans un climat de fortes tensions préélectorales que la jeunesse est descendue dans la rue pour réclamer un véritable changement dès la fin du mois de septembre, avant d’être violemment réprimée. Au Népal, des milliers de jeunes occupent l’espace public, exigeant une démocratie authentique et la fin de la corruption qui mine le pays.

En Europe aussi, la jeunesse se mobilise face aux dérives autoritaires et aux inégalités persistantes. En Italie, en France ou en Espagne, les jeunes descendent dans la rue contre les violences sexistes, les réformes impopulaires, les répressions policières ou encore pour la reconnaissance des droits politiques.

Malgré la diversité des contextes, ces mobilisations traduisent une même volonté : refuser l’injustice et faire entendre des voix trop souvent marginalisées.




À lire aussi :
Comment le drapeau pirate de « One Piece » est devenu l’emblème mondial de la résistance pour la génération Z


Jeunesse immature et irrationnelle, aux yeux des autorités ?

Ces mouvements sont souvent traités comme des élans émotionnels passagers, alors même qu’ils expriment des revendications politiques structurées : plus de justice sociale, de liberté, de sécurité économique, d’accès à la dignité et à la participation.

Pourtant, la réponse des États semble suivre un autre chemin : celui du durcissement. Les jeunes manifestants et manifestantes sont surveillés, arrêtés, stigmatisés, parfois accusés de trahison ou d’être manipulé par des puissances étrangères.

Au Maroc, par exemple, depuis septembre 2025, près de 2500 jeunes ont été poursuivis, dont plus de 400 condamnés — parmi eux 76 mineurs. Les chefs d’accusation incluent la « rébellion en groupe », l’« incitation à commettre des crimes » ou encore la participation à des rassemblements armés. Plus de 60 peines de prison ferme ont été prononcées, certaines allant jusqu’à 15 ans.

Cette judiciarisation massive d’un mouvement pacifique a été dénoncée par Amnesty International, qui pointe un usage excessif de la force et une criminalisation croissante de la protestation.

À Madagascar, la réponse a été tout aussi brutale : au moins 22 morts, plus de 100 blessés et des centaines d’arrestations arbitraires recensées lors des mobilisations de la jeunesse contre la corruption et les irrégularités électorales. Selon les Nations unies, les forces de l’ordre ont eu recours à des balles en caoutchouc et à des gaz lacrymogènes pour disperser les foules. La crise a culminé avec la fuite du président Andry Rajoelina, confirmant que cette répression n’a pas désamorcé le conflit, mais révélé la fragilité des institutions face à une jeunesse politisée.

Un discours qui renvoie à la responsabilité des parents

Les jeunes interpellés lors des récentes mobilisations ont souvent été renvoyés à la responsabilité parentale dans un discours profondément moralisateur. Au Maroc, par exemple, le ministère de l’Intérieur a appelé les parents à surveiller et encadrer leurs enfants. Que ce soit en Indonésie, aux Philippines, au Pérou, ou au Népal, les autorités ont régulièrement appelé les parents à surveiller, encadrer ou retenir leurs enfants, déplaçant ainsi le conflit politique vers la sphère familiale.

Ce mouvement illustre ce que la chercheuse Fatima Ahdash nomme la « familialisation » du politique : au lieu de traiter les causes sociales, économiques et idéologiques des mobilisations, les gouvernements dépolitisent, individualisent et privatisent les contestations en en faisant un problème d’éducation domestique. Les familles deviennent alors le prisme par lequel les conduites politiques des jeunes sont interprétées, évaluées, et parfois sanctionnées.

Ce réflexe répressif n’est pas nouveau, mais il prend aujourd’hui une ampleur inédite dans un contexte global de fragilisation démocratique et de recentrage autoritaire du pouvoir, marqué par la restriction des libertés, le contrôle de la contestation et la criminalisation des mouvements sociaux. Les États adoptent une posture défensive, percevant l’engagement de la jeunesse non comme une ressource civique, mais comme une menace à neutraliser. Ce durcissement révèle un malaise plus profond : une génération qui refuse de se satisfaire de promesses creuses et de compromis imposés, face à des pouvoirs qui peinent à reconnaître la légitimité de sa colère et de ses aspirations.

Des réflexes répressifs pour faire taire la critique

La répression, en réponse à la critique, devient alors une manière d’éviter la remise en question. Mais cette stratégie est de plus en plus fragile. D’abord parce qu’elle nie la légitimité des colères exprimées. Ensuite, parce qu’elle ignore une réalité de fond : ces colères sont ancrées dans des expériences collectives de déclassement, de discrimination, d’impuissance politique. Ce ne sont pas des colères vides. Elles expriment une demande de transformation — sociale, politique, environnementale — que les institutions peinent à saisir.

Contrairement aux mobilisations comme les « printemps arabes » de 2011, les mobilisations actuelles portées par la génération Z sont horizontales, sans leaders identifiables, décentralisées et ancrées dans l’urgence du présent. Elles naissent sur les réseaux, s’organisent en micro-cellules autonomes, rejettent les récits idéologiques structurants, et privilégient une politique du quotidien : refus de la précarité, dignité immédiate, justice concrète. Leur esthétique est fluide, empruntant aux codes numériques — memes, mangas, remix visuels — et leurs formes circulent par affinités d’émotions plus que par imitation. Ce qui les rend insaisissables pour les pouvoirs, mais puissamment virales.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Ces mobilisations activent des émotions politiques (la colère, mais aussi l’espoir), des langages nouveaux, des pratiques numériques, et des formes d’engagement souvent en dehors des partis traditionnels. Un élément visuel fédérateur revient sans cesse : le drapeau noir à tête de mort coiffée d’un chapeau de paille, symbole tiré du manga One Piece. Plus qu’un clin d’œil à la pop culture, ce Jolly Roger incarne une soif de justice, de liberté et de révolte partagée par une jeunesse globalisée, de Katmandou à Rome.

En Serbie, par exemple, début 2025, un soulèvement étudiant sans leader visible a rassemblé des milliers de personnes autour d’un mot d’ordre simple : plus de démocratie. Le mouvement s’est étendu à d’autres générations, sans parti ni hiérarchie, défiant un gouvernement qui a tenté d’étouffer la contestation par la force et la stigmatisation. De leur côté, les jeunes de Cuba Decide mobilisent sur les plates-formes numériques pour exiger un référendum démocratique, malgré une surveillance constante. Grâce à des outils chiffrés et des alliances à l’étranger, ils déjouent la censure et amplifient leurs voix au-delà des frontières.

La criminalisation de la jeunesse et des mobilisations peut certes ralentir les élans, mais elle ne résout rien. Elle dégrade le contrat social, alimente le désenchantement politique, et renforce la polarisation. Plus encore, elle risque de transformer des revendications réformistes en posture de rupture.

Les mobilisations récentes nous rappellent une évidence : les jeunes ne sont pas « l’avenir », mais des acteurs politiques du présent. Et ce que les gouvernements devraient entendre, ce n’est pas seulement le bruit de la contestation, mais la clarté des demandes : justice, dignité, représentativité, avenir.

La Conversation Canada

Amani Braa a reçu des financements des Fonds de Recherche du Québec – Sociétés et Culture (FRQ-SC).

ref. De Katmandou à Casablanca : la révolte d’une génération sous surveillance – https://theconversation.com/de-katmandou-a-casablanca-la-revolte-dune-generation-sous-surveillance-268837

La vitamina D podría ser una clave para acabar con los miomas uterinos

Source: The Conversation – (in Spanish) – By Ana Corachán García, Investigadora Postdoctoral en Medicina Reproductiva, Instituto de Investigación Sanitaria La Fe

Una de cada tres mujeres en edad reproductiva presenta miomas uterinos, unos tumores que crecen en la capa muscular del útero. A pesar de ser benignos, causan síntomas que afectan notablemente a la calidad de vida. En concreto, las personas afectadas experimentan reglas abundantes y dolorosas, anemia, dolor en la parte baja del abdomen, incontinencia urinaria, infertilidad y aborto recurrente.

Aunque existen distintos tratamientos, como terapias hormonales y procedimientos quirúrgicos, no hay ninguno totalmente eficaz ni sin efectos secundarios. Pero ¿y si algo tan sencillo e inocuo como la vitamina D fuera la solución? Veamos primero cómo se aborda actualmente este extendido problema.

Los límites de los tratamientos

El tratamiento más habitual es la cirugía. Existen dos opciones: la eliminación solo de los miomas, conocida como miomectomía, o la extirpación del útero completo, lo que se conoce como histerectomía. Este último es el único método capaz de eliminarlos por completo, pero también impide que las pacientes puedan quedarse embarazadas en el futuro.

En cuanto a la miomectomía, más de la mitad de las mujeres vuelve a presentar miomas en los cinco años posteriores a la cirugía. Por tanto, a pesar de ser un tratamiento muy invasivo, no es efectivo. Además, estas intervenciones suponen un alto coste a los sistemas de sanidad: el gasto anual estimado es de 34 000 millones de dólares en Estados Unidos, 348 millones de euros en Alemania y 120 millones en Francia.

Como alternativa, existe la opción de los medicamentos. Para comprender cómo funcionan, debemos tener en cuenta que son las hormonas sexuales, los estrógenos y la progesterona, los que controlan el crecimiento de los miomas. Basándose en esto, los fármacos bloquean la acción de dichas hormonas.

Ahora bien, las hormonas sexuales tienen un papel clave en la reproducción femenina. Esto quiere decir que los medicamentos que las bloquean producen síntomas similares a la menopausia como sofocos, osteoporosis e infertilidad. Por este motivo, no pueden administrase durante periodos largos, lo cual conlleva que los miomas vuelvan a crecer cuando se deja el tratamiento. Además, al causar infertilidad, tampoco son una opción en mujeres que quieran quedarse embarazadas.

Siguiendo la pista de la vitamina D

En la búsqueda de alternativas terapéuticas llamó la atención uno de los factores de riesgo: las mujeres con miomas presentan niveles de vitamina D más bajos que las mujeres sin miomas. Entonces, ¿podría este compuesto frenar su desarrollo? Es la misma pregunta que se hizo la comunidad científica, y comenzó a investigar en profundidad.

Pero en primer lugar, ¿qué es la vitamina D? Conocida como “la vitamina del sol”, ya que la mayor parte se produce naturalmente en la piel con la exposición a la luz solar, se trata de un nutriente esencial para que el cuerpo humano funcione correctamente. Su cometido principal reside en ayudar al organismo a absorber el calcio, un proceso necesario para tener huesos fuertes y sanos.




Leer más:
Mitos y realidades sobre la vitamina D: ¿estamos abusando de los complementos?


Aunque eso no es todo. También resulta indispensable para el adecuado funcionamiento del sistema inmunitario, muscular y nervioso. De hecho, los niveles bajos de vitamina D se relacionan con multitud de enfermedades.

Experimentos prometedores

Para averiguar si la vitamina D puede ser un tratamiento viable de los miomas, el primer paso fue estudiar su efecto en el laboratorio. Los primeros experimentos demostraron que frenaba el crecimiento de las células de mioma cultivadas in vitro. Después, se confirmó que reducía el tamaño de estos tumores en un modelo animal de ratón, sin efectos secundarios sobre su salud.

Esos resultados sentaron las bases para evaluar el tratamiento en mujeres con miomas y déficit de vitamina D. En primer lugar, los investigadores comprobaron que cuando las afectadas eran tratadas con dosis altas de esa vitamina, el crecimiento de los miomas se frenaba.

Sin embargo, hay que tener en cuenta que un exceso de vitamina D es malo: puede causar náuseas, vómitos, debilidad o fallo en el funcionamiento de los riñones. Teniendo esto en cuenta, un estudio reciente ha demostrado que dosis bajas de la vitamina reducen también el tamaño de los miomas. Estos confirma que no hace falta usar cantidades tan elevadas para frenar su crecimiento, reduciendo los posibles efectos secundarios de la terapia.

Como hemos comentado, los medicamentos actuales causan infertilidad en las pacientes con miomas, y tal vez se está preguntando si eso también ocurriría con la vitamina D. Pues bien, lo que se sabe hasta la fecha es que no solo no influye negativamente en la fertilidad, sino que incluso puede mejorarla.

Los resultados son esperanzadores, pero hay que tener en cuenta que el efecto de la vitamina D solo se ha probado en mujeres con niveles de este nutriente por debajo de la normalidad. Esto quiere decir que no se sabe si reduciría el tamaño de los miomas en mujeres con niveles normales.

Por último, es importante recordar que el tratamiento siempre debe ser prescrito por personal sanitario cualificado, dado el riesgo de ingerir dosis elevadas de esa vitamina. Además, cada mujer y cada mioma son únicos, por lo que los tratamientos pueden variar de una persona a otra.

En resumen, la vitamina D podría frenar el crecimiento de los miomas o incluso prevenir su aparición. Es un tratamiento seguro, sin efectos negativos sobre la fertilidad y, además, económico. Su uso podría mejorar la calidad de vida de muchas mujeres y reducir los costes para los sistemas de salud públicos. Aunque todavía se necesitan más estudios, parece que podría ser una clave para acabar con los miomas.

The Conversation

Ana Corachán García recibe fondos del Instituto de Salud Carlos III (CD23/00157) y la Conselleria de Educación, Cultura, Universidades y Empleo (Comunidad Valenciana) (CIGE/2023/072).

Hortensia Ferrero recibe fondos del Instituto de Salud Carlos III, Cofundado por el Fondo Social Europeo (FSE) «Invertir en tu futuro» a través del Programa Miguel Servet (CP20/00120); (PI21-00184) y (PI24/00961), así como del Ministerio de ciencia e Innovación y Universidades (CNS2024-154868).

ref. La vitamina D podría ser una clave para acabar con los miomas uterinos – https://theconversation.com/la-vitamina-d-podria-ser-una-clave-para-acabar-con-los-miomas-uterinos-267754

Suplemento cultural: lo de la Rosalía

Source: The Conversation – (in Spanish) – By Claudia Lorenzo Rubiera, Editora de Cultura, The Conversation

Fotograma del videoclip ‘Berghain’ de Rosalía. Rosalía/YouTube

“Lo segundo es chingarte, lo primero es Dios” cantaba Rosalía en “Hentai” hace más de tres años, un tema erótico que levantó ampollas y provocó alabanzas. En esa y otras referencias anteriores ya quedaba claro que para la artista la religión es algo importante en su proceso creativo (y probablemente personal). Por eso, aunque ahora se haya sumado estéticamente a la santidad, la búsqueda espiritual de Rosalía no es frívola y viene de lejos.

Se acaba de publicar LUX, su nuevo álbum, uno de los lanzamientos que más expectación ha causado desde que hace poco más de dos semanas Rosalía lo presentase al mundo en Times Square, Nueva York, y la madrileña plaza de Callao. Después del rugido internacional que fue Motomami, la cantante se ha dedicado a leer, investigar, componer y mezclar idiomas para elaborar una obra majestuosa en la que en vez de mirar hacia fuera ha decidido mirar hacia dentro, inspirándose, entre otras, en místicas cristianas.

Además de la música, Rosalía siempre ha cuidado la precisión de las letras que incluye en sus canciones. Y lo ha hecho sonoramente (en “Chicken Teriyaki” la voz era un instrumento más de percusión) y lingüísticamente (adaptándose al lenguaje del género en el que canta). Pero también lo ha hecho literariamente. Como queda patente ya en su primer single, “Berghain”, todo lo que escribe, cada referencia, cada metáfora, tiene un porqué.

El movimiento MABA

En cambio, hay otras decisiones que se toman y que nadie sabe muy bien de dónde vienen. La afición del presidente estadounidense Donald Trump por reconstruir Washington es una de ellas. Uno de sus empeños en esta segunda legislatura es el de hacer que su país vuelva a ser “bello” (‘Make America Beautiful Again’) y por lo visto se ha encomendado a los romanos para lograrlo, aunque en Estados Unidos no haya ningún tipo de vínculo histórico con esa Antigüedad. Pero, como nunca nos cansamos de decir, cualquier cosa que queramos hacer ya fue barruntada y ejecutada por los romanos… y los poderosos lo saben.

Viajar y dejar huella

Esta semana hice un viaje: con mochila, asiento de avión apretado, horarios justos, tensión a la hora del embarque y todas esas pequeñas rutinas a las que nos hemos acostumbrado en el siglo XXI.

Sin embargo, en el XVII, el príncipe Cosimo III de Medici se movía de otra forma. Así se recorrió la península ibérica con un séquito de veintisiete personas, en el que se encontraban un diplomático, encargado de escribir la crónica de su viaje, y un pintor florentino, que plasmaba, en tinta negra sobre papel, las vistas de los lugares que iban visitando.

Ahora, un equipo de académicos españoles ha iniciado un proyecto de investigación en el que analizarán algunas de las imágenes de ese artista: Pier Maria Baldi. Lo hacen, entre otras cosas, porque esos dibujos, además de dar testimonio de un viaje, desvelan secretos de localizaciones que no han llegado a nuestros días.

La magia del cine

Volvemos al cine (y a la literatura) porque está estrenándose en varios países (con cuentagotas y gran expectación) la nueva adaptación de la novela del argentino Manuel Puig, El beso de la mujer araña. Esta vez el filme adopta el formato musical (porque bebe de la representación que se hizo en Broadway en los 90) y tiene en Jennifer Lopez a su mejor embajadora.

Como hay todavía muchos lugares en los que la fecha de estreno está pendiente, Laura Martínez Català, experta en la figura del autor, nos sumerge en los atractivos de la novela para animar a quien todavía no la haya leído a que no espere más. Y si alguien se pregunta, con cansancio, si estamos ante el enésimo remake hollywoodiense, Martínez Catalá tiene una reflexión: cómo podría dejar de ser revisitado un libro “que quiebra esquemas, desafía discursos intransigentes y nos sacude el alma tan suave como dolorosamente”.

De palabras y signos

Y acabamos como empezamos: hablando de lenguaje (no de Rosalía, aunque el álbum probablemente traiga cola), una facultad humana tan práctica como mágica.

Por ejemplo, leyendo los comentarios de este artículo sobre la diferencia que hay entre los subtítulos y el doblaje de un producto audiovisual aprendí de su autora que leer palabras agresivas o malsonantes nos resulta más violento que escucharlas. Por eso a veces en un idioma no sale escrito exactamente lo que el actor acaba de decir en otro. Esas y muchas otras razones son las que explica Marta González Quevedo a la hora de analizar las diferencias de traducción que existen en las películas y las series.

Otro ejemplo de la maleabilidad del lenguaje lo analiza Iván Ramírez Sánchez al explicar cómo el español comienza a beber de los términos utilizados en el mundo de los videojuegos, un “idioma” que provoca la creación de verbos tan desconocidos para mí como ‘farmear’, ‘kitear’ o ‘mainear’.

Y por último, uno de mis artículos favoritos de todos los tiempos: ¿por qué usamos metáforas espaciales cuando queremos hablar del paso del tiempo?

The Conversation

ref. Suplemento cultural: lo de la Rosalía – https://theconversation.com/suplemento-cultural-lo-de-la-rosalia-269021

Por qué perdimos el hábito dormir en dos turnos y cómo modificó nuestra percepción del tiempo

Source: The Conversation – (in Spanish) – By Darren Rhodes, Lecturer in Cognitive Psychology and Environmental Temporal Cognition Lab Director, Keele University, Keele University

Albert Joseph Moore/Shutterstock

El sueño continuo es un hábito moderno, no un fruto natural de nuestra evolución. Y eso ayuda a explicar por qué muchos de nosotros seguimos despertándonos a las 3 de la madrugada y nos preguntamos si algo va mal. Puede ser útil saber que se trata de una experiencia profundamente humana.

Durante la mayor parte de la historia de la humanidad, dormir ocho horas seguidas no era lo habitual. En cambio, la gente solía descansar en dos turnos cada noche, a menudo denominados “primer sueño” y “segundo sueño”. Cada uno de estos periodos duraba varias horas, separadas por un intervalo de vigilia de una hora o más en mitad de la noche. Los registros históricos de Europa, África, Asia y otros lugares describen cómo, al caer la noche, las familias se acostaban temprano y luego se despertaban alrededor de la medianoche durante un rato antes de volver a dormir hasta el amanecer.

Dividir la noche en dos partes probablemente cambió la percepción del tiempo. El intervalo de silencio daba a las noches un punto medio claro, lo que puede hacer que las largas tardes de invierno parezcan menos continuas y sean más fáciles de soportar.

El intervalo de medianoche no era tiempo muerto, sino tiempo consciente, que determinaba cómo se experimentan las largas noches. Algunas personas se levantaban para ocuparse de tareas como avivar el fuego o cuidar de los animales. Otras se quedaban en la cama para rezar o reflexionar sobre los sueños que acababan de tener. Las cartas y los diarios de la época preindustrial mencionan que la gente aprovechaba las horas de tranquilidad para leer, escribir o incluso socializar tranquilamente con la familia o los vecinos. Y muchas parejas aprovechaban este despertar de medianoche para tener relaciones íntimas.

La literatura de épocas tan lejanas como la de Homero y Virgilio contiene referencias a una “hora que pone fin al primer sueño”, lo cual indica lo habitual que era la noche de dos turnos.

Cómo perdimos el “segundo sueño”

La desaparición del segundo sueño se produjo a lo largo de los dos últimos siglos debido a profundos cambios sociales. La iluminación artificial es uno de ellos. En los siglos XVIII y XIX, las lámparas de aceite, la iluminación de gas y, finalmente, la luz eléctrica comenzaron a convertir la noche en un tiempo de vigilia más aprovechable. En lugar de acostarse poco después de la puesta del sol, la gente empezó a quedarse despierta hasta más tarde bajo la luz de las lámparas.

Desde el punto de vista biológico, la luz brillante por la noche también modificó nuestros relojes internos (nuestro ritmo circadiano) e hizo que nuestros cuerpos fueran menos propensos a despertarse después de unas pocas horas de sueño. El momento en que se expone a la luz es importante. La luz normal de una habitación antes de acostarse suprime y retrasa la melatonina, lo que a su vez retarda la llegada del sueño.

La Revolución Industrial transformó no solo la forma de trabajar de las personas, sino también la forma de dormir. Los horarios de las fábricas fomentaban un único bloque de descanso. A principios del siglo XX, la idea de ocho horas ininterrumpidas había sustituido al ritmo centenario de dos periodos de sueño.

En estudios del sueño de varias semanas de duración que simulan las largas noches de invierno en la oscuridad y prescinden de los relojes o la luz del atardecer, las personas que participan suelen acabar adoptando dos periodos de sueño con un intervalo de vigilia tranquilo. Un estudio de 2017 sobre una comunidad agrícola de Madagascar sin electricidad descubrió que la mayoría de las personas seguían durmiendo en dos segmentos, levantándose alrededor de la medianoche.

Mujer durmiendo en un sofá con un vestido de seda.
¿Soñando con un segundo sueño?
John Singer Sargent/Shutterstock

Inviernos largos y oscuros

La luz regula nuestro reloj interno e influye en la rapidez con la que percibimos el paso del tiempo. Cuando esas señales se desvanecen, como en invierno o bajo la luz artificial, nos desorientamos.

En invierno, la luz matutina más tardía y más débil dificulta la sincronización circadiana. Esa luz de la mañana es especialmente importante para regular los ritmos circadianos porque contiene una mayor cantidad de luz azul, que es la longitud de onda más eficaz para estimular la producción de cortisol por parte del cuerpo y suprimir la melatonina.

En laboratorios de aislamiento temporal e investigaciones en cuevas, las personas estudiadas han vivido durante semanas sin luz natural ni relojes, o incluso en oscuridad constante. Pues bien, muchos individuos contaron mal el paso de los días, lo que demuestra lo fácil que es perder la noción del tiempo sin señales luminosas.

Distorsiones similares se producen en el invierno polar, donde la ausencia de amaneceres y atardeceres puede hacer que el tiempo parezca suspendido. Las personas nativas de latitudes altas y los residentes de larga duración con rutinas estables suelen adaptarse mejor a los ciclos de luz polares que los visitantes de corta duración, pero esto varía según la población y el contexto. Los residentes se adaptan mejor cuando su comunidad comparte un horario diario regular, por ejemplo. Y un estudio de 1993 sobre la población islandesa y sus descendientes que emigraron a Canadá reveló que estas personas presentaban índices inusualmente bajos de trastorno afectivo estacional en invierno. El estudio sugirió que la genética podría ayudar a esta población a lidiar con el largo invierno ártico.

Las investigaciones del Laboratorio de Cognición Temporal Ambiental de la Universidad de Keele (Inglaterra), del que soy director, muestran lo fuerte que es este vínculo entre la luz, el estado de ánimo y la percepción del tiempo. En una realidad virtual de 360 grados, los participantes vieron seis clips con escenas del Reino Unido y Suecia de unos dos minutos de duración. Estos voluntarios consideraron que las grabaciones duraban más en las escenas nocturnas o con poca luz que en las escenas diurnas o con más luz. El efecto fue más pronunciado en los participantes que declararon tener un estado de ánimo bajo.

Una nueva perspectiva sobre el insomnio

Los médicos especialistas en sueño señalan que los despertares breves son normales y suelen producirse en las transiciones entre fases, incluida la fase cercana al sueño REM, que se asocia con sueños vívidos. Lo importante es cómo respondemos.

La percepción de la duración en el cerebro es elástica: la ansiedad, el aburrimiento o la escasez de luz tienden a alargar el tiempo, mientras que el compromiso y la calma pueden comprimirlo. Sin ese intermedio en el que antiguamente nos levantábamos y hacíamos algo o charlábamos con nuestra pareja, despertarse a las 3 de la madrugada a menudo hace que el tiempo discurra con lentitud. En este contexto, la atención se centra en el paso del tiempo y los minutos que pasan pueden parecer más largos.

La terapia cognitivo-conductual para el insomnio (TCC-I) aconseja a las personas que se levanten de la cama después de unos 20 minutos tras despertarse, realicen una actividad tranquila con luz tenue, como leer, y luego vuelvan cuando tengan sueño.

Los expertos en sueño también sugieren tapar el reloj y dejar de medir el tiempo cuando se tiene dificultad para dormir. Aceptar con calma el estado de vigilia, junto con la comprensión de cómo nuestra mente percibe el tiempo, puede ser la forma más segura de volver a descansar.

The Conversation

Darren Rhodes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué perdimos el hábito dormir en dos turnos y cómo modificó nuestra percepción del tiempo – https://theconversation.com/por-que-perdimos-el-habito-dormir-en-dos-turnos-y-como-modifico-nuestra-percepcion-del-tiempo-269513