Por qué perdura la corrupción: vigilar y castigar no basta

Source: The Conversation – (in Spanish) – By Alejandro Hortal, Visiting assistant professor, Wake Forest University; University of North Carolina – Greensboro

PeopleImages.com/Shutterstock

Los casos de corrupción se suceden con una regularidad casi previsible. Cambian los nombres, pero no la lógica que los sostiene. A menudo se presentan como simples episodios de avaricia o fallos éticos individuales. Sin embargo, esta explicación es incompleta si no tenemos en cuenta los contextos institucionales que facilitan estas conductas. La corrupción adopta múltiples formas, erosiona la confianza en las instituciones, influye en la desigualdad y obstaculiza el desarrollo social.

Durante mucho tiempo, la corrupción se ha explicado como un problema de control (modelo principal–agente). Los ciudadanos o el Estado delegan poder en funcionarios o políticos, que pueden aprovecharse de esa posición. La solución, según este enfoque, consiste en controlar y sancionar con mayor dureza.

Esta explicación no basta para entender por qué la corrupción persiste y se normaliza, incluso cuando no responde a necesidades económicas. El modelo asume decisiones racionales e ignora cómo influyen los sesgos, las normas sociales y el contexto institucional. Para entender y reducir la corrupción debemos también atender a lo que se ha venido a llamar la arquitectura de las decisiones: cómo se estructuran y diseñan los entornos e instituciones en los que las personas actúan.

Cómo el entorno moldea nuestras decisiones

La economía de la conducta muestra que nuestras decisiones están influidas por la complejidad del entorno, sesgos cognitivos y por limitaciones de atención y memoria. En muchas situaciones no decidimos tras un análisis cuidadoso, sino mediante atajos mentales propios de una racionalidad acotada. El entorno y la forma en que se presentan las opciones influyen de manera decisiva.

Desde esta perspectiva, las conductas corruptas no son solo inmorales y están relacionadas con la avaricia, sino que también pueden aparecer cuando los incentivos, las normas sociales y el diseño de los procedimientos las facilitan. Esto no significa que no haya responsabilidad moral o legal, sino que es importante reconocer que existen entornos que hacen que comportarse de forma indebida resulte más fácil, más tentador o incluso esperable.

Cuando la corrupción se vuelve normal

Muchos estudios muestran que tendemos a imitar lo que hacen los demás. Cuando la corrupción parece habitual, aumenta la disposición a aceptarla. Si “todo el mundo lo hace”, nadie quiere ser el tonto honesto que se queda fuera. Así se crea una trampa social que se reproduce y se normaliza.

Además, vigilar y castigar no siempre reduce la corrupción y, en algunos contextos, puede incluso incrementarla al transformar la decisión en un cálculo estratégico de riesgos. Cuando las personas saben que existen inspecciones o castigos, pueden dejar de evaluar la conducta en términos morales y pasar a hacerlo en términos de un juego probabilístico: “¿me descubrirán o no?”.

En la corrupción política, las respuestas habituales suelen fallar. Más castigo penal llega tarde, más leyes no resuelven el problema y apelar a la ética individual no basta si el sistema empuja en la dirección contraria. Por eso, las soluciones más prometedoras pasan por reducir la discrecionalidad, aumentar la trazabilidad y rediseñar los procesos de decisión para que la corrupción sea más difícil, más visible y más costosa.

Además, es crucial evitar que la corrupción se perciba como algo habitual, ya que, como hemos visto, cuando se ve como frecuente aumenta la probabilidad de que ocurra.

Cambiar el contexto para cambiar conductas

Para explicar por qué el contexto importa, el economista y politólogo estadounidense Herbert Simon recurrió a la imagen de una hormiga en la playa. Si miramos solo a la hormiga, no entendemos su comportamiento. Para comprenderlo, debemos observar la playa, los montículos de arena y los obstáculos que debe sortear. Del mismo modo, nuestras decisiones solo se entienden si atendemos al entorno en el que actuamos. Como diría Simon, nuestras decisiones se parecen a unas tijeras, cuyas hojas inseparables son nuestras capacidades y el entorno.

Como las reformas legales y los controles no han logrado reducir de forma sostenida la corrupción, resulta clave rediseñar los contextos de decisión. Esto incluye medidas organizativas –como la rotación de personal, la reducción de intermediarios o la limitación de interacciones discrecionales– y el uso de políticas públicas conductuales como nudges: pequeños cambios en los procedimientos que aumentan la transparencia, introducen fricciones al comportamiento corrupto y facilitan denunciar y actuar de forma honesta.

Algunos ejemplos ilustran este enfoque:

  • Argentina: los pagos vinculados a programas sociales y ayudas se han digitalizado mediante plataformas como Mercado Pago, reduciendo el uso de efectivo y aumentando la capacidad de seguimiento, lo que limita oportunidades de corrupción.

  • Chile: la plataforma ChileCompra estandarizó y transparentó la contratación pública, limitando la discrecionalidad administrativa.

  • Nigeria: estudios sobre contratación pública digital (e-procurement) muestran que estos sistemas reducen la discrecionalidad y el contacto directo entre funcionarios y proveedores, lo que dificulta prácticas corruptas.

No se trata de sustituir a las leyes, sino de reforzarlas modificando los contextos en los que se toman las decisiones. Si queremos dejar de sorprendernos ante cada nuevo escándalo, quizá convenga mirar menos a las “manzanas podridas” y más al cesto que las contiene: combatir la corrupción exige repensar el diseño de nuestras instituciones y los comportamientos que estas facilitan.

The Conversation

Alejandro Hortal no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué perdura la corrupción: vigilar y castigar no basta – https://theconversation.com/por-que-perdura-la-corrupcion-vigilar-y-castigar-no-basta-273642

¿Puede una máquina oler alimentos en mal estado antes que nosotros?

Source: The Conversation – (in Spanish) – By Ekaitz Esteban Echeverria, Coordinador de Ciencia y Tecnología en Basque Culinary Center, especializado en análisis de datos, Mondragon Unibertsitatea

Nicoleta Ionescu/Shuterstock

Abrimos el frigorífico y dudamos. Un yogur a punto de caducar, un pescado comprado hace dos días, restos de comida conservados desde hace tiempo. Acercamos la nariz, inhalamos y tomamos una decisión: se come o se tira.

Esa misma lógica se aplica en una cocina profesional, en un restaurante o en la recepción de materias primas de una empresa alimentaria. Confiamos en el olfato como primera línea de defensa frente a los alimentos en mal estado. Pero ¿hasta qué punto es fiable?

El olfato humano es una herramienta poderosa, pero también sorprendentemente frágil. Se adapta rápido, se fatiga con facilidad y está condicionado por la experiencia, las expectativas o, incluso, el contexto.

La ciencia lleva años estudiando estas limitaciones y buscando formas de complementarlas, especialmente, en ámbitos donde una decisión errónea puede tener consecuencias económicas o sanitarias. En ese cruce entre sentidos y tecnología, aparece una propuesta tan sugerente como poco conocida: la nariz electrónica.

Señales de alarma

El deterioro de un alimento no ocurre en silencio. A medida que avanza la actividad microbiana, se liberan compuestos volátiles responsables de olores característicos. En pescado, carne u otros productos frescos, aparecen compuestos orgánicos derivados del amoniaco conocidos como aminas, como la putrescina o la cadaverina, estrechamente asociadas a procesos de descomposición. Nuestro cerebro aprende a reconocer estos olores como señales de alarma.

El problema es que no todos los percibimos igual. El umbral olfativo varía enormemente entre personas y puede verse alterado por la habituación, el cansancio o la exposición continuada. Lo que para alguien “huele raro”, para otra persona puede pasar desapercibido. En casa esto suele traducirse en desperdicio alimentario o en decisiones tomadas con cierta inseguridad. En restauración o en cocinas profesionales, el impacto puede ser mayor.

Oler es también una ciencia

En gastronomía y restauración organizada, el olfato sigue siendo una herramienta clave. Cocineros, jefes de partida o responsables de calidad utilizan sus sentidos para evaluar ingredientes y platos. Sin embargo, incluso los profesionales más experimentados están sujetos a la fatiga sensorial y a la subjetividad. Por eso, el análisis sensorial científico nació como una forma de entrenar y estructurar esa percepción.

Aun así, mantener paneles sensoriales entrenados no siempre es viable, sobre todo, para evaluaciones rápidas o repetitivas. De hecho, en muchos contextos, el análisis sensorial se acompaña de técnicas instrumentales que aportan objetividad y reproducibilidad. Es en este punto donde la tecnología empieza a “oler” con nosotros.

¿Qué es una nariz electrónica?

El término puede parecer ciencia ficción, pero la idea lleva más de cuatro décadas desarrollándose. Estos dispositivos nacieron con el objetivo de imitar el sistema olfativo de los mamíferos: detectar mezclas complejas de compuestos volátiles y reconocer patrones asociados a distintos olores.

Una nariz electrónica combina varios sensores químicos con sistemas de análisis de datos. Cada olor genera una respuesta específica en el conjunto de sensores, una especie de huella olfativa. Mediante algoritmos de reconocimiento de patrones y aprendizaje automático, el sistema puede aprender a identificar olores concretos tras un periodo de entrenamiento.

A diferencia de técnicas analíticas clásicas como la cromatografía de gases, que separa e identifica individualmente los compuestos volátiles de un alimento, muchas narices electrónicas trabajan con la señal global del olor. Cuando los sensores se exponen a una mezcla de compuestos, su respuesta cambia a lo largo del tiempo.

La forma de esa señal, cómo aumenta, se estabiliza o disminuye, contiene información suficiente para distinguir un olor de otro. Es este patrón temporal, más que la identificación química exacta de cada molécula, lo que permite reconocer estados de frescura o deterioro sin necesidad de equipos de laboratorio complejos.

Izquierda: Análisis del estado de descomposición de un alimento en la sala de análisis sensorial del Basque Culinary Center mediante una nariz electrónica (Smell Inspector). Derecha: Gráficos temporales que evidencian dos rampas de detección distintas asociadas a cadaverina y putrescina, reflejando diferentes tiempos de respuesta. El eje vertical indica un índice de detección de aromas.
Basque Culinary Center.

De la cocina profesional al frigorífico de casa

En los últimos años, estas tecnologías se han aplicado, sobre todo, en el control de calidad de alimentos como carne o pescado, donde permiten detectar cambios asociados al deterioro antes de que sean evidentes para el consumidor. Sensores basados en nanotubos de carbono, por ejemplo, reaccionan ante compuestos volátiles y generan señales que pueden interpretarse en tiempo real.

Pero su potencial va más allá de la industria. En restauración organizada, una nariz electrónica podría servir como apoyo en la recepción de materias primas, ayudando a estandarizar decisiones y reducir la dependencia exclusiva del olfato humano.

En un futuro no tan lejano, no es descabellado imaginar versiones simplificadas integradas en cámaras frigoríficas o sistemas domésticos, para que alerten de olores anómalos antes de que abramos la puerta.

Tecnología como aliada de los sentidos

Cada vez que olemos un alimento, estamos tomando una decisión basada en una señal invisible. Entender que el olor es información que puede medirse y analizarse cambia nuestra forma de relacionarnos con la comida. Enseñar a una máquina a oler no es quitarle protagonismo a los sentidos humanos, sino reforzarlos. Ya sea en una gran industria, en una cocina profesional o frente al frigorífico de casa, el futuro de la seguridad alimentaria también pasa por aprender a oler mejor.

Conviene insistir en una idea clave: estas herramientas no están pensadas para sustituir a las personas. El olfato humano sigue siendo insustituible en términos de percepción global y contexto.

Sin embargo, la nariz electrónica ofrece algo que nuestros sentidos no pueden garantizar: consistencia, repetibilidad y ausencia de fatiga.

Aun así, a día de hoy, siguen existiendo retos técnicos importantes, como la interferencia entre compuestos o la sensibilidad en entornos abiertos. Mientras, la evidencia científica muestra que estas tecnologías avanzan rápidamente y que su integración en sistemas de calidad y seguridad alimentaria es cada vez más realista.

Todo ello está impulsando la necesidad de nuevos perfiles capaces de interpretar datos sensoriales, entender la percepción humana y dialogar con la tecnología. La formación en análisis sensorial ya no es solo una especialización técnica, sino un puente entre ciencia, gastronomía y toma de decisiones en contextos reales.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Puede una máquina oler alimentos en mal estado antes que nosotros? – https://theconversation.com/puede-una-maquina-oler-alimentos-en-mal-estado-antes-que-nosotros-273830

¿La inteligencia artificial tiene género?

Source: The Conversation – (in Spanish) – By Nàdia Alonso López, Profesora e investigadora. Departamento de Comunicación Audiovisual, Documentación e Historia del Arte, Universitat Politècnica de València

La inteligencia artificial (IA) suele presentarse como objetiva: datos, estadística y predicción. Sin embargo, su mirada nace del mundo humano y eso incluye desigualdades de género.

La brecha comienza antes del código

En España, las mujeres son mayoría en la universidad (57 % en grado y máster), pero su presencia cae en las áreas STEM más tecnológicas: 28,1 % en Ingeniería y Arquitectura y 17,2 % en Informática. En doctorado, el descenso continúa, en línea con la “tubería que pierde talento” descrita en el informe Científicas en Cifras (2025). Esto conecta con los datos nacionales de brecha digital de género correspondientes al año 2025, que concentran el desequilibrio precisamente en las áreas de Informática e Ingeniería.

El hombre como patrón científico

En biomedicina, el análisis de centenares de ensayos médicos ha demostrado que aproximadamente dos tercios no informan sobre resultados diferenciados por sexo ni justifican por qué no lo hacen. Un caso paradigmático es el del fármaco hipnótico zolpidem (Ambien): durante años, se comercializó con una posología única, hasta que en 2013 se recomendó reducirla a la mitad para las mujeres, al descubrirse un riesgo mucho mayor de efectos adversos. En el conocido ensayo Invisible Women (2019), la periodista y activista británica Caroline Criado-Perez describe este sesgo farmacológico como una laguna sistémica: la consideración del patrón masculino como “universal” y de lo femenino como una desviación “invisible” en los datos.

La IA puede amplificar lo que ya tiene sesgo

Por supuesto, el fenómeno de los sesgos de género no es nuevo: se repite, con matices, en cada avance científico y tecnológico a lo largo de la historia. La tecnología actual no es una excepción. La IA se ha convertido en una auténtica revolución que, más allá del potencial tecnológico, supone una verdadera fuerza transformadora de la economía y el mercado laboral. En este escenario, un sesgo automatizado no es anecdótico, sino que escala a miles de decisiones.

Las alertas han venido, a menudo, de mujeres expertas. La socióloga estadounidense Safiya Umoja Noble mostró cómo buscadores aparentemente neutrales pueden producir resultados profundamente racistas y sexistas. La experta en computación etíope Timnit Gebru evidenció –junto con Joy Buolamwini– errores graves en reconocimiento facial y advirtió sobre los riesgos de los modelos de lenguaje masivos. Y la científica de datos estadounidense Cathy O’Neil sostiene que muchos modelos actúan como “armas de destrucción matemática”, porque convierten prejuicios en matemáticas operativas.

Por qué el lenguaje importa tanto

Los sesgos en la IA provienen de cuatro fuentes principales: datos de entrenamiento, decisiones de diseño, interacción con usuarios y procesos de alineación con feedback humano. Esto se ha demostrado empíricamente: por ejemplo, en GPT-3 (OpenAI) se comprobó que el término “musulmán” solía aparecer asociado a violencia o terrorismo en un porcentaje muy alto, reflejando patrones del corpus de internet –colección masiva, estructurada y digitalizada de textos, documentos y, a veces, audio, extraídos directamente de la World Wide Web para su uso en análisis lingüístico, lingüística computacional y entrenamiento de IA–.

Ahora bien, si abordamos el vínculo entre IA y lenguaje, es importante subrayar que los sesgos discriminatorios también pueden ser implícitos. Las lenguas no son sexistas por naturaleza, lo que puede ser sexista es la comunicación: las elecciones lingüísticas (conscientes o no) que invisibilizan o rebajan a un grupo.

A veces, incluso sin marcas gramaticales explícitas, existen marcos conceptuales que orientan qué “deducimos” las personas a partir de un discurso. Según este estudio, esta lógica de inferencia es, de hecho, la misma que “aprende” un traductor automático: cuando el sistema debe asignar género en una traducción, puede acabar eligiéndolo a partir de estereotipos sexistas (quién cocina, quién arregla muebles) y no sobre la base de información real.

La conversación también discrimina

Otro punto crítico son los asistentes de voz. La elección recurrente de voces femeninas para tareas de atención consolida el binomio “mujer-cuidadora / hombre-técnico”. Esto podría vincularse a una asignación comercial del género: la IA no tiene sexo, pero se le asigna una personalidad femenina sumisa para encajar con expectativas sociales y maximizar aceptación.

Más mujeres y más conciencia lingüística

A fin de cuentas, la solución no pasa solo por incorporar “más datos”, sino por desarrollar una mirada más diversa y consciente. En términos generales, incluir mujeres y diversidad en los equipos que diseñan y validan sistemas de IA es una condición de calidad científica.

Asimismo, desde la lingüística, es necesario asumir que el lenguaje crea categorías y activa inferencias: si los corpus retratan a la mujer científica como una excepción, el algoritmo lo normalizará. Por eso conviene auditar corpus, prompts y resultados con pruebas específicas de género, así como revisar los valores “por defecto” (voz, roles) y ampliar la pluralidad de perspectivas en el diseño y entrenamiento.


Queremos expresar nuestro agradecimiento a Marcos García Martí por su valiosa ayuda en la localización y selección de las fuentes, así como por sus aportaciones al contenido y a la redacción de este artículo. Su colaboración ha sido esencial para dar coherencia y solidez al trabajo final.


The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿La inteligencia artificial tiene género? – https://theconversation.com/la-inteligencia-artificial-tiene-genero-275484

Feliz cumpleaños, infrarrojos

Source: The Conversation – (in Spanish) – By Antonio Manuel Peña García, Catedrático del Área de Ingeniería Eléctrica, Universidad de Granada

Imagen de un bosque, tomada con una cámara térmica. Wolfgang Hasselmann / Unsplash. , CC BY-NC-SA

Luz y calor son fenómenos relacionados, aunque sus efectos sobre nosotros puedan ser muy diferentes. Ambos son energía en tránsito, pero el principal efecto de la luz es provocar una reacción en nuestra retina que desemboca en la sensación visual, mientras que el calor fluye de un sistema a otro y, con frecuencia, lo asociamos a una diferencia de temperatura. La primera es una radiación electromagnética, como las microondas con las que calentamos los alimentos. La segunda también puede serlo, aunque no siempre. El nexo entre ambos conceptos, como en tantas ocasiones, vino… de las estrellas.

Del cielo a la mesa

William Herschel (1738-1822), astrónomo y músico germano-británico, descubridor del planeta Urano y de otros numerosos objetos celestes.
Lemuel Francis Abbott.

Enumerar las contribuciones del gran astrónomo anglo-alemán William Herschel a la astronomía no es tarea precisamente fácil. Acompañado de su hermana Caroline, Herschel escudriñó los cielos durante décadas con los telescopios que él mismo construía, descubriendo miles de objetos celestes, entre los que destaca el planeta Urano.

Pero hoy no hablaremos de su pericia observando los espacios siderales, sino del día en que midió donde no debía.

El siglo XVIII tocaba a su fin cuando Herschel comenzó a preguntarse por el calor que transporta la luz solar. Para ello, diseñó un experimento en el usaba un prisma para descomponerla, con la intención de medir la temperatura asociada a cada color con termómetros de mercurio.

Dicho y hecho, el 11 de febrero de 1800, hace hoy 226 años, llevaba a cabo las medidas cuando de manera accidental para unos y completamente intencionada para otros, dejó un termómetro más allá del extremo rojo del arcoíris que se había formado sobre su mesa. Lo que ocurrió revolucionó la física y la tecnología desde todas las perspectivas imaginables. Y no era para menos, porque en esa zona sin luz ni color, Herschel observó que la temperara del termómetro subía de manera inexplicable.

¿Cómo podía subir el mercurio sin ninguna luz que lo calentase? Esa subida es lo que, en ciencia, se llama “cambio”. Y nosotros sabemos que la energía es la posibilidad de producir cambios. Herschel también lo sabía: debía estar llegando una radiación solar invisible capad de transportar energía en forma de calor. Así que la bautizó con un nombre poco original: rayos calóricos.

Luz invisible para ver lo que no vemos

Pasados los años y dado que esta misteriosa radiación se situaba por debajo del rojo en el espectro solar, pasó a denominarse “infrarrojo”. Sigue sin ser muy original, pero lo perdonamos por las maravillas que nos enseña gracias a sus peculiares propiedades físicas.

Por ejemplo, todos los cuerpos emiten radiación debido a su temperatura y, en el rango del mundo en que nos movemos, la mayor parte es infrarroja. Es invisible porque no provoca en nuestra retina la reacción que desencadena el proceso visual.

Sin embargo, sabemos construir aparatos que lo detectan y lo “traducen” a luz visible, proporcionando esas bonitas termografías con las que nos divertimos en las exposiciones científicas y cuyas aplicaciones van desde la medicina a la astronomía.

Diferencia entre la luz visible e infrarroja en la Galaxia del Sombrero o Messier 104.
NASA., CC BY

Su papel en la atmósfera y otras aplicaciones

Otra peculiaridad del infrarrojo es que el CO₂ y el vapor de agua lo absorben. Cuando esto ocurre en la atmósfera, parte del infrarrojo que emite la Tierra es capturado por estos gases y radiado otra vez hacia abajo. Es el “efecto invernadero”, que aunque modera de forma natural la temperatura de nuestro planeta, también puede aumentarla en exceso si no controlamos la concentración de estas moléculas.

Al mismo tiempo, el hecho de que sea radiado por la Tierra durante la noche permite que la diferencia de temperatura a lo largo de un día sea tolerable

Además, en astronomía, las imágenes infrarrojas del universo nos informan sobre procesos atómicos que tienen lugares a millones de años luz. Y también es ampliamente utilizado en comunicaciones.

Los materiales con mayor emisividad parecen estar más calientes. En esta imagen térmica, el cilindro cerámico parece estar más frío que su recipiente cúbico (hecho de carburo de silicio), mientras que en realidad tienen la misma temperatura.
Bancquo / Wikimedia Commons., CC BY

Por otro lado, el hecho de que los circuitos eléctricos emitan infrarrojo al calentarse, requiere que los aparatos basados en esa tecnología incorporen sofisticados sistemas de enfriamiento pues de lo contrario su propio infrarrojo interferiría con el que quieren detectar o utilizar. Por cierto, menudos momentos de gloria han dado al cine los sistemas de enfriamiento con nitrógeno líquido, pero ésa es otra historia.

Hoy conmemoramos el día en que aprendimos que existía una radiación maravillosa que acompaña a la luz en su viaje desde el Sol. Una radiación que nos calienta y que, a su vez, emiten nuestros cuerpos. Nos muestra lo que nuestros ojos no pueden ver, la usamos para detectar enfermedades o para comunicarnos, entre otras cosas, y se descubrió… dejando un termómetro encima de una mesa.

The Conversation

Antonio Manuel Peña García no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Feliz cumpleaños, infrarrojos – https://theconversation.com/feliz-cumpleanos-infrarrojos-275481

Así afecta el frío a los ingresos hospitalarios por rotavirus

Source: The Conversation – (in Spanish) – By María Soledad Ascaso Sánchez, Técnico Especializado de Investigación, Instituto de Salud Carlos III

Pixel-Shot/Shutterstock

Las infecciones por rotavirus constituyen la principal causa de enfermedad diarreica aguda grave en lactantes y niños menores de cinco años a nivel mundial, aunque se puede sufrir a cualquier edad y repetidamente a lo largo de la vida. De hecho, estos patógenos son responsables de más de 25 millones de consultas ambulatorias y más de 2 millones de hospitalizaciones cada año.

Los rotavirus son virus ARN de doble cadena clasificados en diferentes grupos. De ellos, los A, B y C pueden producir infecciones en humanos, siendo el grupo A el más frecuente.

En la mayoría de los casos, la enfermedad cursa de forma leve, pero los síntomas como fiebre, vómitos y diarrea pueden desencadenar complicaciones. La deshidratación grave es una de las más relevantes. Esta situación puede evolucionar hacia un cuadro de shock hipovolémico –por pérdida de fluidos corporales– y, en ausencia de intervención médica, incluso la muerte.

Sin embargo, aunque en España se dispone de dos vacunas seguras y efectivas desde 2006, no se incluyeron en el calendario vacunal oficial hasta el 1 de octubre de 2024.

Estacionalidad de las infecciones por rotavirus

Numerosas infecciones virales, incluidas las causadas por rotavirus, se caracterizan por presentar una marcada estacionalidad que refleja la sensibilidad, tanto del virus como del huésped, a las condiciones ambientales.

Concretamente, la infección por rotavirus se manifiesta en niveles endémicos bajos a lo largo del año, interrumpidos por brotes estacionales significativos. En general, se ha reportado una mayor incidencia durante los meses fríos y secos, lo que sugiere que la humedad y la temperatura podrían actuar como moduladores del comportamiento epidémico del virus.

Esto enfatiza el riesgo de las bajas temperaturas durante la estación invernal, cuya mortalidad sigue siendo superior a la estival a pesar del efecto de las olas de calor sobre la salud. Además, la previsión es que siga ocurriendo de este modo en las próximas décadas.

Con el objetivo de analizar y cuantificar cómo el frío y las olas de frío influyen en los ingresos hospitalarios con carácter de urgencia por infecciones por rotavirus, hemos llevado a cabo un estudio –actualmente en proceso de revisión– en la Comunidad de Madrid.

Se registraron un total de 3 831 ingresos hospitalarios urgentes por rotavirus entre los años 2013 y 2018. La distribución temporal de estos ingresos evidenció una clara estacionalidad, con un aumento progresivo de casos a partir del mes de noviembre, alcanzando un pico máximo en marzo, y descendiendo gradualmente hasta el mes de julio.

Días fríos y olas de frío

En epidemiología medioambiental distinguimos los días fríos de los días de ola de frío. Si representamos la mortalidad en función de la temperatura mínima diaria, observaremos curvas que por lo general tienen formas cóncavas, típicamente con forma de U o V. Suele observarse un punto de temperatura donde la mortalidad es mínima (temperatura de mínima mortalidad). De modo que desde esta temperatura tenemos dos ramas ascendentes. Una se corresponde con la mortalidad asociada a las bajas temperaturas, y la otra con la mortalidad vinculada a las temperaturas elevadas.

Se denominan días fríos aquellos cuya temperatura mínima diaria está por debajo de la temperatura de mínima mortalidad. Sin embargo, todos los días fríos no son días de ola de frío. Existe otro umbral de temperatura bajo el cual la mortalidad aumenta de forma brusca. Este segundo umbral es el que define cuándo da comienzo la ola de frío desde una aproximación epidemiológica.

Para el caso de la Comunidad de Madrid en el período estudiado, determinamos que son días fríos aquellos en los que la temperatura mínima diaria desciende por debajo de los 15 ºC. Por otro lado, los días de ola de frío fueron aquellos en los que estas temperaturas bajaban de los 1,9 ºC, siguiendo el umbral establecido por
el plan frente a bajas temperaturas de la Comunidad de Madrid.

Siguiendo estas definiciones, de los 2 191 días que comprendía el periodo de estudio, 1 504 se consideraron días fríos. Durante estos días se contabilizaron 3 831 ingresos hospitalarios urgentes debido a infección por rotavirus. De estos días fríos, 160 fueron además días de ola de frío, sumando 2 507 ingresos, lo que representa aproximadamente el 65 % del total anual.

Por tanto, los resultados del estudio indican, como cabría esperar, que las olas de frío favorecen considerablemente la hospitalización urgente debida a rotavirus. Por cada disminución de un grado Celsius en la temperatura mínima diaria bajo el umbral de ola de frío, y en los meses de invierno, el riesgo de ingreso aumenta en un 20,29 %. En cambio, en los días que son fríos pero más moderados, durante todos los meses del año, por cada grado que la temperatura mínima diaria desciende de los 15 ºC el riesgo de hospitalización crece en un 8,86 %.

La humedad también mostraba relación con el número de hospitalizaciones, en este caso con signo negativo (a menos humedad más ingresos), y con menor impacto que la temperatura mínima diaria.

Una forma de mejorar la prevención

Es fundamental comprender la relación entre la infección por rotavirus y las variables meteorológicas ambientales para poder adecuar la prevención y los recursos necesarios para la prestación de la asistencia sanitaria y, con ello, reducir costes.

Asimismo, conocer el patrón estacional de la infección y sus efectos en la aparición de la enfermedad podría ayudar a desarrollar programas de intervención utilizando las vacunas de forma eficaz y de esta forma, reducir su incidencia en la población.

Seguir investigando y monitoreando los efectos del cambio climático en la salud pública, considerando tanto los riesgos asociados al calor como los del frío extremo, nos ayudan a desarrollar estrategias de prevención y adaptación realmente efectivas para mejorar la salud de la población.

The Conversation

María Soledad Ascaso Sánchez es miembro de sindicato CSIF-ISCIII.

Cristina Linares Gil recibe fondos de Instituto de Salud Carlos III

Julio Díaz recibe fondos del Instituto de Salud Carlos III

José Antonio López Bueno y Miguel Ángel Navas Martín no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Así afecta el frío a los ingresos hospitalarios por rotavirus – https://theconversation.com/asi-afecta-el-frio-a-los-ingresos-hospitalarios-por-rotavirus-275158

Así es el norovirus que ha obligado a posponer un partido de los Juegos Olímpicos de Invierno

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

MikeDotta/Shutterstock

El 5 de febrero, el Comité Olímpico Internacional, el Comité Organizador de los Juegos Olímpicos de Invierno de Milano Cortina 2026 y la Federación Internacional de Hockey sobre Hielo decidieron posponer el partido que enfrentaba a Finlandia y Canadá, actual campeón olímpico, en la competición olímpica de hockey sobre hielo femenino.

La decisión fue tomada tras detectar varios casos de norovirus. Catorce integrantes del equipo finlandés, incluyendo jugadoras y personal técnico, resultaron infectadas o tuvieron que ser aisladas. Simultáneamente, apareció un caso positivo en el equipo de hockey sobre hielo femenino de Suiza, lo que obligó a la jugadora afectada a aislarse en una habitación individual y al resto del grupo a extremar las precauciones, llegando incluso a no estar presentes en el desfile de la ceremonia de apertura.

A pesar de la alarma inicial, el Comité Olímpico Internacional (COI) ha intentado calmar los ánimos y ha declarado que de momento no hay un brote generalizado, sino casos aislados y contenidos en delegaciones específicas.

Un protocolo de respuesta rápida

Para contener un posible brote de norovirus en los Juegos de Milano Cortina 2026 y evitar que afecte a más disciplinas, el Comité Olímpico Internacional (COI) y las delegaciones nacionales han implementado un protocolo de respuesta rápida.

Éste incluye el aislamiento de los deportistas con síntomas, posponer partidos si fuera necesario para permitir que el periodo de incubación y contagio pase sin afectar la integridad de la competición y establecer un sistema de vigilancia activa para cualquier persona que haya compartido transporte o vestuarios con los casos positivos. También se han intensificado las labores de desinfección en la Milano Rho Ice Hockey Arena y en las zonas comunes de las seis Villas Olímpicas, además de instalar puntos adicionales de lavado de manos, reforzar las inspecciones de seguridad alimentaria y evitar el autoservicio en el catering.

La principal causa de gastroenteritis aguda en el mundo

El norovirus es un virus de ARN monocatenario perteneciente a la familia Caliciviridae, y es la principal causa de gastroenteritis aguda (GEA) en el mundo, provocando cerca de 685 millones de casos al año. Globalmente, se estima que ocurren 1,5 millones de muertes por GEA, de las cuales entre 136 000 y 278 000 son debidas al norovirus.

Fue identificado por primera vez en 1968 durante un brote de gastroenteritis aguda en Norwalk (Ohio, EE. UU.), donde se aisló de las heces de pacientes afectados. Por esta circunstancia, en primera instancia recibió el nombre de “virus de Norwalk”.

En la actualidad, se conocen 10 genogrupos y 49 genotipos. La clasificación en genogrupos y genotipos está basada en la diversidad de aminoácidos en dos proteínas, VP1 y ORF1. Las infecciones humanas se deben predominantemente a los genogrupos GI, GII y GIV, siendo el genogrupo GII la causa más común de gastroenteritis.

Mueren más niños y ancianos

Los niños, ancianos y personas inmunocomprometidas son especialmente susceptibles a desarrollar cuadros graves. En países de bajos ingresos, la mortalidad es común en niños debido a la deshidratación. Por el contrario, en países desarrollados, las muertes ocurren principalmente en ancianos.

El norovirus es muy contagioso y se propaga con mucha facilidad y rapidez a través de personas enfermas y alimentos, agua y superficies contaminadas. La infección causa náuseas, dolor abdominal y vómitos y diarrea graves y repentinos.

Por lo general, las personas empiezan a tener síntomas entre 12 y 48 horas después de haber estado expuestas al norovirus. Aunque dichos síntomas suelen durar entre 24 y 48 horas, la debilidad posterior puede afectar seriamente el rendimiento de un atleta de élite.

El norovirus es ampliamente reconocido por su capacidad de provocar brotes rápidos y masivos en lugares cerrados o semicerrados, donde la alta concentración de personas y la convivencia estrecha facilitan la transmisión. Es el caso de hospitales, residencias de ancianos, guarderías, escuelas y, en especial, en cruceros. Y desde luego, una villa olímpica también puede ser un escenario perfecto para que se produzca un brote.

Ya pasó en el Campeonato Mundial de Atletismo de Londres 2017

El brote de norovirus ocurrido durante el Campeonato Mundial de Atletismo de Londres 2017 fue uno de los incidentes sanitarios más mediáticos en la historia reciente del deporte, generando una controversia significativa sobre las medidas de cuarentena. Afectó al rendimiento de varios atletas de élite, como el velocista de Botsuana Isaac Makwala, uno de los favoritos para las medallas en los 200 y 400 metros lisos.

En los Juegos Olímpicos de Invierno de Pyeongchang 2018 también hubo un brote de norovirus, con 261 casos totales confirmados.

El norovirus representa una amenaza para la industria turística porque tiene un impacto desproporcionado debido a la alta visibilidad mediática. Por esa razón, la prevención y el manejo de brotes de gastroenteritis aguda en cruceros siguen estándares y planes de higiene acordados internacionalmente. Entre otras medidas, se realiza un cribado previo al embarque, existe un protocolo de vigilancia una vez a bordo y se aisla a las personas infectadas. La aplicación de medidas de higiene ambiental y la educación de la tripulación y los pasajeros sobre el lavado de manos y la notificación de síntomas también son esenciales. En caso de brote, se cierran los restaurantes de autoservicio.

En el año 2025 fueron confirmados al menos 17 brotes en cruceros.

Sin medicamentos específicos

No hay medicamentos específicos para tratar las infecciones por norovirus. En la mayoría de los casos los síntomas desaparecen por sí solos después de unos días. Sin embargo, es importante mantenerse hidratado para prevenir la deshidratación severa y guardar reposo.

Los casos más graves pueden requerir tratamiento médico para prevenir la deshidratación, especialmente en niños pequeños, ancianos y personas con sistemas inmunológicos debilitados.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Así es el norovirus que ha obligado a posponer un partido de los Juegos Olímpicos de Invierno – https://theconversation.com/asi-es-el-norovirus-que-ha-obligado-a-posponer-un-partido-de-los-juegos-olimpicos-de-invierno-275467

Razones y riesgos de la prohibición de la publicidad política en redes sociales

Source: The Conversation – (in Spanish) – By Francisco Valiente Martínez, profesor de Oratoria y Derecho Constitucional, Universidad Pontificia Comillas

Olemedia/iStock

Desde el pasado mes de octubre, Meta, empresa propietaria de redes sociales como Facebook, Instagram o Threads, y Alphabet, propietaria de Google y YouTube, han implementado restricciones muy significativas a la publicidad pagada sobre temas políticos, electorales y sociales en todo el territorio de la Unión Europea. Se unen así a X, quien ya había venido aplicando estas medidas desde años atrás, cuando aún era Twitter.

Esta decisión es la consecuencia directa de la entrada en vigor del Reglamento (UE) 2024/900 sobre transparencia y segmentación de la publicidad política —también conocido como TTPA, por sus siglas en inglés—, cuyo propósito es lograr la transparencia necesaria para propiciar un debate político y electoral abierto y justo, libre de la manipulación de la información y las injerencias ilícitas que tienen como fin alterar los procesos electorales en el territorio de la Unión.

Depurando responsabilidades

El origen del conflicto se encuentra en el deber de la Unión Europea de velar por la protección integral de sus procesos democráticos, obligación derivada de los artículos 2 y 10 del Tratado de la Unión Europea. Estos procesos se hallan desde hace años expuestos a riesgos significativos de manipulación.

En el corazón del problema están las campañas de desinformación, cuyo modus operandi dependía de la contratación de los servicios de publicidad de las redes sociales con el fin de adulterar el debate público. En este contexto, la mencionada norma obliga a los propietarios de dichas plataformas a asumir una responsabilidad específica en esta materia.

La primera pregunta que habría que hacerse es si existe una amenaza real de que los procesos democráticos se vean adulterados por la desinformación. La respuesta de las autoridades europeas es inequívoca: tal riesgo no sólo existe, sino que ya se ha materializado en procesos como el referéndum del Brexit en 2016 o en las elecciones presidenciales de Rumanía de 2024. Durante los mismos, la microsegmentación algorítmica y el uso masivo de bots publicitarios, entre otras técnicas, permitieron difundir noticias falsas, fomentar discusiones artificiales y desorientar a la opinión pública. Esto nos lleva a las redes sociales, pues fue en estas plataformas donde tales hechos se produjeron de forma generalizada.

Efectos de la microsegmentación algorítmica

Aquí surge la segunda pregunta: ¿qué relación guarda este riesgo con la propaganda política? Si es usted usuario de redes sociales, habrá notado cómo proliferan mensajes publicitarios automáticos, muchos de ellos personalizados gracias a procesos de big data. Estos anuncios son pagados por empresas o entidades, ya sea para aumentar sus ventas o para dar difusión a alguna cuestión.

A nadie escapa que la comunicación política no iba a ser un mercado ajeno a estas técnicas de marketing, pues, por una cantidad relativamente baja, es posible poner en marcha campañas considerablemente efectivas. Esto es lo que preocupa a la Unión Europea, que ahora impone a los propietarios de las redes sociales la obligación de evitar abusos, desinformación, difamaciones y manipulaciones que puedan afectar a la limpieza de los procesos electorales.

La propaganda política como negocio

¿Cuánta publicidad política hay? Según EDMO BELUX 2.0, centro multidisciplinar centrado en combatir la desinformación, durante los meses previos a las elecciones al Parlamento Europeo de 2024, sólo en Meta se publicaron más de 19 000 anuncios de carácter político, que generaron unos ingresos de casi 5,3 millones de euros. Una cantidad que resulta irrisoria comparada con los escalofriantes 164 501 millones de dólares que declaró la compañía en 2024.

Meta y Alphabet consideran que la inversión técnica y administrativa que imponen los estándares exigidos por el nuevo Reglamento —que incluyen la verificación de anunciantes, la revisión humana de contenidos, el registro de bases de datos y la realización de auditorías periódicas— no queda cubierta con los ingresos generados por este tipo de publicidad.

Además, alegan que todas estas medidas no garantizarían evitar elevadas multas si, pese a todo, algún contenido contrario al Reglamento escapase a estos filtros y fuese publicado. Por ello, han tomado una decisión draconiana: prohibir toda publicidad política. Les sale más barato.

Libertad de expresión en juego

Pero esta decisión no es meramente contable. Todo apunta a que estas corporaciones vetarán anuncios procedentes de partidos políticos, candidatos, instituciones públicas, ONG o entidades sociales –incluidas las universidades–, si versa sobre leyes, políticas públicas o abordan con sesgo político temas sensibles como inmigración, educación, minorías, economía, medio ambiente o seguridad. Y todo a juicio de lo que los responsables de estas corporaciones consideren “publicidad política”.

En otras palabras: los usuarios privados podrán seguir publicando sus opiniones si cumplen con las políticas de uso de las plataformas, pero se prohíben expresamente las campañas de publicidad política digital en toda la Unión Europea. Y no solo durante un periodo electoral, sino en general.

Si, para frenar la desinformación, se erradica toda publicidad política en redes sociales, es necesario estudiar esta problemática desde el prisma de los derechos fundamentales, en particular desde la libertad de expresión.

Desde esta perspectiva, surgen otras preguntas: ¿tienen derecho Meta o Alphabet a tomar esta decisión o estamos ante un intolerable ejercicio de censura? Si, como sentenció en 2017 el Tribunal Supremo de Estados Unidos en el caso Packingham v. North Carolina, las redes sociales son “la nueva plaza pública”, ¿puede su legítimo propietario convertirse en un guardia privado con potestades para decidir lo que se puede o no decir en materia política?

¿Abusos de poder?

No debemos olvidar que todo mensaje ilegal siempre estuvo prohibido y que el debate actual es mucho más difuso. En otras palabras, ¿tienen legitimidad las redes sociales para controlar los mensajes políticos de algunos de sus usuarios? La respuesta jurídica quizás cause asombro al lector, pero no debería ser así: a las redes se accede mediante contratos de adhesión, lo que significa que Meta, Alphabet, TikTok o LinkedIN imponen reglas de comportamiento que los usuarios sencillamente aceptamos –las llamadas “condiciones del servicio”–, al crearnos un perfil.

El caso de Meta es paradigmático, pues su cláusula 4.1 dice así: “si no aceptas nuestras condiciones actualizadas […] puedes eliminar tu cuenta en cualquier momento”, lo que significa que Meta no sólo establece las condiciones, sino que se reserva el derecho de modificarlas.

El 1 de julio de 2024, el Tribunal Supremo de Estados Unidos sentenció, al resolver el caso NetChoice, que los propietarios de las redes sociales pueden decidir qué contenido alojar y cómo moderarlo; no tienen un deber de neutralidad, pues lo único constitucionalmente protegido es el acceso a la gran plaza pública. Pero, a este lado del Atlántico, los poderes públicos consideran que un Estado no debe limitarse a no censurar, sino que ha de establecer normas que configuren una opinión pública plural y bien informada.

Ante esta radical decisión de las grandes propietarias de redes sociales, cuesta augurar si la Unión Europea mantendrá el pulso o buscará una solución intermedia. Sea como fuere, el debate sobre el control de la palabra en la era digital está muy lejos de cerrarse.


Una versión de este artículo se publicó en la revista Telos de la Fundación Telefónica.

The Conversation

Francisco Valiente Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Razones y riesgos de la prohibición de la publicidad política en redes sociales – https://theconversation.com/razones-y-riesgos-de-la-prohibicion-de-la-publicidad-politica-en-redes-sociales-275348

La crisis de Groenlandia y el actor olvidado: el pueblo inuit frente a la rivalidad entre Estados

Source: The Conversation – (in Spanish) – By Maria Mut Bosque, Profesora agregada Derecho Internacional y de la Unión Europea, Universitat Internacional de Catalunya

Una joven inuit contempla las aguas del fiordo de Ilulissat, en Groenlandia. Michal Balada/Shutterstock

La denominada “crisis de Groenlandia” de 2025 ha suscitado un debate internacional sin precedentes, impulsado por el renovado interés de la actual administración estadounidense en el territorio.

Si bien las conjeturas oscilan entre una posible presión militar y un acuerdo entre Dinamarca y Estados Unidos, la cuestión concierne fundamentalmente a un pueblo con un derecho reconocido a la autodeterminación.

En consecuencia, es poco probable que los enfoques basados exclusivamente en la coerción o en incentivos económicos resulten eficaces. En este contexto, el poder blando o soft power –tal como fue conceptualizado por Joseph Nye, y entendido como la capacidad de influir mediante la atracción y la persuasión, en lugar de la fuerza o la remuneración– puede constituir el principal modo de interacción para los sujetos implicados, incluidos tanto los Estados como las entidades supranacionales. En consecuencia, el pueblo inuit debería estar preparado para un escenario de este tipo.

Más allá de las especulaciones mediáticas –frecuentemente formuladas en términos de rivalidad o negociación interestatal–, el caso de Groenlandia pone de manifiesto una dinámica característica de la política internacional contemporánea: la proyección de influencia política, económica y estratégica sin recurso a la ocupación militar ni al uso directo de la fuerza.

Sin embargo, este encuadre predominantemente estatocéntrico tiende a invisibilizar al actor central del proceso: Groenlandia y su pueblo, presentando a esye territorio principalmente como un objeto de rivalidad estratégica y no como un actor político y jurídico dotado de capacidad propia de decisión y de legitimidad para determinar su estatus y su futuro colectivo.

El gran peso de los inuit

El pueblo inuit –integrado por los kalaallit (inuit del oeste), los tunumi (inuit del este) y los inughuit (inuit del norte)– constituye aproximadamente el 90 % de la población del territorio, que cuenta con unos 57 000 habitantes distribuidos en más de 2,1 millones de kilómetros cuadrados.

La condición de Groenlandia como territorio indígena del pueblo inuit se encuentra reconocida tanto en el plano interno como en el ámbito internacional. El preámbulo de la Ley de Autogobierno de Groenlandia de 2009 afirma expresamente que “el pueblo de Groenlandia es un pueblo en el sentido del Derecho Internacional con derecho a la libre determinación”, afirmación reforzada en el proyecto de Constitución de 2023, que establece que “los inuit son el pueblo indígena de nuestro país”.

Este reconocimiento se inscribe en un marco jurídico internacional consolidado. El derecho a la libre determinación constituye uno de los principios fundacionales del orden jurídico internacional contemporáneo y está expresamente consagrado en el artículo 1, apartado 2, de la Carta de las Naciones Unidas, que establece como uno de los propósitos de la organización el respeto al principio de igualdad de derechos y de la libre determinación de los pueblos.

Este principio fue desarrollado y precisado en la Resolución 2625 (XXV) de la Asamblea General de las Naciones Unidas de 1970, que afirma el deber de los Estados de respetar la autodeterminación y de abstenerse de acciones dirigidas a menoscabarla.

Este marco general se complementa con la protección específica de los derechos de los pueblos indígenas. Dinamarca ha ratificado el Convenio número 169 de la Organización Internacional del Trabajo (OIT) sobre pueblos indígenas y tribales y votó a favor de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (DNUDPI) cuando fue adoptada en 2007. Aunque la DNUDPI no es jurídicamente vinculante, forma parte del marco de principios políticos que debería tenerse en cuenta en este caso.

Si bien no ha ratificado el Convenio núm. 169, Estados Unidos ha respaldado formalmente los objetivos de la DNUDPI en 2010 y 2014. Además, la Corte Internacional de Justicia ha reconocido el derecho a la autodeterminación como un principio de derecho internacional consuetudinario, reforzando su carácter vinculante con independencia de la ratificación de instrumentos específicos. Adicionalmente, la Corte Internacional de Justicia ha reconocido el derecho a la libre determinación como un principio de derecho internacional consuetudinario, reforzando su carácter vinculante con independencia de la ratificación de instrumentos específicos.

Un pueblo con derecho a la participación efectiva

En este contexto, cualquier iniciativa externa relativa al estatus político, económico o estratégico de Groenlandia no puede evaluarse exclusivamente a la luz del derecho internacional general ni de los equilibrios de poder entre Estados. Resultaría necesario incorporar de forma central los derechos del pueblo inuit como sujeto colectivo de derecho internacional. En particular, su derecho a la participación efectiva y al consentimiento libre, previo e informado, de conformidad con el artículo 19 de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas.

“Libre” excluye la coerción; “previo” exige una participación temprana; e “informado” implica la divulgación plena del alcance, la duración, los riesgos y los impactos de las medidas propuestas, incluida la posibilidad de denegar el consentimiento.

Este requisito se ve reforzado por el reconocimiento de que ni la gobernanza ni la producción de conocimiento son políticamente neutrales: la imposición de estructuras de gobernanza coloniales y de epistemologías occidentales –que presuponen una autoridad estatal exclusiva y una concepción singular de la “verdad”– deslegitima los sistemas indígenas de conocimiento y de gobierno, oscurece sus funciones decisorias y perpetúa patrones asimétricos de integración.

La relevancia jurídica de este marco se intensifica a la luz de la trayectoria histórica de Groenlandia, marcada por un proceso prolongado y desigual de ampliación del autogobierno dentro del Reino de Dinamarca. Dicho proceso no ha estado exento de graves vulneraciones de derechos; principalmente las políticas danesas de control reproductivo aplicadas entre las décadas de 1960 y 1990. Investigaciones recientes han documentado al menos 488 casos de implantación de anticonceptivos sin un consentimiento adecuado, que afectaron a más de 350 mujeres y niñas inuit.

En 2024, aproximadamente 143 mujeres iniciaron acciones judiciales contra el Estado danés, y en 2025 el gobierno de Dinamarca emitió una disculpa oficial. Esta historia resulta central para comprender las sensibilidades contemporáneas en torno a la soberanía, la autonomía y el consentimiento, e informa directamente la legitimidad de cualquier influencia externa actual.

Un precedente particularmente ilustrativo de la capacidad de Groenlandia para afirmar sus propios intereses se encuentra en su relación con las Comunidades Europeas, las organizaciones predecesoras de la UE. Groenlandia pasó a formar parte de las Comunidades en 1973 tras la adhesión de Dinamarca, en un momento de autonomía limitada. Sin embargo, ya en el referéndum de 1972, la mayoría del electorado groenlandés se opuso a la adhesión.

Esta divergencia culminó en el referéndum del 23 de febrero de 1982, en el que Groenlandia optó por retirarse. A petición expresa del territorio, Dinamarca obtuvo modificaciones de los Tratados que permitieron a Groenlandia abandonar la Comunidad a partir del 1 de enero de 1984 y asumir el estatuto de País y Territorio de Ultramar asociado, conforme a la Parte IV del Tratado de Roma. El objetivo principal fue la recuperación del control pleno sobre los recursos pesqueros, en oposición al interés de la Comunidad Europea en mantener el acceso a las cuotas de pesca.

Este episodio confirma que Groenlandia no es una entidad pasiva, sino un sujeto político capaz de articular y defender sus propias prioridades, incluso frente a Estados y organizaciones supranacionales. Al mismo tiempo, pone de relieve cómo los intereses estratégicos, energéticos y de seguridad de actores externos generan incentivos sostenidos para influir en la toma de decisiones groenlandesa mediante medios económicos, diplomáticos o simbólicos.

Sin consentimiento indígena no hay futuro legítimo

Desde esta perspectiva, el derecho internacional ofrece un margen muy limitado para determinar la soberanía o el futuro estratégico de Groenlandia sin la participación y la aprobación del propio pueblo groenlandés.

La autodeterminación indígena no convierte al territorio ártico en jurídicamente inviolable, pero sí hace del consentimiento groenlandés una condición previa necesaria. Ignorar este requisito no solo vulneraría normas fundamentales del orden jurídico internacional, sino que también correría el riesgo de reproducir nuevas formas de colonialismo, imperialismo o paternalismo, incluso cuando se presenten bajo el lenguaje del poder blando, la cooperación o la seguridad.

En última instancia, la crisis de Groenlandia no puede entenderse meramente como un episodio de rivalidad estratégica gestionado mediante instrumentos coercitivos en sentido amplio. Se trata de un caso paradigmático en el que convergen la proyección contemporánea del poder, los límites del análisis estatocéntrico y la necesidad imperiosa de reanclar la evaluación jurídica y política en el reconocimiento efectivo del pueblo inuit como actor central, un actor con derecho a determinar libremente su futuro político, económico y social.

The Conversation

Maria Mut Bosque no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La crisis de Groenlandia y el actor olvidado: el pueblo inuit frente a la rivalidad entre Estados – https://theconversation.com/la-crisis-de-groenlandia-y-el-actor-olvidado-el-pueblo-inuit-frente-a-la-rivalidad-entre-estados-274712

El mito de los carbohidratos para hacer deporte: ¿cuántos hay que tomar realmente?

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

Un corredor lleva un gel de carbohidratos. Real Sports Photos/Shutterstock

Durante años, la nutrición deportiva se explicó con una metáfora sencilla: el músculo era un motor; el glucógeno (la forma en que el cuerpo almacena carbohidratos para usarlos como energía rápida), su gasolina; y la fatiga aparecía cuando el depósito se vaciaba. Bajo ese prisma, la estrategia parecía obvia: comer muchos carbohidratos, llenar los depósitos y, si era posible, seguir metiendo combustible durante el ejercicio. Más carbohidratos = mejor rendimiento.

Pero la fisiología del ejercicio rara vez es tan lineal. Una revisión publicada a finales del mes de enero, que integra más de 160 estudios sobre ingesta de carbohidratos, metabolismo y rendimiento, sugiere que el relato clásico se queda corto. El problema no es que los carbohidratos “no sirvan”, sino que su papel principal quizá no sea el que creíamos.

El dogma del músculo que se queda sin energía

El modelo tradicional se centra casi por completo en el músculo y descansa sobre tres supuestos:

  • El músculo trabaja gracias al glucógeno.

  • Cuando el glucógeno se agota, aparece la fatiga.

  • Por tanto, hay que maximizar reservas de glucógeno y aporte de carbohidratos.

Este enfoque tomó fuerza a partir de los años 60, cuando las biopsias musculares permitieron medir el glucógeno antes y después del ejercicio. Se observó que los atletas con más cantidad de este tipo de hidrato aguantaban más tiempo a intensidades moderadas-altas, y de ahí se derivó la recomendación de “carga de carbohidratos” como si fuera una ley universal.

Sin embargo, había un detalle que se contempló menos: qué ocurría con la glucosa en sangre y con el sistema nervioso central cuando esos deportistas se acercaban al agotamiento.

El giro de guion: la sangre, el hígado y el cerebro

La revisión actual pone el foco en algo mucho más pequeño que un músculo, pero muchísimo más crítico: la pequeña reserva de glucosa que circula en la sangre y el papel del hígado para mantenerla estable.

Nuestra sangre contiene solo unos pocos gramos de glucosa en cada momento; no es un depósito, solo un “charco” pequeño pero vital. Y el cerebro depende de ese flujo continuo. Cuando un esfuerzo prolongado hace descender la glucosa sanguínea y el hígado no es capaz de producir suficiente, el organismo interpreta una amenaza: si sigue cayendo, hay riesgo de daño cerebral por hipoglucemia.

¿La respuesta del sistema nervioso? Pisar el freno. El cerebro reduce el reclutamiento de unidades motoras, baja la potencia y nos obliga a aflojar o a parar, incluso aunque el músculo aún tuviera capacidad de seguir contrayéndose.
Desde esta perspectiva, la fatiga no es tanto un “motor que se queda sin gasolina” como un sistema de protección que limita el rendimiento para evitar un accidente mayor.

El “muro”: ¿crisis energética o mecanismo de protección?

Quien haya corrido un maratón o hecho una carrera muy larga conoce la sensación de “chocar contra el muro”. Tradicionalmente, se atribuyó a una crisis energética pura: se acabó el glucógeno, se acabó todo.

La visión moderna matiza ese relato. La mayoría de los estudios que analizan la mejora del rendimiento con la ingesta de carbohidratos repiten un patrón: en el grupo que no los toma, la glucosa en sangre cae progresivamente hasta niveles bajos; mientras que en el grupo que sí los consume, esa caída se atenúa o desaparece, y el rendimiento se mantiene más tiempo.

El beneficio, por tanto, parece estar menos en “alimentar al músculo” y más en mantener la glucosa sanguínea en una zona segura, protegiendo la función del sistema nervioso. El muro sería, en buena medida, la activación de ese freno de seguridad.

Hay un argumento potente a favor de esta interpretación: cuando un músculo se queda realmente sin la molécula ATP (una especie de “moneda energética” que permite las funciones vitales de las células), lo que aparece es una rigidez extrema, similar al rigor mortis. Eso no es lo que se observa en el deportista fatigado: lo que se ve es una caída gradual del rendimiento, no un bloqueo mecánico total.

¿Cuántos carbohidratos hacen falta de verdad?

Si la misión principal de los carbohidratos durante el ejercicio es mantener la glucosa estable y evitar la hipoglucemia, la pregunta deja de ser “cuánto más puedo meter” y pasa a ser “cuál es la dosis mínima efectiva para este contexto”.

Aquí aparece un dato que cuestiona muchas recomendaciones, ya que se planteaba para esfuerzos prolongados suelen sugerir ingestas altas: 60-90 g de carbohidratos por hora (o incluso superiores). Esos rangos pueden ser útiles en contextos muy específicos, como competiciones muy largas y deporte de élite.




Leer más:
Qué comer para evitar lesiones musculares a partir de los 50 años


Pero la evidencia actual muestra algo inesperado: en muchas situaciones, cantidades mucho más bajas producen efectos similares. De hecho, el nuevo estudio indica que ingerir 15-30 g/h durante ejercicio prolongado puede aportar beneficios de rendimiento comparables a dosis mucho mayores. La diferencia clave no está tanto en la cantidad absoluta, sino en evitar la caída peligrosa de glucosa en sangre. Una vez que se cumple esa misión, subir la dosis no siempre suma.

Esto cambia por completo la estrategia: en lugar de perseguir dosis cada vez más altas (lo que puede llevar a molestias gastrointestinales, dependencia psicológica del “gel” de carbohidratos y un gasto innecesario), el enfoque práctico se vuelve más fino: encontrar el punto mínimo donde la glucosa se estabiliza y el rendimiento se sostiene.

Además, aumentar la dosis por encima de ciertos rangos puede tener efectos paradójicos: reduce la oxidación de grasa, eleva la insulina y, en algunos estudios, acelera el vaciado del glucógeno muscular en lugar de ahorrarlo. Justo lo contrario de lo que muchos deportistas buscan.

En suma, los carbohidratos actúan como un amortiguador de glucosa, no como un combustible ilimitado. Si ya hemos frenado la caída, añadir más no garantiza un beneficio proporcional.

Atletas “low-carb” y la idea de flexibilidad metabólica

Otra pieza que cuestiona el dogma de “carbohidratos obligatorios” son los atletas adaptados a dietas bajas en estos macronutrientes. En ellos se han medido tasas de oxidación de grasa muy altas, manteniéndose elevadas incluso a intensidades importantes (por encima del 85 % de consumo máximo de oxígeno o VO₂max), con rendimientos similares a los de atletas con dietas ricas en carbohidratos en determinados contextos.

Esto no significa que “la grasa sea mejor siempre”. Significa que el organismo puede adaptarse y usar más grasa como combustible incluso cuando el esfuerzo es intenso. El viejo mantra de que “a alta intensidad solo se tira de carbohidratos” no parece ser tan universal como se pensaba.

El concepto que vertebra esta nueva lectura es la flexibilidad metabólica: la capacidad de cambiar de un combustible a otro según la demanda y la disponibilidad. Una dieta crónicamente muy alta en carbohidratos, sin periodización, podría reducir las señales para usar grasa, favorecer la sensación de dependencia del gel y hacer el metabolismo más rígido.

La alternativa no es un “cero carbohidratos”, sino aprender a periodizar: entrenamientos donde se fuerza al cuerpo a utilizar más grasa y momentos donde se usan carbohidratos como herramienta estratégica.

De la religión del carbohidrato a la dosis mínima efectiva

¿Qué implicaciones prácticas tiene todo esto para quien entrena o compite?

Primero, desmitificar: los carbohidratos no son ni enemigos ni dioses. Son una herramienta. En lugar de pensar “cuánto más, mejor”, conviene preguntarse:

  • ¿Cuál es el objetivo prioritario hoy: rendimiento máximo inmediato o mejorar la flexibilidad metabólica a medio plazo?

  • ¿Cómo responde mi cuerpo? Hambre, bajones, “pájara”, molestias digestivas, sensación de dependencia… son señales valiosas.

Segundo, entender que el límite del rendimiento no se decide solo en las fibras musculares. El cerebro, a través de su vigilancia constante de la glucosa y de otros combustibles, actúa como regulador superior. Cuando percibe que el equilibrio está en riesgo, baja la potencia. Los carbohidratos bien usados ayudan a que ese freno se active más tarde, principalmente manteniendo la glucosa estable, no rellenando sin fin un depósito muscular.

Y tercero, recordar que las recomendaciones generales son solo un punto de partida. Personas con diabetes, tendencia a hipoglucemias o que toman medicación necesitan una individualización cuidadosa, idealmente supervisada por un profesional.

El futuro de la nutrición deportiva no pasa por una dependencia creciente del azúcar, sino por favorecer una maquinaria metabólica flexible, capaz de usar lo que toque en cada momento. Los carbohidratos seguirán teniendo un papel importante, pero cada vez más como dosis mínima eficaz al servicio del cerebro, no como dogma incuestionable al servicio del mito del músculo vacío.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El mito de los carbohidratos para hacer deporte: ¿cuántos hay que tomar realmente? – https://theconversation.com/el-mito-de-los-carbohidratos-para-hacer-deporte-cuantos-hay-que-tomar-realmente-274549

Lo que el aliento puede decir de nuestra salud

Source: The Conversation – (in Spanish) – By Miriam Villa Díaz, Investigadora predoctoral en desarrollo de sensores y biosensores electroquímicos. Departamento de Química Física, Universidad de Castilla-La Mancha

Prueba de aliento para detectar la bacteria _Helicobacter pylori_. Maria Sbytova/Shutterstock

Imaginemos que vamos a una revisión médica, nos ponemos una simple mascarilla y que, tras unos instantes, el médico recibe información sobre un posible diagnóstico, la evolución de una infección, la eficacia de un tratamiento o incluso recomendaciones personalizadas para seguir una dieta.

Sin esperas, sin análisis de sangre, sin dolor. Esta se trata de una realidad cada vez más cercana gracias a la breatómica. Al igual que disciplinas ya consolidadas como la genómica estudian el conjunto de genes, esta nueva ciencia emergente analiza el conjunto de sustancias en el aire que exhalamos. Estas nos sirven como biomarcadores, pequeñas señales químicas que permiten detectar alteraciones en el organismo y seguir su evolución a lo largo del tiempo.

Cada vez que respiramos, expulsamos mucho más que dióxido de carbono. En el aliento viajan cientos de moléculas, desde las más simples, como vapor de agua u oxígeno, hasta compuestos orgánicos volátiles (COV) producidos en procesos metabólicos. Esta “huella química” cambia en función del estado fisiológico, la dieta o la presencia de enfermedades.




Leer más:
Nuestro aliento ayuda a detectar enfermedades y contaminantes


¿Qué compuestos pueden delatar una enfermedad?

La acetona fue el primer compuesto del aliento utilizado como biomarcador. Cuando el organismo no es capaz de utilizar glucosa como fuente de energía, usa grasas, generando cetonas en el proceso. Esto se conoce como cetoacidosis, un signo de alarma en diabéticos.

Su detección a tiempo en aire exhalado podría prevenir complicaciones graves como arritmias, insuficiencia respiratoria e incluso pérdida de consciencia. En personas sanas, podría servir para realizar un seguimiento y garantizar la seguridad en dietas de pérdida de grasa.

Otros compuestos interesantes son los aldehídos, un compuesto orgánico que se forma como primer producto de la oxidación de ciertos alcoholes y que se utiliza en la industria y en laboratorios químicos por sus propiedades reductoras.
Las células tumorales, dado su rápido crecimiento, se encuentran en un estado de estrés oxidativo crónico. Este estado inflamatorio daña las membranas celulares en un proceso conocido como peroxidación lipídica, en el que se generan aldehídos.

Estos pasan a la sangre y, tras atravesar los pulmones, aparecen en el aire exhalado. Así, los aldehídos en aliento, además de indicarnos que estamos pasando por un proceso inflamatorio, pueden ser utilizados para hacer un diagnóstico precoz y no invasivo de ciertos tipos de cáncer, especialmente cáncer de pulmón.

Además, enfermedades neurodegenerativas tan conocidas como el alzhéimer, el párkinson o la esclerosis lateral amiotrófica (ELA) también están relacionadas con un alto estrés oxidativo a nivel cerebral y daño en membranas neuronales. Aunque todavía hay cierta incertidumbre, varios estudios revelan que niveles altos de aldehídos en aliento podrían indicar la presencia de estas enfermedades y servir para monitorizar su progresión.

Pero eso no es todo. Incluso ya es posible seguir el curso de una infección a través del amoníaco en nuestro aliento. Helicobacter pylori es una bacteria que coloniza el estómago, un ambiente extremadamente ácido. Para sobrevivir, utiliza una enzima llamada ureasa que descompone la urea generando amoníaco y CO₂.

Muchas personas conviven con esta infección sin siquiera saberlo hasta que aparecen complicaciones graves, como úlceras, hemorragia digestiva e incluso un mayor riesgo de cáncer gástrico. En la actualidad, el diagnóstico requiere que el paciente ingiera urea marcada para medir el CO₂ exhalado.

Sin embargo, esto solo permite “tomar una foto” del momento en que se realiza la prueba. Poder medir directamente amoníaco en aliento nos permitiría ir más allá del diagnóstico, pudiendo realizar un seguimiento en tiempo real del tratamiento antibiótico para evitar el fracaso terapéutico, recaídas y posibles resistencias.




Leer más:
La resistencia a los antibióticos, un problema que tiene millones de años de antigüedad


Mascarillas inteligentes: una revolución médica

Si la breatómica es tan prometedora, ¿por qué no forma parte todavía de las revisiones médicas rutinarias? Actualmente, el análisis del aliento requiere recoger muestras y transportarlas a un laboratorio, donde se analizan mediante técnicas como cromatografía de gases o espectrometría de masas. Aunque precisas, estas herramientas son muy costosas y complejas. Además, las muestras pueden degradarse durante el transporte, lo que añade incertidumbre a los resultados.

Diseño de mascarilla con sensor miniaturizado para detección de gases en aliento
Diseño de mascarilla con sensor miniaturizado para detección de gases en aliento.
Elaboración propia

En los últimos años ha crecido el interés por los sensores electroquímicos miniaturizados, dispositivos capaces de detectar gases concretos a concentraciones muy bajas. En muchos casos se desarrollan para monitorizar la calidad del aire, pero su versatilidad permite el salto hacia el ámbito médico.

Una de las ideas más innovadoras es adaptar estos sensores en mascarillas. Desde la pandemia por la covid-19, la población está muy habituada a su uso, lo que las convierte en un soporte ideal para el análisis del aliento en tiempo real. Podríamos incluso recibir alertas en nuestro móvil y saber si estamos ante una emergencia médica.

Investigadores de la Universidad Tor Vergata, en Roma, han evidenciado ya la funcionalidad de esta tecnología. A través de un experimento en el que cuatro personas tomaron café, vino, plátano o menta y respiraron después en una mascarilla que contenía sensores químicos, analizaron cómo cambiaba la resistencia eléctrica. Según observaron, se podía distinguir claramente qué alimento había tomado cada uno de ellos gracias a que el perfil de compuestos que aparecían en aliento era muy diferente.

La posibilidad de diseñar dispositivos que se comporten como una “nariz electrónica”, por muy descabellado que parezca, no es ciencia ficción. La breatómica abre la puerta a una nueva forma de ir al médico. En lugar de una prueba puntual, el aliento podría convertirse en una fuente invisible de información sobre nuestra salud. Tal vez, en un futuro, cuidarnos sea tan sencillo como respirar.

The Conversation

Miriam Villa Díaz es contratada con cargo al proyecto de la Agencia de Investigación e Innovación de Castilla-La Mancha (INNOCAM, Junta de Comunidades de Castilla-La Mancha), nº SBPLY/23/180225/000194, co-financiado por la Unión Europea.

Edelmira Valero Ruiz recibe fondos de la Agencia de Investigación e Innovación de Castilla-La Mancha (INNOCAM, Junta de Comunidades de Castilla-La Mancha), Proyecto nº SBPLY/23/180225/000194, co-financiado por la Unión Europea; Plan Propio de la Universidad de Castilla-La Mancha, Proyecto nº 2025-GRIN-38334, co-financiado por el Fondo Europeo para el Desarrollo Regional (FEDER); Agencia Estatal de Investigación (MCIN/AEI/10.13039/501100011033), Proyecto ELECTROBIONET (RED2022-134120-T).

Jhon Mauricio Aguirre Cortés es contratado postdoctoral con cargo al proyecto de la Agencia de Investigación e Innovación de Castilla-La Mancha (INNOCAM, Junta de Comunidades de Castilla-La Mancha), nº SBPLY/23/180225/000194, co-financiado por la Unión Europea.

ref. Lo que el aliento puede decir de nuestra salud – https://theconversation.com/lo-que-el-aliento-puede-decir-de-nuestra-salud-275169