Por qué movernos nos ayuda a borrar los malos recuerdos

Source: The Conversation – (in Spanish) – By Óscar Elía Zudaire, Profesor de Psicología, Universidad Europea

Kostikova Natalia/Shutterstock

“Dale duro al gym y no le des más vueltas, tío”.

Esa frase, a medio camino entre el meme y el consejo bienintencionado, tiene más trasfondo científico del que parece. Detrás de los batidos de proteínas y los selfies en el espejo hay una base científica sorprendentemente sólida: entrenar puede ayudarnos a olvidar malos recuerdos. Y no, no se trata de broscience (algo así como la ciencia de los devotos de los gimnasios), esto es neurociencia de verdad.

Nuevas neuronas al rescate

En lo más profundo de nuestro cerebro, en el hipocampo –una estructura cerebral clave para la memoria–, está la zona subgranular del giro dentado, donde se generan continuamente nuevas neuronas. Este proceso, llamado neurogénesis adulta, es uno de los pocos ejemplos de nacimiento de células nerviosas que perdura durante nuestra vida.

Las neuronas “recién nacidas” se integrarán en los circuitos cerebrales ya existentes formando nuevas conexiones sinápticas. Y es ahí donde viene lo interesante: estas nuevas neuronas y el nuevo “cableado” añadido a nuestro cerebro, además de ayudarnos a aprender, desestabiliza los recuerdos que ya no necesitamos.

En otras palabras, el cerebro está continuamente renovando sus conexiones, y esta reconexión hace que podamos olvidar ciertas cosas.

Un grupo de científicos ha demostrado en ratones que aumentando la neurogénesis en esa zona del hipocampo después de una experiencia traumática, el recuerdo de dicha vivencia y los síntomas de estrés postraumático asociados a ella se reducen. Los animales de laboratorio dejan de responder exageradamente a situaciones ante las que no deberían reaccionar, muestran menos síntomas de ansiedad y extinguen mejor los recuerdos asociados al miedo. Cuantas más neuronas nuevas, menos recuerdos traumáticos y menos conductas de estrés.

Ejercicio regenerador

¿Y cómo podemos aumentar la neurogénesis? Con ejercicio. Con cardio, con pesas o simplemente moviéndonos y manteniéndonos activos. Ya son varios los estudios que indican que la actividad física favorece la formación de nuevas neuronas en adultos. El ejercicio aeróbico moderado (como caminar a buen ritmo, correr o montar en bici) parece ser especialmente eficaz, aunque el entrenamiento de fuerza también puede aportar beneficios.

Este efecto se produce gracias a varias moléculas liberadas durante la actividad física, como el BDNF (factor neurotrófico derivado del cerebro), que actúa como “fertilizante” para las neuronas, favoreciendo su crecimiento y conexión. Otras sustancias, como la irisina, el IGF-1 o las betaendorfinas, también están implicadas en ese proceso regenerador. Además de crear nuevas neuronas, el ejercicio mejora la plasticidad cerebral, es decir, la capacidad del cerebro para adaptarse y cambiar.

Para saber más sobre cómo funciona este proceso, un equipo de investigación simuló eventos de neurogénesis en una red neuronal entrenada para reconocer objetos. Al introducir nuevas neuronas (es decir, renovando algunas conexiones), la red funcionó mejor, y pudo generalizar el conocimiento a nuevas imágenes. Es posible que nuestro cerebro utilice la neurogénesis del mismo modo: previniendo la sobrecarga cognitiva, rompiendo con viejos patrones y haciendo hueco para los nuevos.

Antes de que la mala experiencia se grabe para siempre

¡Pero no hay que esperar demasiado! Otro estudio encontró que esta forma sana de olvidar, promovida por la neurogénesis, solo funciona mientras los recuerdos todavía dependan del hipocampo. Si esperamos demasiado y ese recuerdo traumático se “distribuye” por todo el cerebro, será menos susceptible a los cambios en la plasticidad del hipocampo y dará igual el ejercicio que hagamos: nos seguirá doliendo.

En resumen: hacer ejercicio no solo hace que nos sintamos mejor, puede ayudarnos a que nuestro cerebro se resetee. No solo enterrando viejas memorias, sino ayudando a olvidarlas desde un punto de vista biológico. Todo parece indicar que el cerebro necesita esa neurogénesis para ayudarnos a olvidar, adaptarnos y seguir hacia adelante.

Así que, al menos esta vez, tu amigo del gimnasio, ese gymbro, tenía razón.

The Conversation

Óscar Elía Zudaire no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué movernos nos ayuda a borrar los malos recuerdos – https://theconversation.com/por-que-movernos-nos-ayuda-a-borrar-los-malos-recuerdos-258309

La salud va por barrios: cómo afecta la escasez de recursos a los territorios desfavorecidos

Source: The Conversation – (in Spanish) – By Isabel Aguilar Palacio, Profesora Titular de Medicina Preventiva y Salud Pública. Universidad de Zaragoza., Universidad de Zaragoza

Rodrigo Pukan/Shutterstock

Imagine dos barrios en una misma ciudad. En uno, las aceras están sombreadas por árboles, las viviendas son confortables y los centros de trabajo, ocio y salud quedan a pocos minutos andando. En el otro, las calles son áridas, las viviendas precarias y los servicios, escasos o lejanos. ¿Cree que sus habitantes tienen la misma salud? Lo más probable es que no.

La llamada “privación” no es solo una cuestión económica: es la acumulación de desventajas que impactan directamente en la vida de las personas. Medirla es esencial para entender y reducir las desigualdades sociales en salud.

Privación y salud

La privación es la insatisfacción de necesidades básicas por la falta de acceso a recursos materiales, sociales o económicos esenciales, con profundas implicaciones sobre el bienestar y la calidad de vida de las personas y de las comunidades. Esto impacta directamente sobre la salud de las poblaciones, con la aparición de múltiples enfermedades, tanto agudas como crónicas.

Por ejemplo, la falta de acceso a alimentos saludables, a unas condiciones de vivienda adecuadas o a espacios de ocio y de ejercicio contribuyen a la aparición de dolencias como la diabetes o las patologías cardíacas. También deteriora la salud mental, ya que el estrés crónico asociado a la incertidumbre económica, la inseguridad alimentaria o la falta de vivienda favorecen la aparición de síntomas como la ansiedad, la depresión y otros problemas vinculados a la salud mental.

Esta falta de recursos limita igualmente la capacidad de las personas para obtener cuidados formales e informales adecuados, agravando las condiciones de salud. La privación es, por tanto, un fenómeno multifacético que afecta a cada aspecto del bienestar humano.

¿Qué son los índices de privación y para qué sirven?

Con el objetivo de poder comprender y abordar las desigualdades en salud –esto es, las diferencias innecesarias, injustas y evitables–, surgieron los índices de privación. Estas herramientas cuantitativas permiten caracterizar a las personas residentes de diferentes áreas combinando datos sobre empleo, educación e ingresos, y también conocer los recursos existentes en cuestiones como la vivienda o el acceso a otros servicios básicos. La meta es generar una puntuación que refleje el grado de privación relativa o absoluta.

Los índices de privación tienen una gran variedad de aplicaciones. Se utilizan para la planificación en salud, identificando grupos en situación de mayor vulnerabilidad con el fin de diseñar políticas que sean efectivas, o para distribuir los recursos de manera más equitativa.

Además, son herramientas esenciales para evaluar las desigualdades existentes y medir el impacto de las políticas en la reducción de dichas desigualdades. Por último, desempeñan un rol crucial en la investigación, ayudando a comprender la relación entre privación y fenómenos de salud o enfermedad.

Por ejemplo, en España los índices de privación han servido para relacionarla con enfermedades tan diversas como el cáncer de estómago o el riesgo de aparición de covid-19 (https://pmc.ncbi.nlm.nih.gov/articles/PMC10075210/), pero también para priorizar intervenciones en salud en zonas urbanas.

Una nueva propuesta de la Sociedad Española de Epidemiología

Uno de los primeros índices de privación desarrollado fue el índice de Townsend en la década de los 70. Peter Townsend definió la privación como “aquella situación en la que las personas carecen de los recursos necesarios para participar en las actividades, costumbres y estilos de vida considerados habituales en la sociedad a la que pertenecen”. Este enfoque fue fundamental para los estudios sobre pobreza y desigualdad.

El índice de privación de Townsend no solo consideraba la falta de recursos básicos, sino también la incapacidad de participar de forma plena en la sociedad, siguiendo el marco conceptual de desigualdad definido por el economista indio Amartya Sen, entendido como “un entorno de oportunidades”. Este punto de vista llevó al desarrollo de indicadores que medían la privación a través de distintas dimensiones, como la vivienda, el empleo, la educación y el acceso a otros servicios esenciales.

Durante décadas, el desarrollo de otros registros incorporaron distintas dimensiones, como son el índice de Carstairs o el Índice Europeo de Privación.

En España, la Sociedad Española de Epidemiología (SEE) desarrolló el índice de privación 2011, adaptado a las características del territorio español. Esta herramienta utiliza datos censales para medir desigualdades en dimensiones clave, como el empleo y la educación.

Desde entonces, la situación del país ha cambiado. Por ese motivo, la SEE está llevando a cabo una revisión y actualización de su índice, que utilizará la información del Censo de 2021 y que incorporará nuevas dimensiones vinculadas a la desigualdad que han cobrado importancia en los últimos años, como los hogares monomarentales o características de la vivienda.

Herramienta para la acción

Medir la privación no es un ejercicio meramente teórico: es el primer paso para construir políticas públicas más eficaces y sociedades más justas. Resulta fundamental que avancemos en la comprensión y en el abordaje de las desigualdades en salud, con el fin de diseñar estas políticas que contribuyan a la existencia de sociedades más equitativas y saludables.

Los índices de privación son una herramienta clave en la evaluación de estas desigualdades y ofrecen una guía para la acción de salud pública.


Artículo escrito con el asesoramiento de la Sociedad Española de Epidemiología. Ignacio Duque, experto en geoestadística de indicadores sociales, ha contribuido a la elaboración de este texto.


The Conversation

Isabel Aguilar Palacio recibe fondos del Instituto de Salud Carlos III y del Gobierno de Aragón para proyectos de investigación y de la Comisión Europea y de la Innovative Health Initiative como experta. Miembro de la Junta Directiva de la Sociedad Española de Epidemiología (SEE).

Daniel La Parra Casado, Elena Mª Gras García, Mercedes Esteban Peña, Tania Fernández Villa y Unai Martin no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. La salud va por barrios: cómo afecta la escasez de recursos a los territorios desfavorecidos – https://theconversation.com/la-salud-va-por-barrios-como-afecta-la-escasez-de-recursos-a-los-territorios-desfavorecidos-258839

El reto de mantener nuestras elecciones éticas de consumo alimentario cuando viajamos

Source: The Conversation – (in Spanish) – By Alicia Orea-Giner, Tecnóloga Social para el Turismo Regenerativo e Interseccional, Universidad Rey Juan Carlos

Maridav/Shutterstock

Consumir productos locales, evitar alimentos ultraprocesados o encontrar opciones veganas no siempre es fácil, especialmente lejos de casa. En nuestro entorno habitual, sabemos qué comprar, dónde y por qué. Pero viajar rompe esa rutina. Nos enfrentamos a menús que no entendemos, a cartas sin opciones éticas o a lugares donde el consumo responsable ni se contempla.

Una investigación reciente aborda esta cuestión. En el estudio, hemos analizado los hábitos de quienes intentan seguir comiendo de forma ética mientras viajan. Participaron personas vegetarianas, veganas, flexitarianas, defensoras del comercio justo y activistas por el bienestar animal. La conclusión fue clara: viajar pone a prueba sus convicciones, pero también las transforma.

Escena callejera con personas sentadas comiendo en la terraza de un puesto de comida
Puestos de comida callejera en Hanoi, Vietnam.
Hồng Quang Official/Pexels, CC BY-SA

Comer también es hacer política

La comida es una decisión personal, pero también política. Muchas personas eligen qué comer según criterios medioambientales, sociales o de justicia animal. Este tipo de activismo, conocido como “consumo político” o “lifestyle politics” en inglés, se expresa en lo que apoyamos, rechazamos o dejamos de comprar.

Cuando no hay opciones éticas visibles, Instagram y TikTok se convierten en herramientas clave. Estas redes sociales no solo se emplean para mostrar comida apetitosa. También se usan para señalar buenas prácticas, denunciar impactos negativos y recomendar negocios comprometidos.

Además, permiten conectar con comunidades afines y obtener información útil. Las redes también visibilizan demandas que, de otro modo, quedarían ocultas.

Podemos encontrar algunos ejemplos de estas prácticas en otro estudio reciente. El trabajo analiza iniciativas lideradas por mujeres que promueven el consumo ético y la soberanía alimentaria en ciudades y en entornos rurales.

Dos de los proyectos más destacados son Hacia lo Salvaje y Biela y Tierra. El primero busca demostrar que otra vida en armonía con la naturaleza es posible: eso se traduce en viajes lentos y alojamientos y alimentación respetuosos con el entorno. El segundo proyecto combina activismo, educación y cicloturismo para visibilizar experiencias agroecológicas y feministas en el medio rural. Además, Biela y Tierra junto a Brújula Intercultural trasladan a la práctica todas estas cuestiones a través de RuralForks, demostrando que con planificación y flexibilidad es posible. Proponen una ruta de 12 días en bici en grupo con 20 personas jóvenes menores de 30 años visitando iniciativas rurales alineadas con la sostenibilidad. Durante este viaje, ponen atención y acción para que los menús sean inclusivos, con productos locales, saludables y sostenibles. Todo esto se realiza reduciendo envases de un solo uso y buscando cómo gestionar los residuos generados, favoreciendo la circularidad.




Leer más:
Viajar bien no es suficiente: haga de sus vacaciones una experiencia sostenible


Cómo mantener nuestros principios lejos de casa

La buena noticia es que, con un poco de esfuerzo y planificación, es posible comer fuera de casa sin renunciar a nuestros principios éticos.

En este sentido, una de las primeras decisiones importantes a la hora de viajar es elegir bien el destino. Muchas personas buscan lugares donde sea más fácil encontrar restaurantes veganos, mercados locales o alojamientos con cocina. Antes de salir, también es útil investigar en redes sociales como Instagram o TikTok para buscar recomendaciones u opciones de viaje que cumplan con ciertos criterios éticos.

Cocinar es una opción frecuente: da más control sobre los ingredientes y evita que tengamos que comer fuera cuando no hay alternativas adecuadas. También podemos recurrir a comprar directamente en mercados locales, cooperativas o pequeñas tiendas que apuesten por la soberanía alimentaria y prácticas más justas. Además, algunas personas llevan sus propios cubiertos, bolsas o botellas reutilizables para evitar residuos innecesarios.

En los estudios mencionados anteriormente se proponen una serie de estrategias:

  1. Si viaja a un país extranjero, haga una lista de palabras clave en el idioma local relacionadas con sus restricciones o principios (por ejemplo: “producto local”, “orgánico”, “sin explotación animal”). Puede llevarlas anotadas o usar aplicaciones de traducción rápida.

  2. Lleve tentempiés éticos o productos básicos que le ayuden en momentos en los que no encuentre alternativas (frutos secos, barritas caseras, infusiones, etc.).

  3. Evite el consumo por inercia o conveniencia. Si un sitio no cumple con sus valores, busque otra opción o reduzca su consumo en ese momento. A veces, la mejor decisión es simplemente esperar.

  4. Pregunte al personal del restaurante sobre el origen de los alimentos o las condiciones laborales, aunque eso implique incomodar o romper la dinámica turística convencional.

  5. Busque alojamientos que incluyan criterios éticos y medioambientales, como el uso de energías renovables, cocina disponible o colaboración con productores locales.

  6. Aproveche el viaje para aprender: participe en talleres de cocina local sostenible, visite granjas ecológicas o conozca proyectos agroecológicos de la zona.

  7. Utilice las redes sociales para amplificar su experiencia, tanto para visibilizar iniciativas comprometidas como para señalar prácticas problemáticas.

Viajar con conciencia ética no significa tener todas las respuestas ni actuar con perfección. Pero sí implica hacerse preguntas, tomar decisiones con sentido y aceptar que cada elección, por pequeña que parezca, es parte de una transformación colectiva.

The Conversation

Alicia Orea-Giner no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El reto de mantener nuestras elecciones éticas de consumo alimentario cuando viajamos – https://theconversation.com/el-reto-de-mantener-nuestras-elecciones-eticas-de-consumo-alimentario-cuando-viajamos-260220

Diez razones por las que la IA no sustituirá a los informáticos en un futuro próximo

Source: The Conversation – (in Spanish) – By Ikhlaq Sidhu, Decano de IE School of Science and Technology, IE University

DC Studio/Shutterstock

A medida que los sistemas de inteligencia artificial (IA) amplían sus ya impresionantes capacidades, cada vez es más habitual pensar que el campo de la informática pronto será cosa del pasado. Esto se transmite a los futuros estudiantes en forma de consejos bienintencionados, pero en gran parte se trata de rumores de personas que, a pesar de su inteligencia, hablan fuera de su ámbito de especialización.

Personalidades de renombre como el economista ganador del Premio Nobel Christopher Pissarides han defendido este argumento, y como resultado se ha arraigado a un nivel mucho más mundano: incluso yo mismo he oído a orientadores profesionales de institutos descartar la idea de estudiar informática, a pesar de no tener ningún conocimiento del campo en sí.

Estas afirmaciones suelen compartir dos defectos comunes. La primera es que el consejo proviene de personas que no son informáticos. Y en segundo lugar, existe un malentendido generalizado sobre lo que realmente implica la informática.

La IA y el mito de la sustitución del código

No es incorrecto afirmar que la IA puede escribir código informático a partir de indicaciones, al igual que puede generar poemas, recetas y cartas de presentación. Puede aumentar la productividad y acelerar el flujo de trabajo, pero nada de esto elimina el valor de la aportación humana.

Escribir código no es sinónimo de informática. Se puede aprender a escribir código sin haber asistido a una sola clase en la universidad, pero una titulación en Informática va mucho más allá de esta habilidad. Implica, entre otras muchas cosas, ingeniería de sistemas complejos, diseño de infraestructuras y futuros lenguajes de programación, garantía de la ciberseguridad y verificación de los sistemas.

La IA no puede realizar estas tareas de forma fiable, ni podrá hacerlo en un futuro previsible. La aportación humana sigue siendo esencial, pero la desinformación pesimista corre el riesgo de alejar a decenas de miles de estudiantes con talento de carreras importantes y significativas en este campo vital.

Lo que la IA puede y no puede hacer

La IA destaca en la realización de predicciones. La IA generativa mejora esto añadiendo una capa de presentación fácil de usar al contenido de internet: reescribe, resume y formatea la información para que se parezca al trabajo de un humano.

Sin embargo, la IA actual no “piensa” realmente. En su lugar, se basa en atajos lógicos, conocidos como heurística, que sacrifican la precisión en favor de la velocidad. Esto significa que, a pesar de hablar como una persona, no puede razonar, sentir, preocuparse ni desear nada. No funciona de la misma manera que la mente humana.




Leer más:
Inteligencia artificial emocional: Lo que las máquinas nunca podrán aprender


No hace mucho tiempo parecía que la “ingeniería de prompts” (instrucciones, preguntas o textos) sustituiría a la informática. Sin embargo, hoy en día prácticamente no hay ofertas de trabajo para ingenieros de prompts, mientras que empresas como LinkedIn informan de que las responsabilidades de los profesionales de la informática se han ampliado.




Leer más:
Los ‘prompts’ que hacen que la IA se salte los límites legales


Las limitaciones de la IA

Lo que ofrece la IA son herramientas más potentes para que los profesionales de la informática hagan su trabajo. Esto significa que ahora pueden llevar los conceptos más allá, desde la ideación hasta la implementación en el mercado, al tiempo que requieren menos funciones de apoyo y más liderazgo técnico.

Sin embargo, hay muchas áreas en las que la aportación humana especializada sigue siendo esencial, ya sea por motivos de confianza, supervisión o necesidad de creatividad humana. Los ejemplos abundan, pero hay 10 áreas que destacan especialmente:

  1. Adaptar un algoritmo de fondos de cobertura a las nuevas condiciones económicas. Esto requiere un diseño algorítmico y un profundo conocimiento de los mercados, no solo montones de código.

  2. Diagnosticar interrupciones intermitentes del servicio en la nube de proveedores como Google o Microsoft. La IA puede resolver problemas a pequeña escala, pero no puede contextualizar la resolución de problemas a gran escala y de alto riesgo.

  3. Reescribir código para ordenadores cuánticos. La IA no puede hacer esto sin ejemplos extensos de implementaciones exitosas (que actualmente no existen).

  4. Diseñar y proteger un nuevo sistema operativo en la nube. Esto implica una arquitectura de sistemas de alto nivel y pruebas rigurosas que la IA no puede realizar.

  5. Crear sistemas de IA eficientes desde el punto de vista energético. La IA no puede inventar espontáneamente código GPU de menor consumo ni reinventar su propia arquitectura.

  6. Crear software de control en tiempo real seguro y a prueba de ciberdelincuentes para centrales nucleares. Esto requiere combinar conocimientos sobre sistemas integrados con la traducción de código y el diseño de sistemas.

  7. Verificar que el software de un robot quirúrgico funciona en condiciones impredecibles. La validación crítica para la seguridad excede el alcance actual de la IA.

  8. Diseñar sistemas para autenticar las fuentes de correo electrónico y garantizar la integridad. Se trata de un reto criptográfico y multidisciplinar.

  9. Auditar y mejorar las herramientas de predicción del cáncer basadas en la IA. Esto requiere supervisión humana y una validación continua del sistema.

  10. Crear la próxima generación de IA segura y controlable. La evolución hacia una IA más segura no puede ser obra de la propia IA, sino que es responsabilidad de los seres humanos.

Por qué la informática sigue siendo indispensable

Una cosa es segura: la IA remodelará la forma en que se hace la ingeniería y la informática. Pero lo que se nos presenta es un cambio en los métodos de trabajo, no una destrucción total del campo.

Siempre que nos enfrentamos a un problema o una complejidad totalmente nuevos, la IA por sí sola no es suficiente por una sencilla razón: depende totalmente de los datos del pasado. Por lo tanto, el mantenimiento de la IA, la creación de nuevas plataformas y el desarrollo de campos como la IA fiable y la gobernanza de la IA requieren la informática.

El único escenario en el que podríamos prescindir de la informática sería si llegáramos a un punto en el que ya no esperáramos nuevos lenguajes, sistemas, herramientas o retos futuros. Esto es muy improbable.

Hay quien sostiene que la IA podría llegar a realizar todas estas tareas. No es imposible, pero incluso si la IA consiguiera ser tan avanzada, casi todas las profesiones correrían el mismo riesgo. Una de las pocas excepciones serían quienes construyen, controlan y desarrollan la IA.

Hay un precedente histórico: durante la Revolución Industrial, los trabajadores de las fábricas fueron desplazados en una proporción de 50 a 1 como resultado de los rápidos avances en la maquinaria y la tecnología. En ese caso, la mano de obra creció con la nueva economía, pero la mayoría de los nuevos trabajadores eran aquellos que podían operar o reparar máquinas, desarrollar nuevas máquinas o diseñar nuevas fábricas y procesos en torno a la maquinaria.

Durante este periodo de grandes cambios, las habilidades técnicas eran las más demandadas, no las menos. Hoy en día, se da una situación paralela: los conocimientos técnicos, especialmente en informática, son más valiosos que nunca.

No confundamos a las nuevas generaciones con el mensaje contrario.

The Conversation

Ikhlaq Sidhu no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Diez razones por las que la IA no sustituirá a los informáticos en un futuro próximo – https://theconversation.com/diez-razones-por-las-que-la-ia-no-sustituira-a-los-informaticos-en-un-futuro-proximo-260988

‘Los tres mosqueteros’: cómo la obra de Alejandro Dumas influye en nuestra percepción de la historia de Francia

Source: The Conversation – (in Spanish) – By Philippe Ilial, Professeur de Lettres-Histoire. Chargé de cours en Histoire Moderne. Chercheur associé au CMMC, Université Côte d’Azur

La trilogía compuesta por Los tres mosqueteros (1844), Veinte años después (1845) y El vizconde de Bragelonne (1850) se desarrolla en la Francia del siglo XVII, un periodo tumultuoso marcado por las intrigas cortesanas, los conflictos políticos y las guerras.

Alexandre Dumas padre (1802-1870) transforma esta época en un escenario épico en el que los mosqueteros, figuras de lealtad y heroísmo, encarnan valores como la valentía, la amistad y la fidelidad.

Estas obras entretuvieron, pero también alimentaron la percepción de la historia francesa de los lectores y, más tarde, los espectadores, tan pronto como Hollywood se apoderó del tema. Entre la fidelidad histórica y la libertad creativa, las novelas han marcado profundamente el imaginario cultural colectivo.

Entre la fidelidad histórica y la libertad creativa

Dumas utiliza la historia como telón de fondo, un lienzo sobre el que borda tramas a menudo complejas. Para escribir Los tres mosqueteros, se basa en documentos como Las Memorias de Monsieur d’Artagnan, redactadas por Courtilz de Sandras en 1700, un polígrafo y antiguo mosquetero, una fuente que le permite impregnarse de los acontecimientos y personajes de la época. Sin embargo, Dumas no se preocupa por la precisión histórica en sentido estricto. Es novelista y opta por sacrificar el rigor en favor de la vivacidad de su relato, como demuestra la cronología muy libre de algunos acontecimientos o la invención de personajes que nunca existieron.

El enfoque de Dumas se sitúa a medio camino entre la novela histórica y la de aventuras. Algunos hechos son auténticos, como la rivalidad entre el cardenal Richelieu y el duque de Buckingham en el asedio de La Rochelle, punto álgido de la oposición entre Francia y Inglaterra en apoyo de los protestantes. Pero el autor se permite añadir elementos ficticios para cautivar mejor al lector, sin olvidar que la obra está concebida ante todo como una serie literaria (publicada en el periódico La Presse a partir de 1844). Prefiere dramatizar los hechos en lugar de relatarlos con exactitud. Insiste, por ejemplo, en las rivalidades y los duelos, cuando el famoso asedio de la ciudad es ante todo un acontecimiento militar.

Esta parcialidad demuestra su ambición: dotar a la historia de una dimensión novelesca en la que la acción, el suspense y la emoción priman sobre la veracidad de los acontecimientos. Por lo tanto, su trilogía no debe considerarse en absoluto un libro de historia.

Personajes reales como Richelieu, Luis XIII o Ana de Austria son los protagonistas de la trilogía. Dumas los adapta a su trama, creando caracteres más grandes que la vida. Richelieu, por ejemplo, se convierte en un símbolo de la manipulación política y las intrigas secretas, mucho más maquiavélico en la novela que lo que fue en realidad. D’Artagnan, Athos, Porthos y Aramis, aunque inspirados en mosqueteros que tal vez existieron, también están construidos como arquetipos del honor, el coraje y la amistad.

Dumas construye sus personajes como mitos, encarnaciones de virtudes o vicios. En este sentido, contribuye a una percepción de la historia en la que el heroísmo prevalece sobre la realidad. Aunque complejos, los antagonistas se reducen a una dimensión casi “monomaníaca” y se convierten en estereotipos como el del villano, el conspirador, el espía…

Retrato del escritor francés Alexandre Dumas (1802-1870)
Alexandre Dumas padre (1802-1870) por Nadar (1855).
Wikicommons

Los saltos temporales entre Los tres mosqueteros y Veinte años después o El vizconde de Bragelonne permiten a Dumas abordar épocas distintas manteniendo la continuidad narrativa. Las novelas abarcan así varias décadas de la historia francesa y dan al lector una impresión de continuidad lógica. Pero esta libertad narrativa conduce a una visión lineal y simplificada de la historia.

Una Francia heroica

A través de sus mosqueteros, Dumas construye una visión heroica y favorecedora de la historia de Francia. D’Artagnan y sus compañeros representan el espíritu francés, capaz de resistir conspiraciones y conflictos para defender los ideales de justicia y lealtad. Con sus aventuras, Dumas también transmite una forma de patriotismo: muestra personajes que, a pesar de las disputas y las luchas de poder, siguen apegados a su país y a su rey.

Dumas inventa y difunde una versión accesible y novelada de lo que ocurrió en realidad. Esta popularización se amplió con las numerosas adaptaciones cinematográficas que convirtieron a los tres mosqueteros en personajes mundialmente reconocidos. Desde Douglas Fairbanks, que interpretó a D’Artagnan en 1921, hasta Gene Kelly en 1948, la trilogía de Dumas cuenta hoy en día con más de 50 adaptaciones cinematográficas.

Tráiler de la última adaptación francesa de Los Tres Mosqueteros.

Su éxito ha familiarizado al gran público con este periodo de la historia. Sin embargo, esta popularización ha simplificado considerablemente la percepción sobre acontecimientos como los movimientos insurreccionales de la Fronde o las intrigas de Richelieu, pasando por alto la complejidad real de estos episodios históricos para promocionar un mito nacional como la rivalidad entre Richelieu y Buckingham.

El objetivo principal de Dumas seguía siendo entretener y apasionar a sus lectores, no darles una clase de historia. Pero precisamente porque la historia es omnipresente, tanto como marco como fuente de intrigas y personajes, el receptor tiene la impresión de que todo es verdad.

Dumas se permitió numerosos anacronismos, al tiempo que se tomó grandes libertades con los hechos históricos, como la historia de amor adúltera entre Ana de Austria y Buckingham, que nunca existió. Estas inexactitudes son elecciones narrativas que sirven a la trama. Algunos hechos se condensan o se desplazan para acentuar las tensiones dramáticas, como la sobrerrepresentación de Richelieu en ciertos momentos. Si bien estas libertades han sido criticadas por historiadores, no han impedido que el público se sumerja en las aventuras de los mosqueteros.

Esos arquetipos ideales

Los personajes de D’Artagnan, Athos, Porthos y Aramis se han convertido en figuras emblemáticas del patrimonio cultural francés. Encarnan ideales nobles como la valentía, la camaradería y el sentido del honor, lo que los convierte en héroes atemporales. Dumas creó arquetipos que trascienden la literatura y se han convertido en símbolos del imaginario colectivo.

En el momento de su publicación, en el siglo XIX, las aventuras de los mosqueteros se hacían eco de las preocupaciones sociales de la época, un periodo de agitación política y social para Francia (revoluciones de 1830 y 1848, entre otras). La lealtad de los mosqueteros hacia su rey, incluso a pesar de sus diferencias personales, puede interpretarse como una reflexión sobre el patriotismo y la fidelidad al Estado en un contexto posrevolucionario.

Por último, la trilogía de Los tres mosqueteros ha ejercido una influencia duradera en el género de la novela histórica, no solo en Francia, sino también a nivel internacional. Dumas supo crear una forma de literatura en la que la historia se convierte en una aventura apasionante sin ser un simple pretexto. En cierto modo, fundó un modelo que sería retomado y adaptado por numerosos autores, como Paul Féval y su obra El Jorobado.

Aún hoy, este enfoque influye en las novelas, e incluso en los medios audiovisuales como el cine y la televisión. La trilogía de Los tres mosqueteros sigue siendo una referencia ineludible para cualquiera que quiera mezclar la historia con la ficción.

The Conversation

Philippe Ilial es profesor de secundaria y de la Universidad Côte-d’Azur, además de redactor jefe de varias revistas de divulgación histórica.

ref. ‘Los tres mosqueteros’: cómo la obra de Alejandro Dumas influye en nuestra percepción de la historia de Francia – https://theconversation.com/los-tres-mosqueteros-como-la-obra-de-alejandro-dumas-influye-en-nuestra-percepcion-de-la-historia-de-francia-260954

Ley Genius: Estados Unidos va a intentar regular las criptomonedas, pero eso no las va a librar del riesgo

Source: The Conversation – (in Spanish) – By Sergi Basco, Profesor Agregado de Economia, Universitat de Barcelona

Aijiro/Ahutterstock

El sector de las criptomonedas ha visto como una gran victoria la aprobación en el Senado estadounidense de la GENIUS Act (Guiding and Establishing National Innovation for U.S. Stablecoins Act, Ley GENIUS), a mediados de junio de este año. Con esta ley, Estados Unidos pretende regular un tipo de criptomoneda conocida como stablecoin (cuyos precios están vinculados a una moneda física). Pero un análisis más detallado revela que podría ayudar a provocar un nuevo colapso económico.

Descentralización: la base de las criptomonedas

Para entender la Ley GENIUS vamos a remontarnos a los primeros días de las criptodivisas. Estas surgieron como una moneda descentralizada cuya oferta, y por tanto su valor, no serían determinados ni por la Reserva Federal ni por el Banco Central Europeo, sino por un sistema informático complejo y globalizado.

La primera criptodivisa, y la más prominente, fue el bitcoin (2009). La idea era que sería un valor similar al oro, que se podría minar para proporcionar un suministro (casi) constante, ofreciendo un retorno a la era del patrón oro, cuando el valor de cualquier moneda se determinaba por el valor del oro y no por el de las economías nacionales.

Eso fue entonces. Hoy en día, la forma más benigna de definir las criptodivisas es como un casino. De hecho, la gente invierte en criptos precisamente porque no es estable y fiable como el oro, sino que su valor es volátil y puede dar lugar a enormes rendimientos de la inversión (pero también a grandes pérdidas).

Dado que a menudo los factores que determinan su precio no están claros, la inversión en criptomonedas es, esencialmente, una tirada de dados. Obtener beneficios con ellas puede ser tan probable como ganar a la ruleta.




Leer más:
Los jóvenes y la atracción por las criptodivisas


La credibilidad de las criptomonedas

La industria de las criptomonedas comprendió que esa alta volatilidad (e imprevisibilidad) era un obstáculo para atraer a los inversores más cautelosos. Para aparentar estabilidad, las empresas empezaron a crear stablecoins: criptomonedas cuyos precios están vinculados a una divisa.

Así, imaginemos que una empresa llamada “T” crea su propia criptomoneda, llamada “t-coin”, y la vincula al dólar estadounidense a un tipo de cambio de 1:1. Si compro una t-coin su precio será el mismo que el del dólar, y sé que podré volver a la empresa T, cambiar mi criptomoneda y obtener 1 USD. Pero si la empresa no puede proporcionarme ese dólar, tanto la moneda como la empresa se hundirán y los inversores que compraron t-coins perderán su dinero.

Este tipo de colapso no es, ni mucho menos, hipotético. En Corea del Sur, en 2022, la stablecoin Terra, indexada al dólar estadounidense, cayó en picado desencadenando un cataclismo que, de la noche a la mañana, eliminó alrededor de 60 000 millones de dólares de los mercados internacionales de criptomonedas.

¿Criptomonedas seguras?

Hace varios años viví la experiencia de visitar un casino de Las Vegas. Al entrar cambié dólares por fichas (tokens), que utilicé en lugar de dinero dentro del casino. Si terminaba la noche con alguna ficha sobrante podía volver a cambiarla por la misma cantidad de dólares que me había costado. Una stablecoin es esencialmente lo mismo, pero con tokens electrónicos en lugar de fichas de casino.

Con la Ley GENIUS en el Senado de EE. UU., grandes empresas como Amazon y Walmart ya están planeando emitir sus propias stablecoin para que las utilicen sus clientes. Pero la idea de que las empresas tengan su propia moneda plantea serias dudas. ¿Se podrán utilizar los tokens de Amazon para pagar en Walmart (o viceversa)? ¿Será el valor de los tokens de Walmart el mismo si los uso para pagar en Amazon? Si cada gran empresa de EE. UU. decide crear su propio token, ¿qué token utilizar para cada transacción?

Dado que la Ley GENIUS regulará las stablecoins, la gente puede creer que todas son igual de seguras. Sin embargo, esto es imposible de garantizar y tampoco se sabe cómo aprovecharán las empresas sus stablecoins en su propio beneficio.

Volvamos al casino: durante mi visita, no me preocupaba que al ir a cambiar mis tokens a dólares el establecimiento no fuera a cumplir su parte del trato. Sin embargo, imaginemos que me llevo las fichas, vuelvo al casino la noche siguiente y me encuentro con que ha cerrado o no tiene suficientes dólares para pagarme. Ahí está el problema.




Leer más:
Las criptodivisas buscaban estabilidad y encontraron oro y dólares


¿La próxima crisis financiera?

El mundo ha sufrido varias crisis monetarias en las que un país, en lugar de una empresa, emite una moneda vinculada a su economía. Argentina es un ejemplo clásico. De 1991 a 2002, su banco central estableció un tipo de cambio de un peso por un dólar. Este tipo de cambio, artificial e impuesto, distorsionó las relaciones comerciales con otras economías no dolarizadas y acabó produciendo una enorme crisis que empeoró cuando finalmente se eliminó la paridad peso/dólar.

Ahora imaginemos que en EE. UU. una empresa muy grande emite 100 000 millones de stablecoins y los vincula al dólar. La empresa tiene éxito y cuenta con suficientes activos (incluidos bonos o letras del Tesoro estadounidense) para garantizar el valor de la moneda. Sigue emitiendo más stablecoins pero, entonces, sus finanzas empeoran.

Esto desencadenaría una reacción en cadena. En algún momento, los inversores se darían cuenta de que la empresa ha emitido más stablecoins que el valor de los bonos del Tesoro estadounidense que afirma tener. Empezarían a devolver los stablecoins, lo que llevaría a la empresa a vender sus bonos para calmar (probablemente sin éxito) a los nerviosos inversores.

Los efectos no tardarían en propagarse. Una venta masiva de bonos estadounidenses reduciría el precio de los propios bonos, provocando un repunte de los tipos de interés en Estados Unidos. Un aumento repentino, inesperado y drástico de los tipos de interés estadounidenses podría traducirse fácilmente en una crisis financiera mundial, pues los bancos y los gobiernos de todo el mundo se enfrentarían de repente a la crisis de solvencia estadounidense.

La regulación no es garantía

Obviamente, esto no tiene por qué ocurrir. Con la nueva legislación, las empresas que emitan stablecoins estarán reguladas, y los reguladores se asegurarán de que tengan suficientes reservas para cumplir sus promesas si los inversores entran en pánico.

Sin embargo, los reguladores financieros no son infalibles. Hace sólo unos años, en 2023, no se dieron cuenta de que el Silicon Valley Bank tenía demasiados activos en riesgo. Este descuido provocó finalmente el colapso del banco.

Por tanto, no es difícil imaginar una situación en la que varias empresas puedan emitir irresponsablemente demasiadas stablecoins. Si esto ocurre, las consecuencias podrían ser nefastas, no sólo para Estados Unidos sino para toda la economía mundial.

The Conversation

Sergi Basco no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Ley Genius: Estados Unidos va a intentar regular las criptomonedas, pero eso no las va a librar del riesgo – https://theconversation.com/ley-genius-estados-unidos-va-a-intentar-regular-las-criptomonedas-pero-eso-no-las-va-a-librar-del-riesgo-260903

Mirando a Srebrenica para entender Gaza: ¿cómo se prueba la intención de destruir a un grupo?

Source: The Conversation – (in Spanish) – By Pilar Eirene de Prada, Profesora/Investigadora en Derecho Internacional y RRII, Universidad Francisco de Vitoria

Tumbas de civiles asesinados en Potocari, Srebrenica. dotshock/Shutterstock

Este mes de julio se cumplen treinta años de la masacre ocurrida en Srebrenica, un enclave montañoso ubicado en el este de Bosnia y Herzegovina, cercano a la frontera con Serbia. Entre el 6 y el 11 de julio de 1995, más de 8 000 hombres y niños bosniomusulmanes fueron asesinados por fuerzas serbobosnias en este lugar, declarado “zona segura” por Naciones Unidas, y bajo la protección directa de los cascos azules. Las escenas retransmitidas por los periodistas de guerra dieron la vuelta al mundo y marcaron un hito en la conciencia colectiva de Occidente.

Hoy, cuando las imágenes que llegan desde Gaza vuelven a activar el debate sobre qué constituye un genocidio, resulta imprescindible volver la mirada al caso de Srebrenica para entender cómo los tribunales internacionales interpretan este crimen internacional.

¿Por qué solo se reconoció el genocidio en Srebrenica?

El Tribunal Penal Internacional para la ex Yugoslavia (TPIY) reconoció la masacre de Srebrenica como genocidio. Fue un hito jurídico importante, pero también dejó un sabor amargo, especialmente en las víctimas. El tribunal solo calificó como genocidio los crímenes cometidos en Srebrenica, dejando fuera otros episodios de violencia igualmente sistemática contra la población bosniomusulmana ocurridos en otros municipios. ¿Por qué?

La respuesta está en una interpretación legal extremadamente restrictiva del crimen de genocidio. Según la Convención para la Prevención y la Sanción del Delito de Genocidio (1948), requiere probar que los actos (asesinatos, torturas, destrucción de condiciones de vida…) fueron cometidos con la “intención de destruir, total o parcialmente, a un grupo nacional, étnico, racial o religioso, como tal”.

El problema es cómo se interpreta esa “intención”. La jurisprudencia dominante ha adoptado lo que se conoce como purpose-based approach (enfoque fundado en la intencionalidad específica). Es decir, una exigencia de propósito consciente y deliberado de destrucción. Bajo esta lógica, no basta con demostrar que los actos tuvieron efectos devastadores para el grupo. Hay que probar que fueron cometidos con la intención específica de eliminarlo.

La intención genocida va más allá de una orden

En contextos modernos de conflicto, la intención de destruir a un grupo se evidencia a través de la acumulación de políticas públicas, decisiones militares, marcos normativos y narrativas sobre el otro. La prueba de cargo, ya sea una orden explícita, discursos que hablen abiertamente de aniquilación o referidos a un único acto de exterminio, se vuelve casi imposible de objetivar.

Además, limitar el genocidio a un episodio concentrado y mediáticamente visible deja fuera del radar muchas otras formas de destrucción colectiva, más complejas y larvadas.

El contexto es relevante

En este sentido, resulta cada vez más necesario repensar la manera en que identificamos el genocidio, que se aleja también del modelo totalizador del holocausto (para algunos único genocidio posible y por lo tanto irrepetible).

Una alternativa a este enfoque tradicional es lo que la doctrina jurídica crítica ha denominado knowledge-based approach, o enfoque basado en el conocimiento. Esta perspectiva no exige demostrar una voluntad explícita de exterminio, sino que se pregunta si los perpetradores sabían –o no podían ignorar– que sus actos contribuían a un patrón sistemático de destrucción del grupo.

Este enfoque se apoya en una visión más estructural y menos individualista del genocidio. El crimen no se comete solo desde una voluntad interna subjetiva, sino a través de patrones más amplios que podemos construir si tenemos en cuenta importantes elementos contextuales: políticas públicas, marcos legales de excepción, discursos deshumanizantes y/o decisiones estratégicas sostenidas en el tiempo. Bajo esta lógica, la responsabilidad penal no se diluye, sino que se adapta a las realidades contemporáneas de la violencia colectiva.

Del marco téorico a la práctica: Gaza

Este debate trasciende el marco teórico y tiene una gran relevancia en la práctica. Desde octubre de 2023, Gaza ha sido sometida a una campaña de destrucción progresiva: bombardeos masivos, cortes de suministro, desplazamientos forzados, hambre inducida y colapso sanitario. Más de 55 000 personas han muerto y cientos de miles han sido heridas. Pero más allá de las cifras, lo que está en juego es una forma sostenida de aniquilación del modo de vida palestino.

Así lo planteó Sudáfrica en la demanda presentada ante la Corte Internacional de Justicia en diciembre de 2023. Y se ratificó por la Corte en sus providencias de medidas provisionales.

En ellas, el principal órgano judicial de Naciones Unidas determinó que existe un riesgo real e inminente de que se cause un perjuicio irreparable al derecho del pueblo palestino en Gaza a ser protegido frente a actos genocidas y otras conductas prohibidas por la Convención. Y sin embargo, el reconocimiento jurídico de este escenario como genocidio sigue siendo objeto de gran disputa.

Rafael Lemkin, el jurista que acuñó el término “genocidio” en 1944, entendía este crimen no solo como la destrucción física de personas, sino como la eliminación de la vida colectiva de un grupo, su cultura, sus símbolos y sus condiciones de existencia.

Genocidio cultural: más allá de la violencia directa

Sin embargo, la definición legal vigente, moldeada por intereses coloniales y centrada en el modelo del Holocausto, excluyó deliberadamente el genocidio cultural. Esta visión estrecha ignora que los grupos humanos también pueden ser destruidos mediante políticas de desplazamiento y asimilación forzada. Unas estrategias que borran la memoria, el idioma o el vínculo con el territorio. Los grupos humanos no se destruyen solo con violencia directa.

Treinta años después de Srebrenica, urge una relectura crítica de la figura del genocidio. No para vaciarla de contenido, sino para restaurar su capacidad protectora frente a nuevas formas de destrucción colectiva. El conocimiento del perpetrador sobre el impacto de sus actos debe bastar para generar responsabilidad genocida. Especialmente si esos actos contribuyen a un plan sistemático de eliminación del grupo.

En un mundo donde el exterminio se administra burocráticamente, la justicia internacional debe aprender a reconocer y nombrar las violencias del presente. Incluso cuando no se ajustan a las categorías del pasado o correrá el riesgo de dejar impunes las formas contemporáneas de destrucción colectiva.

The Conversation

Pilar Eirene de Prada no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Mirando a Srebrenica para entender Gaza: ¿cómo se prueba la intención de destruir a un grupo? – https://theconversation.com/mirando-a-srebrenica-para-entender-gaza-como-se-prueba-la-intencion-de-destruir-a-un-grupo-260461

La fórmula del éxito deportivo según Alcaraz: sacrificio pero con límites

Source: The Conversation – (in Spanish) – By Itziar Urquijo Cela, Profesora de Ciencias de la Actividad Física y del Deporte, Universidad de Deusto

Carlos Alcaraz, durante una rueda de prensa durante el torneo Conde de Godó, en Barcelona, el 12 de abril de 2025. Marta Fernández Jiménez/Shutterstock

El documental A mi manera, recién estrenado en Netflix, deja claro que el tenista Carlos Alcaraz ha decidido vivir y competir bajo sus propias reglas. Lo que podría parecer una simple estrategia de marca personal adquiere otra dimensión tras la reacción que ha generado: opiniones divididas y críticas de referentes y compañeros del mundo del tenis que dudan de que su forma de entender el deporte sea compatible con alcanzar la cima.

Pero ¿y si no fuese el joven tenista el que está equivocado? ¿Y si su actitud no cuestionara el éxito sino más bien la tradicional vía para conseguirlo?

¿Triunfar a cualquier precio o triunfar al tiempo que se vive?

Durante mucho tiempo, hablar de éxito en el deporte implicaba un sacrificio sin límites: renunciar a todo, sufrir, soportar y soportar, como si solo de esa forma se pudiese llegar a lo más alto. Esta fórmula ha funcionado en algunos casos, pero también ha hecho mucho daño a tantos profesionales, generándoles sensación de abandono o problemas de salud mental, entre tantos otras consecuencias.

A sus 22 años, Alcaraz rompe con esa manera de pensar. No quiere que su pasión, el tenis, le exija tanto como para dejar de seguir siendo él mismo y deje de tener una vida fuera del deporte. Este planteamiento puede resultar para muchos ingenuo o incluso poco profesional, pero la psicología del deporte le da la razón al tenista español. La evidencia científica deja claro, por ejemplo, cómo el éxito deportivo da largo plazo requiere integrar la salud mental como un pilar del rendimiento y no como un aspecto al margen.




Leer más:
Esta es la razón por la que los logros de Messi, Federer y Kipchoge no son estrictamente humanos


La base invisible del alto rendimiento

La idea anterior podría explicarse desde la teoría de la autodeterminación, la cual sostiene que las personas desarrollan una mayor motivación y rinden mejor cuando se sienten capaces, libres para decidir y conectadas con los demás.

En el caso de Alcaraz, estas tres experiencias están muy presentes en su forma de jugar. Su competencia se refleja en el alto nivel deportivo que demuestra y en la seguridad con la que se expresa: el joven tenista siente capaz de lograr lo que se propone.

No obstante, su mayor cualidad es la autonomía: en vez de seguir el camino preestablecido, como tantos deportistas hacen, él decide cómo entrena, compite y vive, siendo fiel a sus sentimientos y valores.

Por otro lado, la relación que mantiene tanto con su entorno deportivo como con el familiar le permite mantener los pies en el suelo.




Leer más:
Lo que hay que tener para convertirse en deportista de élite


Más allá de ser un tenista

Si tenemos en cuenta que todo lo relacionado con la práctica deportiva se mide en números y rankings es normal que estos profesionales se sientan reducidos a los resultados que dan. Y esta sensación se conoce como metadehumanización: verse a uno mismo como un producto y no como una persona.

No obstante, en un mundo deportivo donde todo gira en torno al rendimiento, el tenista español ha decidido poner sus límites y utilizar el mecanismo de la desidentificación adaptativa, que hace una diferencia entre la persona y el deportista. Es decir, un abordaje de roles donde querer ser el mejor no implica renunciar a disfrutar, compartir tiempo con los suyos y seguir siendo Carlos fuera de la pista.




Leer más:
Conviene echarse la siesta para ser un buen deportista


Alcaraz como espejo: lo que no queremos ver

El documental de Alcaraz no solo muestra cómo entrena y compite el tenista, sino que enseña una manera distinta de comprender el deporte, en la que llegar al éxito deportivo puede ser compatible con disfrutar del día a día, como lo hace él. Ya hubo antes otros deportistas que rompieron con esa lógica en el alto rendimiento.

La tenista japonesa Naomi Osaka, por ejemplo, decidió no acudir a varias ruedas de prensa por motivos de ansiedad. Poco después, la gimnasta artística estadounidense ganadora de 41 medallas entre Juegos Olímpicos y Campeonatos Mundiales, Simone Biles, renunció a competir en varias finales olímpicas para cuidar su salud mental. En ambos casos se habló de falta de compromiso, debilidad y de una actitud decepcionante para con sus públicos.

Carlos Alcaraz no sólo ha abierto un debate público sobre la forma de entender el éxito en el deporte de alta competición, sino que ha puesto en evidencia un modelo establecido y nada saludable que ha llevado a muchos deportistas al límite.

¿Y si el verdadero riesgo para los deportistas profesionales es seguir teniendo de referencia esa forma de entender el éxito tan perjudicial?

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. La fórmula del éxito deportivo según Alcaraz: sacrificio pero con límites – https://theconversation.com/la-formula-del-exito-deportivo-segun-alcaraz-sacrificio-pero-con-limites-260053

Vuelve Superman, un superhéroe para su tiempo

Source: The Conversation – (in Spanish) – By David Moriente Díaz, Profesor de Historia y Teoría del Arte, Universidad Autónoma de Madrid

Fotograma de ‘Superman’, la versión de 2025 de James Gunn. FilmAffinity

En junio de 1938 el dibujante Joseph “Joe” Shuster y el guionista Jerome “Jerry” Siegel presentaron, en el primer número de la revista Action Comics, a Superman. Este personaje, además de convertirse en celebérrimo, abriría la puerta a un nuevo género que continúa hasta hoy: el de las aventuras de superhéroes.

Portada de una revista en la que un hombre vestido de azul y con capa roja levanta un coche por encima de su cabeza.
Portada del primer número de Action comics con Superman haciendo de las suyas.
RTVE/Heritage Auctions

En su icónica portada y en apenas once páginas, los autores del cómic desplegaron el origen extraterrestre del personaje, su llegada a la Tierra, sus habilidades sobrehumanas y su dedicación al bien. De hecho, en el último minuto salvaba a una mujer acusada injustamente de haber cometido un asesinato de ser ejecutada en la silla eléctrica.

Con apenas 24 años y con formaciones casi autodidactas, Shuster y Siegel marcaron los inicios de un mito que alcanza hasta hoy.

Ambos, de origen judío-lituano, eran norteamericanos de segunda generación que vivían en el barrio judío de Glenville (Cleveland). Se habían criado en el seno de familias muy humildes que habían llegado a Estados Unidos huyendo del creciente antisemitismo en Europa, de igual modo que otros nombres axiales para la industria cultural del cómic de los años cincuenta y sesenta –la denominada “edad de oro”– como, por ejemplo, Jack Kirby o Will Eisner.




Leer más:
De ‘Superman’ a ‘Maus’, los creadores judíos son parte esencial de la historia del cómic


Shuster y Siegel no crearon a Superman de la nada, sino que absorbieron la influencia de numerosos elementos que conformaban el ambiente de la cultura popular del momento, que se transmitía a través, principalmente, del pulp (publicaciones de papel barato). Así, por ejemplo, bebieron del virtuosismo de un personaje como Doc Savage (Henry Rawlston y John Nanovic, 1933), quien en sus peripecias buscaba eliminar “las injusticias y castigar a los malvados”, como rezaban los lemas de la época. O se inspiraron, un poco después, en la sólida brújula moral y la identidad secreta en la figura cuasifantástica de The Phantom (Lee Falk y Ray Moore, 1936).

Superman tiene ‘algo más’

Sin embargo, el matiz diferencial de Superman –y que sería la clave de su éxito– es que introducía el superpoder, una característica que lo hacía entroncar directamente con los mitos de los semidioses: podía volar, y tenía una fuerza y resistencia inmensurables, además de facultades como proyectar rayos ópticos o despedir un aliento helado.

Ahora se estrena la última adaptación cinematográfica de la historia del personaje, de la mano del director James Gunn. Tras su exitosa trilogía dedicada a los personajes de la editorial Marvel, los Guardianes de la Galaxia, Gunn ha sido contratado por DC Comics para ordenar el mundo cinematográfico del Universo DC –el de Superman y Batman, entre otros– y competir con la compañía rival Marvel Studios.

Gunn ha decidido no ahondar en los inicios del mito de Superman, que ya han sido tratados infinidad de veces en la gran pantalla. Así, los espectadores dan por sabida su historia: Superman –de nombre original Kal-El– es el único superviviente de la destrucción del planeta Krypton causada por la explosión de su sol. Lo hace gracias a que su padre lo manda a la Tierra siendo un bebé en una pequeña cápsula. Lo encuentran los Kent, un humilde matrimonio de granjeros de Kansas, quienes lo crían inculcándole el valor supremo de hacer el bien.

Una década convulsa

A finales de la década de los treinta, cuando se publicó el cómic, la sociedad estadounidense trataba de olvidar la brutal recesión del país acaecida a consecuencia del crack del 29. La crisis había sido atajada gracias a las medidas del New Deal propuestas por el presidente Roosevelt, que reforzaban la necesidad de premiar el trabajo duro y el heroísmo cotidiano de la clase trabajadora, un estrato al que pertenecían los padres adoptivos de Superman.

Simultáneamente, esa sociedad encaraba con incertidumbre un futuro cuyo escenario prebélico ya era palpable en Europa tras el ascenso de los nazis al poder en 1933. Como nota curiosa, durante la Segunda Guerra Mundial, y con toda la maquinaria propagandística al servicio del ejército de Estados Unidos, Superman se enfrentó con personajes inspirados en la Alemania nazi, aunque nunca “zurró” directamente a Hitler (como sí hizo, por ejemplo, el Capitán América).

El héroe y su punto débil

¿Qué significa el héroe (uso deliberadamente el género masculino) como sujeto narrativo?

La voz procede del griego hḗrōs, un concepto usado para referirse a los semidioses, es decir, los hijos habidos de la unión entre dioses y mortales. Estos seres, en términos generales, se situaban a medio camino entre lo humano y lo divino. Según esto, el valor, el sacrificio y la empatía se atribuían a la humanidad, mientras que la superioridad moral y las habilidades sobrenaturales serían de origen celestial. La combinación de ambas, entonces, conformaba el perfecto modelo a seguir.

Los héroes procedentes de la mitología de todas las culturas, de Gilgamesh a Hércules pasando por Kintaro o Beowulf, encarnan el prototipo de lo bello, lo bueno y lo verdadero.

No obstante, Superman –al igual que, por ejemplo, Aquiles– también tenía un punto débil: la kriptonita, un material procedente de su mundo natal que podía anular sus superpoderes y lo transformaba en un mortal como el resto de nosotros.

Quién somos y quién queremos ser

La RAE define a un “supermán” como un “hombre de capacidades y cualidades sobrehumanas”.

Sin embargo, el triunfo de su impronta en la sociedad como mito moderno hay que buscarlo en la doble faz del personaje. Tenemos, por un lado, al tímido, torpe y algo estúpido Clark Kent que con sus gafas permitía a cualquiera –siempre que fuera caucásico y occidental– identificarse con él. Pero además, existía la posibilidad de que esa envoltura endeble albergase un otro yo capaz de enfrentarse a todo. Alguien que, como el Übermensch (superhombre) de Friedrich Nietzsche, hubiese alcanzado un estado supremo.

Un chico con traje, pelo rizado y gafas mira hacia arriba, fuera de campo.
Tal vez no todos podamos ser Superman, pero sí podemos ser Clark Kent.
IMDB

Tras numerosas adaptaciones al medio fílmico en los últimos años, quizá haya que destacar que, a diferencia de la penúltima visión de Zack Snyder y su Man of the Steel (2013), la de Gunn recupera la esencia más humanista –más clásica incluso– y bondadosa de un personaje. Tal vez estos sean los ideales necesarios para subsistir en los Estados Unidos de hoy, con un ambiente casi distópico. Como se suele decir: la realidad supera a la ficción.

The Conversation

David Moriente Díaz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Vuelve Superman, un superhéroe para su tiempo – https://theconversation.com/vuelve-superman-un-superheroe-para-su-tiempo-260658

Tres alimentos con K y con hongos: lo que el kéfir, la kombucha y el koji tienen en común

Source: The Conversation – (in Spanish) – By Sergio Fuentes Antón, Profesor de Didáctica de las Ciencias Experimentales, Universidad de Salamanca

Preparación de kombucha. ViJpeg/Shutterstock

En las estanterías de muchas tiendas gourmet y de cada vez más supermercados es frecuente encontrar frascos de kéfir, botellas de kombucha o bolsas de arroz fermentado con koji. Estos tres productos que comparten la inicial “k” tienen algo más profundo en común: su origen en la fermentación, un proceso milenario que transforma alimentos gracias a la acción de hongos y bacterias.

Durante siglos, el ser humano se ha servido de ciertos microorganismos para conservar alimentos, potenciar sabores y mejorar su digestibilidad, mucho antes incluso de comprender lo qué ocurría a nivel microscópico en el interior de nuestro cuerpo. Hoy, la ciencia de la microbiota y el creciente interés por la alimentación saludable han devuelto el protagonismo a estos cultivos vivos.

Kéfir, kombucha y koji representan culturas distintas –la de los pueblos nómadas, la del té oriental y la cocina japonesa– unidas por la misma fascinación: el poder invisible de los hongos para convertir lo ordinario en extraordinario. ¿Qué es los hace únicos y por qué están conquistando nuestras cocinas?




Leer más:
Los hongos son la materia prima del futuro


Kéfir: la bebida de los nómadas

El kéfir es una bebida fermentada de textura cremosa y sabor ligeramente ácido, elaborada tradicionalmente a partir de leche y unos gránulos únicos que concentran un ecosistema vivo de bacterias y hongos. Se cree que su origen se remonta a las montañas del Cáucaso, donde los pueblos nómadas lo preparaban en sacos de piel de cabra que colgaban de las puertas para que se agitara al paso de la gente.

Los gránulos de kéfir contienen una combinación simbiótica de microorganismos (principalmente lactobacilos, levaduras y hongos filamentosos) que transforman la lactosa en ácido láctico, dióxido de carbono y compuestos aromáticos.

Este proceso no solo prolonga la conservación de la leche, sino que enriquece la bebida con vitaminas, enzimas y probióticos que favorecen la salud intestinal. En la actualidad, el kéfir se elabora también con agua y azúcar, dando lugar a versiones veganas y refrescantes. Su historia refleja cómo la humanidad aprendió a domesticar microorganismos mucho antes de descubrirlos al microscopio.




Leer más:
Kéfir: un viejo producto que se ha puesto de moda


El té convertido en elixir: la kombucha

Las primeras referencias de esta bebida la sitúan en la antigua China, donde ha sido consumida desde hace milenios. La kombucha es una bebida fermentada a base de té endulzado que se transforma gracias a un cultivo simbiótico de bacterias y levaduras conocido como SCOBY (siglas de Symbiotic Culture Of Bacteria and Yeast).

Durante la fermentación, el SCOBY produce ácidos orgánicos, vitaminas del grupo B y pequeñas cantidades de alcohol y dióxido de carbono, responsables de su característico sabor avinagrado y burbujeante.

Actualmente, la kombucha se ha convertido en un icono de las dietas saludables y la cultura foodie. Esta mezcla de hongos y bacterias no solo crea un sabor único, sino que refleja la capacidad de la fermentación para reinventar algo tan cotidiano como una taza de té.

Koji: el hongo que cambio la gastronomía japonesa

El koji es un cultivo de hongos que ha modelado la cocina de Japón durante más de un milenio. Su protagonista es el Aspergillus oryzae, un hongo filamentoso que se cultiva sobre granos cocidos de arroz, cebada o soja.

Bajo condiciones de humedad y temperatura controladas, el hongo coloniza el cereal, liberando enzimas que transforman los almidones y proteínas en azúcares y aminoácidos. Este proceso es la base de productos esenciales como el miso, la salsa de soja y el sake, todos ellos con matices de sabor que deben su complejidad al koji.

Más allá de su importancia culinaria, este hongo se considera un símbolo cultural: en Japón se le llama cariñosamente “el hongo nacional”.

Hoy, chefs de todo el mundo exploran nuevas aplicaciones del koji en panes, embutidos o quesos veganos, demostrando que la fermentación fúngica sigue siendo una herramienta de innovación gastronómica.




Leer más:
Los hongos son la materia prima del futuro


El poder invisible de los hongos

Kéfir, kombucha y koji son mucho más que tendencias gastronómicas: representan un redescubrimiento de la fermentación como aliada de la salud, el sabor y la sostenibilidad. Estos alimentos, nacidos de tradiciones milenarias, nos recuerdan que convivimos con un universo microscópico que transforma lo que comemos y ayudan a mejorar la salud y el bienestar. El kéfir, por ejemplo, contiene sustancias anticancerígenas.

Detrás de su aparente sencillez se esconden hongos y bacterias que trabajan en simbiosis, liberando nutrientes, creando aromas complejos y prolongando la vida útil de los alimentos.

En un mundo que busca alternativas más naturales y menos procesadas, la fermentación y los hongos emergen como un puente entre el pasado y el futuro. Quizá, la próxima vez que contemplemos un hongo, recordemos que su labor silenciosa ha dado forma a culturas enteras y que, con cada sorbo o bocado, seguimos alimentando una relación milenaria que nos conecta con la vida más allá de lo visible.

The Conversation

Sergio Fuentes Antón no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Tres alimentos con K y con hongos: lo que el kéfir, la kombucha y el koji tienen en común – https://theconversation.com/tres-alimentos-con-k-y-con-hongos-lo-que-el-kefir-la-kombucha-y-el-koji-tienen-en-comun-259621