Source: The Conversation – (in Spanish) – By Bismarck Jigena Antelo, Profesor Titular de Unversidad, Area de Ciencias y Técnicas de la Navegación y Ciencias Marinas, Universidad de Cádiz
Acostumbrados a consultar mapas digitales en el móvil o en el coche, puede parecer que los mapas antiguos ya no tienen utilidad práctica. A menudo, se consideran piezas de archivo, valiosas desde el punto de vista histórico, pero poco relevantes para el análisis científico actual. Sin embargo, esta percepción es engañosa. Algunos mapas históricos siguen siendo una fuente fundamental de información para entender cómo ha cambiado el territorio a lo largo del tiempo.
La carta náutica de Tofiño de 1789
Vicente de Tofiño de San Miguel, jefe de escuadra de la real Armada. Anónimo. Wikimedia Commons.
Un buen ejemplo es la carta náutica de la bahía de Cádiz elaborada en 1789 por Vicente Tofiño de San Miguel. A pesar de haber sido realizada hace más de tres siglos, esta cartografía permite reconstruir con notable detalle la configuración del litoral en el siglo XVIII y compararla con la bahía que conocemos hoy.
Vicente Tofiño fue una figura clave de la Ilustración española. Marino y científico, dirigió el proyecto del Atlas Marítimo de España, concebido para mejorar la navegación y el conocimiento de las costas mediante observaciones sistemáticas. La carta de la bahía de Cádiz no fue un dibujo aproximado ni una representación artística, sino un documento técnico elaborado con los métodos más avanzados disponibles en su época.
Combinando la historia con las nuevas tecnologías
Trabajar hoy con este tipo de cartografía plantea, no obstante, algunas dificultades. El mapa de 1789 no incluye coordenadas geográficas modernas, ni especifica su proyección cartográfica. Además, su orientación difiere de la habitual en los mapas actuales. Durante mucho tiempo, estas limitaciones llevaron a considerar los mapas históricos como poco útiles para el análisis espacial riguroso.
Esta situación ha cambiado gracias al desarrollo de nuevas tecnologías. Actualmente, los mapas antiguos pueden integrarse con herramientas como los sistemas de información geográfica (GIS), el posicionamiento por satélite (GNSS), la teledetección y técnicas modernas de cartografía digital. Mediante procesos
de georreferenciación, es posible ajustar la cartografía histórica a los sistemas de referencia actuales, utilizando elementos del territorio que se mantienen reconocibles con el paso del tiempo.
Un ejemplo concreto ayuda a entender el valor de este enfoque. Al superponer el mapa de 1789 con la cartografía actual, se observa que amplias zonas que hoy forman parte del frente urbano y portuario de la bahía eran entonces espacios intermareales o marismas.
La carta de Tofiño, ajustada utilizando metodologías de GNSS y GIS, utilizando 9 puntos de control y la técnica del ajuste elástico (rubbersheeting). Bismarck Jigena Antelo et al.
En algunos sectores del interior de la bahía, la línea de costa histórica aparece desplazada varios cientos de metros respecto a la actual, lo que permite visualizar con claridad la magnitud de las transformaciones experimentadas por el litoral. Estos cambios no son solo historia: siguen influyendo en el comportamiento actual de la bahía.
Así, la comparación entre ambos momentos históricos pone de manifiesto transformaciones profundas en la bahía de Cádiz. La línea de costa ha sido modificada de forma significativa, especialmente en las áreas más urbanizadas. Zonas que en el siglo XVIII estaban poco alteradas muestran hoy una intensa ocupación y una morfología claramente distinta, fruto de la interacción entre procesos naturales y la acción humana.
Saber cómo era la bahía antes de las grandes obras ayuda a explicar por qué hoy algunas zonas son más vulnerables que otras.
Un testigo de cómo afectan los cambios a la costa
De esta manera, más allá de la simple descripción visual, el mapa de 1789 actúa como una referencia histórica que ayuda a contextualizar las transformaciones del litoral y a comprender mejor su evolución a lo largo de casi tres siglos. Disponer de esta perspectiva temporal amplia resulta especialmente valioso en un entorno costero tan dinámico y sensible como la bahía de Cádiz.
Cambios morfológicos en la línea de costa y áreas urbanas de la Bahía de Cádiz. Bismarck Jigena Antelo et al.
A menudo, los mapas antiguos son la única fuente disponible para conocer el estado del territorio antes de las grandes intervenciones del siglo XX.
En un momento de creciente presión sobre las costas, mirar al pasado con herramientas del presente puede ser una de las mejores formas de tomar decisiones más informadas de cara al futuro.
Imagen satelital de la Bahía de Cádiz. Google Earth Pro 2026.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
¿Por qué a veces una imagen o vídeo generado por inteligencia artificial nos desasosiega aunque parezca casi real? El fenómeno conocido como “valle inquietante” describe precisamente esa respuesta de extrañeza o rechazo que sentimos ante reproducciones casi humanas.
Originalmente formulado en 1970 por el roboticista Masahiro Mori, el valle inquietante plantea que cuanto más se parecen un robot o figura artificial a un ser humano, más positiva es la reacción… hasta que la similitud casi perfecta provoca repulsión.
En los últimos años, con IA generativa capaz de producir rostros e incluso vídeos realistas, esto ha cobrado nueva relevancia: ¿cómo percibimos los humanos estas creaciones sintéticas? ¿Somos capaces de notar que son artificiales? ¿Por qué a veces no logramos detectarlo?
¿Qué es el valle inquietante y por qué ocurre?
El valle inquietante es una hipótesis que describe la reacción emocional negativa ante entidades artificiales muy humanas, pero no del todo auténticas. Cuando una figura antropomórfica, un robot, un avatar digital, un rostro generado por IA, se acerca mucho a la apariencia humana pero muestra algo sutilmente “fuera de lugar”, suele provocarnos desasosiego. Nuestro cerebro percibe que “algo no encaja”, generando inquietud o simple rechazo.
Diversas teorías intentan explicar las causas de este efecto: desde razones evolutivas (nuestro cerebro asociaría las distorsiones faciales con enfermedad o peligro, activando una respuesta de aversión instintiva) hasta cognitivas (la incertidumbre de no poder clasificar algo como humano o no humano genera rechazo) y existenciales (un doble artificial casi idéntico a nosotros puede recordarnos nuestra propia mortalidad o reemplazabilidad).
Desde la neurociencia cognitiva, comienzan a hallarse mecanismos cerebrales detrás del valle inquietante. Investigadores de la Universidad de Cambridge mostraron imágenes de humanos reales, rostros virtuales y robots a voluntarios mientras medían su actividad cerebral por imagen por resonancia magnética funciona (fMRI). Encontraron que el cerebro funciona como una especie de “detector de humanidad”: la corteza prefrontal ventromedial aumentaba su actividad ante figuras más humanizadas pero caía abruptamente al rozar el límite de lo humano sin serlo, mientras que la amígdala se activaba con intensidad, sugiriendo una respuesta emocional de alarma.
El ojo humano ante las imágenes de IA: detectar lo artificial
Los seres humanos somos expertos en rostros y en descifrar señales sociales sutiles; desde bebés aprendemos a leer expresiones, seguir miradas y distinguir individuos. Esta maestría perceptiva explica por qué podemos notar detalles ínfimos fuera de lugar en una imagen de rostro humano. Ante fotografías o vídeos generados por IA, muchos usuarios reportan que “hay algo en la mirada” o “una sensación rara” que les delata que no son reales.
Antes era fácil diferenciar una imagen hecha con IA porque los seres humanos tenían más dedos de lo habitual en las manos. Rhetos/Wikimedia Commons
Hasta hace poco, las imágenes sintéticas solían delatarse por fallos evidentes: manos con seis dedos, ojos asimétricos, texturas de piel irreales. Pero incluso sin errores obvios, nuestro cerebro capta algo: una mirada sin brillo, un gesto congelado, una falta de sincronía entre apariencia y “vida” interior.
Los datos recientes son elocuentes. Las imágenes faciales generadas con ChatGPT y DALL·E resultan virtualmente indistinguibles de fotografías auténticas para la mayoría de observadores. Los programas de IA alcanzan un 97 % de precisión detectando rostros sintéticos en fotos, pero los humanos no superamos el porcentaje atribuible al azar; curiosamente, con vídeos deepfake la situación se invertía y los humanos acertaban dos tercios de las veces. Incluso los “súper-reconocedores”, el 2 % superior en reconocimiento facial, apenas detectan el 41 % de los rostros falsos, una tasa inferior al azar.
Sin embargo, cinco minutos de entrenamiento sobre errores comunes de renderizado mejoró sustancialmente su precisión. Es decir, que nuestro sistema perceptivo no está calibrado para esta amenaza, pero puede entrenarse.
IA avanzadas: ¿se está superando el valle inquietante?
Dado el rápido progreso de la inteligencia artificial generativa, surge la pregunta: ¿podrán las máquinas cruzar el valle inquietante, eliminando esa inquietud por completo? Los avances recientes apuntan en esa dirección.
En el campo de las imágenes estáticas, los generadores basados en redes antagónicas generativas (GAN) y modelos de difusión han logrado crear rostros y cuerpos virtuales indistinguibles de fotografías reales. Las caras generadas por StyleGAN2 ya alcanzan un nivel de detalle anatómico y calidad fotográfica que engaña a la mayoría de observadores.
Lo estamos viendo también en ejemplos cotidianos. Los verificadores de contenido ahora hablan de una “perfección inquietante” como nueva señal: fotogramas con personas de belleza impecable, sin ninguna arruga fuera de lugar, con simetrías casi matemáticas.
Paradójicamente, la IA crea imágenes tan pulidas que producen otra forma de artificio: no por defectos grotescos, sino por ausencia de las pequeñas imperfecciones que dan autenticidad. Aun así, para la mayoría del público esas minucias pasan inadvertidas.
Las imágenes no se mueven, corren
El desafío mayor, sin embargo, está en el vídeo. No basta con un fotograma realista; hay que encadenar miles por segundo sin caer en gestos espasmódicos o inexpresivos. Hasta hace poco, los primeros sistemas de texto a vídeo producían resultados entre lo cómico y lo espeluznante: clips borrosos, figuras humanas inestables que parecían salidas de un sueño raro… Pero la velocidad con la que está cambiando esto resulta difícil de exagerar.
En los últimos meses se han sucedido lanzamientos que redefinen lo posible. Google DeepMind presentó Veo 3.1 en octubre de 2025, un modelo que trata el sonido como parte integral del vídeo: genera diálogos con labios sincronizados, efectos de sonido alineados con la acción y paisajes sonoros ambientales. No es un detalle menor: una de las pistas clásicas para detectar un vídeo falso era la desincronización entre labios y voz. Cuando eso desaparece, una barrera perceptiva cae con ello.
En febrero de 2026, la empresa china Kuaishou lanzó Kling 3.0, que permite generar hasta seis tomas distintas dentro de un mismo clip de 15 segundos manteniendo la coherencia de personajes y escenarios, con resolución 4K y sincronización labial en múltiples idiomas. Lo que importa para el valle inquietante es la consistencia temporal: cuando cada fotograma se genera teniendo en cuenta decenas de fotogramas adyacentes, las “mutaciones” faciales que antes delataban el origen artificial se reducen drásticamente.
Pero el modelo que más debate ha generado es Seedance 2.0, de ByteDance. Clips virales mostraron a Brad Pitt y Tom Cruise en una pelea coreografiada tan convincente que Disney envió una carta de cese y desistimiento y Paramount acusó a la compañía de infracción de propiedad intelectual.
¿Se ha cruzado entonces el valle? No del todo. Los modelos de 2026 todavía luchan con acciones cotidianas: comer, manipular cubiertos, interactuar con objetos pequeños. No tenemos referencia de cómo se mueve un dragón, pero hemos visto a miles de personas comer pasta, y cualquier desviación salta a la vista. A esto se suma que los modelos de imagen estática, como la familia Nano Banana de Google, ya sirven como fotogramas de referencia para los generadores de vídeo, minimizando las incoherencias entre cuadros que antes delataban el contenido sintético.
Un último dato que ayuda a enmarcar la velocidad del cambio: el número de deepfakes en internet pasó de unos 500 000 en 2023 a unos 8 millones en 2025, con un crecimiento anual cercano al 900 %. Un investigador de la Universidad de Buffalo especializado en medios sintéticos escribió en Fortune que la clonación de voz ha cruzado lo que él llama el “umbral de la indistinguibilidad”: unos pocos segundos de audio bastan para generar un clon convincente con entonación, ritmo, pausas y hasta ruido de respiración naturales.
Nuestros ojos ya no bastan
No parece que el valle inquietante se limite a lo visual: también se manifiesta en interacciones textuales con chatbots. Sin embargo, los usuarios siguen prefiriendo la naturalidad y las imperfecciones humanas: mientras que los defectos humanos aumentan la cercanía, las desviaciones que rompen la percepción de humanidad disparan el rechazo.
El sector tecnológico está respondiendo con soluciones de verificación que funcionan donde nuestros ojos ya no pueden. La lógica es sencilla: si no podemos ver la diferencia, al menos podemos marcar el contenido en el momento de su creación. Estas marcas sobreviven a compresiones, recortes y conversiones de formato habituales.
Desde mayo de 2025, un portal de verificación de Google DeepMind permite comprobar si un archivo contiene SynthID, una marca de agua imperceptible que se inserta durante la generación. En paralelo, la C2PA (Coalition for Content Provenance and Authenticity), impulsada por Adobe, Microsoft, Google, OpenAI y Meta, desarrolla un estándar abierto que adjunta al archivo información criptográfica verificable sobre su origen y ediciones. Mientras SynthID es la huella invisible que persiste cuando se pierde el metadato, C2PA ofrece la trazabilidad cuando las plataformas lo preservan.
La regulación también avanza, aunque fragmentada. El Reglamento de IA de la Unión Europea, en vigor desde agosto de 2024, exige que todo contenido generado por IA sea marcado en formato legible por máquinas, con pleno cumplimiento requerido para agosto de 2026. Pero el panorama industrial muestra a cada gran empresa desarrollando su propio sistema, sin un estándar universal de detección.
¿Quiere recibir más artículos como este?Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.
Cambio de concepto
La percepción del valle inquietante es un fascinante cruce entre biología, mente y tecnología. Sentimos inquietud ante lo casi humano porque nuestros cerebros están calibrados finamente para reconocer a nuestros semejantes y detectar lo que se aparta de la norma. Esa misma agudeza se activa con las creaciones de IA que casi logran imitarnos.
A comienzos de 2026, el estado de la cuestión es claro: la frontera se desplaza a una velocidad vertiginosa. Lo que en enero de 2026 era limitación de un modelo, en febrero ya lo resolvía el siguiente. Quizás el cambio más profundo no sea visual sino conceptual: en lugar de detectar “algo extraño”, empezaremos a desconfiar de “algo demasiado perfecto”.
¿Desaparecerá por completo el valle inquietante? Probablemente no: seguiremos teniendo reparo ante un robot físico que intenta ser nuestro doble perfecto. Pero en el terreno visual digital, la distinción entre lo generado y lo real dependerá cada vez cada vez más de la tecnología que nos asiste. Cuando ya no podamos confiar en “lo noto en mi estómago, se ve falsa”, necesitaremos marcas de agua universales, credenciales de procedencia y, sobre todo, educación mediática para orientarnos en un mundo donde lo artificial se camufla con total naturalidad.
Ricardo Fernández Rafael no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Algunas veces ocurre que durante la infancia, o en la adolescencia temprana, se produce una inesperada crisis epiléptica en un paciente previamente asintomático. Después vienen más crisis, que se van haciendo cada vez más frecuentes. Es más, los pacientes pronto se vuelven resistentes al efecto de fármacos antiepilépticos tradicionales. Y todo por una enfermedad rara llamada enfermedad de Lafora que, como describió en 1911 el neurólogo español Gonzalo Rodríguez Lafora, se caracteriza por la acumulación de formas aberrantes de glucógeno en el cerebro de los pacientes. Como fiel discípulo de Santiago Ramón y Cajal, Lafora dibujó estos acúmulos de glucógeno en el interior de las neuronas, que él llamó cuerpos amiloides.
La enfermedad continúa con la aparición progresiva de espasmos musculares constantes, demencia y pérdida de capacidad auditiva y visual. Finalmente, el paciente fallece como consecuencia de crisis epilépticas prolongadas.
Rara entre las raras
Con una prevalencia de menos de 4 pacientes por cada millón de habitantes [https://genotipia.com/revista_gm/revision-enfermedad-de-lafora/], la enfermedad de Lafora forma parte del grupo de enfermedades ultrarraras. Rara entre las raras. De hecho, a día de hoy en España se conocen solo entre 8 y 10 pacientes, según el Centro de Referencia para esta patología,situado en el Hospital Fundación Jiménez Díaz de Madrid.
La enfermedad tiene un origen genético, con una herencia autosómica recesiva, lo que quiere decir que los pacientes afectados son hijos e hijas de portadores asintomáticos de la enfermedad.
Tuvieron que pasar 80 años desde el descubrimiento de Lafora para que, en 1998, se conociera el primer gen cuyas mutaciones estaban asociadas a la enfermedad. En la Universidad de California en Los Ángeles, en Estados Unidos, un equipo de investigadores identificó mutaciones en el gen EPM2 como responsables de la enfermedad [https://genotipia.com/revista_gm/revision-enfermedad-de-lafora/]. Posteriormente, este gen se denominó EPM2A, al descubrirse un segundo gen cuyas mutaciones también estaban asociadas con la patología, el EPM2B o NHLRC1.
Los productos de ambos genes son dos proteínas llamadas laforina y malina, respectivamente. Juntas forman una especie de tándem, un complejo funcional, que regula la síntesis de glucógeno. En el cerebro, este azúcar, además de almacenar energía, tiene propiedades esenciales para el funcionamiento de las neuronas y otras células cerebrales.
Para cumplir su función, el glucógeno necesita estar en una forma soluble. Pero si el complejo laforina/malina falla, como sucede en la enfermedad de Lafora, se acumula una forma aberrante de glucógeno que no se disuelve y que altera la funcionalidad de las neuronas, los astrocitos y la microglia. Las consecuencias son terribles si tenemos en cuenta que los astrocitos y las células de la microglía cumplen un papel regulador esencial para que las neuronas hagan su trabajo. Si se trastocan se inicia, además, un proceso neuroinflamatorio muy típico de la enfermedad.
Dependiendo del efecto de las mutaciones en los genes EPM2A y EPM2B sobre la actividad del tándem laforina/malina, la presentación clínica puede variar desde un cuadro muy grave y de evolución rápida, a cuadros con aparición tardía y evolución más lenta de la enfermedad.
Un ensayo clínico con 10 pacientes
¿Cuál es la solución? Dado que lo que distingue a la enfermedad es la acumulación de un glucógeno aberrante, se han propuesto diferentes estrategias dirigidas a frenar su producción. Por una parte, se han desarrollado diferentes aproximaciones con el fin de reducir la actividad de la proteína que sintetiza el glucógeno, como es el uso de oligonucleótidos antisentido (ASO). Los ASO son compuestos que reducen la expresión genética y, como consecuencia, la producción de la proteína que codifica [https://genotipia.com/revista_gm/revision-enfermedad-de-lafora/].
En estos momentos hay un ensayo clínico en marcha en el Hospital UT Southwestern de Dallas, en Estados Unidos, en el que participan 10 pacientes con enfermedad de Lafora a los que se les administra dosis crecientes de ASO mediante punción lumbar. La asociación americana para la enfermedad de Lafora, Chelsea’s Hope, ha sido capaz de recaudar el dinero suficiente para que este estudio esté en funcionamiento.
Otra aproximación interesante consiste en la utilización de fármacos de reposicionamiento, es decir, fármacos que actualmente usamos para al tratamiento de otras enfermedades. En concreto, la Agencia Europea de Medicamento aprobó [https://european-union.europa.eu/institutions-law-budget/institutions-and-bodies/search-all-eu-institutions-and-bodies/european-medicines-agency-ema_es)] la designación de medicamento huérfano –fármaco desarrollado específicamente para diagnosticar, prevenir o tratar enfermedades raras, graves o crónicas que afectan a un número muy reducido de personas–de la metformina, un antidiabético de uso oral, para el tratamiento de la enfermedad de Lafora. Resultados recientes [https://www.sciencedirect.com/science/article/pii/S1878747923001186] indican que la administración de metformina en pacientes Lafora ralentiza la progresión de la enfermedad.
La convergencia de estas diferentes aproximaciones terapéuticas podrían dar fruto y permitir que, más pronto que tarde, la enfermedad de Lafora tenga un tratamiento eficaz.
Pascual Sanz recibe fondos de la Agencia Estatal de Investigación (AEI).
Todos sabemos qué es el teflón o, al menos, sabemos que características tiene: es ignífugo –no arde cuando cocinamos con él–, es hidrófugo –no absorbe el agua– y es resistente. Por eso, las sartenes recubiertas de teflón se presentaron hace unas décadas como la panacea en la cocina, ya que no se pegaba nada y, además, eran muy fáciles de limpiar.
Durante más de 60 años, los polímeros con cadenas de carbono perfluoradas (todos los demás sustituyentes –átomos que se encuentran unidos a una cadena hidrocarbonada– son flúor) o polifluoradas (con algunos enlaces con flúor), PFAS por sus siglas en inglés, han penetrado en todas las industrias. Se usan en la fabricación de productos como espumas contra incendios, ropa protectora, muebles, adhesivos, envases de alimentos, superficies de cocina antiadherentes resistentes al calor y aislamiento de cables eléctricos.
Entre ellos, el más conocido es el politetrafluoroetileno (PTFE), conocido como teflón por la marca que lo comercializó. Sus características responden a las especiales propiedades del enlace carbono-flúor, que es uno de los más fuertes conocidos, lo que le hace bastante inerte y difícil de degradar. De ahí que, por su durabilidad, se llamen sustancias químicas eternas.
Se estima que, solo en Europa, cada año acaban en el medioambiente 75 000 toneladas de PFAS. El proyecto Forever Pollution ha calculado que hay alrededor de 23 000 sitios contaminados con PFAS en Europa y un 10 % de estos son «puntos críticos», con altos niveles de contaminación.
Por qué el tóxico el teflón
Si hemos dicho que son sustancias eternas –que no se descomponen fácilmente en la naturaleza–, ¿por qué son peligrosos? La razón es que, una vez obtenidos, los PFAS son estables, pero las sustancias químicas utilizadas para fabricar los polímeros o las emitidas a lo largo de su ciclo de vida son altamente tóxicas.
En el primer caso, tenemos como ejemplo el trifluorometano (HFC-23), que se forma como subproducto en la obtención de teflón y tiene un potencial de calentamiento global 12 400 veces mayor que el CO₂. En el segundo, podemos considerar los microplásticos que se liberan al lavar textiles que contienen PFAS, terminan en el agua de la naturaleza, provenientes de las plantas de tratamiento de aguas residuales, ya sea por las aguas de descarga o por los lodos de depuradora que a veces se esparcen sobre suelos agrícolas.
¿Qué hago con mi sartén?
¿Debo dejar de usar mis utensilios de cocina? Como este material es muy estable, las sartenes de teflón en buen estado no representan un riesgo, pero si su recubrimiento se deteriora o se expone a temperaturas superiores a 260 °C, pueden liberar partículas con residuos de PFAS.
No podemos demonizar los PFAS, ya que son materiales importantes en nuestra vida diaria. Se usan además en dispositivos médicos, de defensa y aeroespaciales, porque tienen buenas prestaciones y alta durabilidad. Pero sería mejor que buscáramos sustitutos que garanticen estas prestaciones sin afectar nuestra salud a largo plazo.
Por ejemplo, podríamos elegir sartenes de hierro o de porcelana que no tengan este antiadherente.
El problema de los acuíferos
Aparte del menaje de cocina, los niveles de PFAs en aguas están siendo cada vez más preocupantes y las directivas son escasas y muy variables. Pensemos en zonas cercanas a industrias productoras de este tipo de sustancias, pero también en aeropuertos, instalaciones militares, zonas de entrenamiento contra incendios o lugares donde se han producido incendios importantes, en los que se utiliza AFFF fluorado (una espuma contra incendios).
Estos compuestos se pueden filtrar a los acuíferos y la ingestión de agua potable contaminada es una de las principales vías por las que los seres humanos pueden estar expuestos a los PFAS.
Cada vez hay más pruebas de que algunos PFAS conllevan graves riesgos para la salud, y pueden provocar cáncer, enfermedades tiroideas y problemas de fertilidad, así como defectos en el desarrollo de los fetos.
Está en nuestras responsabilidades ciudadanas exigir a los gobiernos un mayor control sobre estas sustancias para que la normativa sea restrictiva al respecto y se garanticen sistemas como el filtrado de aguas, que permita que los niveles sean los suficientemente bajos para no producir daños.
La UE ya ha considerado los PFAS dentro de su Estrategia sostenible de productos químicos, donde se busca minimizar y sustituir a aquellos productos que están en el foco. Sin duda, los PFAS son uno de ellos.
Vanessa Tabernero no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
La enfermedad de Parkinson afecta a más de diez millones de personas en el mundo. Se trata de un trastorno neurodegenerativo en el que algunas neuronas del cerebro mueren progresivamente. Estas células afectadas se encuentran en una región llamada “sustancia negra” y tienen una función clave: producir dopamina, una molécula esencial para controlar el movimiento. Cuando estas neuronas desaparecen surgen los síntomas más conocidos como temblores, rigidez muscular, lentitud y dificultades para caminar.
Durante décadas, los tratamientos se han basado en compensar la pérdida de dopamina en el cerebro. Si bien es cierto que fármacos como la levodopa pueden mejorar notablemente los síntomas, presentan una limitación: no detienen la enfermedad ni recuperan las neuronas perdidas.
En otras palabras, se actúa sobre las consecuencias del problema (la pérdida de dopamina), pero no se arregla su origen (la muerte de neuronas). Una nueva estrategia está empezando a cambiar ese enfoque. En lugar de limitarse a compensar el daño, intenta repararlo.
¿Y si pudiésemos reemplazar las neuronas?
La terapia celular parte de un concepto sorprendentemente sencillo. Si el párkinson destruye las neuronas que producen la dopamina, ¿por qué no reemplazarlas por otras nuevas?
Durante años esta idea fue más un sueño que una posibilidad real. Las neuronas son extremadamente complejas. No basta con introducir cualquier célula en el cerebro: deben ser del tipo correcto, sobrevivir al trasplante, integrarse en los circuitos neuronales y producir dopamina de manera controlada.
El gran salto llegó con el desarrollo de las células madre pluripotentes inducidas (iPSC). Estas fueron descritas por el grupo de investigación liderado por el científico japonés Shinya Yamanaka, que recibió por ello el Premio Nobel de Fisiología o Medicina en 2012.
Las iPSC se obtienen reprogramando células adultas, como las de la piel, para devolverlas a un estado similar al embrionario. Desde ahí pueden convertirse en muchos tipos celulares, incluidas las neuronas productoras de dopamina.
Gracias a esta tecnología, la idea de reemplazar neuronas dejó de ser ciencia ficción.
Dos ensayos clínicos que marcan un antes y un después
En 2025 se publicaron en la revista Nature dos ensayos clínicos pioneros que han llevado esta estrategia al cerebro humano.
En uno de ellos los investigadores trasplantaron neuronas productoras de dopamina derivadas de células madre pluripotentes inducidas a pacientes con párkinson. El estudio mostró que el procedimiento era seguro y que las células implantadas podían sobrevivir durante largos periodos de tiempo y producir dopamina en el cerebro humano.
El segundo ensayo utilizó neuronas derivadas de células embrionarias humanas (hES). De nuevo, los resultados indicaron una buena tolerabilidad y mostraron señales de beneficio clínico duradero.
Comprobación de la producción de dopamina por parte de las neuronas trasplantadas en un paciente a los 12 y 24 meses tras la operación. Imagen traducida del estudio https://www.nature.com/articles/s41586-025-08700-0. CC BY-NC-ND
¿Qué se ha observado en los pacientes?
Aunque todavía es pronto para sacar conclusiones definitivas, los estudios han mostrado varios resultados prometedores:
Las células trasplantadas sobreviven en el cerebro.
Producen dopamina de forma detectable.
Algunos pacientes presentan mejoría en sus síntomas motores.
No se han observado problemas graves de seguridad a corto plazo.
Esto no significa que la terapia esté lista para uso clínico general, pero sí que el enfoque es biológicamente viable.
¿Por qué este avance es tan importante?
El párkinson es una enfermedad neurodegenerativa progresiva. Con el tiempo la pérdida neuronal continúa y los tratamientos actuales se vuelven menos eficaces. La terapia celular podría ofrecer varias ventajas clave:
Actuar sobre la causa del problema, no únicamente sobre sus consecuencias.
Restaurar la producción natural de dopamina en lugar de administrarla de manera externa.
Proporcionar beneficios duraderos, potencialmente durante años.
Pero aún no es una cura
Es importante mantener expectativas realistas: estos avances no significan que exista ya una cura disponible.
Los ensayos realizados hasta ahora incluyen pocos pacientes, y el seguimiento aún es limitado. Es necesario comprobar que las células trasplantadas sobreviven durante muchos años y que los beneficios se mantienen en el tiempo.
Además, no todos los pacientes con párkinson son iguales. La enfermedad evoluciona de forma distinta en cada persona y todavía no está claro quiénes se beneficiarán más del trasplante.
Por último, el párkinson es una enfermedad compleja que, con el tiempo, afecta a más sistemas además de las neuronas productoras de dopamina. Reemplazar estas células podría mejorar mucho los síntomas motores, pero probablemente no resolverá todos los aspectos de la enfermedad.
Un camino largo, pero prometedor
A pesar de las limitaciones, estos ensayos representan un hito histórico. Por primera vez la comunidad científica dispone de evidencia clínica de que reemplazar neuronas productoras de dopamina en humanos es factible y potencialmente beneficioso.
La terapia celular aún está en sus primeras fases, pero marca una dirección clara. La ruta consiste en avanzar desde tratamientos puramente sintomáticos hacia estrategias capaces de reparar el cerebro.
Para millones de personas que viven con la enfermedad de Parkinson este camino todavía es largo. Pero, por primera vez en décadas, la pregunta ya no es si podremos intentar reconstruir las neuronas perdidas, sino cuándo y en qué pacientes podrá hacerse de forma segura y eficaz.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Joan Laporta saluda a los aficionados durante el partido del Trofeo Joan Gamper entre el FC Barcelona y Como 1907 en el Estadio Johan Cruyff el pasado 12 de agosto. Christian Bertrand/Shutterstock
Los socios y socias del FC Barcelona decidieron el pasado domingo, 15 de marzo, reelegir no solo a un presidente, Joan Laporta, sino también un modelo singular de club. “Defendemos el Barça”, reza el nuevo mantra “laportista”, contra todo y contra todos. El Barça seguirá siendo durante los próximos cinco años una entidad local, apegada a sus raíces históricas, y una multinacional del entretenimiento que crece con la la lógica de la disneyización. El debate sobre la gobernanza y la forma de propiedad, cuestiones clave también para afrontar el debate económico del “fútbol-negocio”, no formó parte de la campaña y queda para más adelante.
Una victoria anunciada
Joan Laporta será presidente del FC Barcelona cinco años más. A pesar de lo que la “opinión publicada” quería, Laporta ya era vencedor antes de empezar estas elecciones. Los buenos analistas sabían que debía cometer muchos errores durante el proceso de recogida de firmas y a lo largo de la campaña electoral para que cayera su cartel de favorito.
La victoria ha sido contundente, aunque se ha producido en el peor de los escenarios: un cara a cara con Víctor Font, quien aglutinaba todo el voto contrario a Laporta. Pese a ello, el abogado barcelonés, de 63 años, ha mejorado los resultados de 2003 y de 2021. Obtiene así una nueva presidencia en 2026 con el 68,18 % de los votos.
Leer el sentimiento culé
Laporta y su equipo leen el sentir mayoritario del aficionado culé (nombre popular por el son conocidos los seguidores barcelonistas) como nadie. El deporte, y por lo tanto el fútbol, a pesar de mover mucho dinero (representa casi el 1,5 % del PIB español), también funciona a partir de dos dimensiones que no tienen nada que ver con la racionalidad que se presupone a la gestión y a la economía: la simbólica y la emocional.
En las elecciones a la presidencia del Barça, de hecho, los debates racionales quedan en segundo plano y los socios votan influidos, básicamente, por cuestiones sentimentales y según la dinámica deportiva del primer equipo masculino de fútbol.
La primera lectura acertada consistió en convocar las elecciones cuando el conjunto entrenado por Hansi Flick funcionaba a pleno rendimiento en todas las competiciones. Aprovechó Laporta el primer momento posible, según los estatutos, para lanzar la convocatoria. La maniobra pilló a la oposición con el pie cambiado, a pesar de que las candidaturas hacía tiempo que se preparaban. Esto obligó a sus rivales a salir a jugar el partido antes de tiempo.
El otro éxito de Laporta ha sido, nuevamente, su narrativa de campaña: “Defendemos al Barça”. Este eslogan sitúa el relato emocional y simbólico por encima de todo, vinculando a su candidatura con los valores fundacionales del club y el catalanismo político. A Laporta le fue fácil, además, “defender” al Barça porque su rival, Víctor Font, tampoco supo elegir bien a sus compañeros de viaje. Su futuro vicepresidente económico debía ser Jaume Guardiola, quien fue uno de los responsables de llevarse de Cataluña la sede social del Banco Sabadell durante el proceso independentista.
Aquí reside otro de los aspectos clave de la campaña, y que puede explicar por qué Font, a pesar de haber mejorado significativamente su oratoria respecto a 2021, ha perdido apoyos. El aspirante Font cometió demasiados errores. Además de situar a Jaume Guardiola a su lado, sabiendo de la necesidad de luchar contra el relato emocional de Laporta, Font cuestionó abiertamente al director deportivo del Barcelona, Deco, y a Dani Olmo, una de las joyas de la cantera barcelonista repescado en agosto de 2024 tras su paso por el fútbol alemán. Estas posturas en contra de dos referentes actuales del club han coincidido, en el plano deportivo, con un momento positivo del equipo. Otro error fue hacer salir a Xavi Hernández, exjugador y exentrenador del Barça, para criticar a Laporta. O, le guste o no, recibir el apoyo de Josep Maria Bartomeu, presidente del Barcelona entre 2014 y 2020, actualmente imputado por el conocido como “Barçagate” y uno de los máximos responsables de haber provocado la delicada situación económica de la entidad azulgrana.
Abrazos con el ministro Urtasun y el ex president Pujol
El día de la votación se comprobó que solo Laporta despertaba pasiones entre quienes iban a votar. Fue una jornada de fiesta culé en la que, a diferencia de lo que sería éticamente reprobable en unas elecciones a instituciones políticas, las personalidades se dejaban acompañar a las urnas por el candidato al que iban a apoyar. Este no era otro que Laporta, quien ejerció todos los papeles posibles: anfitrión, candidato y presidente in pectore.
Solo un hombre como Joan Laporta, con sus aciertos y errores, podía abrazarse a pie de urna con un ministro de Sumar, Ernest Urtasun, y con el expresidente convergente Jordi Pujol i Soley. Ambos políticos acudieron el domingo a votar.
Solo alguien como él podía tener la osadía de saltar con los jugadores del primer equipo cuando acudieron a las urnas después de su partido o situar dentro del “marco laportista” a Aitana Bonmatí, la gran referente del fútbol femenino mundial.
Laporta encarna a la perfección lo que representa el Barça: un club local abrazado a sus raíces históricas y una multinacional del entretenimiento que ha crecido bajo la lógica de la disneyización. ¿Alguien se imaginaría al CEO de una gran compañía celebrando abiertamente sus éxitos en la discoteca Luz de Gas? El aficionado “laportista” esperaba eso precisamente: ver a Laporta en la discoteca para cerrar la noche y escenificar la victoria, como si fuera una Champions más.
Gobernanza y modelo de propiedad
En el Barça todo es posible porque, aunque pueda incomodar a los tecnócratas, es una institución singular. En esta votación, los socios han avalado que siga siéndolo cinco años más. El debate sobre la gobernanza y el modelo de propiedad no ha aparecido en estas elecciones. Ni se le esperaba, a pesar de la delicada situación económica que vive el club todavía, sin olvidar el trabajo realizado en los últimos años para enderezarla. Pero el crecimiento bajo la lógica capitalista del fútbol profesional obligará, tarde o temprano, a recuperarlo. ¿Será Joan Laporta, fortalecido como ha salido de estas elecciones, la persona llamada a afrontarlo definitivamente?
Xavier Ginesta no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Si abre cualquier red social, verá miles de vídeos hablando de batidos verdes, cúrcuma y “cómo desinflamar su barriga”. No se trata de una dieta en el sentido estricto de contar calorías o pasar hambre para perder peso. Es, más bien, un patrón nutricional diseñado para darle al cuerpo los materiales necesarios para apagar las señales de alarma. Está de moda precisamente porque la epidemia de cansancio y problemas digestivos ha hecho tocar fondo a mucha gente que busca soluciones reales.
Todos conocemos la inflamación aguda: cuando se corta un dedo, su sistema inmunitario activa una misión rápida y efectiva para curarlo. Una vez hecho el trabajo, las unidades se retiran y todo vuelve a la calma.
El problema es la microinflamación. Imagine que, en lugar de una misión puntual, su cuerpo mantiene un dispositivo de vigilancia permanente que nunca se desactiva. No hay alarmas ni ruido, pero esa tensión constante, día tras día, acaba agotando sus recursos y dañando el tejido sano.
No es solo lo que coma, sino cómo lo cocine
¿Qué medidas no son ciencia ficción y tienen una base científica real? La respuesta es más sencilla de lo que parece y pasa por dos grandes pilares:
2. Llenar el plato de aliados naturales
Una vez hemos hecho limpieza, toca introducir los nutrientes que ayudan al cuerpo a recuperar su equilibrio:
Omega-3: el rey indiscutible. Presente en el pescado azul, las nueces y las semillas (lino, chía), es clave para reducir los niveles de inflamación sistémica.
Antioxidantes naturales: los colores vivos de la fruta y la verdura (como los frutos rojos o las hojas verdes) son nuestro mejor filtro contra la oxidación celular.
Especias: el jengibre, la cúrcuma o el ajo no solo aportan sabor; son potentes antiinflamatorios naturales que actúan como un bálsamo para los tejidos.
Fibra prebiótica: consumir alimentos reales ricos en fibra es vital para que nuestra flora intestinal (la famosa microbiota) trabaje a nuestro favor y nos proteja desde dentro.
Alimentos fermentados: si la fibra prebiótica es el alimento para su microbiota, los alimentos fermentados, como el yogur o el kéfir, son los refuerzos. Aportan bacterias vivas que ayudan a sellar la barrera intestinal y reducen drásticamente la inflamación sistémica.
Ahora bien, la clave no está solo en qué se come, sino en cómo se cocina. Freír, tostar en exceso o cocinar a la brasa a temperaturas muy altas genera unos compuestos llamados AGE (productos de glicación avanzada). Estos compuestos oxidan e inflaman las células. Priorizar cocciones suaves como el vapor, los guisos a fuego lento o el horno a temperaturas moderadas es una medida antiinflamatoria clave.
¿Es buena para todo el mundo?
La base de comer alimentos reales es buena para el 100 % de la población, pero la lista de alimentos antiinflamatorios no es universal. Este es el error más común.
Muchas personas leen que el brócoli, las legumbres, la kombucha o el ajo son fantásticos contra la inflamación. Empiezan a comerlos en grandes cantidades y, de repente, se hinchan más que nunca y tienen dolores terribles. ¿Qué ha pasado?
Si su intestino ya está muy dañado o sufre patologías como el SIBO (sobrecrecimiento bacteriano en el intestino delgado), síndrome del intestino irritable u otras patologías inflamatorias más graves, su sistema digestivo no puede gestionar tanta fibra ni ciertos alimentos fermentados. Fermentan demasiado rápido, generan gases atrapados y empeoran la inflamación local.
Antes de atiborrarse de alimentos antiinflamatorios “de moda” o de comprar el probiótico más caro de la farmacia, hay que reparar el intestino. Hacer lo contrario sería como intentar poner muebles nuevos en una casa que todavía tiene grietas en los cimientos. Y para saber dónde están esas grietas, el primer paso innegociable es un buen diagnóstico.
No se puede abordar un SIBO (sobrecrecimiento bacteriano) de la misma manera que una disbiosis (desequilibrio de la microbiota), la presencia de un parásito o una intolerancia alimentaria oculta. De hecho, en casos como el SIBO, donde ya hay un exceso de bacterias donde no corresponde, tomar ciertos probióticos puede empeorar mucho los síntomas; es como añadir más coches a un atasco de tráfico.
¿Estamos realmente inflamados?
Como no provoca fiebre ni dolor agudo, la inflamación puede pasar desapercibida durante años. Es como conducir con el piloto rojo de avería encendido: el coche funciona, pero el motor está sufriendo. Probablemente esté microinflamado si se reconoce habitualmente en estos síntomas: cansancio crónico, falta de concentración, defensas bajas, digestiones pesadas, dificultad para perder peso, dolores articulares, alteraciones en la piel, cambios de humor y ansiedad.
Pero para saber si hay problemas adicionales a la inflamación, a menudo hay que ir más allá del análisis de sangre de rutina. Según sus síntomas, un especialista puede solicitar pruebas concretas como:
Test de aliento: una prueba sencilla en la que se sopla en unos tubos para detectar si hay gases producidos por bacterias donde no deberían estar (clave para diagnosticar el SIBO) o intolerancias a azúcares como la fructosa o la lactosa.
Estudio de la microbiota en heces: un análisis profundo para ver qué bacterias protectoras faltan, cuáles sobran o si hay hongos o marcadores de inflamación local en el intestino.
Analíticas específicas: buscando marcadores como la proteína C reactiva de alta sensibilidad (PCR-as), que indica el nivel de inflamación real que hay en el cuerpo.
Una vez que se sabe exactamente qué ocurre en su intestino, el proceso terapéutico pasa por fases: primero hay que retirar temporalmente aquello que irrita (aunque sea un alimento considerado “saludable”), después hay que desinflamar y reparar la pared intestinal y, finalmente, ir reintroduciendo estos alimentos ricos en fibra poco a poco para que el cuerpo vuelva a tolerarlos con normalidad.
Por eso, la mejor dieta antiinflamatoria es siempre aquella que se personaliza. Ponerse en manos de profesionales ahorra meses de frustración, dietas restrictivas innecesarias y el agotamiento de jugar al ensayo-error, asegurando una hoja de ruta clara.
Una vida antiinflamatoria más allá del plato
Puede hacer la dieta más perfecta del mundo, pero si duerme cinco horas y vive angustiado, su cuerpo seguirá con el mismo problema. Para apagar la microinflamación de verdad, necesitamos un enfoque de 360 grados que le diga a nuestro sistema inmunitario que estamos fuera de peligro.
El cuerpo humano no está diseñado para estar ocho horas en una silla. Cuando nos movemos, y especialmente cuando hacemos ejercicio de fuerza (levantar peso), los músculos liberan mioquinas, unas sustancias que actúan como un potente antiinflamatorio natural. Por eso el movimiento es una pauta de vida esencial.
También dormir. Durante el sueño profundo, el cerebro y el cuerpo eliminan toxinas y residuos celulares. Además, respetar la luz (recibir sol por la mañana y evitar pantallas por la noche) nos permite segregar melatonina, la hormona del sueño y un gran antioxidante.
Luis Franco Serrano no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By Francisco López-Muñoz, Catedrático de Farmacología y Vicerrector de Investigación y Ciencia, Universidad Camilo José Cela
El “arte del envenenamiento” adquirió una enorme trascendencia durante el Renacimiento, tanto por su utilidad criminal como política y, consecuentemente, también el conocimiento de los antídotos generales o panaceas. Aunque se utilizaban muchos remedios –sobre todo de naturaleza mineral, como la tierra de Lemnos, el marfil, el jacinto, las perlas o las esmeraldas–, los dos antídotos universales considerados como los mejores y más insuperables entre la Edad Media y la Edad Moderna fueron el cuerno de unicornio y las piedras bezoares.
Estas piedras aparecen mencionadas en los escritos hebreos clásicos, con el nombre de Bel Zaard, y sus propiedades antivenenosas son recogidas en la literatura médica árabe desde el siglo VIII, como en la obra de Juan Damasceno o Serapion y posteriormente en la del médico sevillano Ibn Zuhr (Avenzoar). En Oriente, los bezoares recibieron diferentes nombres, como hager, bezar, belzaar o bezahar, mientras en griego se denominó alexipharmacum y en latín contravenenum.
Grabado ilustrativo de la obra A Compleat History of Drugs de Pierre Pomet (Printed for R. Bonwicke et al., Londres, 1712), publicada inicialmente en francés en 1684 (Histoire generale des drogues, Jean-Baptiste Loyson et Augustin Pillon, Paris, 1684). En él se muestra una cabra bezoar (Capra aegagrus) y un corte sagital de una piedra bezoar.
De hecho, la palabra “bezoar” deriva del término persa padzahar, que viene a significar “expelente de venenos” (bad significa “viento” y zahr “veneno”). Al conjunto de agentes alexifármacos se les denominaba también medicinas bezaárticas.
¿Qué son realmente los bezoares?
Inicialmente se pensó que estas piedras procedentes de la India, cuyo tamaño podría alcanzar incluso el de una castaña, eran minerales. Sin embargo, luego se confirmó que se trataba de un cálculo engendrado en cierta zona del estómago o en la vesícula biliar de algunas especies de animales, y con más frecuencia en puercoespines, venados y cabras, como la Capra aegagrus, vulgarmente llamada cabra bezoar.
Hoy en día conocemos que estas concreciones se originan a partir de un núcleo de cuerpos extraños, como fibras vegetales o pelos, generándose capas a su alrededor gracias a los movimientos peristálticos del intestino de los animales, lo que les da también su aspecto redondeado. Desde un punto de vista técnico, están compuestas de carbonato, fosfato de calcio, colesterina, materias vegetales descompuestas y algunos minerales como brushita y estruvita. Posiblemente, su principio activo esencial fuese el calcio, que una vez absorbido puede neutralizar algunas sustancias tóxicas.
Bezoar poroso por sus características vegetales. De 8 cm de longitud y 7,4 cm de anchura, está compuesto por dos fragmentos que encajan perfectamente uno en el otro, observándose una almendra en el interior (Catálogo de las Piedras Bezoares, de D. Pedro Franco Dávila, 1767).
Los bezoares como monopolio comercial del Imperio portugués
Estas piedras, de aspecto aceitunado, se denominaron bezoares orientales, y el monopolio de su riquísimo comercio estuvo en manos portuguesas hasta 1580. De hecho, su gran popularidad en la Edad Moderna y la difusión de sus propiedades se deben al médico judío portugués Garcia da Orta (Coloquios dos simples, 1563). En sus comentarios al Dioscórides (1554), el tratado de terapéutica más influyente de su época, el médico segoviano Andrés Laguna describe de esta manera la piedra oriental:
“La bezahar que ahora traen de Levante los portugueses tiene el color olivastro, y como de berenjena: y toda en sí es escamosa, quiero decir compuesta de varias costras, como cáscaras de bellotas, las cuales vienen unas sobre otras: empero la primera de ellas es muy lisa y lustrosa”.
La administración de este remedio a los sujetos que habían ingerido veneno podía hacerse diluyendo el polvo obtenido de la molienda o raspadura de esta en agua o vino, o bien sumergiendo la piedra entera durante un tiempo en agua que posteriormente se hacía beber al envenenado. Explica Laguna que es “admirable contra todo género de veneno, contra la mordedura de fieras emponzoñadas y finalmente contra la pestilencia […] dado a beber el vino en que se hubiese hervido”.
Muchos fracasos terapéuticos se achacaban a las falsificaciones, debido a la escasez de estas piedras y su elevado valor. Así, en Goa (India) y Malaca (Malasia) se fabricaban piedras falsas al por mayor. Estaban hechas a base de una pasta arcillosa elaborada con polvos conquídeos, resina y algunas hierbas, amasadas con laminillas de oro, decoradas después con escrituras indígenas y comercializadas en Europa en preciosos estuches de madera u otros materiales. En Calcuta se vendían hasta por 50 escudos la unidad.
Piedra de Goa (India), del siglo XVII-XVIII, conservada en el Museo Metropolitano de Arte de Nueva York.
Se decía que sólo el 10 % de las piedras bezoares orientales eran verdaderas. De hecho, muchos galenos y boticarios, antes de adquirirlas, comprobaban su hipotética autenticidad administrándola a animales previamente envenenados.
Las piedras del Nuevo Mundo como nuevo tesoro del Imperio español
El descubrimiento de estas piedras en la fauna del Nuevo Mundo (bezoares occidentales), concretamente en la vicuña –aunque también en la llama o el guanaco–, supuso un nuevo estímulo para su uso durante el Renacimiento. De hecho, la medicina indígena americana también las usaba. Los incas, por ejemplo, fabricaban una bebida elaborada con ralladura de ellas, conocida como “jaintilla”, para tratar a mujeres embarazadas o para curar el susto.
De la importancia de este hecho da cuenta el médico sevillano Nicolás Monardes (1493-1588) en una epístola al rey de España:
“Se han descubierto las piedras Bezaares en el Perú, que con tanta estimación traen de la India de Portugal… Que una cosa que tan maravillosa es, y de tanto precio, se haya hallado en las Indias de vuestra Majestad, y sean tan fáciles de haber, y tan ciertas y verdaderas, que no tengamos dudas de sus efectos y virtudes. Lo cual no es así en las que traen de la India Oriental: que si vienen diez verdaderas, vienen ciento falsas”.
“En todo género de veneno, es el más principal remedio que ahora sabemos… Los efectos que hacen son admirables, porque es potentísima su virtud contra veneno, y fiebres pestíferas, y humores venenosos…”. También indicaba que los nobles de la Indias Orientales se purgaban con piedra bezoar dos veces al año “y dicen que esto les conserva la mocedad… y los preserva de enfermedad”.
Monardes describió también su forma y aspecto: “en lo superficial son leonadas, oscuras, lucidas: debajo de dos camisas o capas tienen una cosa blanca que gustada y tratada entre los dientes, es pura tierra, no tiene sabor ni gusto”. Y también experimentó los efectos de estas piedras, que le habían hecho llegar desde Lima en 1568, en diversos enfermos, habiendo “remediado a muchos, con maravillosos sucesos”.
Monardes administraba los polvos de piedra bezoar en diferentes vehículos, según la patología del enfermo: si había fiebre, en agua rosada, pero si no, en agua de azahar. También en caso de pestilencias, lepra, infecciones cutáneas, fiebres cuartanas y otros trastornos, en forma de cordial.
De remedio terapéutico a talismanes y piezas de alta orfebrería y coleccionismo
Al igual que el cuerno de unicornio, las piedras bezoares eran consideradas un bien de lujo y su precio era muy elevado, al tratarse de un producto exótico, llegando a valer hasta 10 veces su peso en oro. Incluso se alquilaban por días en épocas de epidemias cuando su precio de compra no se podía pagar. Un ejemplo puede dar testimonio del alto valor que alcanzaron estas piedras: un manuscrito del Archivo del Hospital de San Roque (Córdoba, Argentina) fechado en 1653 recoge una reclamación ante el obispo para que forzara con censura eclesiástica al cumplimiento de un trueque de 24 mulas por una piedra bezoar.
Otro ejemplo se extrae del tesoro rescatado del galeón español Nuestra Señora de las Maravillas, que naufragó en 1656 a 70 kilómetros de la costa de Bahamas. Entre exquisitas piezas de oro y plata, además de esmeraldas y otras gemas, también se encontraban piedras bezoares. De hecho, dado su carácter pseudomágico, incluso constituían un objeto de arte, al engarzarse, pulidas, en piezas de joyería de oro y plata, a modo de amuletos y talismanes, cuyos portadores experimentarían una felicidad continua.
También se convirtieron en deseados objetos de colección para lucir en los denominados “gabinetes de curiosidades” o “cámaras de las maravillas” de la nobleza y de los potentados europeos. Poseían piedras bezoares en sus colecciones privadas monarcas europeos como el emperador Carlos V, Felipe II, Margarita y Catalina de Austria, Felipe IV, el archiduque Fernando II y Rodolfo II de Austria, o Fernando I de Médici, entre otros.
El declive de su empleo médico
Debido a la gran cantidad de falsificaciones y al desarrollo de la medicina experimental, el declive terapéutico de su uso comenzó a partir del siglo XVII.
El primer científico que mostró públicamente sus críticas a este agente alexifármaco fue el gran cirujano Ambroise Paré, quien realizó un cruel experimento en 1575: tras descubrirse el robo de un recipiente de plata por parte de un cocinero del rey Carlos IX de Francia, Paré acordó conmutar la pena de muerte si consumía acónito, un potente veneno vegetal, y luego ingería polvos de piedra bezoar. Paré observó la ineficiencia del antídoto, pues el sujeto falleció, aunque el rey pensó que el bezoar era falso y continuó confiando en ellos. Experimentos similares fueron realizados en 1631 por el médico francés Philebert Guybert con dos criminales convictos y con similares resultados.
En el siglo XVIII, el padre Benito Jerónimo Feijoo escribía que “la virtud de la piedra bezoar, que entra en casi todas las recetas cardiacas, es pura fábula”. A partir de aquí, cada vez fue creciendo el componente crítico y supersticioso de este remedio, que dejó de emplearse definitivamente como panacea a finales del siglo XVIII.
No obstante, las piedras bezoares se mantuvieron en las farmacopeas europeas hasta el siglo XIX, con el nombre técnico de Lapis bezoardicus off. Su uso ha perdurado hasta hoy en el imaginario literario, como puede verse en la novela Harry Potter y la piedra filosofal (1997) de Joanne K. Rowling, donde Potter le administra un bezoar de cabra a su amigo Weasley cuando es equivocadamente envenenado con hidromiel… Porque la verdad nunca debe estropear una buena historia.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Source: The Conversation – (in Spanish) – By Javier Lillo Ramos, Colaborador honorífico en el Grupo de investigación sobre Cambio Global Terrestre y Geología Ambiental, Universidad Rey Juan Carlos
Países del golfo Pérsico como Emiratos Árabes Unidos, Arabia Saudí y Catar dependen en gran medida de la desalación para obtener recursos hídricos.Stanislav71/Shutterstock
En el conflicto entre Israel-Estados Unidos (EE. UU.) e Irán parece que se han atacado infraestructuras de suministro de agua por los dos bandos. Mientras Irán denuncia el bombardeo estadounidense de la planta desalinizadora de la isla de Qeshm, el mismo Irán parece haber atacado la planta desalinizadora de Bahréin, un pequeño país del golfo Pérsico.
Las fuentes de agua dulce en el golfo Pérsico
El agua es un recurso crítico en los países del Golfo y, en muchos de ellos, son las plantas desalinizadoras las que proveen la mayor parte del suministro de agua potable (el 93 % en Kuwait, 86 % en Oman, 70 % en Arabia Saudi, 48 % en Qatar, 42 % en Emiratos Árabes Unidos).
El uso del agua como arma no es nuevo. Hay numerosos ejemplos que han ocurrido desde la antigüedad en diferentes zonas del globo. Muchos de ellos implican la destrucción de infraestructuras de captación y distribución.
El agua empleada como recurso estratégico con fines bélicos tiene diferentes implicaciones que conviene considerar. Una de ellas está relacionada con la rapidez de los efectos generados cuando se produce una intervención (por ejemplo, la destrucción de una instalación). Otra, más importante, tiene que ver con los graves daños extensivos a la población –a corto y largo plazo– que esa intervención puede ocasionar.
Aunque el objetivo sea infligir un grave daño al oponente, hay varias formas de hacerlo, dependiendo de si el propósito es estratégico, táctico, represivo, terrorista o extorsionador. Una de ellas consiste en provocar un corte en el suministro de agua, que a su vez puede estar causado por daños en instalaciones de captación y potabilización –sean presas, pozos, plantas de potabilización, o desalinizadoras–, por daños en infraestructuras de distribución –canales, conducciones, depósitos, etc.– o simplemente por una contención de caudales en cauces de cuencas transfronterizas.
Otra modalidad de ataque consiste en utilizar el agua como un factor de riesgo directo. Por ejemplo, por inundaciones provocadas, contaminación inducida, etc.
Hay que destacar que tanto las intervenciones en el corte de suministro como las inundaciones provocadas pueden causar impactos negativos en infraestructuras de generación de energía y centros de operaciones informáticas, como objetivos adicionales.
La destrucción de infraestructuras de saneamiento –plantas de tratamiento de aguas residuales, alcantarillado, etc.– puede tener impactos muy negativos. No solo afecta al suministro de agua potable, que puede contaminarse, sino que también genera un entorno propicio para el desarrollo de enfermedades que van a tener un mayor impacto en los sectores de la población más vulnerables, especialmente en la infancia.
Todos estos efectos (estén relacionados con cortes en el suministro, con daños en los sistemas de saneamiento, con inundaciones provocadas o con contaminación inducida) van a tener una mayor incidencia en la población en aquellas regiones donde el agua es más escasa. Y donde, además, a la afección directa a la población se añaden otros graves impactos acumulativos en áreas cultivables, con implicaciones en el suministro alimentario, y en ecosistemas.
A la destrucción física de infraestructuras hídricas causada por bombardeos se le suman otro tipo de ataques que están adquiriendo mayor relevancia en los últimos conflictos: aquellos que pueden determinar la parada y bloqueo de tales instalaciones –causados por cortes en el suministro energético y ataques a los sistemas informáticos que controlan las infraestructuras hidrológicas– y aquellos basados en la desinformación a través de medios y redes sociales. Estos últimos tienen como objetivo sembrar el pánico en la población a través de la la diseminación de noticias falsas como, por ejemplo, la posible contaminación biológica del agua potable.
La necesidad de abandonar el campo de batalla hídrico
Así, considerando los graves impactos que causa emplear el agua como un arma contra la población civil, es crítico que no se utilice como tal. Pero también es esencial proteger los recursos hídricos –incluyendo instalaciones e infraestructuras– y ecosistemas asociados. Por ello, se hace necesaria la aplicación de las normas del derecho internacional humanitario y del derecho internacional sobre medio ambiente con el fin de limitar y mitigar tales impactos en conflictos armados.
Aunque tal y como señalaba al comienzo de este texto, el agua se sigue utilizando como arma, también se está produciendo una mayor reacción internacional ante ello. Así, en 2019 se presentó la Lista de Principios de Ginebra sobre la Protección de las Infraestructuras Hidráulicas como documento de referencia para su uso por las partes en conflictos armados, con recomendaciones que van más allá de la legislación vigente. Pero es imprescindible que los países apoyen y sigan estas iniciativas a escala global. Si no es así, todos perderemos en las guerras.
Javier Lillo Ramos no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By María José Madrid Martín, Profesora del área de Didáctica de la matemática, Universidad Pontificia de Salamanca
¿Se imagina resumir en un solo vistazo el contenido de un artículo científico? ¿Explicar meses de investigación de forma clara, visual y comprensible para cualquiera?
El reto se vuelve aún mayor cuando el tema es complejo: explicar qué es la neuropsicología y cómo aplicarla en educación, diseñar un programa de intervención para estudiantes con dificultades en lectura o presentar estrategias para favorecer el desarrollo de la competencia matemática en estudiantes con discalculia. Y hacerlo en un soporte físico de 70 x 120 centímetros.
Esta propuesta pedagógica puede sorprender en un contexto tan digitalizado como el actual, pero lejos de resultar antigua o anacrónica, permite convertir el aula en un espacio de exposición, diálogo y construcción compartida del conocimiento favoreciendo la capacidad de síntesis, la organización visual de la información o la comunicación oral. Además, potencia el desarrollo de habilidades transversales como el pensamiento crítico, el trabajo en equipo o la competencia investigadora.
Una propuesta visual que obliga a pensar
El póster académico obliga a presentar la información de manera clara, visual y concisa para que el contenido pueda entenderse con un solo vistazo. A diferencia de una exposición oral más tradicional, el póster permanece expuesto en el aula y puede analizarse con calma, al ritmo de cada persona, atendiendo la diversidad de capacidades en un aula.
Captar la esencia de un trabajo completo en un único formato visual nos obliga a centrarnos en los aspectos más importantes. En el ámbito académico, es una manera eficaz para presentar resultados, generar discusión y recibir retroalimentación.
El aula como congreso científico
Nuestra experiencia se desarrolló en una asignatura del grado en maestro en educación primaria. El reto planteado al alumnado fue en primer lugar, elegir un artículo científico relevante relacionado con la asignatura. A continuación, analizarlo y transformarlo en un póster académico que posteriormente deberían defender públicamente antes sus pares, simulando un congreso.
El proceso implicaba varias fases: búsqueda del documento en una base de datos como Scopus o Web of Science considerando los contenidos de la asignatura. Para evitar que se duplicaran los artículos seleccionados, se creó una wiki en la que fueron poniendo los datos del texto elegido. Para elaborar el póster, era necesario llevar a cabo una lectura comprensiva, identificar los objetivos y la metodología, seleccionar los resultados relevantes y realizar una síntesis de conclusiones.
Lo verdaderamente transformador ocurrió después. Durante las sesiones de exposición, el aula cambió de dinámica. El formato generó un clima de escucha activa y debate académico poco habitual en las clases tradicionales.
Al permanecer expuestos simultáneamente en el aula, los trabajos permitieron comparar enfoques, establecer conexiones entre investigaciones y generar una visión más global del conocimiento. El aprendizaje dejó de ser individual y fragmentado para convertirse en colectivo y relacional.
Profundización y apropiación
Los resultados fueron reveladores. El alumnado manifestó un aumento claro del interés por la asignatura y una percepción elevada de aprendizaje. Especialmente valoraron que la actividad les obligara a profundizar en un tema concreto y a comprender la estructura real de un artículo científico, algo que consideraban últil para futuros trabajos académicos.
La actividad de creación y exposición del póster ha incrementado el interés por la asignatura: en una escala del 1 al 5 se obtiene un resultado de 4,3. A su vez, la pregunta de si las exposiciones de los distintos temas realizadas por los estudiantes han permitido ampliar los conocimientos de la asignatura obtuvo una valoración de 4,42.
Más allá de las cifras, lo más significativo fue el cambio en la actitud: pasaron de estudiar contenidos para reproducirlos en un examen a apropiarse de ellos para explicarlos y defenderlos.
Un recurso con potencial inclusivo
El póster, además, introduce un elemento de inclusión poco visible, pero muy relevante. Al combinar información visual, síntesis escrita y explicación oral, activa distintos canales de aprendizaje para comunicar el contenido.
En lugar de un único formato de evaluación, se abre un espacio donde caben diferentes competencias: análisis, diseño, expresión oral, capacidad argumentativa y trabajo colaborativo.
Este enfoque resulta especialmente pertinente en la formación de futuros docentes. Si aspiramos a que diseñen aulas inclusivas, es necesario que experimenten primero metodologías que contemplen la diversidad de ritmos, estilos y fortalezas. El póster no homogeniza: amplía posibilidades.
El póster científico es una herramienta altamente adaptable a otros niveles educativos, desde primaria hasta secundaria.
Por ejemplo, en el área de Matemáticas en educación primaria el currículo actual en España reconoce la dimensión matemática de la comunicación y de la representación, y la relevancia de fomentarla desde edades tempranas. Los pósteres pueden utilizarse para presentar ideas matemáticas, resolución de problemas o incluso demostraciones, fomentando la creatividad, la síntesis de ideas y la organización visual de la información.
En niveles superiores, su uso puede orientarse a profundizar en la metodología científica y en la presentación rigurosa de resultados, incorporando gráficos, estadísticas o citas bibliográficas.
En la era de la inmediatez digital, donde la información se consume en segundos y se olvida con la misma rapidez, el póster académico introduce una pausa necesaria. Obliga a pensar antes de diseñar, a comprender antes de explicar y a dialogar antes de concluir.
Frente a la lógica del “copiar y pegar”, exige elaboración. Frente a la acumulación de diapositivas, demanda síntesis. Frente a la exposición unidireccional, promueve la conversación.
Quizá la verdadera innovación educativa no consista en añadir más pantallas al aula, sino en proponer tareas que exijan mayor profundidad cognitiva. En un entorno saturado de estímulos, detenerse a construir, explicar y debatir en torno a un soporte visible y compartido puede ser, paradójicamente, unas de las experiencias más innovadoras de la educación actual.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.