Los alimentos ultraprocesados podrían no ser el enemigo público número uno de nuestra dieta

Source: The Conversation – (in Spanish) – By Graham Finlayson, Professor of Psychobiology, University of Leeds

JeniFoto/Shutterstock

Los alimentos ultraprocesados se han convertido en perversos villanos en los debates sobre nutrición. A las patatas fritas, las comidas preparadas y los refrescos, entre productos fabricados industrialmente, se les culpa de una amaplia gama de problemas de salud actuales, desde la demencia hasta la obesidad y la epidemia de “adicción a la comida”.

Es más, algunos expertos sostienen que están “formulados específicamente y comercializados de forma agresiva para maximizar el consumo y los beneficios de las empresas”, secuestrando los sistemas de recompensa de nuestro cerebro para hacernos comer más allá de nuestras necesidades.

Los responsables políticos han propuesto intervenciones audaces: etiquetas de advertencia, restricciones de comercialización, impuestos e incluso prohibiciones totales cerca de las escuelas. Pero ¿en qué medida esta urgencia de acabar con los ultraprocesados se basa en pruebas sólidas?

Mis colegas y yo quisimos dar un paso atrás y averiguar qué es lo que realmente hace que a la gente le guste un alimento concreto. Y también qué les impulsa a comer en exceso, no solo a disfrutarlo, sino a seguir comiendo después de haber saciado el hambre. Trabajamos con más de 3 000 adultos del Reino Unido y con más de 400 alimentos cotidianos. Lo que descubrimos cuestiona la narrativa simplista de los alimentos ultraprocesados y ofrece nuevos matices que nos pueden ayudar a avanzar.

Comer por placer en lugar de por hambre

Hay dos conceptos que a menudo se confunden en el discurso sobre la nutrición: que un alimento nos “guste” y que lo comamos en exceso por placer en lugar de por hambre. Por ejemplo, a mucha gente le gusta el sabor de la avena, pero rara vez se da un atracón de avena. No es el caso del chocolate, las galletas y el helado, que además de gustarnos solemos devorar sin saber ponerle fin.

Para nuestra investigación, realizamos tres grandes estudios en línea en los que los participantes calificaron fotos de raciones de alimentos sin marca según cuánto les gustaban y la probabilidad de que comieran en exceso. Los alimentos eran productos reconocibles en una cesta de la compra típica: patatas asadas, manzanas, pasta, pollo, natillas… Más de 400 en total.

A continuación, sopesamos las respuestas teniendo en cuenta tres aspectos: el contenido nutricional de los alimentos (grasa, azúcar, fibra, densidad energética), su clasificación como ultraprocesados según el ampliamente utilizado sistema Nova –un método de clasificación de alimentos que agrupa los alimentos según el grado y la finalidad de su procesamiento– y la percepción que tenían las personas de ellos (dulces, grasos, procesados, saludables, etc.).

Una mirada sesgada de lo que comemos

Algunos resultados eran previsibles: a las personas les gustaban los alimentos que comían más a menudo, y los alimentos ricos en calorías eran más propensos a provocar un consumo excesivo.

Pero la conclusión más sorprendente se derivó del papel de las creencias y las percepciones. El contenido nutricional era importante: las personas calificaban los alimentos ricos en grasas y carbohidratos como más agradables, y los alimentos bajos en fibra y ricos en calorías como más “adictivos”. Pero lo que la gente creía sobre los alimentos también importaba, y mucho.

Percibir un alimento como dulce, graso o muy procesado aumentaba la probabilidad de comer en exceso, independientemente de su contenido nutricional real. Los alimentos que se consideraban amargos o ricos en fibra tenían el efecto contrario.

En una encuesta, pudimos predecir el 78 % de la variación en la probabilidad de que las personas comieran en exceso combinando datos nutricionales (41 %) con creencias sobre los alimentos y sus cualidades sensoriales (otro 38 %). En resumen: nuestras ideas preconcebidas de los alimentos afectan a cómo los comemos tanto como su contenido nutricional real.

Esto nos lleva a los alimentos ultraprocesados. A pesar del intenso escrutinio, clasificar un alimento como “ultraprocesado” aportó muy poco a nuestros modelos predictivos.

Una vez que tuvimos en cuenta el contenido nutricional y la percepción de los alimentos, la clasificación Nova explicaba menos del 2 % de la variación en el gusto y solo el 4 % en el consumo excesivo.

No todos los ultraprocesados son iguales

Eso no quiere decir que todos los alimentos ultraprocesados sean inofensivos: muchos son ricos en calorías, bajos en fibra y fáciles de consumir en exceso. Pero la etiqueta de “ultraprocesado” es un instrumento poco preciso. Agrupa productos tan distintos como los refrescos azucarados, los cereales enriquecidos o las barritas proteicas.

Algunos de estos productos pueden ser poco saludables, pero otros pueden ser útiles, especialmente para personas mayores con poco apetito, personas con dietas restringidas o aquellas que buscan una nutrición práctica.

El mensaje de que todos los ultraprocesados son malos es demasiado simplista. Las personas no comen basándose únicamente en las etiquetas de los alimentos: comen en función del sabor de los alimentos, cómo les hacen sentir y cómo encajan con sus objetivos de salud, sociales o emocionales.

Basar las políticas en las etiquetas de estos alimentos podría ser contraproducente. Las etiquetas de advertencia podrían alejar a las personas de alimentos que en realidad les benefician, como los cereales integrales, o crear confusión sobre lo que es realmente poco saludable.

En su lugar, recomendamos un enfoque más informado y personalizado:

  • Mejorar la educación alimentaria, ayudando a las personas a comprender qué hace que los alimentos sean satisfactorios, qué provoca los antojos y cómo reconocer sus señales personales de comer en exceso.

  • Reformular con intención, diseñando productos alimenticios que sean agradables y saciantes, en lugar de recurrir a opciones “dietéticas” insípidas o a aperitivos ultraapetecibles.

  • Abordar las motivaciones para comer. No hay que perder de vista que las personas comen por muchas razones más allá del hambre, como por comodidad, conexión y placer. Apoyar hábitos alternativos y maximizar el disfrute podría reducir la dependencia de alimentos de baja calidad.

Lo importante no es si algo viene o no en un paquete

Algunos ultraprocesados sí merecen que nos preocupemos: aquellos ricos en calorías, que se comercializan de forma agresiva y a menudo se venden en porciones excesivas.

Pero etiquetar categorías enteras de alimentos como malos basándose únicamente en su procesamiento pasa por alto la complejidad del comportamiento alimentario. Lo que nos impulsa a comer y a comer en exceso es complicado, pero no imposible de entender. Ahora disponemos de datos y modelos para desentrañar esas motivaciones y ayudar a las personas a adoptar dietas más saludables y satisfactorias.

En última instancia, las características nutricionales y sensoriales de los alimentos, y cómo las percibimos, son más importantes que si algo viene en un paquete o no. Si queremos fomentar buenos hábitos alimenticios, es hora de dejar de demonizar grupos de alimentos y empezar a centrarnos en la psicología que hay detrás de nuestras elecciones.

The Conversation

Graham Finlayson ha recibido financiación de Horizon Europe, UKRI y Slimming World.

James Stubbs es consultor de Slimming World UK. Recibe financiación de UKRI.

ref. Los alimentos ultraprocesados podrían no ser el enemigo público número uno de nuestra dieta – https://theconversation.com/los-alimentos-ultraprocesados-podrian-no-ser-el-enemigo-publico-numero-uno-de-nuestra-dieta-263566

Genética forense para identificar a los “padres” del Cabernet Sauvignon, el Chardonnay y otros vinos

Source: The Conversation – (in Spanish) – By Gemma Marfany Nadal, Profesora Catedrática de Genética, Universitat de Barcelona

Rostislav_Sedlacek/Shutterstock

El vino forma parte de la cultura mediterránea. El resultado de la fermentación del jugo de uva prensada (agua y alcohol acompañados de compuestos químicos volátiles –como aldehídos, cetonas, ésteres…– o no volátiles –como azúcar, flavonoides, terpenos…– en proporciones muy variables) ha acompañado los rituales, fiestas, comidas y momentos de socialización o descanso de los humanos muy probablemente desde el Paleolítico.

La vid salvaje de la que salían aquellos primeros “vinos” produce sus frutos en racimos. Y aunque sus bayas son mucho más pequeñas que las variedades cultivadas, cuando maduran son dulces. Seguramente, nuestros ancestros de las sociedades cazadoras recolectoras aprendieron pronto que estos racimos eran una fuente de energía muy sabrosa y portable. Y seguramente, el vino se descubrió por azar, tras encontrar el jugo de las uvas muy maduras, con inicio de fermentación alcohólica por las levaduras que hay sobre el hollejo (la piel que recubre la uva).

Rastreando el origen del Cabernet Sauvignon

Cuando disfrutamos de una copa del vino Cabernet Sauvignon pocas veces pensamos cómo se cultiva la cepa de la que se obtienen las uvas productoras. Quizás incluso asumimos, sin decirlo, que todas las cepas del mundo con este nombre son genéticamente la misma cepa, clones idénticos derivados de una única cepa original que, al gustarnos tanto el vino que generaba, decidimos clonar millones y millones de veces, cubriendo millones de hectáreas cultivadas.

Y en efecto, así es. Usamos reproducción asexual para cultivar las vides, reproduciendo una y otra vez al mismo individuo que ya existía originalmente. Como hacemos con las patatas Kennebec o las manzanas Fuji cuando vamos al mercado: consumir el clon del clon del clon de una cadena de clones de una planta original que nos cautivó por su sabor y textura.

Genética forense aplicada al vino

Pero ¿cómo podemos saber cuál es el origen genético de la cepa de Cabernet Sauvignon? ¿Es posible rastrearlo? Una biotecnóloga de plantas de California llamada Carole P. Meredith se hizo esa pregunta en los años noventa. Mediante técnicas de genética forense, empezó identificando y caracterizando secuencias repetidas cortas variables en el genoma de Vitis vinifera, para posteriormente analizar genéticamente distintas cepas de interés comercial y otras cultivadas en las regiones supuestamente de origen, hasta identificar las cepas parentales.

Cual detective forense de una serie televisiva, Meredith descubrió, sin lugar a dudas, que Cabernet Sauvignon (uva tinta) es la hija directa de dos progenitores muy apreciados también: Cabernet franc (uva tinta) y Sauvignon blanc (uva blanca). Muy seguramente, fue una polinización al azar, alrededor del siglo XVII en la región de Burdeos, la que dio lugar a esta apreciada variedad.

Poco después, Meredith y colaboradores identificaron cuáles eran las cepas parentales de la segunda cepa más cultivada en el mundo, la Chardonnay: Pinot noir (uva negra) y una cepa de uva blanca llamada “gouais blanc”, poco apreciada. Esta cepa la trajo de su tierra natal el emperador romano Probo, originario de la provincia centroeuropea de Panonia, y la donó a la Galia para promocionar el cultivo vinícola. Sin embargo, no produce vinos de alta calidad. Ambas vides estaban ampliamente cultivadas en Francia durante la Edad Media y, por tanto, la probabilidad de cruzamiento al azar era alta. De hecho, de estos mismos parentales, además del Chardonnay (uva blanca), también han surgido otras cepas hijas de alto valor enológico, como la Gamay (uva tinta).

Tempranillo y Syrah

Tras estos éxitos de identificación genética, y considerando el gran número de variedades cultivadas en países (algunas muy antiguas), se han realizado estudios genéticos de viñas y variedades actuales, pero también de viñas salvajes y de pepitas encontradas de cultivares más antiguos. Todo ello ha permitido establecer las relaciones genéticas entre distintos tipos de vides.

Por si alguien tiene curiosidad sobre la variedad Tempranillo, tan extendida en la península ibérica bajo distintos nombres, se sabe que esta cepa es hija de un cruzamiento entre la variedad Albillo Mayor (todavía cultivada en el centro de España) y la Benedicto (no muy apreciada, y que probablemente ya no se cultiva).

En cuanto a la variedad Syrah, es de origen francés y no tiene ninguna relación con la ciudad persa de Shiraz, aunque el exotismo de esta improbable relación fue y continúa siendo utilizado como elemento de marketing.

Todo el conocimiento genético que se deriva de las plantas de cultivo que nos interesan debe ser salvaguardado en bancos de germoplasma: allí se almacenan años de selección natural y artificial por humanos para que las plantas cultivadas tengan cualidades especiales para nuestro consumo. En la vid, permite descubrir qué variantes genéticas concretas pueden ser interesantes para determinadas características organolépticas del vino producido o para resistencias naturales a plagas.

La enología del futuro: ¿nuevas cepas producidas por ingeniería genética?

Los cruzamientos dirigidos tenían sentido durante el siglo XX e inicios del siglo XXI. Sin embargo, ahora que el genoma de la vid está completamente secuenciado, también se puede comparar el genoma de referencia con el de cualquier otra variedad para descubrir qué variantes genéticas nos interesan, de forma que podrían ser introducidas mediante edición genética, sin necesidad de cruzamientos genéticos ni selección posterior de descendientes. ¿Nos esperan nuevas cepas de vinos producidas por ingeniería genética dirigida?

Podemos vaticinar que la enología del futuro se combinará con la biotecnología para la mejora genética de cepas, para la resistencia de estas al cambio climático y a situaciones climáticas extremas, y para elaborar vinos de calidad que puedan presentar características organolépticas similares o muy diferentes a la de los vinos actuales.

Por cierto, que tras abrir la caja de Pandora de la genética de las variedades vinícolas, Carole P. Meredith se retiró de la investigación en el laboratorio y se dedicó a plantar sus propios viñedos y a producir vino Syrah junto a su marido en el valle de Napa, en California. Sus caldos son muy apreciados por los conocedores del buen vino.

The Conversation

Gemma Marfany Nadal recibe fondos para la investigación en enfermedades raras a partir de convocatorias competitivas del Ministerio de Ciencia, Innovación y Universidades, y del CIBERER. Además, es miembro de la Comisión de Bioética de la UB, miembro de la Comisión Nacional de Bioética de Andorra y Ombudsperson de la Fundació CERCA. También es “síndica de greuges” (ombudsperson) de CIVIC AI.

ref. Genética forense para identificar a los “padres” del Cabernet Sauvignon, el Chardonnay y otros vinos – https://theconversation.com/genetica-forense-para-identificar-a-los-padres-del-cabernet-sauvignon-el-chardonnay-y-otros-vinos-263471

Las mujeres embarazadas reciben células fetales que permanecen en su cuerpo y su cerebro

Source: The Conversation – (in Spanish) – By Jorge Romero-Castillo, Profesor de Psicobiología e investigador en Neurociencia Cognitiva, Universidad de Málaga

Dariia Pavlova/Shutterstock

En la mitología griega, la Quimera era un ser híbrido compuesto por partes de diferentes animales. Pero existe equivalente en el mundo real.

La Quimera era un monstruo mitológico que lanzaba fuego por la boca, con la parte delantera de un león, el centro de una cabra y la trasera de un dragón. Según la leyenda, era hija de Tifón y de Equidna y tenía tres cabezas, una de cada uno de los animales que la componían.
Shrivastava et al., 2019., CC BY-SA

Según la RAE, la palabra quimera tiene varios significados. En biología, concretamente, se utiliza para referirse a la coexistencia de dos poblaciones celulares genéticamente diferentes en un mismo individuo, como sucede al trasplantar órganos.

Y si las células son recibidas por el organismo huésped en cantidades por debajo del 1 % (por ejemplo, tras una transfusión de sangre), hablamos de microquimerismo. Sin duda, la manifestación más intrigante de microquimerismo ocurre de forma natural durante un proceso fascinante: la gestación.

¿Quién soy “yo”?

Durante el embarazo, se ha constatado que hay un flujo bidireccional de células entre la madre y el feto (incluso aunque haya un aborto) que da lugar a microquimerismo. Las funciones principales de este proceso, común entre mamíferos placentarios, parecen ser:

  1. Inducir inmunotolerancia para prevenir el rechazo fetal.

  2. Mejorar los resultados de futuros embarazos.

  3. Asegurar la transferencia de recursos maternos a la descendencia.

Este flujo es asimétrico: se transfieren más células del feto a la madre (microquimerismo fetal, originalmente descubierto en 1893) que viceversa (microquimerismo materno). Algunos de los muchos órganos humanos maternos donde pueden encontrarse células fetales son: la piel, los riñones, el hígado, la tiroides, las mamas (influyendo en la lactancia), los pulmones, el corazón y el cerebro.

Además, un planteamiento interesante revela que los hermanos y hermanas menores también podrían obtener células de sus hermanos y hermanas mayores. Esto ocurriría porque las células quedarían alojadas en el cuerpo de la madre y posteriormente serían transferidas a los sucesivos fetos.

Durante el embarazo, las células fetales (representadas por puntos naranjas y verdes) ingresan al cuerpo materno, aumentando en frecuencia con el incremento del tiempo gestacional. Asimismo, cada feto hereda células de origen materno (puntos morados). Se ha predicho que también se podrían obtener células de sus hermanos y hermanas mayores, como se muestra con las células del bebé naranja circulando en el cuerpo del bebé verde.
Adaptado de Boddy et al., 2015., CC BY-NC

Se ha demostrado que las células microquiméricas pueden permanecer en el cuerpo durante décadas, y puede que incluso de por vida. Si se supone que cualquier descendiente podría recibir células obtenidas por la madre durante su propia vida fetal, las probabilidades de albergar células de muchas personas en nuestro cuerpo aumentan considerablemente.

Estos hallazgos han desdibujado los límites biológicos y filosóficos del “yo” y están desafiando nuestras ideas sobre la individualidad.

Un negocio celular: entre la protección y el daño

El impacto del microquimerismo fetal sobre la salud de la madre (y de la descendencia) está siendo investigado con gran interés. Por ejemplo, se ha observado en estudios experimentales con ratones que, en casos de daño cardíaco o hepático, estas células pueden contribuir a la regeneración del tejido afectado, funcionando como una especie de sistema de reparación “donado” por las crías.

Además, investigaciones con seres humanos han sugerido que tienen un papel protector en ciertos cánceres, como el de pulmón y el de tiroides, y pueden contribuir a cicatrizar heridas.

Pero no todo son buenas noticias. Otras investigaciones con humanos han relacionado el microquimerismo con varias enfermedades autoinmunes, como la
esclerosis sistémica y el lupus eritematoso, entre otras. En estos casos, el sistema inmune materno podría identificar a las células fetales como “no propias” y atacarlas, lo que desencadenaría una respuesta inflamatoria perjudicial.

Este posible conflicto inmunológico plantea interrogantes sobre cómo el cuerpo materno “negocia” con esta presencia de células extrañamente familiares.

Migrar para establecerse en el cerebro

Hace relativamente poco, un estudio (el primero en la historia) revelaba la presencia de microquimerismo en el cerebro humano: se ha encontrado ADN con el cromosoma sexual Y (de varón) en múltiples lugares del cerebro de 37 mujeres ya fallecidas (de 59 mujeres totales).

El hallazgo es revolucionario. No se trataba de células pasivas, sino que estaban activas antes de morir, integradas funcionalmente en el tejido cerebral.

Para llegar allí, las células traspasan la placenta durante el embarazo y terminan atravesando la barrera hematoencefálica, una estructura altamente selectiva que regula el paso de sustancias entre la sangre y el cerebro. Superar uno de los sistemas de defensa más estrictos del organismo añade aún más misterio al descubrimiento.

Papel sobre la salud física y psicológica

La evidencia de que existen células microquiméricas en el cerebro ha abierto una atrayente línea de investigación sobre su implicación en el bienestar físico y psicológico de las madres. Por ejemplo, se está comenzando a analizar qué función tienen en varios tumores cerebrales, como el meningioma y el glioblastoma.

Las flechas señalan la identificación de células de varón (rojo para X y verde para Y) en el cerebro de una madre (con dotación cromosómica XX) mediante una técnica con fluorescencia (FISH, Fluorescence In Situ Hybridization) en un meningioma. El recuadro inferior derecho muestra una versión ampliada. Este estudio proporciona evidencia de que las células fetales pueden migrar al cerebro materno, persistir durante períodos prolongados (incluso décadas) y diferenciarse en neuronas funcionales. De momento, no se puede determinar la presencia en el cerebro de una madre de células que provengan de sus hijas (cisexuales), porque al compartir ambas la dotación cromosómica XX, no pueden diferenciarse mediante esta técnica convencional. Pero no hay razones para pensar que no ocurra.
Adaptado de Broestl et al., 2018., CC BY

Una investigación española reciente ha detectado células de varón (XY) en el epitelio olfatorio de madres (XX), lo que podría contribuir a generar un vínculo materno-filial mediante señales olfativas. También asocian una menor presencia de estas células con padecer depresión, lo que sugiere su posible utilidad como biomarcadores de trastornos psicológicos. Sin embargo, aún no se ha demostrado una relación causal.

En esta línea, el primer estudio que reveló microquimerismo en el cerebro humano también ha ofrecido resultados interesantes. Se ha observado que las mujeres con una menor prevalencia y concentración de células de varones en su cerebro tienen mayor probabilidad de tener alzhéimer.

Estos resultados son asombrosos, pero aún estamos lejos de comprender realmente qué papel tienen sobre la salud.

No dar pábulo a bulos

Desgraciadamente, hay bulos que se propagan por redes sociales (como que “las mujeres guardan en su cerebro células de todos los hombres con los que han tenido relaciones sexuales”) que distorsionan las conclusiones reales sobre el microquimerismo. Solo son opiniones hechas por pseudoespecialistas, de corte machista y apoyadas en una falacia ad verecundiam: aceptar una proposición solo por autoridad (a veces ni siquiera la tienen), sin dar argumentos lógicos.

El primer estudio que reveló la presencia de ADN con cromosomas XY en cerebros de mujeres jamás cita las relaciones sexuales como posible fuente de ADN (y tampoco se ha demostrado en ningún otro estudio). Un autor del mismo lo deja claro (aquí no hay una apelación irracional a la autoridad, sino un argumento fundamentado en datos experimentales):

Cualquier sugerencia de que el ADN masculino se conserva de las parejas sexuales no tiene respaldo científico.

Los bulos sí tendrían que convertirse en mitos. Deberíamos preguntarnos ¿quién soy “yo”? para difundir contenido sin contrastar y evitar pseudoinformaciones: el conocimiento científico no se negocia. Es triste que rumores falsos y manipulados migren para establecerse en el cerebro de forma tan veloz, si su papel no consiste en mejorar la salud física o psicológica. Frente a ello, solo queda divulgar con rigor, sin dar pábulo a bulos. ¿Será esto una quimera?

The Conversation

Jorge Romero-Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Las mujeres embarazadas reciben células fetales que permanecen en su cuerpo y su cerebro – https://theconversation.com/las-mujeres-embarazadas-reciben-celulas-fetales-que-permanecen-en-su-cuerpo-y-su-cerebro-262542

Medicamentos biológicos y biosimilares: los nuevos aliados de la medicina moderna

Source: The Conversation – (in Spanish) – By Zuriñe Eraña Pérez, Doctoranda en Tecnología Farmacéutica, Universidad del País Vasco / Euskal Herriko Unibertsitatea

New Africa/Shutterstock

Durante años, la medicina se ha basado principalmente en fármacos sintéticos. Sin embargo, en la actualidad, los llamados medicamentos biológicos han ganado terreno, especialmente en el tratamiento de enfermedades complejas que no responden bien a las terapias convencionales. ¿En qué se diferencian de los tradicionales?

Construir con Lego o plantar un árbol

Imagine que le mandan construir una casa de Lego. Con instrucciones claras y piezas idénticas, puede reproducirla fácilmente una y otra vez sin errores. Así funcionan los medicamentos tradicionales o sintéticos: son moléculas pequeñas creadas en un laboratorio mediante reacciones químicas precisas, como el paracetamol o la aspirina.

Ahora, imagine que tiene que plantar un árbol. En este caso, no basta con seguir un manual: necesita una semilla viva, condiciones climáticas adecuadas y mucha paciencia. Y por mucho que se esfuerce, no conseguirá cultivar dos árboles exactamente iguales. Pues así son los medicamentos biológicos: moléculas grandes y complejas, fabricadas por organismos vivos, como células animales, bacterias o levaduras. No se sintetizan en tubos de ensayo, sino que se producen dentro de seres vivos.

Como francotiradores en nuestro cuerpo

Estas diferencias hacen que la fabricación y comercialización de los medicamentos biológicos sea muy distinta. Estos fármacos contienen principios activos, como proteínas complejas, anticuerpos o incluso hormonas, derivados de fuentes biológicas. Algunos ejemplos conocidos son la insulina para la diabetes –que fue el primer medicamento biológico aprobado en España, en 1982–, la eritropoyetina para tratar la anemia o los anticuerpos monoclonales usados en ciertos tipos de cáncer y enfermedades autoinmunes.

Estos tratamientos actúan como francotiradores en nuestro cuerpo: reconocen una diana concreta –una proteína alterada, una célula enferma, un proceso inflamatorio– y actúan sobre ella con mucha precisión, minimizando efectos secundarios.

Por eso, suponen un hito en la medicina personalizada. Han revolucionado el tratamiento de enfermedades graves y crónicas como la diabetes, la esclerosis múltiple, la enfermedad inflamatoria intestinal, el cáncer y muchas otras patologías, algunas de ellas con pocos tratamientos eficaces disponibles. Según el Ministerio de Sanidad de España, más del 20 % de la población sufre alguna enfermedad crónica que puede requerir un medicamento biológico en algún momento de su vida, especialmente en patologías donde son la única opción eficaz.

Garantizar el acceso a estos tratamientos es crucial, no solo para mejorar la calidad de vida de los pacientes, sino también para la sostenibilidad de los sistemas de salud. Actualmente, más del 40 % de los nuevos medicamentos aprobados por la EMA (Asociación Europea del
Medicamento) son biológicos, y esto está impulsando una mejora en el tratamiento de muchas enfermedades.

Biosimilares: una alternativa más asequible

Sin embargo, producirlos es costoso y complejo. Hay que modificar mediante ingeniería genética células vivas para que fabriquen proteínas específicas, purificarlas, validar su estructura y función… Cualquier pequeño cambio en el proceso puede afectar al producto final. Por eso, un solo tratamiento biológico puede superar los 20 000 € anuales por paciente, lo que ejerce una gran presión sobre los presupuestos públicos y limita el acceso para muchos pacientes.

Aquí es donde entran los biosimilares: versiones más asequibles de los medicamentos biológicos que no comprometen su eficacia. Habitualmente se comparan con los medicamentos genéricos, ya que pueden producirse y venderse una vez expira la patente del medicamento original, lo cual reduce significativamente los costos asociados a la investigación y el desarrollo.

Diferencias con los genéricos

Sin embargo, aunque persiguen un objetivo similar –reducir el gasto farmacéutico y democratizar el acceso a los tratamientos–, los biosimilares son mucho más complejos.

Un genérico es una copia exacta del principio activo del fármaco original. Como las moléculas sintéticas son simples y fácilmente replicables, el medicamento genérico se aprueba rápidamente. En cambio, los medicamentos biológicos no se pueden copiar de forma idéntica. Si bien los biosimilares se fabrican con altísima precisión, puede haber pequeñas variaciones derivadas del propio proceso biotecnológico, igual que no hay dos árboles idénticos, aunque provengan de la misma semilla.




Leer más:
Cronofarmacología: por qué es tan importante la hora a la que tomamos los medicamentos


Un biosimilar es, por tanto, una versión altamente similar a su biológico de referencia en calidad, eficacia y seguridad, pero no es una copia exacta. Por eso, para su aprobación, se debe demostrar, mediante estudios comparativos rigurosos, que no existen diferencias clínicamente relevantes. Esto los hace más caros que los medicamentos genéricos, pero más baratos que los biológicos.

El uso de biosimilares sale a cuenta. En España, por ejemplo, se estima que ha supuesto un ahorro de más de 5 162 millones de euros entre 2009 y 2022, según datos de la Asociación Española de Biosimilares (BioSim), lo que ha permitido reinvertir en innovación, financiar nuevos tratamientos y reducir listas de espera. El primer biosimilar aprobado en Europa fue en 2006, con la hormona de crecimiento humana recombinante, y desde entonces, su adopción no ha parado de crecer.

Obstáculos para su plena implantación

A pesar de sus beneficios, los biosimilares afrontan desafíos. La desconfianza de algunos profesionales y pacientes, que los perciben como “copias de segunda”, es uno de los mayores obstáculos. Sin embargo, pasan por los mismos controles de calidad rigurosos que cualquier medicamento autorizado por la EMA.

Otro reto es la intercambiabilidad, es decir, la sustitución del biológico original por su biosimilar. En España, esto no es automático y depende del criterio médico, pero cada vez hay más evidencia científica que respalda la seguridad de estos intercambios.

También resulta clave la educación sanitaria: cuanto más informados estén los profesionales y los pacientes, mayor será la confianza en su uso.

Un ejemplo de ciencia justa

En definitiva, los medicamentos biológicos y biosimilares representan un cambio de paradigma, pasando de tratamientos generalistas a soluciones personalizadas, dirigidas a las causas moleculares de las enfermedades. Su expansión permite que más pacientes accedan a terapias innovadoras, mientras se preservan los recursos del sistema sanitario.

En un mundo donde el coste de la innovación amenaza con aumentar la brecha en el acceso a la salud, los biosimilares actúan como un puente, conectando el progreso científico con la equidad. Son un ejemplo de cómo la ciencia puede ser no solo eficaz, sino también justa.

The Conversation

Este artículo fue finalista del Premio Luis Felipe Torrente de Divulgación sobre Medicina y Salud, organizado por la Fundación Lilly y The Conversation

ref. Medicamentos biológicos y biosimilares: los nuevos aliados de la medicina moderna – https://theconversation.com/medicamentos-biologicos-y-biosimilares-los-nuevos-aliados-de-la-medicina-moderna-261503

Así eligen los partidos a sus líderes y candidatos en España: ¿debería replantearse?

Source: The Conversation – (in Spanish) – By Carles Pamies, Investigador posdoctoral, Instituto de Políticas y Bienes Públicos (IPP), Consejo Superior de Investigaciones Científicas (CSIC)

Los últimos plenos del Congreso en España y sus acalorados debates ponen de manifiesto que los procedimientos y criterios de selección interna de los líderes y representantes políticos merecen una revisión. Estos, además, volverán al candelero cuando los partidos se preparen para las elecciones varias previstas para 2026 y 2027.

La selección de líderes y candidatos no es un tema menor en democracia, ya que afecta directamente a la calidad de la representación de la ciudadanía (corrupción incluida), las decisiones sobre cuestiones del bien común, la legitimidad de los políticos y los partidos y, en último término, la erosión de la democracia vía desafección y desapego hacia las instituciones.

Existen diferentes tipos de selección que van desde métodos más cerrados (eligen las élites del partido) y centralizados (desde las ejecutivas centrales) a más inclusivos (eligen los militantes o, incluso, los votantes o simpatizantes) y descentralizados (desde los territorios, por ejemplo). En España, la situación es heterogénea, como muestra un vistazo a las normas de selección y configuración de candidaturas.

Primarias, compromisarios y delegados

El PP prima la votación a compromisarios que se adhieren a las distintas listas que compiten. El PSOE usa un abanico de sistemas que van desde las primarias a los delegados para elegir las candidaturas electorales.

Prácticamente desde un inicio, partidos nuevos como Podemos o Ciudadanos hicieron de las primarias un estandarte diferencial, aunque derivaron hacia mecanismos controlados por las elites del partido. Sin embargo, otros partidos también relativamente recientes como Vox, utilizan métodos incluso más cerrados que los de los partidos tradicionales.

Más allá de las normas internas, los partidos tienen una vida social intensa que facilita y condiciona su funcionamiento. Esto explica que los parlamentarios tengan percepciones diferentes acerca de cómo han sido elegidos para ir en las listas.

Desde 2009 les preguntamos sobre esto. Los resultados indican que las formas inclusivas de selección están en retroceso, como muestra el gráfico siguiente.

A la espera de los resultados de la cuarta encuesta a representantes –cuyo trabajo de campo estamos terminando–, parece que la apertura de la selección en los partidos está en declive. No obstante, la selección no suele tener una sola etapa, y no todas las fases son igual de importantes.

Que un candidato sea elegido en última instancia por primarias no significa que estas sean el factor más determinante. A menudo, los líderes salientes nombran públicamente un sucesor, quien tendrá, casi con seguridad, la ventaja comparativa que le otorga el espaldarazo de su mentor. Otras veces, para ajustar los resultados de las primarias a la normativa (a veces por cuestiones de género) intervienen los órganos de los partidos.

¿Por qué los partidos eligen unos métodos de selección u otros? Hay elementos de peso que suelen ponderarse antes de tomar decisiones, así como razones a favor y en contra.

Quienes prefieren las primarias suelen insistir en que estas legitiman la selección al trasladar la decisión al conjunto de militantes, simpatizantes o votantes. Esta ganancia en “legitimidad democrática” puede mejorar la imagen del partido y/o reforzar la implicación de la militancia en la organización.

También se suele argumentar que ese sistema genera efervescencia colectiva entre militantes y simpatizantes de la que se puede derivar un aumento (más o menos temporal) de la expectativa de voto y de la afiliación.

Las primarias se suelen considerar como un instrumento de transparencia en la selección. Los candidatos en liza tienen que exponer ideas y medidas sobre las que en el futuro se les puede pedir que rindan cuentas. Son vistas también como un instrumento de renovación interna y, en este sentido, configuran un supuesto dique a la Ley de Hierro de la Oligarquía, formulada por Robert Michels, la cual establece que todas las organizaciones, incluso aquellas que buscan la democracia o son sus actores principales, inevitablemente desarrollan una estructura oligárquica. La renovación puede facilitar que una facción no se perpetúe en el puesto.

Finalmente, el recurso a las primarias parece encajar bien con el artículo 6 de la Constitución española, que prevé que la estructura y el funcionamiento de los partidos deben ser democráticos.

Fraudes y posibles pucherazos

Aquellos que, por el contrario, se oponen a las primarias, suelen insistir en distintos tipos posibles de fraude que afectan a las nuevas afiliaciones patrocinadas o motivadas por un candidato, a la potencial manipulación de las reglas y a posibles pucherazos. Se suele argumentar que, cuando hay varias candidaturas, se generan divisiones internas difíciles de restañar y que puede haber desequilibrios en la disposición de recursos materiales y financieros de los candidatos.

El posicionamiento del “aparato” del partido puede también afectar el resultado de las primarias que, además, pueden generar desequilibrios en términos de representación. A veces, durante las primarias se favorecen determinados perfiles respecto a otros (por ejemplo, a los varones en detrimento de las mujeres), requiriendo ajustes para encajar las listas con las exigencias legales o las cuotas que menoscaban parte de determinadas visiones de lo que deberían ser las primarias.

A su vez, con este sistema se facilita la intervención de grupos externos con intereses espurios que pretendan hacer avanzar su agenda o potenciar discursos populistas difíciles de adaptar a políticas públicas. Además, queda sin resolver el interrogante de a quién se rinden cuentas cuando se ha sido elegido por un sistema inclusivo y descentralizado.

Los partidos son los guardarraíles de la democracia y responsables últimos de a quién ubican en las instituciones de representación. Como tales, ponderan qué estrategias de selección resultan más útiles para maximizar los retornos en términos tanto electorales, de representación y de manejo de las expectativas e intereses de sus miembros, simpatizantes y potenciales votantes.

Si, además, prestan atención de forma honesta y transparente al tipo de políticos que entran en las instituciones y qué comportamiento promueven con los rivales y con la ciudadanía, podrían evitarse espectáculos como los habituales en la política en España, entre los que se encuentran los recientes debates sobre el currículum de los políticos y las actuaciones posteriores .

The Conversation

Carles Pamies recibe fondos de la Agencia Estatal de Investigación a través del proyecto “Polarización afectiva en democracias avanzadas: el impacto de las élites políticas en la ciudadanía en España (PID2023-151795NB-I00) dirigido por Leonardo Sánchez Ferrer (UBU) y Xavier Coller (UNED).

Xavier Coller recibe fondos de la Agencia Estatal de Investigación a través del proyecto “Polarización afectiva en democracias avanzadas: el impacto de las élites políticas en la ciudadanía en España (PID2023-151795NB-I00) codirigido con Leonardo Sánchez Ferrer (UBU).

ref. Así eligen los partidos a sus líderes y candidatos en España: ¿debería replantearse? – https://theconversation.com/asi-eligen-los-partidos-a-sus-lideres-y-candidatos-en-espana-deberia-replantearse-261312

Literatura gastronómica: somos lo que comemos (y leemos)

Source: The Conversation – (in Spanish) – By Alejandra del Carmen Meza Servín, Associate professor, Universidad de Guadalajara

Fotograma de la serie inspirada en la novela ‘Como agua para chocolate’, de Laura Esquivel. IMDB

“El mole se preparó con la receta que Tita había heredado de Nacha… una receta antiquísima que se pasaba de generación en generación, siempre en manos de la mujer encargada de la cocina”.

Esta cita proviene de la obra romántica, exponente del realismo mágico, Como agua para chocolate, de Laura Esquivel, ejemplo de cómo una novela puede narrar historias, transmitir afectos y preservar identidades a través de la comida.

En este libro, cada capítulo incluye una receta tradicional mexicana. Ingredientes como el chocolate, el chile o el mole no solo sazonan la trama, sino que reflejan la riqueza agrícola y cultural de México. A través de la cocina (y en la cocina) Tita, la protagonista, expresa sus emociones, mostrando cómo la gastronomía puede ser un lenguaje universal y haciendo que el lector pueda saborear sus lágrimas y pasiones.

Gastronomía literaria

Pero el de Como agua para chocolate no es el único caso. Porque la comida en la literatura va más allá de simples descripciones culinarias. Es un puente entre culturas, emociones y tradiciones.

Chocolat de Joanne Harris, ambientada en un pequeño pueblo francés, muestra cómo el cacao –gracias a la tienda de bombones que abre una forastera en un pueblo– puede romper prejuicios y unir comunidades.

Una mujer tras un mostrador habla con una señora mayor frente a ella.
La chocolatería de Chocolat (en la foto, su adaptación cinematográfica) se convierte en un punto de reunión de diferentes personas del pueblo.
FilmAffinity

Muchas novelas gastronómicas también destacan el uso de ingredientes locales y de temporada, un principio clave de la cocina sostenible. Por ejemplo, Entre pólvora y canela, de Eli Brown, rescata sabores afrocaribeños basados en especias como la canela y la pimienta. Estos ingredientes no solo dan identidad a los platos, sino que promueven el comercio justo y la agricultura local.

Otro ejemplo fascinante donde lo culinario se entremezcla con la narrativa se encuentra en la trilogía de novelas históricas Azteca, de Gary Jennings. En estas recreaciones del México prehispánico, se describe detalladamente cómo los personajes preparan platillos con maíz, frijol y chile, los ingredientes básicos e inseparables de la dieta mesoamericana. A través de la elaboración de tortillas, tamales, salsas y diversos guisos, el lector se sumerge en la vida cotidiana y ritual de esta civilización, donde la comida funge como pilar cultural y social.

La novela Un viaje de diez metros, de Richard C. Morais, ofrece un rico tapiz de enseñanzas culturales y psicológicas. El relato sigue al joven chef indio Hassan Haji y su familia, quienes inauguran un pequeño restaurante en Francia justo enfrente de un establecimiento Michelin. La historia se convierte en una profunda exploración de la asimilación cultural frente a la preservación de la identidad. Más allá de ser una deliciosa inmersión en el mundo de la alta cocina, la novela aborda las diferencias dimensiones que puede tener la gastronomía en aspectos como el duelo, la resiliencia y la búsqueda de la excelencia.

Rescate de técnicas ancestrales

Las novelas también preservan conocimientos culinarios en riesgo de desaparecer. Como agua para chocolate detalla métodos como la nixtamalización del maíz –para transformar el grano en masa– o el uso del metate como utensilio de cocina. Estos procesos, aunque laboriosos, son más sostenibles que las alternativas industriales.

Portada del libro Delirio de Laura Restrepo
Delirio, de Laura Restrepo, recibió el Premio Alfaguara de Novela en 2004.
Penguin Libros

Delirio, de Laura Restrepo, desarrolla platos tradicionales andinos como el ajiaco –un tipo de sopa– con papas nativas, cuya elaboración depende de la biodiversidad local.

Y El último chef chino, de Nicole Mones, se distingue por su profunda exploración de la cocina tradicional como un tesoro cultural y filosófico. A través de la mirada de Maggie McElroy, una periodista estadounidense que viaja a Pekín para cubrir la muerte de un afamado chef, la novela revela la lucha por preservar estas prácticas milenarias frente a las presiones de la modernidad y la globalización.

Literatura en la educación culinaria

La literatura que abarca temas gastronómicos puede ser una herramienta educativa que vincula comida, cultura y sostenibilidad. Escuelas líderes ya la usan para formar chefs, conscientes de su impacto social y ambiental.

Estos textos enriquecen la formación culinaria y combaten la homogenización alimentaria. Además, al revivir recetas olvidadas, promueven la diversidad biocultural.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Por ejemplo, el Culinary Institute of America (CIA) incluye análisis de textos literarios en sus cursos de cultura alimentaria. A través de ellos, los estudiantes exploran cómo las descripciones reflejan contextos históricos y geográficos, además de los cambios en la alimentación, técnicas e ingredientes que se han realizado a lo largo de décadas e, incluso, siglos.

En Italia, la Universidad de Ciencias Gastronómicas de Pollenzo (fundada por Slow Food) utiliza obras literarias para discutir el valor simbólico de los alimentos. En Colombia, la Escuela Taller de Bogotá emplea obras de Laura Restrepo para enseñar gastronomía local.

Y en Perú, las escuelas culinarias usan La guerra del fin del mundo, de Mario Vargas Llosa, para analizar cómo la comida refleja desigualdades sociales. Esto fomenta una visión más ética de la gastronomía.

Más allá del recetario

A través de novelas y cuentos donde la alimentación es un pilar en la narrativa, es posible entender historias, respetar temporadas y valorar a quienes cultivan los alimentos. Incluso, reflexionar sobre nuestros hábitos de consumo alimenticio y el impacto que tienen, como sucede con Cadáver exquisito, de Agustina Bazterrica. Ahí la autora, con una prosa cruda y directa, despoja al acto de comer de cualquier romanticismo, exponiendo la deshumanización inherente a la producción industrializada de alimentos.

La obra de Bazterrica nos obliga a mirar críticamente la indiferencia con la que a menudo tratamos el origen de lo que comemos, y nos confronta con la idea de que el capitalismo y la comercialización excesiva de la vida pueden desdibujar peligrosamente los límites de la moralidad.

En un mundo donde domina la comida rápida, estos textos son un recordatorio: la buena gastronomía nace de raíces profundas, nos acompaña a lo largo de nuestra vida e impacta significativamente en la producción cultural y artística de cada país y región del mundo.

Así, una novela puede convertirse en un recetario, hacernos viajar a través de la comida o convertirse en una nueva influencia para experimentar la vida a través de la alimentación.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Literatura gastronómica: somos lo que comemos (y leemos) – https://theconversation.com/literatura-gastronomica-somos-lo-que-comemos-y-leemos-260041

El medio rural no necesita más subvenciones, sino pagos justos por los servicios que proporciona

Source: The Conversation – (in Spanish) – By Víctor J. Colino Rabanal, Profesor Ayudante Doctor en el Departamento de Biología Animal, Ecología, Parasitología, Edafología y Química Agrícola. Secretario del Centro de Estudios Ambientales y Dinamización Rural., Universidad de Salamanca

El ganado puede ayudar a reducir la vegetación para disminuir el riesgo de incendios. Emimili/Shutterstock

Los incendios que arrasan España este verano de 2025 no son solo una catástrofe ambiental. Son también la señal más clara de que la relación con el medio rural está agotada. Durante décadas, la despoblación, la pérdida de usos tradicionales y el abandono institucional se han intentado frenar con subvenciones y ayudas. Pero esas políticas no han resuelto los problemas de fondo.

Al contrario, dichas medidas han reforzado la idea de que el campo es un territorio débil al que hay que “ayudar”. El resultado es un medio rural vulnerable y marginado, aunque absolutamente esencial para la sociedad. La respuesta para garantizar su subsistencia y desarrollo no puede seguir siendo la misma: necesitamos un nuevo contrato social, basado en pagos –no en subvenciones– que reconozcan las muchas contribuciones del medio rural a la sociedad.

La diferencia entre una subvención y un pago no es un simple matiz. Marca un cambio profundo en la relación entre la sociedad y el medio rural. La subvención se percibe como una ayuda externa, que coloca a quien la recibe en una posición pasiva de dependencia. El pago, en cambio, establece una relación de igual a igual. Mientras la subvención alimenta la narrativa de un espacio deficitario, el pago refuerza el reconocimiento del papel estratégico de estos territorios y sus habitantes.

Servicios que presta el medio rural

Uso el término “contribuciones del medio rural a la sociedad” como paralelismo con el de contribuciones de la naturaleza a los seres humanos de la Plataforma Intergubernamental sobre Biodiversidad y Servicios de los Ecosistemas (IPBES). Como en países como España el medio rural ejerce de custodio del territorio, buena parte de las contribuciones de la naturaleza a las personas proceden del medio rural.




Leer más:
Por qué poner un valor monetario a los recursos naturales


Las contribuciones del medio rural a la sociedad son múltiples y valiosas. Con una gestión adecuada, estos territorios proporcionan importantes servicios ecosistémicos: protegen suelos, regulan caudales hídricos, depuran aguas, aseguran la polinización y conservan biodiversidad y recursos genéticos.

También desempeñan funciones sociales y culturales de enorme valor, como la transmisión de saberes tradicionales, la pervivencia de paisajes culturales, la generación de identidad colectiva y la fijación de la población.

Y en este año de incendios se muestra otra función vital: reducir riesgos naturales y evitar daños económicos y sociales muy notables.




Leer más:
¿Cuánto hemos perdido en el incendio forestal de la sierra de la Culebra?


Un nuevo contrato social

El pago por todos estos servicios debe ser uno de los pilares del nuevo contrato social. Actualmente, la sociedad se beneficia de ellos sin reconocer su coste ni hacerse corresponsable de su cuidado. No obstante, debería pagar, y hacerlo mediante mecanismos que reflejen el verdadero valor de lo que recibe.

Este contrato social también implica cambios dentro del propio medio rural. Agricultores, ganaderos y propietarios forestales deben reconocerse no solo como productores de alimentos y materias primas. Deben ser, al mismo tiempo, proveedores de bienes públicos esenciales: naturaleza, paisajes, biodiversidad y cultura.

Asumir este rol significa reclamar pagos justos, pero también integrar objetivos de multifuncionalidad y gestión responsable en la actividad diaria. Se trata de pasar de una lógica de supervivencia a una de liderazgo en la transición hacia un modelo territorial más justo.

Ya existen iniciativas que muestran cómo los pagos por estas contribuciones pueden aplicarse, por ejemplo, a la reducción del riesgo de incendios. En distintas regiones de España, programas de pastoreo remuneran a ganaderos por mantener rebaños que reducen la vegetación seca, actuando como cortafuegos vivos más sostenibles que la limpieza mecánica. También hay iniciativas que promueven paisajes en mosaico. Estos paisajes producen alimentos, pero además frenan la propagación del fuego.

En otros países hay iniciativas similares. En Portugal se han puesto en marcha planes que pagan a pequeños propietarios por mantener áreas abiertas mediante ganadería extensiva. En Francia se han promovido acuerdos para que el ganado se alimente en espacios naturales protegidos, reduciendo la carga inflamable y reforzando la biodiversidad.

Y en América Latina, países como México han explorado esquemas de pago por servicios ambientales que incluyen la protección contra incendios en bosques comunitarios.

Hay muchas otras iniciativas similares en otros ámbitos como la absorción de carbono en terrenos forestales o agrícolas , o el mantenimiento y restauración de biodiversidad. De hecho, los ecoesquemas de la PAC intentar ir en esa dirección.




Leer más:
Explicando la nueva PAC para no especialistas


Oportunidades de innovación y nuevos nichos laborales

El nuevo contrato social abre también un horizonte de oportunidades. Puede convertirse en motor de innovación y modernización de las zonas rurales, con búsqueda de nuevas formas de gestión integrada del paisaje, impulsando el uso de tecnologías como la teledetección, los drones y la inteligencia artificial para gestionar la complejidad del territorio. Genera además nuevos nichos laborales en ámbitos como la bioeconomía, la restauración ecológica y el turismo de naturaleza.

Además, este enfoque resulta especialmente apropiado para las zonas rurales periféricas y despobladas. En ellas, la rentabilidad agrícola es baja y las opciones económicas limitadas. Pero los servicios ecosistémicos que prestan son paradójicamente más valiosos. Así, los esquemas de pago pueden ser esenciales para complementar y diversificar las rentas y contribuir a fijar población en estas zonas.

Toda esta visión enlaza de forma natural con las políticas de reto demográfico y con estrategias de conservación como la de infraestructura verde, situando al medio rural en el centro de la transición social que la sociedad necesita.

En resumen, los incendios de 2025 muestran el precio de seguir ignorando al medio rural. Abandonar el asistencialismo y poner en marcha un sistema de pagos que reconozca su valor real es la mejor forma de devolver protagonismo a sus habitantes. Solo así estos territorios podrán consolidarse como espacios dinámicos, multifuncionales y abiertos a la innovación. Porque sin un medio rural vivo y reconocido, no habrá futuro para la sociedad en su conjunto.

The Conversation

Víctor J. Colino Rabanal no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El medio rural no necesita más subvenciones, sino pagos justos por los servicios que proporciona – https://theconversation.com/el-medio-rural-no-necesita-mas-subvenciones-sino-pagos-justos-por-los-servicios-que-proporciona-263377

Por qué la programación debería ser tan importante como las matemáticas

Source: The Conversation – (in Spanish) – By Luis Daniel Lozano Flores, Profesor investigador en Educación, Universidad de Guadalajara

Concurso de robótica y programación para alumnos de 6 a 11 años de una escuela primaria. Luis Daniel Lozano Torres.

Cada día, casi cada hora, estamos usando códigos de diversos lenguajes de programación. Lo hacemos cuando utilizamos aplicaciones en nuestro dispositivo móvil para cocinar, entretenernos, escuchar música, incluso ir de un lugar a otro a través de un mapa u obtener referencias de algún restaurante. Dependemos de ellas para las actividades más básicas de nuestra existencia, pero desconocemos su funcionamiento interno.

En ocasiones, depender tanto de la tecnología sin saber cómo funciona trae como resultado problemas más grandes y en algunos casos menos manejables. Por ejemplo, el caso de la privacidad y seguridad: aceptamos los términos y condiciones de alguna aplicación o página web sin leerlos cedemos nuestra información personal, como la ubicación, fotos o contactos.

Estudiantes y tecnología

En el mundo académico, los estudiantes de diversos niveles educativos utilizan inteligencia artificial para potenciar estrategias de aprendizaje. No sólo para generar texto, sino para analizar grandes bases de datos, texto, y posteriormente convertirlos en podcasts o mapas mentales, entre otros productos que faciliten su comprensión y reflexión.

El uso que hacen es a menudo automático e irreflexivo, dejando de lado la parte crítica y los procesos cognitivos y metacognitivos necesarios para que su realización suponga realmente un aprendizaje.

Conocer la tecnología por dentro

Una de las mejores maneras de evitar este uso automático y acrítico es aprender programación en las primeras etapas educativas. Entender cómo funciona la tecnología permite desarrollar un pensamiento crítico ante ella y discernir cuál se adaptan mejor a nuestras necesidades, tanto académicas como cotidianas.




Leer más:
Por qué enseñar a los niños a pensar como las máquinas


Se puede aprender a programar desde los primeros años, con actividades y robots especializados para estudiantes de preescolar, con los que niños y niñas pueden aprender jugando, ya sea por medio de dinámicas, videojuegos o interfaces muy amigables para los más pequeños. Por ejemplo Scratch, que les permite programar animaciones y robots virtuales solo con un navegador de internet.

¿Cuándo y por qué aprender programación?

Pensadores constructivistas desde Seymour Papert (ya en 1980) han defendido que toda persona debía desarrollar habilidades específicas de un pensamiento computacional. Pensar computacionalmente implica automatizar, evaluar, descomponer, pensar abstracta y algorítmicamente.

De hecho, el pensamiento computacional puede ser desarrollado con o sin el uso de tecnología. Cualquier juego en el patio, incluso de los tradicionales, en el que se van resolviendo problemas y sorteando obstáculos de manera estructurada, diagramas de flujo o laberintos contribuye a desarrollarlo.

La gamificación es una buena manera de desarrollar este tipo de pensamiento computacional “desenchufado”, que busca cultivar un enfoque crítico y reflexivo.

El fenómeno QWERTY

Para entender el efecto que la dependencia de la tecnología puede tener en nuestra mente si no sabemos cómo funciona utilizaremos la metáfora del fenómeno QWERTY. ¿Se ha preguntado alguna vez por qué es ese el orden de las letras que aparecen en la línea superior del teclado, a partir de la izquierda? Antiguamente, el orden de las teclas de una máquina de escribir debía de ser calculado minuciosamente, debido a que, si dos teclas se presionaban una después de otra, podían atascarse, por lo que se decidió que el orden de las letras fuera poco común, como “Q-W-E-R-T-Y”.




Leer más:
Tecnologías sencillas que permiten fabricar y programar robots en clase


Con el paso del tiempo, se decidió dejarlo así en los teclados de computadoras, dispositivos móviles, entre otros. Llamamos “fenómeno querty” al uso de la tecnología sin conocer el origen ni la lógica con la que funciona.

QWERTY en la educación

El fenómeno QWERTY puede ser aplicado a las formas de pensar. Por ejemplo, la educación tradicional solía dar mayor importancia a la memorización y a seguir procedimientos paso a paso para resolver problemas. Estos métodos son comparables al diseño del teclado QWERTY: una solución del pasado que persiste por costumbre, a pesar de que hoy en día sabemos que hay formas más eficientes de aprender y pensar.

Actualmente, se le da mayor importancia a la comprensión, la lógica y la resolución de problemas de forma innovadora. Abandonar la inercia de los métodos antiguos para adoptar un enfoque de pensamiento más dinámico es un ejemplo claro de cómo superar esa actitud pasiva de aceptación de lo que hay porque es lo que había.

Cuando los niños aprenden desde pequeños que pueden desarrollar habilidades de programación sin tecnología, con simples juegos, prevenimos que sean víctimas del fenómeno QWERTY.

Lo que aporta la programación

Las razones por las que los estudiantes se benefician de estudiar programación en la etapa primaria son las siguientes:

  1. Permite desarrollar habilidades cognitivas que permitan darle un uso crítico, ético y responsable a la inteligencia artificial. Al darse cuenta de cómo funciona la tecnología, conocen también los riesgos que implican sus diferentes usos, por ello los estudiantes terminan desarrollando sensibilidad ética ante la tecnología.

  2. Entender y utilizar la automatización: al programar, los estudiantes aprenden a agilizar órdenes que se les dan a los robots (como en matemáticas utilizamos fórmulas para agilizar sumas, restas, promedios, etc., en una hoja de cálculo). La automatización es una habilidad clave para que nuestras actividades sean más sencillas y rápidas.

  3. Entender el procesamiento de datos. Por ejemplo, al programar un robot, los estudiantes le enseñan a usar la información de sus sensores para tomar decisiones, como girar cuando detecta un obstáculo. Aprender a organizar y usar esta información de forma lógica les ayuda a desarrollar una forma de pensar que después aplican en otras clases, facilitándoles la creación de gráficas, tablas o diagramas, ya que ahora comprenden cómo se estructura la información.

  4. Potenciar el pensamiento crítico, abstracto y algorítmico. Un estudiante que programa es un estudiante crítico, ya que comprende que existen muchas soluciones para un mismo problema. La programación nos invita a encontrar diferentes procedimientos para resolver una misma situación.




Leer más:
Educación e innovación: cinco tecnologías que mejoran la enseñanza


Lo que dice la evidencia

Algunos estudios demuestran que el desarrollo del pensamiento computacional es un elemento esencial de los programas de estudio, ya que ayuda a desarrollar habilidades clave para pensar creativamente en cualquier etapa educativa.

Incluso programando robots educativos sencillos se adquieren conocimientos y aprendizajes útiles como identificar patrones, resolver problemas y trabajar en equipo.

The Conversation

Luis Daniel Lozano Flores no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué la programación debería ser tan importante como las matemáticas – https://theconversation.com/por-que-la-programacion-deberia-ser-tan-importante-como-las-matematicas-260011

Podemos modificar el cerebro (y la salud mental) usando luces que parpadean

Source: The Conversation – (in Spanish) – By Francisco Javier Ávila Gómez, Profesor Contratado Doctor, fisica aplicada (área de óptica), Universidad de Zaragoza

DC Studio/Shutterstock

¿Se puede estimular el cerebro a través de la visión? Esa fue la pregunta que motivó nuestro estudio publicado recientemente en Journal of Imaging, donde se demuestra que la estimulación visual intermitente puede modular la actividad cerebral, un marcador de plasticidad funcional. Esta se puede entender como la capacidad que tiene el cerebro para cambiar su estructura y adaptarse durante la vida. Gracias a esto, nuestras neuronas pueden eliminar las que no usamos o fortalecer las conexiones que nos permiten el aprendizaje, la memoria o recuperarnos de lesiones como, por ejemplo, la pérdida del habla tras sufrir un ictus.

La buena noticia es que la plasticidad no es exclusiva de la edad infantil, sino que el cerebro en la edad adulta sigue reorganizando sus conexiones. Su estudio, sin embargo, suele requerir de técnicas complejas y costosas, en ciertos casos, invasivas.

El método: confrontar al sistema visual

La estimulación luminosa intermitente consiste en exponer al observador a una luz que parpadea a una frecuencia determinada. Mientras tanto, se mide la actividad cerebral mediante electroencefalografía (EEG) y es comparada con la actividad en condiciones normales.
Si durante la estimulación, se observa una respuesta conocida como potenciales evocados visuales, entendemos que ha habido una respuesta en la corteza cerebral a través del sistema visual debida al estímulo parpadeante: una mayor respuesta implica mayor excitabilidad y, por tanto, plasticidad funcional.

Frecuencia crítica de fusión

La clave está en la frecuencia del parpadeo de la luz. Nuestro sistema visual presenta dos vías principales, que transmiten la información desde la retina hacia el cerebro, conocidas como vías “parvocelular” y “magnocelular”. De forma resumida, la primera es sensible a alta resolución espacial (detalles finos) y cambios temporales lentos. La segunda responde a baja resolución espacial y cambios temporales rápidos. Ambas funcionan de forma complementaria.

Sin embargo, a veces, el movimiento es tan veloz que nuestro sistema visual no puede procesar la velocidad (como un parpadeo muy rápido), o la calidad de imagen se degrada tanto que no podemos percibir detalles pequeños (como ocurre con las cataratas, o la conducción en un día de niebla). En estos escenarios, nuestro sistema visual alcanza el límite de resolución dando lugar a un fenómeno conocido como “sumación” espacial y temporal. Es decir, nuestro cerebro “suma” las señales que recibe para generar una respuesta.

En el caso de la visión espacial, se traduce en una mancha borrosa. En el caso temporal, una luz parpadeando a una frecuencia muy alta se percibe como una luz estática sin ningún tipo de parpadeo. Esta frecuencia en el sistema visual se encuentra generalmente por encima de los 30 Hz y se conoce como frecuencia crítica de fusión.

En estos límites espacio-temporales de la visión, las vias parvo y magnocelulares juegan un papel compensatorio: Si disminuye la resolución espacial, aumenta la temporal, y viceversa. .

En nuestro cerebro, existen ventanas de sensibilidad cortical donde la estimulación con ciertas frecuencias inducen la respuesta neuronal, mientras que otras pueden inhibirla o incluso ser inocuas.

Estimular el cerebro sin terapias invasivas

Las neuronas no se activan de forma aleatoria: lo hacen siguiendo patrones oscilatorios –repetitivos– de actividad eléctrica. Estas oscilaciones son de muy baja amplitud, del orden de microvoltios en humanos. El análisis de los patrones de ondas, es una gran herramienta de investigación en la Neurofisiología para evaluar cómo funciona el encéfalo. En la mayoría de las patologías de la corteza cerebral se observan ondas disminuidas.

Estas ondas de la actividad eléctrica cerebral se detectan mediante EEG y, según su frecuencia de oscilación, se clasifican como ondas alfa, theta, delta, beta y gamma. En nuestro estudio, comprobamos que todas se pueden modular mediante estímulos visuales. Presentamos a los participantes estímulos visuales basados en un LED parpadeante controlado por un miniordenador de bajo coste (Arduino) y encontramos que, al estimular la visión a la frecuencia critica de fusión con luz verde, se producía una reducción significativa de las ondas de alta frecuencia beta y gamma.

Sin embargo, al disminuir la cantidad de luz emitida mediante difusores de luz translúcidos, el carácter compensatorio de las vias magno y pavo celular se ve comprometido. Esta confrontación nos sirvió para detectar un mecanismo de respuesta antagónico en la actividad cerebral: se encontró un aumento significativo de la actividad neuronal de las ondas beta y gamma.

Mapas de actividad cortical para iluminación a la frecuencia crítica con luz verde (derecha) y cuando el sistema parvocelular se penaliza mediante filtros ópticos.
F. J. Ávila et al.

Desórdenes mentales y neurológicos

La sincronización neuronal de ondas de la frecuencia beta y gamma está relacionada con la función cognitiva y la percepción, mientras que la pérdida de sincronización en la banda gamma se asocia con enfermedades como Alzheimer, autismo y esquizofrenia.

Además, la activación excesiva de ondas beta puede generar ansiedad y estrés, mientras que su inhibición puede conducir a depresión severa y deterioro cognitivo.

Electro-encefalograma de ondas gamma en un sujeto sano en condiciones de reposo (curva roja) y mientras se aplica el estimulador visual (curva azul).
F. J. Ávila et al.

Por ello, las ondas cerebrales de alta frecuencia son importantes bio-marcadores de la salud mental.

Electro-encefalograma de ondas gamma en un sujeto sano en condiciones de reposo (curva roja) y mientras se aplica el estimulador visual (curva azul).
F. J. Ávila et al.

¿Una terapia basada en pulsos de luz?

Nuestro experimento fue simple, pero sus implicaciones pueden ser profundas: una breve estimulación visual puede cambiar, al menos temporalmente, la actividad cerebral. Esa capacidad de cambio es lo que hemos llamado neuroplasticidad visual.

Si logramos afinar esa relación, podríamos restaurar la plasticidad perdida, sin necesidad de intervenciones invasivas, para reactivar una red neuronal dormida.

The Conversation

Francisco Javier Ávila Gómez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Podemos modificar el cerebro (y la salud mental) usando luces que parpadean – https://theconversation.com/podemos-modificar-el-cerebro-y-la-salud-mental-usando-luces-que-parpadean-261284

Por qué las baldosas miden 31,6 o los secretos milimétricos del universo

Source: The Conversation – (in Spanish) – By José Ygnacio Pastor Caño, Catedrático de Universidad en Ciencia e Ingeniería de los Materiales, Universidad Politécnica de Madrid (UPM)

Baldosas de terracota TY Lim/Shutterstock

Es una mañana cualquiera y estamos descalzos en la cocina, preparándonos un café sin prisas, mientras sentimos el contacto de nuestros pies con el suelo. El mundo aún se está empezando a desperezar y, distraídos, contemplamos las baldosas que nos transmiten el frescor del alba: perfectamente alineadas como teselas de un puzle obsesivamente preciso. ¿Cuánto mide cada una de ellas? No son de 30 centímetros exactos, ni tampoco 33,3. Se nos pasa por la mente que pueden estar diseñadas en medidas anglosajonas, pero tampoco miden 30,48 cm (un pie o doce pulgadas). Y tampoco son un múltiplo de 3,14159… como 31,4 cm. ¡Ufff, y esto, a algunos, nos llevaría a algún mal recuerdo del número pi y las matemáticas!

De repente, surge ante nosotros un número extraño, casi mágico: 3,16 decímetros (dm), es decir, 31,6 centímetros. Es como si alguien hubiera decidido jugar con nuestra mente, escondiendo un enigma matemático justo bajo nuestros pies, en algo tan cotidiano y aparentemente anodino como las baldosas del suelo.

Una idea brillante de Charles Renard

A estas alturas, lector, es posible que ya haya empezado a medirlas, sorprendido porque ni siquiera son cuadradas. Pero no dejaremos que las modernas tendencias en porcelánicos nos arruinen una fascinante historia que se remonta al siglo XIX. Todo comenzó con Charles Renard, un ingeniero francés cuya brillante idea fue racionalizar las dimensiones industriales, facilitando así tanto la fabricación como el transporte de mercancías. Lo que parecía simplemente una manía ingenieril, para ordenar el caos numérico en secuencias armoniosas, acabó conectando con fenómenos mucho más profundos y misteriosos de la Física.

El ingeniero e inventor francés Charles Renard (1847-1905).
Wikimedia Commons.

Y es que la intuición de Renard no se quedó atrapada en las fábricas ni en los almacenes, sino que extendió sus tentáculos hacia terrenos sorprendentes, enlazando con ámbitos tan diversos como los decibelios, esas curiosas unidades con las que medimos la intensidad del sonido – es la base del “decibelio medio”: 10 · log₁₀(10sqrt{10}) ≈ 5 dB–, y la mismísima constante de Planck, esa misteriosa cifra que gobierna el mundo microscópico de las partículas elementales y la estructura íntima del universo –en cálculo dimensional, 10√10 conecta con la constante de normalización de Planck en unidades físicas naturales–.

Una medida común en el siglo XX

Lo cierto es que esta medida de 3,16 nunca llegó a convertirse en un estándar universal, sino más bien en una sugerencia práctica. Una recomendación amable, podríamos decir. Desde finales del siglo XIX y, especialmente, con el intenso florecimiento de la industria cerámica en España a mediados del siglo XX, esta curiosa cifra reinó cómodamente como la dimensión más habitual en baldosas y azulejos.

¿Y hasta cuándo duró el reinado del intrigante 3,16? Pues, aunque sigue utilizándose hoy día, hay que admitir que ha perdido bastante protagonismo frente a formatos más grandes, más audaces, con nuevas proporciones y simetrías sugerentes (como esos elegantes 30×60, 45×90 o los imponentes 60×120). La culpa es de las modas contemporáneas, los porcelánicos rectificados y esas ganas tan nuestras de innovar para dejar atrás lo de siempre. Pero no desesperen los nostálgicos: la humilde baldosa de 3,16 decímetros todavía se fabrica, sobre todo en gamas clásicas o series destinadas a reposiciones.

10 baldosas de 31,6 cm dan como resultado un metro cuadrado.
Ruth Maicas.

La lógica interna del 3,16

Volviendo ahora a nuestra realidad más inmediata, esa extraña cifra, esos 31,6 centímetros, no son producto de un error del fabricante ni de un capricho estético pasajero (las actuales, sí). Las dimensiones aparentemente azarosas de las baldosas poseen, en realidad, una lógica interna fascinante. Ese pequeño decimal, ese insignificante 0,16, esconde una sorprendente maravilla de diseño industrial y eficiencia matemática, un detalle magistral de ingenio que, aunque invisible para nosotros durante años, siempre ha estado ahí, esperando descubrirse.

Lo primero que tenemos que saber es que estas baldosas no están solas en el universo de los revestimientos cerámicos. Son piezas de un engranaje mucho mayor, una estructura modular que conecta múltiples escalas. Precisamente, 31,6 cm es una medida estándar muy utilizada por fabricantes europeos para pavimentos y revestimientos cerámicos cuadrados.

Razones industriales y económicas

Pero ¿por qué usar módulos de 31,6 cm y no 33,3 cm? Uniendo tres piezas de 33,3 cm nos daría un metro. La respuesta a esta pregunta tiene su origen en las decisiones industriales tomadas décadas atrás, cuando las fábricas comenzaron a utilizar moldes y planchas cerámicas con dimensiones pensadas para maximizar el aprovechamiento de materiales.

Cuando vamos a comprar esas placas en el almacén, el precio que nos dan es el de un metro cuadrado y eso corresponde exactamente a diez baldosas. Aquí está la sorpresa, un metro cuadrado son 100 decímetros cuadrados, eso quiere decir que cada baldosa tiene 10 decímetros cuadrados y la raíz cuadrada de 10 es 3,16, en nuestro caso decímetros, es decir 31,6 centímetros. Este curioso número nos da un equilibrio perfecto entre economía, estética y sistema métrico.

Además, existe otro factor silencioso, pero clave en su instalación: las juntas. Estas baldosas no habitan aisladas, sino que se separan por pequeñas líneas que rellenamos con cemento o lechada. Cuando incluimos este espacio (habitualmente entre 1 y 2 milímetros), las dimensiones totales se ajustan con precisión: se logra que tres losetas formen un metro, y logramos un encaje perfecto entre piezas de distintos tamaños. Parece una danza matemática cuidadosamente orquestada, invisible para la mayoría de nosotros, pero fundamental para constructores, arquitectos y diseñadores.

¿Y por qué nadie nos había contado esto antes? ¿Por qué consideran que somos unos zotes en matemáticas? No, no es eso. Resulta que los detalles se quedan atrapados en las fábricas y los laboratorios, alejados de la vida cotidiana y de nuestra mirada curiosa.

Las matemáticas de la vida

Estas dimensiones, lejos de ser triviales, encajan con una filosofía de la construcción que busca eficiencia, sostenibilidad y precisión. La decisión de utilizar baldosas de 31,6 cm no solo es estética, también es económica y ecológica, al reducir el desperdicio de materiales en la fabricación y colocación. Este enfoque refleja una armonía interna que conecta cada pequeña baldosa con el universo de nuestras vidas.

El misterio del 3,16 abre una puerta a preguntas aún más fascinantes ¿Cuántas otras decisiones invisibles determinan las dimensiones de objetos aparentemente triviales? ¿Qué otros enigmas matemáticos aguardan escondidos en los elementos cotidianos de nuestro entorno natural y artificial? ¿Por qué existe una relación ideal entre las distintas partes de nuestro cuerpo?

Al final, el suelo de nuestros hogares esconde más que un simple patrón geométrico: es un pequeño homenaje a la perfección silenciosa de la vida. Ahora, cada vez que miremos esas baldosas, tendremos la oportunidad de descubrir no solo una cifra peculiar, sino una invitación a explorar el mundo cotidiano con una mirada diferente y, de paso, vacilar a nuestros amigos con un dato curioso y sorprendente.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Por qué las baldosas miden 31,6 o los secretos milimétricos del universo – https://theconversation.com/por-que-las-baldosas-miden-31-6-o-los-secretos-milimetricos-del-universo-261116