Canada’s new drug pricing guidelines are industry friendly

Source: The Conversation – Canada – By Joel Lexchin, Professor Emeritus of Health Policy and Management, York University, Canada

Drug pricing in Canada just got more industry-friendly.

Canadian drug prices are already the fourth highest in the industrialized world. Now, with the release of new guidelines for the staff at the Patented Medicine Prices Review Board (PMPRB) at the end of June, the situation is poised to potentially get even worse.

The review board is the federal agency that was set up 1987 to ensure that the prices for patented drugs are not “excessive.”

Comparing prices

Up until now, one of the criteria the PMPRB used in making the decision about what was an excessive price was to compare the proposed Canadian price for a new drug with the median price in 11 other countries. The median is the 50 per cent mark; in other words, the price in half of the other countries was below what’s proposed for Canada, and the price in the other half was above the proposed Canadian price. Under the new guidelines, set to take effect on Jan. 1, 2026, the Canadian price can be up to the highest in those other 11 countries.

Right now, the median price in the 11 countries Canada is compared to is 15 per cent below the price of patented drugs in Canada. The highest international price, which will be the new standard, is 21 per cent above the median Canadian price, meaning Canadian prices for new drugs will be significantly higher than they otherwise would have been.

Sometimes a drug is not available in any of the 11 other countries when it comes onto the Canadian market. In that case, the company can price the drug at whatever level it wants and keep it at that price until it comes up for its annual price review. The executive director of the PMPRB told the Globe and Mail that this would incentivize drugmakers to bring their products to the Canadian market first.

Incentivizing drug companies may be a reasonable idea, but that’s not part of the mandate of the PMPRB. As laid out in Section 83 of the Patent Act, its mandate is to ensure drug prices aren’t excessive.

Additional therapeutic value

In the past, one of the factors that the PMPRB took into account in determining if prices were excessive was the additional therapeutic value of a new drug compared to what was already on the market. The lower the value, the lower the price. In this regard, the PMPRB was advised by its Human Drug Advisory Panel, an independent group of experts.

The ranking of new drugs against existing ones was also of significant value to Canadian clinicians. It helped them to decide on the best treatment option for their patients and countered the hype about new drugs that came from the manufacturers.

Since the new guidelines have abandoned looking at therapeutic improvement of new drugs, that leaves only one remaining Canadian source for that type of information, the Therapeutics Letter, a bimonthly publication targeting identified problematic therapeutic issues in a brief, simple and practical manner.

Complaints about prices can be made by federal, provincial and territorial health ministers and by senior officials who are authorized to represent Canadian publicly funded drug programs. “Other parties who have concerns about the list prices … are encouraged to raise their concerns with their relevant Minister(s) of Health or Canadian publicly-funded drug program (sic).” This advice is cold comfort for people working low-wage jobs who aren’t covered by provincial and territorial drug plans and don’t have any access to their health minister.

If there is an in-depth review of a new drug’s pricing — a preparatory step to determine whether there should be a formal hearing to investigate if the price is excessive — it is only the manufacturer that is allowed to submit information to the PMPRB. Clinicians who prescribe the drug, patients who take the drug, and organizations and individuals that pay for the drug do not have that same right.

Donald Trump’s on-again, off-again tariffs are already threatening to drive up drug prices and make prescription drugs inaccessible to many Canadians. Higher drug prices will also almost certainly affect Canada’s already limited pharmacare program. Higher prices for new drugs will make an expanded pharmacare plan more expensive and less appealing to the federal government. The new PMPRB guidelines help ensure higher drug prices and no pharmacare expansion.

The Conversation

Between 2022-2025, Joel Lexchin received payments for writing a brief for a legal firm on the role of promotion in generating prescriptions for opioids, for being on a panel about pharmacare and for co-writing an article for a peer-reviewed medical journal on semaglutide. He is a member of the Boards of Canadian Doctors for Medicare and the Canadian Health Coalition. He receives royalties from University of Toronto Press and James Lorimer & Co. Ltd. for books he has written. He has received funding from the Canadian Institutes of Health Research in the past.

ref. Canada’s new drug pricing guidelines are industry friendly – https://theconversation.com/canadas-new-drug-pricing-guidelines-are-industry-friendly-261062

TikTok seduce, Instagram confirma: así decide qué comprar la generación Z

Source: The Conversation – (in Spanish) – By María Luisa Fanjul Fernández, Profesora en el grado de Marketing y el Máster de Emprendimiento Digital, Universidad Europea

Stock-Asso/Shutterstock

TikTok impulsa el deseo; Instagram valida la elección. El 70 % de la generación Z toma decisiones de compra influenciadas por lo que ve en redes sociales, según un informe elaborado en el marco del Observatorio de la generación Z –personas nacidas entre mediados de la década de 1990 y principios de la de 2010– que analiza los hábitos de consumo de este grupo de población y su relación con las marcas.

El estudio revela que sus compras están motivadas principalmente por la búsqueda de satisfacción personal (61,8 %), aunque la decisión final se ve condicionada por la relación calidad-precio (59,2 %) y la experiencia previa (51,8 %).

Redes sociales: el primer escaparate

Plataformas como TikTok e Instagram influyen en las decisiones de compra, pero cada una cumple una función distinta. TikTok despierta el deseo con vídeos breves y espontáneos que convierten productos en tendencias. Instagram, en cambio, funciona como espacio de validación: la generación Z consulta perfiles, reseñas y comentarios para asegurarse de que su elección merece la pena.

YouTube es clave en compras más reflexivas, como productos tecnológicos o de mayor valor. Pinterest mantiene su rol como fuente de inspiración, especialmente en moda y estilo de vida. En un entorno saturado de estímulos, la visibilidad es esencial: lo que no aparece en sus redes, difícilmente existe para ellas y ellos.

La compra impulsiva

Aunque suelen comparar y valorar antes de decidir, la generación Z también realiza compras impulsivas. El aburrimiento, las promociones atractivas o el miedo a perder una oportunidad (FOMO) son factores que pueden precipitar una compra en redes sociales.

El 75,9 % de las personas encuestadas calificó su última compra con un 6 o un 7 sobre 7 en satisfacción, lo que indica que, incluso en decisiones más rápidas, evalúan positivamente su experiencia.

Contenido útil y real

La Generación Z muestra una actitud crítica hacia la publicidad tradicional y las promociones en redes sociales. Rechaza los anuncios invasivos y desconfía de los influencers cuando el contenido parece poco auténtico o demasiado comercial. Prefiere recomendaciones genuinas, experiencias reales y contenido que aporte utilidad: ¿me sirve?, ¿me aporta algo? Solo entonces presta atención.

Aunque existe una conciencia creciente sobre la sostenibilidad, solo el 4,2 % de las personas encuestadas afirma priorizar este criterio al comprar. Sin embargo, aspectos más concretos como el bienestar animal, especialmente en productos certificados como cruelty-free –sin crueldad–, reciben una mejor valoración.

En general, los valores deben ser visibles, coherentes y creíbles, aunque rara vez son determinantes si implican pagar un precio más alto.

El precio y las promociones

En todo caso, más allá de las emociones o los valores, el precio sigue siendo un elemento clave en la toma de decisiones. El 59,2 % identifica la relación calidad-precio como el principal criterio para elegir un producto o servicio. Además, un 32,5 % declaró haber aprovechado una promoción o descuento en su última compra, y un 27,8 % lo mencionó como hábito.

Estos datos confirman que, para la generación Z, las ofertas no solo activan el deseo de compra, sino que refuerzan la sensación de haber tomado una buena decisión. Percibir valor tangible es fundamental para justificar el gasto.

Girl maths: la lógica emocional aplicada al consumo

En este sentido, uno de los fenómenos más comentados en el estudio es el conocido como girl maths: una forma de justificar compras no planificadas. Por ejemplo, si devuelven un producto o reciben un descuento perciben ese dinero como disponible para una nueva adquisición, casi como si fuera gratuito.

Esta racionalización refleja cómo la generación Z combina la búsqueda de gratificación con un cierto control financiero.

La fidelidad se “gana”

Esta generación puede repetir con una marca, pero no por lealtad emocional. Si un producto funciona y mantiene una buena relación calidad-precio, repite. Si no, busca alternativas sin dudar. La calidad percibida, la experiencia de compra y la confianza son los pilares de esa fidelidad.

Para ellos, la línea entre lo físico y lo digital es cada vez más difusa. La elección del canal depende del producto, la urgencia o la comodidad. Puede probarse ropa en tienda y comprarla online si encuentra mejor precio, o reservar una entrada desde Instagram tras ver un anuncio.

El informe indica que un 44 % elige el canal de compra según la situación. Aunque un 33,5 % prefiere la tienda física y un 22,5 % el canal online, lo que predomina es una experiencia de consumo híbrida y flexible.

Unas decisiones valoradas por la lógica

Conectar con esta generación implica entender que no compra solo productos: busca experiencias, mensajes con los que identificarse y marcas que le inspiren confianza.

Aunque el deseo se activa en TikTok y se valida en Instagram, sus decisiones están guiadas por la lógica. Valora la calidad, el precio y la experiencia previa. Rechaza la publicidad intrusiva, exige autenticidad y, aunque planifica, también responde al impulso si el contenido le resulta relevante.

La fidelidad existe, pero es condicional. La sostenibilidad no es un factor determinante, pero causas como el bienestar animal sí generan más respuesta. Para la generación Z, consumir también es una forma de expresarse.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. TikTok seduce, Instagram confirma: así decide qué comprar la generación Z – https://theconversation.com/tiktok-seduce-instagram-confirma-asi-decide-que-comprar-la-generacion-z-258781

¿Hemos superado realmente el umbral de 1,5 °C de calentamiento marcado por el Acuerdo de París?

Source: The Conversation – (in Spanish) – By José María Baldasano Recio, Catedrático Emérito de Ingeniería Ambiental, Universitat Politècnica de Catalunya – BarcelonaTech

Leolintang/Shutterstock

El informe sobre el estado del clima de 2024 de la Organización Meteorológica Mundial (OMM) confirmó que la temperatura media anual global en 2024 fue 1,55 °C superior al promedio del periodo 1850-1900, que se toma como referencia para medir el calentamiento del planeta.

La temperatura media global superó los 1,5 °C brevemente durante un mes o más en 2016, 2017, 2019, 2020 y 2023. Sin embargo, el año pasado fue el más cálido en los 175 de los que se tienen registro. ¿Pero significa todo esto que ya hemos sobrepasado los 1,5 ºC que establece como umbral el Acuerdo de París?

Las ambigüedades del Acuerdo de París

El Acuerdo de París, aprobado en la conferencia sobre cambio climático de la ONU de 2015 (la COP21), hace ya más de diez años, determina que se debe “mantener el aumento de la temperatura media mundial muy por debajo de 2 °C con respecto a los niveles preindustriales, y proseguir los esfuerzos para limitar ese aumento de la temperatura a 1,5 °C, reconociendo que ello reduciría considerablemente los riesgos y los efectos del cambio climático”.

Se trata de un acuerdo político-diplomático entre los países que han ratificado la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC).

No obstante, su redacción contiene ambigüedades y genera dos preguntas fundamentales:

  • ¿Qué significa “respecto a los niveles preindustriales”? Pues este período define la temperatura base de referencia para poder delimitar sus incrementos, sus variaciones, sin ambigüedad.

  • ¿Cuándo se considerará que la temperatura ha superado los 1,5 ºC de aumento? Es decir, ¿durante cuánto tiempo debe sobrepasarse ese umbral?

Gráfica que muestra un aumento de la temperatura entre 1850 y 2024
Anomalías anuales de la temperatura media mundial en relación con los niveles preindustriales (1850-1900) desde 1850 hasta 2024.
Datos de las fuentes que indica la leyenda/Estado Global del Clima 2024, CC BY-SA

¿Qué se considera “periodo preindustrial”?

El nivel preindustrial se refiere a la temperatura media global antes de la Revolución Industrial, que se utiliza como referencia para los efectos del calentamiento global. El CMNUCC encargó al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) que definiera qué se consideraría como niveles preindustriales: la respuesta fue el Informe Especial sobre Calentamiento Global de 1,5 °C.

El periodo escogido fue del año 1850 al 1900, cincuenta años. Su selección se debe a que representa el tiempo durante el que se dispone de observaciones con suficiente calidad de las temperaturas superficiales de la tierra y el océano, lo que permite una comparación precisa. Además, la temperatura del aire global fue relativamente estable, con una media aproximada de 13.84 °C.

Con una influencia humana en el clima todavía relativamente pequeña antes del uso progresivo e intensivo de los combustibles fósiles, se consideró como una buena referencia para poder valorar el efecto de las actividades humanas.

Este período aumenta en 20 años el período clásico de 30 años definido por la Organización Meteorológica Mundial (OMM), que resulta de los datos promediados y denominados normales climatológicas estándar de la OMM, que habían sido definidos ya en el año 1872.

Un aumento de la temperatura sostenido durante 20 años

Lo cierto es que todavía no podemos afirmar que hemos superado el umbral de los 1,5 °C tal y como establece el Acuerdo de París.

Las temperaturas globales no aumentan de forma gradual. Debemos considerar la diferencia entre la variabilidad natural del clima –por los fenómenos de El Niño y por la actividad volcánica– y la variabilidad que define su tendencia en el tiempo –el actual proceso de calentamiento–. El sistema climático oscila en diferentes escalas de tiempo con frecuencias temporales a corto y largo plazo.

Por tanto, la cifra de 1,5 °C se refiere a un calentamiento planetario promedio sostenido, no solo al valor de un solo año, que por sí solo podría ser anómalamente más cálido o más frío que el promedio a largo plazo. Pero ¿por cuánto tiempo debe mantenerse ese aumento de la temperatura para considerarlo una tendencia?

La Segunda Revisión Periódica del objetivo global a largo plazo de la Convención aclaró que “el objetivo se evalúa a lo largo de décadas” (COP22 de Sharm el-Sheikh, Egipto, en 2022). El IPCC, en su informe sobre las bases físicas del cambio climático, define el momento de superación como “el punto medio del primer período de 20 años en el que la temperatura global del aire en superficie promedia más que la temperatura umbral”. El uso de este promedio ayuda a garantizar que las tendencias del calentamiento se deban a la intervención humana y no a variaciones naturales.

Así, habrá que esperar 20 años para confirmar si superar el umbral de 1,5 °C se mantiene como una tendencia. La humanidad solo sabrá con certeza si hemos alcanzado el límite del Acuerdo de París en retrospectiva. Lo que implica el riesgo de retrasar su reconocimiento y la correspondiente reacción.




Leer más:
Contradicciones que lastran el cumplimiento del Acuerdo de París sobre el clima


Hace falta consenso

El calentamiento se está acelerando. En el informe de 2021 del IPCC se indicaba, en casi todos los escenarios de emisiones, un alcance de los 1,5 °C “a principios de la década de 2030”. Y, el reciente informe de la OMM Actualización Climática Anual Decenal Global 2025-2029 indica que es probable (con un 70 % de probabilidad) que la media quinquenal de 2025-2029 supere los 1,5 °C.

Abordar la cuestión de cuándo entraremos en un período de 20 años con un calentamiento promedio de 1,5 °C no es, por lo tanto, solo un ejercicio de seguimiento del registro de temperatura global. Tiene una relevancia fundamental para la gestión de riesgos climáticos y la planificación de la adaptación.

Evaluar el aumento de la temperatura media global utilizando el calentamiento promedio de las últimas décadas retrasará el reconocimiento formal de cuándo la Tierra supera el límite de 1,5 °C. Esto probablemente genere distracciones y retrasos justo cuando la acción climática es más urgente.

Se necesita definir y acordar una métrica única y consensuada que describa claramente la superación del umbral de 1,5 °C –ya existen algunas alternativas– y anticipar los acontecimientos que lo precederán. Los impactos asociados serán graves. Tal aumento podría parecer una realidad lejana, pero podríamos estar alcanzándolo antes de lo que imaginamos de acuerdo a las observaciones ya disponibles.

La ocurrencia del primer año con un calentamiento de 1,5 °C implicaría que el período de 20 años que alcanza el objetivo inferior del Acuerdo de París ya ha comenzado y que los impactos esperados con este nivel de calentamiento ya se están manifestando.

The Conversation

He sido miembro del IPCC

ref. ¿Hemos superado realmente el umbral de 1,5 °C de calentamiento marcado por el Acuerdo de París? – https://theconversation.com/hemos-superado-realmente-el-umbral-de-1-5-c-de-calentamiento-marcado-por-el-acuerdo-de-paris-261114

¿Puede la inteligencia artificial corregir errores ortográficos complejos?

Source: The Conversation – (in Spanish) – By Pedro Manuel Moreno-Marcos, Profesor Titular en el Departamento de Ingeniería Telemática de la Universidad Carlos III de Madrid, Universidad Carlos III

ugguggu/Shutterstock

Durante siglos, antes de que existieran los correctores automáticos, la corrección de textos dependía de profesionales como escribas, copistas, correctores de estilo y tipográficos o, simplemente, de personas con buena formación en ortografía.

Fue así hasta las décadas de 1970 y 1980, con la llegada de los ordenadores personales. Entonces, la manera de escribir y corregir documentos cambió. La escritura comenzó a digitalizarse y los correctores automáticos surgieron como sistemas basados en reglas simples y comparación con diccionarios o listas predefinidas.

Uno de los primeros fue SPELL, diseñado en 1971 en la Universidad de Stanford (Estados Unidos). Este programa analizaba textos en inglés y detectaba palabras mal escritas al compararlas con un diccionario. Además, sugería correcciones para errores comunes como cambios de una letra o transposiciones. Sin embargo, no interpretaba el contexto, ni el significado de las palabras.

A finales de los años 1980 y principios de la década de 1990, programas como Microsoft Word empezaron a incluir correctores ortográficos integrados en sus aplicaciones de creación y edición de texto. Por ejemplo, en 1995, Microsoft Word introdujo los conocidos subrayados rojos que señalaban errores en tiempo real. Aún así, estas herramientas seguían sin interpretar el contexto ni la intención del mensaje.

A pesar de las limitaciones, dichos avances facilitaron el proceso de revisión de textos.

Escribir bien en la era digital

Aunque hoy en día contamos con muchas facilidades para escribir correctamente, la realidad es que, en un entorno donde elaboramos textos constantemente –correos, informes, mensajes en redes sociales, solicitudes…–, a menudo adoptamos hábitos incorrectos por comodidad o rapidez. Por ejemplo, es habitual ver preguntas que solo llevan el signo de interrogación al final o la omisión de tildes.

Por ello, los correctores automáticos siguen siendo imprescindibles. Mientras que muchos ya ofrecen soluciones eficaces para errores ortográficos simples (como confundir “v” con “b” u olvidar una tilde) y errores gramaticales o de estilo básicos, el verdadero reto aparece cuando son fallos más complejos que varían según el contexto.

¿Es capaz la inteligencia artificial (IA) de detectar y corregir este tipo de errores? ¿Puede, por ejemplo, identificar usos incorrectos del pronombre “tú” en textos formales, donde debería emplearse una forma impersonal?

Contextos limitados

Actualmente, muchas herramientas basadas en inteligencia artificial están preparadas para corregir errores ortográficos y gramaticales básicos. Por ejemplo, sistemas como Grammarly, LanguageTool o Microsoft Editor utilizan enfoques combinados de reglas lingüísticas con modelos estadísticos o de aprendizaje automático. Gracias a ello, son capaces de detectar faltas de ortografía, confusiones comunes entre palabras homófonas sencillas (como “echo” y “hecho”) y errores de concordancia gramatical o de modos verbales.

Sin embargo, muestran limitaciones cuando se enfrentan a errores que requieren una comprensión más global del texto. Una de las principales razones es que suelen procesar el contenido por fragmentos, con un límite de tokens (unidades lingüísticas que pueden ser palabras, partes de palabras o signos), lo que se conoce como “ventana de contexto”. Por lo tanto, no captan bien las relaciones entre distintas partes del documento.

Además, muchas de estas herramientas se basan en reglas predefinidas y en patrones aprendidos a partir de ejemplos limitados, lo que reduce su capacidad para detectar cambios de tono, variaciones que dependen del tipo de texto o del destinatario o redundancias de estilo, entre otras dificultades.

El desafío: corregir errores complejos con IA

Un ejemplo de error difícil de detectar es el uso incorrecto del gerundio. En frases como “Salí de casa, olvidándome la mochila”, su uso está mal empleado, debido a que el gerundio solo puede expresar acciones que ocurren antes o a la vez que la acción principal, pero no después.

En este caso, el olvido ocurrió antes de salir, por lo que ese uso es incoherente desde el punto de vista temporal. Para corregir esto, la IA debe mirar el contexto y la relación entre las acciones.

Con este objetivo, en proyectos de investigación como PALABRIA-CM-UC3M trabajamos en nuevas formas de detectar errores complejos, como el uso del “tú” impersonal en contextos formales, el gerundio no normativo o los marcadores discursivos. Se trata de errores de registro, sintaxis o cohesión que requieren una comprensión textual profunda.

Para abordar la corrección automática, se han propuesto distintos enfoques, entre los que destacan los métodos basados en reglas, los enfoques estadísticos y los modelos neuronales. Nuestro proyecto combina reglas lingüísticas con modelos de inteligencia artificial. En concreto, se están probando varios tipos de modelos basados en aprendizaje profundo, entre los que destaca la IA generativa con arquitectura tipo transformer.

Ventajas de la IA generativa

Con este enfoque, se pueden procesar textos más extensos y analizar todas las palabras de una secuencia al mismo tiempo –con un mecanismo conocido como self-attention–, a diferencia de los modelos anteriores. Esto le permite captar mejor la relación entre distintas partes del texto y detectar errores complejos relacionados con el registro, la sintaxis o la cohesión.

Otra ventaja de la IA generativa es su facilidad de uso. Funciona a partir de instrucciones escritas en lenguaje natural, llamadas prompts. Es decir, solo con expresar de manera clara y eficaz lo que se necesita –por ejemplo, que revise un texto y corrija ciertos errores–, el modelo puede generar una respuesta adecuada.

Por último, debemos recordar que el uso de la IA en la escritura no reemplaza la creatividad ni la intención comunicativa. Al contrario, si se usa de forma consciente, puede ser una herramienta muy útil, especialmente en ámbitos educativos. Puede detectar errores, proponer mejoras y fomentar una escritura más clara.

The Conversation

Pedro Manuel Moreno-Marcos recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid

MARINA SERRANO-MARÍN recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

Natalia Centeno Alejandre recibe fondos del proyecto PALABRIA-CM-UC3M, financiado por la Comunidad de Madrid a través del convenio-subvención para el fomento y la promoción de la investigación y la transferencia de tecnología en la Universidad Carlos III de Madrid.

ref. ¿Puede la inteligencia artificial corregir errores ortográficos complejos? – https://theconversation.com/puede-la-inteligencia-artificial-corregir-errores-ortograficos-complejos-259294

De Videla a Milei: el legado de los juicios a la última dictadura argentina 40 años después

Source: The Conversation – (in Spanish) – By Manuel Sánchez-Moreno, Coordinador Académico del Máster Universitario en Cooperación Internacional al Desarrollo: Gestión y Dirección de Proyectos, UNIR – Universidad Internacional de La Rioja

Juicio a las Juntas (22/05/1985). Integrantes de la Junta Militar ingresan a la sala de audiencias. Telam/Wikimedia Commons, CC BY

Hace 40 años, uno de los primeros juicios civiles en el mundo contra dictaduras militares se celebraba en Argentina, concretamente contra los nueve comandantes que lideraron las Juntas Militares de la última dictadura (1976-1983).

El régimen había colapsado por la severa crisis económica y la pérdida de las Malvinas, desacreditando a los militares y facilitando unas elecciones que ganaría Raúl Alfonsín. El presidente llevaba en su programa electoral la investigación de las Juntas Militares en forma de verdad, justicia y reparación. Algo disruptivo en una Latinoamérica que se miraba en el modelo de transición pactada que España estaba implementando.

El juicio fue grabado íntegramentre y retransmitido por el canal estatal Argentina Televisora Color. Hoy se puede ver en el archivo digital de Memoria Abierta. Aún estremece ver las caras incómodas de los jueces, el tragar saliva de los fiscales Julio César Strassera y Luis Moreno Ocampo (luego primer fiscal de la Corte Penal Internacional), los testimonios de las víctimas, las pruebas documentales y la soberbia de los imputados.

Cinco condenados y cuatro absueltos

Por dar algunos datos: 281 casos, 530 horas de audiencias, 833 testigos. La sentencia del 9 de diciembre de 1985 condenó a cinco de los nueve militares, mientras que cuatro fueron absueltos. Entre los condenados se encontraban Jorge Rafael Videla y Emilio Massera, quienes fueron sentenciados a reclusión perpetua.

Por primera vez en Argentina se juzgaba a los responsables de la represión estatal. Del mismo modo, se sentaban las bases para la persecución de los responsables de crímenes de lesa humanidad.

La sentencia de este juicio estableció la noción de un plan sistemático de exterminio y la responsabilidad de los militares por las violaciones de derechos humanos. Quedaron sobradamente probados en los testimonios y documentación los secuestros nocturnos, detenciones en prisiones y centros clandestinos, y toda clase de torturas: picana eléctrica, asfixia, violaciones y abusos sexuales, robo de bebés y la desaparición como trasunto del asesinato.

Buena parte de las pruebas fueron aportadas por organizaciones de la sociedad civil argentina como el Centro de Estudios Legales y Sociales (CELS), organizaciones internacionales como el Grupo de Trabajo sobre Desapariciones Forzadas o Involuntarias de la ONU o la Comisión Nacional sobre la Desaparición de Personas (CONADEP), una suerte de Comisión de la Verdad, cuyo informe Nunca Más fue clave en este proceso judicial.

Los acusados antes de la sentencia establecieron una estrategia de defensa centrada en la “teoría de los dos demonios”, que quedó desacreditada. Esta teoría explica que los delitos cometidos como parte del terrorismo de Estado quedan justificados ante los actos de violencia cometidos por las organizaciones guerrilleras que actuaban en el país, como Montoneros o el Ejército Revolucionario del Pueblo (ERP).

El almirante Eduardo Massera afirmó: “No he venido a defenderme. Nadie tiene que defenderse por haber ganado una guerra justa. Y la guerra contra el terrorismo fue una guerra justa. Sin embargo, yo estoy aquí procesado porque ganamos esa guerra justa. Si la hubiéramos perdido, no estaríamos acá”.

El hecho es que el actuar represivo no solo fue contra la guerrilla considerada “subversiva”, sino contra toda persona que se opusiese a los cambios políticos, económicos y sociales que pretendía imponer la dictadura. Durante este juicio se probaron hechos que, aún en una guerra “justa”, no se justificaban y eran constitutivos de crímenes de guerra.

Las palabras se Strassera

El alegato final duró seis días, concluyendo con unas inolvidables palabras del fiscal Strassera:

“Los argentinos hemos tratado de obtener la paz fundándola en el olvido, y fracasamos: ya hemos hablado de pasadas y frustradas amnistías. Hemos tratado de buscar la paz por la vía de la violencia y el exterminio del adversario, y fracasamos: me remito al período que acabamos de describir. A partir de este juicio y de la condena que propugno, nos cabe la responsabilidad de fundar una paz basada no en el olvido sino en la memoria; no en la violencia sino en la justicia. Esta es nuestra oportunidad: quizá sea la última… Quiero utilizar una frase que no me pertenece, porque pertenece ya a todo el pueblo argentino. Señores jueces: ‘Nunca más’.”

Pero los caminos de la memoria y la lucha contra la impunidad no son fáciles. La cárcel fue leve para los condenados. Una serie de leyes de impunidad pusieron fin a otros posibles juicios contra otras personas implicadas. Y una serie de indultos en la década de los 90, durante el gobierno de Carlos Menem, pusieron a los militares en la calle.

Las víctimas y supervivientes tuvieron que esperar 20 años para que en 2003, durante el gobierno de Néstor Kirchner, se anularan las leyes y decretos de impunidad, reabriendo los juicios por crímenes de lesa humanidad que hoy siguen.

A 40 años de aquellos juicios aún estremece el visionado de los mismos, decía. Pero estremece del mismo modo la desarticulación de las instituciones estatales de derechos humanos y memoria por parte del presidente Javier Milei, así como su discurso negacionista y legitimador de las Juntas Militares. Se alinea con las palabras de Massera, mencionadas más arriba, para cambiar el relato.

Lo cierto es que ni aquellos juicios a las Juntas Militares, ni la acción judicial en curso, ni los movimientos sociales promemoria pueden ser borrados y parados por el actual gobierno.

También es cierto que la ciudadanía que en su día aupó a Alfonsín con los juicios a las Juntas Militares, aúpa ahora al Milei negacionista. Habría que analizar lo ocurrido en el país –y en el mundo– en ese lapso de tiempo.

The Conversation

Manuel Sánchez-Moreno no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. De Videla a Milei: el legado de los juicios a la última dictadura argentina 40 años después – https://theconversation.com/de-videla-a-milei-el-legado-de-los-juicios-a-la-ultima-dictadura-argentina-40-anos-despues-257778

Meliterapia: engrasar el cerebro para curar enfermedades neurológicas complejas

Source: The Conversation – (in Spanish) – By Enrico Castroflorio, Neurocientífico especializado en función sináptica y lípidos, Universitat de les Illes Balears

Recreación artística de una neurona. nobeastsofierce/Shutterstock

¿Y si la clave para tratar el alzhéimer, la epilepsia o la depresión no estuviera en los genes o en las proteínas, sino en las grasas que recubren las neuronas?

Durante décadas, la investigación se ha centrado principalmente en estudiar las proteínas y genes defectuosos como la causa de enfermedades. A pesar de los avances científicos de los últimos años, aún no disponemos de tratamientos realmente efectivos para muchas patologías neurológicas.

Primeros resultados prometedores

La meliterapia (Membrane Lipid Therapy) es un nuevo campo de la biomedicina que busca tratar enfermedades modificando los lípidos de las membranas celulares del cerebro.

Los lípidos no son todos iguales: algunos, como los ácidos grasos poli-insaturados (entre ellos los famosos omega-3), pueden modificar la estructura de la membrana y, con ello, alterar la forma en que las proteínas se comportan. Esto significa que, ajustando el tipo de lípidos presentes en la membrana, podríamos recuperar funciones cerebrales alteradas en diversas enfermedades. Y los primeros resultados son prometedores.




Leer más:
Hay motivos para sospechar que el alzhéimer podría ser una enfermedad autoinmune


¿En qué consiste esta innovadora terapia?

Como apuntábamos, la meliterapia consiste en actuar sobre el entorno lipídico de las proteínas, la “alfombra” donde se apoyan, en lugar de atacarlas directamente. Al hacerlo, muchas proteínas podrían recuperar su forma y función originales. No es una terapia más: es un cambio de paradigma.

Ya se están desarrollando lípidos sintéticos capaces de integrarse en la membrana neuronal y modificar su organización. Uno de estos compuestos ha demostrado restaurar la función de proteínas alteradas en modelos experimentales de la enfermedad de Alzheimer], abriendo la posibilidad de recuperar circuitos neuronales dañados sin alterar el ADN ni manipular directamente el sistema nervioso con fármacos invasivos.

Pero ¿cómo se consigue? Debemos tener en cuenta que las membranas de las neuronas no son simples envolturas, sino estructuras dinámicas rebosantes de colesterol, fosfolípidos y ácidos grasos que influyen en la comunicación entre neuronas (sinapsis), la resistencia al estrés oxidativo, la supervivencia celular y en muchos otros aspectos clave para la vida de una célula.

Cuando estos lípidos se desequilibran, las neuronas funcionan mal y aparecen diversas enfermedades. La meliterapia busca corregir estos desequilibrios mediante cambios lipídicos o reajustes de la membrana plasmática de las células.




Leer más:
¿Y si el origen de la depresión no es como nos lo habían contado?


Experimentos exitosos

He aquí algunos ejemplos de la meliterapia en acción:

  • Alzhéimer: recuperar las conexiones

En este trastorno, las neuronas pierden colesterol y ciertos fosfolípidos, lo que dificulta la formación de sinapsis, las conexiones fundamentales para la comunicación neuronal y, por lo tanto, para el funcionamiento del sistema nervioso. Un estudio reciente demostró que aumentar los niveles de omega-3 mejora la memoria en ratones.
Aún no hay resultados concluyentes en humanos, pero ya se están probando fármacos que estabilizan las membranas neuronales y podrían frenar el deterioro cognitivo que caracteriza a esta enfermedad.

  • Epilepsia: equilibrar los lípidos para reducir los ataques

Al reparar las membranas neuronales dañadas, se podría reducir las crisis resistentes a medicamentos. Estudios muestran que ajustar los lípidos cerebrales con omega-3, como DHA y EPA, disminuye la hiperexcitabilidad neuronal, el estado en el que las neuronas se vuelven más propensas a generar impulsos eléctricos. Los ensayos en humanos son preliminares, pero la combinación con nanotecnología promete tratamientos más precisos. Este enfoque innovador podría complementar, e incluso sustituir, los tratamientos actuales en casos de epilepsia refractaria, donde los fármacos no funcionan.




Leer más:
Día del alzhéimer: El bilingüismo protege frente al deterioro cognitivo


.

  • Glioblastoma: avances esperanzadores en la lucha contra el cáncer cerebral más agresivo

Un ensayo clínico acaba de arrojar resultados esperanzadores en torno a un fármaco basado en lípidos combinado con radio y quimioterapia para tratar el glioblastoma recién diagnosticado, que es uno de los tumores cerebrales más agresivos.

Los primeros datos apuntan a una mayor supervivencia de los pacientes, especialmente en aquellos con una característica genética llamada metilación del gen MGMT, que actúa como un mecánico que repara el ADN dañado. En la mayoría de los casos, resulta beneficioso, pero en el glioblastoma, puede ayudar al tumor a resistir la temozolomida. Este es uno de los tratamientos más usados para este tipo de cáncer y funciona dañando el ADN de las células tumorales. Si el MGMT está activo, las repara y la quimioterapia pierde efecto. Sin embargo, cuando el gen está metilado –es decir, desactivado–, el tumor no puede defenderse frente a los tratamientos.

En el estudio, el fármaco meliterapéutico fue bien tolerado y no se observaron nuevos efectos secundarios, lo que sugiere un posible beneficio para este grupo de pacientes.

Los retos de la meliterapia

Aunque este tratamiento suena muy prometedor, hay obstáculos que deberá sortear:

  • La barrera hematoencefálica: muchos lípidos pueden llegar al cerebro desde la sangre, pero algunos necesitan unirse a transportadores o vehículos especiales, como nanopartículas.

  • Efectos secundarios: para evitar efectos no deseados, es fundamental diseñar moléculas lipídicas que actúen de forma específica en el órgano o tejido que se quiere tratar, sin interferir con las funciones normales del resto del cuerpo.

  • Personalización: no todos los cerebros responden igual. Se necesitan terapias individualizadas para cada paciente.




Leer más:
CAR-T: así funciona la terapia que está revolucionando la lucha contra el cáncer


Una terapia revolucionaria

¿Y por qué esta terapia se presenta como un cambio de paradigma?
Porque nos invita a observar el cerebro desde otra mirada. En lugar de seguir buscando la “molécula mágica” que explique el origen de tantas patologías neurológicas, quizá debamos aceptar que la salud cerebral depende también de la armonía entre grasas y proteínas en un lugar tan aparentemente modesto como la membrana celular. Justo en ese límite entre el mundo exterior y el interior de la neurona, podría estar una de las llaves para entender y tratar algunos de los trastornos más complejos de nuestro tiempo.

The Conversation

Enrico Castroflorio no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Meliterapia: engrasar el cerebro para curar enfermedades neurológicas complejas – https://theconversation.com/meliterapia-engrasar-el-cerebro-para-curar-enfermedades-neurologicas-complejas-259581

Verano y piscinas, una combinación que aumenta el riesgo de padecer criptosporidiosis

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología., Universidad de Salamanca

kudla/Shutterstock

A pesar de que el cloro es un desinfectante muy eficaz para el agua de las piscinas y de los parques acuáticos, algunos microorganismos causantes de enfermedades son particularmente resistentes a su acción, lo que puede suponer un riesgo para la salud de los bañistas. Entre ellos destaca Cryptosporidium, un protozoo intestinal causante de diarrea acuosa que suele dar algún que otro disgusto en los meses de verano en países de altos ingresos. Este microorganismo ubicuo parasita a los animales domésticos y salvajes, pero también a los seres humanos. Es capaz de sobrevivir, durante días, en piscinas correctamente cloradas y es considerado uno de los principales responsables a nivel mundial de enfermedades gastrointestinales transmitidas por agua contaminada y alimentos.

En concreto, Cryptosporidium es la segunda causa principal de diarrea moderada a grave en niños menores de dos años y una causa importante de mortalidad en todo el mundo.

Piscinas y parques acuáticos

Hace unas semanas que se daba por finalizado el brote de criptosporidiosis vinculado a sesiones de alimentación y caricias de terneros y corderos en la granja Marlborough Grange en Cowbridge, Gales, que afectó a 89 personas.

Más allá de las granjas, la exposición al agua contaminada suele coincidir con la intensificación de la actividad acuática en verano. Es decir, cuando aumenta el uso de instalaciones de agua recreativa, como piscinas públicas y residenciales, jacuzzis, zonas de juegos acuáticos, parques acuáticos, etc.

Lejos de resolverse, el número de casos en Europa parece ir en aumento en los últimos años. Del año 2022 al 2023 hubo un incremento del 83% en los casos de criptosporidiosis en Reino Unido, con una concentración significativa en niños y en la región del Noroeste. Y solo en 2024 hubo 17 brotes relacionados con granjas en Inglaterra y Gales. Por su parte, España registró en 2023 un aumento significativo de la incidencia, con 4 061 notificaciones, lo que supone un incremento de seis veces en comparación con la mediana del período 2016-2022.

A nivel mundial, se estima que ocurren 823 000 casos de criptosporidiosis cada año. La dosis infecciosa puede ser tan baja como 10 ooquistes en algunas especies, lo que implica que basta una exposición mínima para causar la enfermedad. Históricamente, los brotes más importantes ocurrieron en 1993 en Milwaukee (EE.UU.), con 400 000 casos, y en el año 2010 en Suecia, con 27 000 casos.

¿Qué es la criptosporidiosis?

La criptosporidiosis es responsable del 0,6 al 7,3% de las enfermedades diarreicas en los países con sistemas de saneamiento modernos y de un porcentaje aún mayor en las áreas con saneamiento deficiente. El cuadro clínico general está caracterizado por una diarrea acuosa que puede ir acompañada de calambres abdominales, pérdida de apetito, febrícula, náuseas, vómitos y pérdida de peso.

La mayoría de las infecciones por Cryptosporidium desaparecen espontáneamente en huéspedes inmunocompetentes, pero pueden estar asociadas con síntomas crónicos, desnutrición y otras complicaciones en pacientes de alto riesgo. Aunque la enfermedad suele autolimitarse en individuos con sistemas inmunitarios sanos, puede ser mucho más grave, prolongada e incluso potencialmente mortal en personas inmunocomprometidas, como pacientes con VIH, quienes pueden experimentar diarrea acuosa profusa y difícil de tratar.

Las poblaciones con mayor riesgo de enfermedad grave o mayor susceptibilidad a la infección incluyen niños pequeños, especialmente los de 0 a 4 años.

El mecanismo de transmisión es fecal-oral, incluyendo la transmisión de persona a persona, de un animal a una persona y la transmisión de origen hídrico y alimentario. El patógeno puede persistir en el medio ambiente como un ooquiste que contiene cuatro esporozoitos, que son la forma infecciosa del parásito. Tras la exposición, el período de incubación oscila entre dos y diez días, con una media de siete días.

Verano: la época de mayor riesgo

Cryptosporidium hominis y Cryptosporidium parvum son los responsables de la mayoría de los casos de criptosporidiasis en seres humanos. Si bien se ha detectado algunas especies de criptosporidios en los zorros salvajes gallegos, lo que puede indicar la probable superposición de los ciclos selváticos y domésticos de este parásito en entornos rurales, el reservorio más importante para la enfermedad humana son los seres humanos, el ganado bovino y otros animales domésticos.

La ausencia casi total de especies zoonóticas en los brotes detectados en España en 2023 sugiere que la transmisión de persona a persona fue la fuente predominante, muy probablemente amplificada a través de actividades acuáticas recreativas. Esto sirve como un potente ejemplo del desafío de salud pública que plantea Cryptosporidium durante el verano.

Sin embargo, eso no merma el interés por identificar la presencia del patógeno en las especies animales de producción (ganado), de compañía (perros y gatos) y de vida silvestre, que puede sugerir un papel potencialmente importante como reservorios naturales de infecciones humanas.

Lavarse las manos tras tocar tierra y otras medidas

La prevención de la criptosporidiosis implica medidas sanitarias adecuadas y el correcto lavado de manos, especialmente en centros sanitarios y guarderías y después de tener contacto con tierra, personas o animales infectados. Algunas otras medidas preventivas útiles implican no beber ni tragar agua de ríos, arroyos o de procedencia no controlada. Y, por supuesto, no defecar en el agua.

Si ha padecido criptosporidiosis, es conveniente esperar al menos dos semanas después de que la diarrea haya cesado por completo antes de volver a nadar. Por otro lado, conviene desarrollar prácticas sexuales seguras para prevenir la infección por contacto anal.

En viajes internacionales a zonas donde el saneamiento es deficiente, conviene evitar beber agua del grifo. En localidades donde haya brotes activos es recomendable comer sólo alimentos cocinados, evitar la leche y los zumos no pasteurizados y hervir el agua potable, incluyendo el agua para el cepillado de los dientes y el lavado de alimentos.

La capacidad de las personas para excretar parásitos durante semanas después de que los síntomas han desaparecido, unido a la existencia de portadores asintomáticos, complica el control de los brotes. Sobre todo porque los individuos, incluso aquellos con sistemas inmunitarios robustos que se recuperan rápidamente, pueden seguir siendo vectores de la enfermedad sin saberlo. Por lo tanto, el rastreo de contactos y las recomendaciones de higiene deben extenderse más allá del período sintomático, especialmente para personas en profesiones de alto riesgo o aquellas que cuidan a grupos vulnerables.

El control eficaz de la criptosporidiosis exige un enfoque integral de “One Health” que involucre la colaboración entre los sectores de salud pública, veterinaria y agrícola. Además, la lucha contra la enfermedad también implica desarrollar campañas de concienciación pública y una posible aplicación más estricta de los protocolos de higiene en los entornos acuáticos compartidos.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Verano y piscinas, una combinación que aumenta el riesgo de padecer criptosporidiosis – https://theconversation.com/verano-y-piscinas-una-combinacion-que-aumenta-el-riesgo-de-padecer-criptosporidiosis-261674

¿Por qué tenemos una mano menos hábil que otra?

Source: The Conversation – (in Spanish) – By Álvaro Carmona, Coordinador académico & docente, Universidad Loyola Andalucía

Aproximadamente un 10% de la población es zurda. Anastassiya Bezhekeneva/Shutterstock

Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com


Pregunta formulada por Alejandro, de 15 años, del IES Sierra de las Villas, Villacarrillo (Jaén)


Seguro que te has fijado en que al escribir, jugar al fútbol o cepillarte los dientes siempre utilizas una mano con más destreza que la otra. No es casualidad: se trata de una característica llamada lateralidad manual, que significa que nuestro cerebro prefiere usar una mano concreta para tareas de precisión. Pero ¿por qué ocurre esto?

Una cuestión de ahorro energético

Cerca del 90 % de las personas son diestras, alrededor del 10 %, zurdas y muy pocas, menos del 1 %, ambidiestras (pueden usar ambas manos con igual habilidad). Esta característica tiene mucho que ver con cómo está organizado nuestro cerebro.

El cerebro humano está dividido en dos partes o hemisferios que se encargan de controlar movimientos diferentes. Mientras que el hemisferio izquierdo maneja principalmente la parte derecha del cuerpo, el derecho controla la parte izquierda. Esta organización cruzada explica por qué, si alguien sufre una lesión en el lado izquierdo del cerebro, su mano derecha podría perder movilidad o precisión.

La lateralización es una maravillosa estrategia para ahorrar energía. Si ambas manos hicieran todo con la misma eficacia, nuestro cerebro necesitaría más esfuerzo y energía para coordinarse. La naturaleza, que es muy práctica, optó por la especialización: una mano se convierte en la “principal” y se dedica a movimientos finos, mientras que la otra la apoya realizando tareas menos delicadas. De esta forma, el cerebro ahorra energía y mejora la coordinación.

Aunque no existe un gen de la mano izquierda o derecha, sí se sabe que la genética juega un papel clave. Un estudio realizado con más de 300 000 personas en Reino Unido descubrió decenas de genes relacionados con la lateralidad manual. Estos influyen en cómo crecen y se conectan las neuronas durante el desarrollo del cerebro, favoreciendo una preferencia hacia una mano u otra desde etapas muy tempranas.

Zurdos o diestros incluso antes de nacer

Gracias a las ecografías, hoy sabemos que muchos bebés ya prefieren chuparse un pulgar en particular desde antes de nacer, algo que ocurre alrededor de la 15ª semana del embarazo. Esto indica que la preferencia manual se empieza a formar muy pronto, probablemente influida por pequeñas diferencias en el desarrollo del cerebro dentro del útero.

Además de los genes y la biología, nuestro entorno y la cultura pueden influir en esa primacía. Por ejemplo, hasta hace no mucho tiempo, ser zurdo no estaba bien visto en la sociedad, por lo que muchos niños zurdos eran obligados a usar la mano derecha. Hoy sabemos que esto no es para nada recomendable, ya que fuerza al cerebro a usar circuitos menos eficaces, causando incomodidad, torpeza e incluso trauma.

Otra curiosidad sobre la lateralidad manual es su relación con el lenguaje. En la mayoría de los diestros, el hemisferio izquierdo controla la función lingüística. En cambio, en los zurdos esta distribución puede ser diferente: algunos utilizan el hemisferio derecho y otros tienen esta función repartida entre ambos hemisferios. Esto muestra lo increíblemente compleja que es la organización cerebral.

Entonces, ¿es mejor ser diestro o zurdo?

Aunque hay algunos estudios que relacionan la zurdera con ciertos trastornos del desarrollo del lenguaje, las personas “no-diestras” tienen una vida perfectamente saludable. De hecho, pueden disfrutar de ciertas ventajas, especialmente en deportes como el tenis, el boxeo o la esgrima, porque sus movimientos son menos predecibles para la mayoría diestra.

Además, creencias populares afirman que los zurdos pueden tener mayor creatividad y capacidad de adaptación por estar acostumbrados desde pequeños a un mundo diseñado mayoritariamente para diestros. En realidad, un estudio reciente concluyó que no existen diferencias significativas en creatividad divergente entre zurdos y diestros; de hecho, en algunos tests estandarizados los diestros obtienen puntuaciones ligeramente superiores. Este hallazgo desmonta el mito de la diferencia creativa entre zurdos y diestros y sugiere que la organización cerebral y la práctica individual, más que la lateralidad, determinan la creatividad.

Y aunque siempre tendremos una mano preferida, la buena noticia es que la menos hábil puede mejorar con la práctica. Realizar pequeñas actividades diarias, como cepillarte los dientes o escribir notas breves con tu mano más torpe, puede fortalecer sus conexiones neuronales y aumentar su precisión. Nuestro cerebro es muy adaptable y puede perfeccionar sus habilidades con el entrenamiento.

También es importante tener en cuenta la importancia del diseño inclusivo. Tijeras, pupitres y otros utensilios suelen estar pensados para diestros, dificultando las tareas cotidianas de muchas personas zurdas. Apostar por diseños cómodos y accesibles para cualquier mano es un paso más hacia un mundo más justo y adaptado para todos.

Así que la próxima vez que te sientas torpe al usar tu mano menos hábil, recuerda que detrás de esa simple preferencia hay un fascinante proceso que combina genética, cerebro y ambiente. Comprenderlo no solo es interesante, sino que también es un ejemplo diario que nos ayuda a apreciar mejor cómo funciona nuestro cuerpo.


El museo interactivo Parque de las Ciencias de Andalucía y su Unidad de Cultura Científica e Innovación colaboran en la sección The Conversation Júnior.


The Conversation

Álvaro Carmona no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Por qué tenemos una mano menos hábil que otra? – https://theconversation.com/por-que-tenemos-una-mano-menos-habil-que-otra-259918

Loi Duplomb : un grand bond en arrière environnemental et sanitaire ?

Source: The Conversation – in French – By François Dedieu, Directeur de recherche en sociologie, Inrae

En moins de quinze jours, une pétition demandant l’abrogation de la loi Duplomb a obtenu presque 2 millions de signatures – un record depuis la création de la plateforme de pétitions de l’Assemblée nationale. Les pétitionnaires refusent la réintroduction de pesticides dangereux alors que certains agriculteurs réclament le droit de les utiliser. Ces points de vue sont-ils irréconciliables ? Les recherches en agronomie montrent que protéger l’environnement et la santé, tout en assurant la compétitivité des productions agricoles, est possible.


La contestation de la loi Duplomb adoptée le 8 juillet s’est manifestée par une pétition recueillant plus de 1,8 million de signatures (en date du 24 juillet) – de quoi permettre l’ouverture d’un nouveau débat à l’Assemblée nationale. Les principaux points de contestation portent sur la réintroduction de deux pesticides controversés (l’acétamipride et le flupyradifurone) et sur le grignotage des prérogatives de l’Agence nationale de sécurité sanitaire de l’alimentation (Anses) dans la mise sur le marché des pesticides.

Face à cette mobilisation inédite, le porteur de la loi, le sénateur LR Laurent Duplomb, a déclaré que les centaines de milliers de signatures recueillies « ne lui inspire(nt) pas grand-chose », considérant que sa loi est « diabolisée et instrumentalisée par la gauche.

Un débat sur les pesticides fortement polarisé

Pour les écologistes et la gauche, soutenus par une partie de la communauté scientifique, la dangerosité des pesticides concernés n’est plus à démontrer. Ils sont multirisques pour la biodiversité, en particulier pour les abeilles, et suscitent de sérieux doutes quant à leurs effets neurodéveloppementaux sur la santé humaine selon l’European Food Agency. La ré-autorisation de l’acétamipride, interdite en France en 2023, mais toujours autorisée en Europe, apparaît inacceptable. Elle revient à privilégier les intérêts économiques au détriment de la santé humaine et environnementale.

De l’autre côté, pour les agriculteurs et leurs représentants, en particulier pour les producteurs de betteraves et de noisettes, l’acétamipride constitue le seul moyen efficace pour lutter contre le puceron vert qui transmet la maladie redoutable de la jaunisse. En 2020, celle-ci a provoqué la chute du tiers de la production de betteraves, entraînant une hausse des importations de sucre brésilien et allemand traités à l’acétamipride. Au final pourquoi l’agriculture française, effrayée par sa perte actuelle de compétitivité, devrait-elle payer le prix de son interdiction ?

Protéger la betterave sans pesticides, c’est possible

Ces deux positions clivées apparaissent aujourd’hui irréconciliables. Qu’en dit la science ? Tout d’abord, les preuves sont désormais suffisamment robustes pour établir que les dangers des néonicotinoïdes pour l’homme et l’environnement sont trop préoccupants et trop diffus pour penser les contrôler.

La technique d’enrobage (c’est-à-dire le processus par lequel des poudres et des liquides sont utilisés pour former une enveloppe autour de la graine) ne permet pas de limiter l’impact du pesticide. Outre ses dangers pour les abeilles, l’acétamipride s’insère durablement dans l’environnement. Le produit est soluble dans l’eau et possède une forte mobilité dans les sols, ce qui présente des risques énormes pour la biodiversité démontrés par l’expertise collective Inrae/Ifremer, de 2022.

Mais est-il pour autant possible de laisser les producteurs dans la situation consistant à être écrasés par la concurrence de denrées importées et remplies de substances interdites sur leur sol ? Tout le défi politique consiste ainsi à réunir « biodiversité » et « agriculture ». Or, les travaux d’expertise de l’Inrae montrent que l’agriculture peut s’appuyer sur la biodiversité pour obtenir des performances tout à fait satisfaisantes.

Cette approche avait été choisie par le plan pour la filière betteravière 2020 à 2023 pour faire face à l’interdiction des néonicotinoïdes. Le ministère de l’agriculture avait alors mis en place avec l’Inrae et l’Institut technique de la betterave, un « plan » permettant de trouver des substituts aux néonicotinoïdes.

Une autre manière de protéger les cultures était proposée : il ne s’agissait plus de s’attaquer au puceron qui provoque la jaunisse mais aux foyers propices à son apparition. Les résultats étaient probants : supprimer ces réservoirs permettait d’obtenir des rendements équivalents à ceux obtenus avec les traitements chimiques. Cette solution restait imparfaite puisque les pesticides pouvaient être utilisés en dernier recours (mais dans des quantités bien moindres), mais uniquement lorsque des solutions sans chimie échouaient. Par ailleurs, des solutions n’ont pas encore été trouvées pour toutes les cultures, notamment pour la noisette.

La loi Duplomb, une réponse simpliste et rétrograde

La loi Duplomb s’inscrit théoriquement dans la lignée de ces plans mais prend en réalité le chemin inverse : elle maintient la chimie comme solution prioritaire et ne pense les alternatives qu’en surface, et dans le plus grand flou. Les décrets de dérogations à l’usage des néonicotinoïdes seront, selon la loi, accordés moyennant « la recherche d’un plan d’alternative ». Mais comment le nouveau Comité d’appui à la protection des cultures prévu par le texte et placé sous la tutelle du ministère de l’agriculture pensera-t-il ces alternatives ? Avec quels moyens et quelle temporalité, alors que les décrets d’autorisation sont signés en parallèle au pas de course ?

La loi Duplomb nourrit finalement un puissant effet pervers : en allant au plus simple, elle retarde la recherche d’alternatives aux pesticides.

Pourquoi un tel recul ? Sans doute pour répondre au mouvement des agriculteurs de 2024 qui exprimait un « ras-le-bol » face aux normes environnementales et qui menace sans cesse de reprendre. Mais ces revendications masquent un problème profond que j’ai cherché à identifier dans mes travaux : l’incompatibilité entre normes environnementales et exigences commerciales qui peut conduire les producteurs à enfreindre la loi lorsqu’ils utilisent les pesticides (en dépassant la dose-hectare fixée par le réglementation, par exemple).

Mais la loi Duplomb répond à cette colère de manière doublement simpliste. Elle reprend sans discussion les revendications du mouvement de 2024 – demande de maintien des pesticides sans alternatives, souplesse dans l’autorisation des produits phytopharmaceutiques, ou assouplissement des formalités encadrant la taille des élevages et l’accès à l’eau (mégabassines).

En revanche, la loi ne traite nullement des réelles contraintes administratives qui pèsent sur les producteurs (déclarations, formalités en tous genres). Surtout, elle ne s’attaque pas à la racine des distorsions de concurrences qui se jouent au niveau supranational.

La réduction de la distorsion devrait passer par une possibilité d’harmoniser la décision d’homologation au niveau européen et non plus uniquement à l’échelle nationale. L’instauration de « clauses miroirs » dans les accords commerciaux internationaux permettrait d’interdire l’importation de denrées alimentaires produites avec des substances phytosanitaires interdites en Europe.

Menaces sur l’Anses

La loi Duplomb n’est-elle qu’une énième loi conçue pour envoyer des signaux symboliques aux agriculteurs ou est-elle l’outil d’une politique régressive plus profonde sur le terrain environnemental ?

Une disposition de la loi justifie cette inquiétude. Elle concerne les prérogatives de l’Agence nationale de sécurité sanitaire de l’alimentation (Anses) sur la commercialisation des pesticides.

Pour rappel, avant 2014, le ministère de l’agriculture délivrait les autorisations des pesticides après une évaluation scientifique réalisée par l’agence. À cette date, Stéphane Le Foll, alors ministre de l’agriculture, avait transféré cette compétence à l’Anses afin d’offrir de meilleures garanties contre la collusion d’intérêt pouvant exister entre le ministère de l’agriculture et les intérêts des filières agricoles.

Les concepteurs de la loi Duplomb ont envisagé plusieurs pistes pour réduire le pouvoir de l’Anses et pour restaurer les prérogatives du ministère de l’agriculture. Finalement, devant la menace d’une démission du directeur de l’agence, une solution de compromis a été trouvée : l’Anses devra désormais rendre davantage de comptes à ses ministères de tutelle en cas de rejet d’un pesticide.

Le texte prévoit aussi une liste des « usages prioritaires » de ravageurs menaçant le potentiel de production national. L’Anses devra donc considérer les priorités du ministère de l’agriculture lorsqu’elle établira son calendrier d’examen des autorisations de mise sur le marché. En somme, l’Anses conserve ses prérogatives mais avance désormais plus sous contrôle, quand il ne devrait être question que de renforcer ses compétences.

Ces dernières années, le ministère de l’agriculture a multiplié les tentatives de mise à mal de son expertise. En 2023, le ministère demandait expressément à l’Anses de revenir sur l’interdiction des principaux usages de l’herbicide S-métolachlore. Tout imparfaite que soit l’évaluation des risques, l’agence réalise un travail considérable de consolidation des savoirs scientifiques sur les dangers des pesticides, notamment à l’aide d’un réseau de phytopharmacovigilance unique en Europe.

Ainsi, la loi Duplomb semble bel et bien signer la volonté de revenir à l’époque où le ministère cogérait avec les syndicats toute la politique agricole du pays, comme il y a soixante ans avec le Conseil de l’agriculture française (CAF). Ceci au prix de la suspension des acquis scientifiques en santé-environnement s’ils contreviennent à court terme à la compétitivité agricole ? Les futures décisions politiques permettront de répondre avec plus de certitude à cette question.

The Conversation

Membre du comité de Phytopharmacovigilance de l’ANSES (2015-2024)

ref. Loi Duplomb : un grand bond en arrière environnemental et sanitaire ? – https://theconversation.com/loi-duplomb-un-grand-bond-en-arriere-environnemental-et-sanitaire-261733

Ukrainian protests: Zelensky faces biggest threat to his presidency since taking power

Source: The Conversation – UK – By Jennifer Mathers, Senior Lecturer in International Politics, Aberystwyth University

Protests have erupted in Kyiv and other Ukrainian cities against a new law that threatens the independence of Ukraine’s anti-corruption institutions. The legislation was hastily passed on July 22 by parliament and signed by the Ukrainian president, Volodymyr Zelensky, that same day.

It places Ukraine’s national anti-corruption bureau and its special anti-corruption prosecutor’s office under the direct control of the prosecutor general, one of Zelensky’s appointed officials. Zelensky has argued that the measure was necessary to address Russian infiltration of anti-corruption bodies.

Critics of the measure, however, believe the real purpose of the law is to give the president the power to quash ongoing investigations into alleged corruption by members of his inner circle. These include his close ally and former deputy prime minister, Oleksiy Chernyshov.

Politicians from opposition parties and civil society activists also regard the new law as an example of the president attempting to take advantage of wartime conditions to silence critics and consolidate power.

The protests have involved thousands of ordinary people. This includes veterans of the war against Russia’s invasion, some with visible war injuries such as missing limbs. Anger at the attempt to curb the independence of anticorruption bodies has broken the informal agreement between the government and Ukrainian society to show a united front to the world while the war continues.

The protests may be the most serious domestic political challenge Zelensky has faced since he was elected president in 2019.

Ukrainians protest after Zelensky signs law clamping down on anticorruption agencies.

Formally, Zelensky’s political position is secure. His Servant of the People party holds the majority of seats in parliament and governs without the constraints of coalition partners. Zelensky and his party will also not face voters anytime soon. There is a ban on holding elections during martial law, which is due to continue for the duration of the war.

Zelensky is not unpopular in Ukraine. According to a survey conducted in June by the Kyiv International Institute of Sociology, Zelensky’s personal popularity was running at 65%. This is down from the heady heights of 90% in the first few months after Russia’s 2022 invasion, but up significantly from 52% in December 2024.

However, Zelensky was quick to respond to the street protests by promising to reverse the new law. He said he would submit a new bill to parliament to restore independence to the agencies. The speed of his response reveals the sensitivity of the president – and indeed most Ukrainian politicians – to criticism on the corruption issue.

Why corruption is a big issue

Corruption is a topic that resonates strongly with Ukrainian society. Anger at the corruption of Viktor Yanukovych’s presidency fuelled the Maidan protests of 2013 and 2014, which began in response to his decision to break off negotiations with the EU and instead pursue closer political and economic ties with Russia.

The “revolution of dignity” that followed robustly rejected Yanukovych’s leadership and his policies, and ultimately saw him ousted from power. The revolution was a resounding demonstration of the strength of Ukraine’s civil society and its determination to hold its elected officials to account.

Any suggestion that Ukraine is failing to address corruption is also a matter of great concern for Ukraine’s international supporters. This is especially the case for major lenders such as the International Monetary Fund. Its willingness to disperse the large loans that help keep the Ukrainian economy functioning depends on Kyiv reaching the good governance milestones it sets.

European leaders have expressed concern at the new law and the possibility that Zelensky may be taking a backwards step when it comes to dealing with corruption.

President of the European Commission, Ursula von der Leyen, phoned Zelensky to express her strong concerns and ask for an explanation for diluting the independence of anti-corruption bodies. French and German leaders have also indicated that they intend to hold discussions with Zelensky about the issue.

Meanwhile, Russia has been quick to take advantage of the protests in Ukraine. According to intelligence from Ukraine’s ministry of defence, Moscow has already distributed doctored photographs of the protesters that show them holding pro-Russian signs. It has falsely claimed that Ukrainians are coming on to the streets to demand an immediate end to the war.

So far, there are no indications that these protests will spill over from demanding the reversal of one controversial piece of legislation into calls for a change of government. Some protesters have even been explicit in their remarks to the media that they are broadly supportive of Zelensky, but are calling on him to take action on this specific issue.

However, Zelensky cannot afford to be complacent. He needs to act quickly to keep his domestic and international supporters on side. A great deal of effort has been expended to demonstrate Ukraine’s commitment to democratic values and its suitability to join western institutions like the EU and Nato. Any hint of backsliding on anti-corruption could undermine that message.

Ukrainians continue to be remarkably united in their support for the war effort and their approval of the armed forces. But the mobilisation process is itself tainted with corruption. Ordinary citizens are reluctant to respond to the state’s call for more soldiers when it is widely known that the family members of powerful and wealthy Ukrainians are able to avoid military service and instead lead comfortable lives abroad.

Zelensky cannot afford to let dissatisfaction with corruption grow. Even if it does not threaten his hold on power today, society’s anger at corrupt practices and the inequalities they create is already damaging the war effort. Ukraine’s political leaders need to demonstrate that their commitment to democracy is as strong as that of the society that they lead.

The Conversation

Jennifer Mathers does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Ukrainian protests: Zelensky faces biggest threat to his presidency since taking power – https://theconversation.com/ukrainian-protests-zelensky-faces-biggest-threat-to-his-presidency-since-taking-power-261876