Concienciados y sostenibles… ¿solo en teoría? Así elige alojamiento la generación Z

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Personal docente e investigador, Universidad Complutense de Madrid

Boyloso/Shutterstock

Desde el punto de vista del ocio y los viajes, la generación Z, la de los nacidos entre 1995 y 2010, representa una parte cada vez más relevante del turismo mundial. Se estima que, en los próximos años, supondrán más del 20 % de los viajeros internacionales.

Por otra parte, esta generación se suele identificar con causas sociales y medioambientales. Se les asocia con el activismo digital, el reciclaje y el consumo responsable. Pero ¿hasta qué punto estas intenciones se reflejan en sus decisiones cotidianas, como la forma en la que eligen alojamiento cuando viajan?

De lo que se dice a lo que se hace

Aunque muchos jóvenes afirman estar comprometidos con el medioambiente, sus decisiones de viaje no siempre reflejan ese discurso. A la hora de reservar alojamiento en plataformas digitales suelen dar más importancia a aspectos como la limpieza, la comodidad o el estado general del establecimiento que al respeto por el entorno.

En una investigación realizada por la Universidad Complutense de Madrid con jóvenes estudiantes de universidades españolas se determinó qué criterios tienen más peso cuando eligen alojamiento online. Para ello, se les pidió que compararan distintos aspectos, como el trato recibido, las instalaciones, la ubicación o el impacto ecológico del alojamiento. Los resultados fueron claros: la sostenibilidad no es una prioridad.

El respeto al medioambiente queda por detrás de otros factores más visibles y directos como las instalaciones o la limpieza, y tanto hombres como mujeres priorizan elementos que afectan de forma inmediata a su experiencia como viajeros. Eso sí, las mujeres mostraron algo más de sensibilidad hacia el criterio ecológico, aunque no fue suficiente para situarlo entre los más importantes.

Importancia media de cada criterio en la selección de alojamiento (%)
Fuente: elaboración propia

¿Y por qué no eligen lo más sostenible?

Que la sostenibilidad no sea una prioridad a la hora de elegir dónde alojarse no significa que a la generación Z no le importe el medioambiente. Lo que ocurre es que, a la hora de tomar decisiones concretas, influyen otros factores más inmediatos: el precio, la comodidad, la limpieza o la claridad de la información disponible.

En muchos casos, los alojamientos sostenibles no están claramente identificados o no explican qué prácticas ecológicas aplican. A la hora de reservar, habitualmente se desconoce si el alojamiento utiliza energías renovables, si aplica medidas para reducir el consumo de agua o si compensa su huella de carbono. De modo que, si el viajero no encuentra esa información de forma sencilla, es probable que acabe tomando su decisión basándose en otros criterios más visibles.

Además, el presupuesto también juega un papel importante. Muchos jóvenes viajan con recursos limitados y, aunque valoran las prácticas sostenibles, no siempre están dispuestos a pagar más por ellas –o no siempre pueden permitírselo–.

Por otra parte, las agencias y plataformas de reservas de viajes online también influyen. Algunas permiten puntuar criterios como limpieza o atención del personal, pero no incluyen el aspecto ecológico en su sistema de valoraciones. Otras han empezado a incorporar el criterio “eco-friendly, pero todavía es poco visible. Esa falta de coherencia y transparencia entre las diferentes plataformas puede dificultar que la sostenibilidad entre realmente en juego a la hora de elegir.

¿Qué puede hacer el sector turístico?

Los resultados de la investigación apuntan a una idea clara: para conectar con la generación Z no basta con ofrecer alojamientos sostenibles. Hay que comunicarlos mejor. Es necesario explicar de forma clara y sencilla qué prácticas sostenibles utilizan los alojamientos.

Además, las plataformas de viajes pueden ayudar a impulsar decisiones más sostenibles. En este sentido, puede marcar la diferencia:

  • Incluir el criterio ecológico en sus valoraciones.

  • Destacarlo en los filtros de búsqueda.

  • Explicar claramente qué hace que un alojamiento sea considerado sostenible.

Sin embargo, en muchas de estas webs la información sobre sostenibilidad sigue siendo poco clara o confusa frente a otros aspectos como el precio o la categoría del alojamiento.

También es fundamental que las opciones sostenibles no se perciban como algo exclusivo o fuera del alcance. La generación Z valora el compromiso ambiental pero también busca viajes accesibles, flexibles y con buena relación calidad-precio. Si el sector turístico consigue que lo ecológico no se vea como un obstáculo sino como una ventaja real, será más fácil que las nuevas generaciones lo integren de forma habitual en su forma de viajar.

Del discurso ecológico a las decisiones reales

De la generación Z se dice que valora la sostenibilidad, pero los resultados muestran que no siempre actúa en consecuencia cuando viaja. Sin embargo, si incluso una generación tan identificada con el medioambiente prioriza otros factores al tomar decisiones, ¿qué se puede esperar del resto?

Quizá el reto no sea solo cambiar la conciencia individual, sino reflexionar sobre cómo se presenta, comunica y facilita la sostenibilidad en todos los niveles. Aunque esta investigación se centra en el turismo, la reflexión es aplicable a muchos otros ámbitos del consumo diario. Si queremos que la sostenibilidad sea algo real, y no solo una idea, necesitamos integrarla de forma clara, visible y accesible en nuestras decisiones del día a día.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Concienciados y sostenibles… ¿solo en teoría? Así elige alojamiento la generación Z – https://theconversation.com/concienciados-y-sostenibles-solo-en-teoria-asi-elige-alojamiento-la-generacion-z-260596

¿Qué fue la ‘tercera España’?

Source: The Conversation – (in Spanish) – By Santiago de Navascués Martínez, Profesor ayudante doctor de Historia Contemporánea, Universidad de Navarra

Manifestación en España contra los reunidos en Múnich. Movimiento Europeo

En junio de 1962, un variado grupo de españoles se reunió en Múnich para celebrar el IV Congreso del Movimiento Europeo, una organización fundada en 1947 que tenía como objetivo promover la integración europea.

Lo que comenzó como un encuentro político terminó como uno de los hitos de la reconciliación nacional más memorables de las últimas décadas: por primera vez en muchos años una mayoría antifranquista dejaba al margen sus diferencias para apostar por un proyecto en común.

El nacimiento de una idea

Cuando se proclamó la Segunda República española en abril de 1931, pocos podían intuir la tragedia que se avecinaba. Para una amplia mayoría de intelectuales –periodistas, escritores, profesores de universidad– la “niña bonita” simbolizaba un saludable cambio político para poner fin a los problemas endémicos de España.

Nombres señeros de la cultura, como José Ortega y Gasset, Gregorio Marañón y Ramón Pérez de Ayala, se movilizaron para formar la Agrupación al Servicio de la República con vistas a defender el nuevo régimen. Cuando apenas cinco años más tarde estalló la Guerra Civil, una gran parte de ellos había renegado de él.

En los tres años que duró el conflicto bélico, muchos de ellos se exiliaron en Europa o en América, y desde allí manifestaron posturas diversas sobre la legitimidad de los combatientes. Una de las más reconocibles fue la denominada “tercera España”, un maleable concepto que evocaba un rechazo tanto hacia el militarismo y el fascismo de los sublevados como hacia los métodos de los revolucionarios del lado republicano.

El diplomático Salvador de Madariaga, quien dio mayor difusión a esta posición equidistante, se postuló como mediador por la paz y la reconciliación durante la guerra. Por ello recibió críticas tanto de la izquierda, que lo acusó de traición a la República, como de la derecha, que lo tildó de “lacayo de Londres” y las potencias extranjeras.

Otros, como José Castillejo, pedagogo y profesor de la Institución Libre de Enseñanza, denunciaron el fracaso de la Segunda República por su incapacidad para crear una base social con valores afines, un proyecto en común para los españoles de todos los colores políticos.

La teorización de Madariaga

Para muchos de ellos, la Segunda República fue una república sin republicanos: llegó de forma inesperada en 1931, sin referéndum ni consulta popular, y encontró a sus principales actores políticos divididos. La derecha seguía siendo monárquica y la izquierda, cada vez más influida por el modelo soviético, prefería la vía revolucionaria. Más que un régimen democrático, la República funcionó desde el principio como un proyecto ideológico de ruptura, impulsado por sectores que entendían la legalidad como un instrumento transitorio para consolidar el poder. Los verdaderos republicanos eran minoría, como quedó claro en 1936.

En un contexto europeo marcado por crisis, fascismos y dictaduras, la República fue vista por muchos como un régimen transitorio o indeseable. Para unos fue la antesala de la revolución; para otros, una república burguesa que debía ser destruida. De ahí la sucesión de golpes, huelgas y conspiraciones que acabarían llevándola al colapso.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


La idea de formar una “tercera España”, lejos de ser un simple intento de reconciliación, aspiraba a una mediación activa entre las polaridades de la sociedad española, buscando un espacio intermedio de encuentro y diálogo entre ciudadanos de tendencias diversas.

Para Madariaga, la “tercera España” tenía dos sentidos fundamentales: por un lado, como una clave interpretativa de la historia española que cuestionaba la dicotomía de las “dos Españas” y condenaba explícitamente tanto las sublevaciones de izquierda durante la República como el golpe de Estado de 1936. Por otro lado, y con mayor fuerza en esta etapa, como una actitud proyectiva y una propuesta orientada al ideal de reconciliación y a una solución práctica para la restauración política.

En la posguerra, la variedad de exiliados por oposición al régimen de Franco era insoslayable: monárquicos liberales, republicanos, democratacristianos, socialistas, socialdemócratas, nacionalistas vascos y catalanes. Para superar el franquismo, que se alimentaba de la exclusión de la anti-España, proclamar una reconciliación entre todas estas tendencias era clave.

El exilio y la búsqueda de consenso

Si la tercera España tuvo una cierta operatividad en la vida pública fue siguiendo una nueva vía, clave para distinguirse del aislacionismo franquista tanto como de los bloques comunista y americano que se habían consolidado en la Guerra Fría: la integración en Europa.

En cierto sentido, el aislamiento español había evitado que el país sufriera los embates de las dos guerras mundiales. Pero el ostracismo internacional en los años cincuenta solo perpetuaba un régimen cada vez más anacrónico.

Salvador de Madariaga, líder clave del europeísmo, enfatizó la necesidad de insertar a España en las Comunidades Europeas.

Así, con ocasión de la participación en el IV Congreso del Movimiento Europeo de Múnich en 1962, se consiguió reconciliar simbólicamente a diversos grupos antifranquistas con la vía de consenso. Allí estaban exfalangistas como Dionisio Ridruejo, poumistas como Julián Gorkin, monárquicos como Gil Robles y socialistas como Rodolfo Llopis.

En la clausura del Congreso, Madariaga expresó la sensación compartida de que en la ciudad alemana había terminado simbólicamente la Guerra Civil. El régimen franquista reaccionó con virulencia para evitar que aquella imagen de unidad entre exiliados tomara forma política o simbólica dentro del país. De inmediato calificó el encuentro como una conspiración subversiva, orquestada por “rojos y separatistas”, y desató una campaña de propaganda que lo presentó como un “contubernio antiespañol”. El gobierno sancionó a los participantes españoles con detenciones, destierros internos como el envío forzoso a Canarias, retirada de pasaportes y vigilancia policial.

Sin embargo, Múnich impulsó una cultura de consenso y reconciliación que posteriormente fue recuperada y resignificada durante la Transición española, promoviendo movimientos políticos para aproximar a socialistas y monárquicos en el exilio.

Una lección para el presente

A pesar de que no constituyó una fuerza con capacidad movilizadora de masas ni contó con estructuras formales, la tercera España dejó huella en varias dimensiones.

Por un lado, proporcionó un marco ético alternativo a la confrontación excluyente de la guerra y postuló la coexistencia necesaria de los españoles. Como comentaba socarronamente el escritor Josep Pla, no puede cortarse un queso por la mitad y que una parte sea de bola y la otra de gruyer. Por otro lado, al hacer de la reconciliación un imperativo tras el fratricidio, preparó el terreno para la reforma política. Incubó así los pactos de consenso que cristalizarían en la Constitución de 1978.

Hoy, cuando las sociedades vuelven a experimentar formas de antagonismo extremo, la experiencia de la “tercera España” invita a reconsiderar la viabilidad de un espacio político basado en el diálogo y el reconocimiento mutuo de posiciones antes irreconciliables. Este grupo heterogéneo se unió precisamente en el rechazo al triste fatalismo de las “dos Españas”. Aunque nunca se tradujo en un proyecto político, su legado cultural proporcionó un anteproyecto clave para la convivencia plural en los albores de la España democrática.

The Conversation

Santiago de Navascués Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué fue la ‘tercera España’? – https://theconversation.com/que-fue-la-tercera-espana-260137

No, las vacunas no son la causa del autismo

Source: The Conversation – (in Spanish) – By Ignacio López-Goñi, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología (SEM), Universidad de Navarra

andriano.cz/Shutterstock

Robert F. Kennedy Jr., secretario de Salud y Servicios Humanos de Estados Unidos, lleva mucho tiempo criticando las vacunas y ha expresado en varias ocasiones que las inyecciones infantiles causan enfermedades del desarrollo e incluso autismo. Estas afirmaciones han generado un aumento de los movimientos contrarios a las vacunas.

Un estudio reciente sugiere que, a pesar de que los programas de vacunación han prevenido más de 154 millones de muertes infantiles en los últimos cincuenta años, la cobertura vacunal mundial se ha atascado o incluso empeorado. Una de las razones tiene que ver con la desinformación y la desconfianza hacia la vacunación. Incluso ya se pone en duda uno de los objetivos de la Agenda de Inmunización: conseguir reducir a la mitad el número de niños sin ninguna dosis de vacuna para 2030.

Autismo y vacuna contra el sarampión, las paperas y la rubéola

El trastorno del espectro autista es un grupo heterogéneo de trastornos del neurodesarrollo caracterizados por alteraciones en la interacción social, déficits en la comunicación verbal y no verbal y patrones restringidos, repetitivos y estereotipados de comportamiento. El término incluye el autismo, el trastorno de Asperger y el trastorno generalizado del desarrollo.

Uno de los grandes problemas es su heterogeneidad clínica; de hecho, puede considerarse un cajón de sastre donde se agrupan numerosos síndromes clínicos, cuyos síntomas suelen aparecer mayoritariamente al año y medio de edad. Las causas se desconocen y existe un intenso debate y mucha investigación al respecto. Influyen varios factores, desde genéticos, neurológicos y bioquímicos hasta ambientales.

La coincidencia en la edad en la que aparecen los síntomas y en la que se administran las vacunas ha hecho que se relacionen ambos hechos sin ningún fundamento científico, en dos escenarios: vinculando el autismo con la vacuna contra el sarampión, las paperas y la rubéola (SPR), y con el timerosal y el aluminio, conservantes que se añaden en algunas inmunizaciones.

Respecto a la vacuna SPR, la polémica comenzó en 1998 cuando el médico Andrew J. Wakefield sugirió una posible relación entre esa inmunización y el autismo. La noticia se difundió en todos los medios de comunicación, cundió el pánico y se redujeron drásticamente las coberturas vacunales en muchos países.

Sin embargo, se acabó demostrando que Wakefield había cometido fraude científico al falsificar datos: fue probado que algunos niños ya tenían síntomas neurológicos antes de ponerles la vacuna; algunos síntomas aparecieron varios meses después de la vacunación, por lo que no se podía demostrar la relación directa entre ambos hechos; y los pacientes del estudio habían sido reclutados durante una campaña antivacunación. Wakefield fue expulsado del registro de médico de Gran Bretaña.

Posteriormente, se realizaron gran cantidad de estudios con el objetivo de evaluar la seguridad de la vacuna. En ninguno de ellos se ha encontrado nunca una relación con el autismo. Por ejemplo, en 2014 se revisaron más de mil trabajos científicos en los que habían participado cerca de 1,3 millones de niños en Reino Unido, Japón, Polonia, Dinamarca y Estados Unidos. Los resultados sugieren que entre los grupos de niños vacunados el riesgo de autismo sería inferior.

Años más tarde, en 2021, se publicó una revisión exhaustiva de más de 56 000 artículos cuyas conclusiones confirmaban lo que ya se había publicado con anterioridad: no existe evidencia alguna de relación entre las vacunas y el autismo y otros eventos adversos graves.

El timerosal y el alumnio de las vacunas

El timerosal (o tiomersal) es un derivado del mercurio de muy baja toxicidad y con gran poder antiséptico y antifúngico. Este compuesto orgánico contiene etilmercurio, empleado como conservante en algunas vacunas para prevenir el crecimiento de microorganismos que las puedan contaminar. También se usa en otros productos médicos como preparaciones de inmunoglobulinas, antígenos para diagnosis de alergias, antisueros y productos nasales y oftálmicos.

No todas las vacunas llevan timerosal. Únicamente las modalidades en formato multidosis contienen dosis muy bajas para asegurar que se conservan de manera adecuada, evitando que crezcan bacterias u hongos.

La preocupación por el mercurio surgió a partir de las intoxicaciones por metilmercurio en el pescado, un compuesto neurotóxico capaz de concentrarse en el organismo y de pasar por la cadena alimentaria. Pero el etilmercurio del timerosal no es lo mismo que el metilmercurio, ya que el primero no se acumula en el organismo y se elimina rápidamente.

Su baja toxicidad se puso en evidencia tras utilizarlo para tratar la meningitis durante una fuerte epidemia ocurrida en Indiana (Estados Unidos) en 1929, cuando todavía no había antibióticos. El timerosal no funcionó como método curativo de la meningitis, pero ya entonces quedó clara su inocuidad en dosis 10 000 veces superior a la que contenían las vacunas. Hay una sólida evidencia de que los niños autistas tienen los mismos niveles de mercurio que los no autistas.

Respecto al aluminio, ahora se acaba de publicar otro estudio para dilucidar si la exposición acumulada a este compuesto contenido en las vacunas administradas durante los primeros 2 años de vida está asociada con el desarrollo posterior de enfermedades autoinmunes, alérgicas o neurológicas, como el autismo.

Basándose en los datos de todos los niños nacidos vivos en Dinamarca entre el 1 de enero de 1997 y el 31 de diciembre de 2018, los investigadores estudiaron la cantidad total de aluminio recibida a través de las vacunas (difteria, tétanos, tos ferina acelular, polio inactivado, Hib, neumococo) hasta los 2 años e hicieron un seguimiento hasta los 5 años de edad.

Pues bien, no se encontró ninguna asociación entre la exposición acumulada al aluminio por las vacunas en los primeros años de vida y el riesgo de desarrollar enfermedades autoinmunes, atópicas/alérgicas o trastornos del neurodesarrollo. Este estudio proporciona una evidencia poblacional sólida y bien controlada para refutar preocupaciones infundadas sobre que las vacunas con aluminio causen autismo u otras enfermedades crónicas.

En conclusión, existe una extensa y sólida evidencia epidemiológica respecto a la ausencia de relación entre las vacunas, el timerosal, el aluminio y la prevalencia de autismo en la población. Las vacunas son los medicamentos más regulados, vigilados y seguros, y constituyen la mejor estrategia para prevenir enfermedades que pueden llegar a ser mortales.


La versión original de este artículo fue publicada en el blog del autor, microBIO.


The Conversation

Ignacio López-Goñi no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. No, las vacunas no son la causa del autismo – https://theconversation.com/no-las-vacunas-no-son-la-causa-del-autismo-261320

El cerebelo, una joya oculta del cerebro entre el arte y la ciencia

Source: The Conversation – (in Spanish) – By Sergio Morell Ortega, Estudiante de doctorado, Universitat Politècnica de València

Oculto en la base del cráneo, el cerebelo es una estructura que solo abarca alrededor del 10 % del volumen total del cerebro, pero que alberga más del 50 % de todas las neuronas del sistema nervioso central. Esa extraordinaria densidad neuronal delata su importancia funcional, que va más allá de regular los movimientos y mantener el equilibrio, el papel que se le ha atribuido tradicionalmente.

Conocido como el “pequeño cerebro”, el cerebelo está situado en la parte posterior e inferior del encéfalo, justo debajo de los hemisferios cerebrales y detrás del tronco encefálico. Como decíamos, hasta hace no mucho se consideraba que su único rol era el de afinar la motricidad: integra señales de los músculos, las articulaciones y el oído interno para ajustar en tiempo real la fuerza, la amplitud y el ritmo de cada gesto.

Situación del cerebelo.
Wikimedia Commons, CC BY

Así, cuando estiramos el brazo para tocar un objeto, el cerebelo predice la trayectoria óptima y corrige cualquier desviación, evitando esos movimientos erráticos que veríamos en alguien con lesión cerebelosa. De hecho, enfermedades que afectan a esta estructura, como la ataxia cerebelosa, se caracterizan por una marcha inestable o temblor, que son síntomas de la incapacidad para regular los movimientos finos.

Más allá de los movimientos

Sin embargo, en las dos últimas décadas se ha revelado que el cerebelo no es un mero regulador mecánico, sino también un modulador de procesos mentales más complejos.

Así, el síndrome cognitivo-afectivo cerebeloso (CCAS), descrito por primera vez en 1998, combina alteraciones motoras con dificultades en planificación, lenguaje, memoria de trabajo y control de las emociones. Se piensa que la uniformidad de la microarquitectura cerebelosa –la que calcula los ajustes de movimiento– se emplea también para generar “modelos internos” que anticipan y afinan la dinámica de pensamientos y estados de ánimo.

Existen más ejemplos de la implicación del cerebelo en otras enfermedades, como el alzhéimer. Esta dolencia neurodegenerativa se caracteriza por la acumulación anormal de la proteína β-amiloide y genera el adelgazamiento de una capa de neuronas llamada capa granular, clave para procesar la información que llega al cerebelo. A la postre, esos cambios pueden afectar la coordinación de la mente y el cuerpo.

En el caso del autismo, se ha observado que las alteraciones en unas neuronas llamadas células de Purkinje y en las conexiones cerebelo-corticales están detrás de las dificultades para interpretar gestos, sonidos o tonos de voz, influyendo en la comunicación y la socialización.

Y en la esquizofrenia, la descoordinación entre el cerebelo y la corteza frontal puede traducirse en pensamientos desorganizados o problemas para regular las emociones, pues el cerebelo ya no “afina” tales procesos internos con la misma precisión. Por lo tanto, cuidarlo es clave no solo para movernos bien, sino para pensar con claridad y sentirnos en equilibrio.

De Leonardo a Ramón y Cajal

Pero mucho antes de estos hallazgos, el cerebelo ya fue objeto de interés científico e inspiración artística para dos de las mentes más brillantes de todos los tiempos.

El primero de nuestros protagonistas, Leonardo Da Vinci (1452–1519), fue el prototipo del científico renacentista, hombre modelo de la tercera cultura que no distinguía entre arte y ciencia. En la búsqueda de la relación entre el microscosmos y el macroscosmos, muy temprano reconoció el papel clave del sentido de la visión y de la capacidad de integración del cerebro.

En sus estudios anatómicos se interesó por los ventrículos cerebrales y desarrolló un método para inyectar cera caliente en cráneos de buey, obteniendo moldes exactos del sistema ventricular.
Aunque se atribuye al genio florentino el nombre “cerebelo” (del latín cerebellum, que significa “pequeño cerebro”, en referencia a su similitud estructural con el cerebro), esta afirmación no ha podido ser comprobada.

Dibujo de Leonardo Da Vinci de lo que se cree el método para rellenar de cera el cráneo de un buey para estudiar su anatomía y funciones.
Royal Collection of the United Kingdom

Lo que sí se sabe es que despertó su interés, pues en sus dibujos sitúa el vermis cerebeloso (la parte central del cerebelo) como una “válvula” que regula el paso entre el “sentido común” y la “memoria”. Esa fusión de visión neoplatónica –buscar el asiento del alma– con rigor anatómico le permitió romper con la tradición medieval y sentar las bases de la anatomía funcional.

Siglos después, Santiago Ramón y Cajal (1852–1934), el padre de la neurociencia moderna, llevó el arte anatómico al nivel celular. A través de una rigurosa observación y el perfeccionamiento de las técnicas de tinción –en especial la mejora del método de impregnación con nitrato de plata desarrollado por Camillo Golgi–, Cajal logró visualizar con claridad la estructura íntima del sistema nervioso.

Dibujo de células de Purkinje (A) y células granulosas (B) del cerebelo de una paloma, por Santiago Ramón y Cajal (1899).
Instituto Cajal / Wikipedia Commons, CC BY

Su mirada se posó con particular atención sobre el cerebelo, donde descubrió y dibujó con meticulosa precisión las complejas arborizaciones de las antes citadas células de Purkinje, unas de las más notables por su tamaño y ramificación dendrítica. Además de revelar la individualidad de las neuronas, su trabajo sentó las bases del principio de la “doctrina de la neurona”, desafiando la idea dominante de una red nerviosa continua.

Estas observaciones, capturadas en decenas de dibujos que combinan rigor científico con un sorprendente valor artístico, permitieron entender al cerebelo no como un órgano aislado, sino como una estructura clave en la coordinación motora y el procesamiento sensorial.

Nuestra visión artística del cerebelo

Sin pretender compararnos con científicos de la talla de Leonardo o Cajal, en la Universidad Politécnica de Valencia hemos desarrollado un software a partir de resonancia magnética, denominado DeepCERES, que permite segmentar (cuantificar) 27 estructuras del cerebelo humano a ultra alta resolución gracias al uso de técnicas de inteligencia artificial, lo que permitirá avanzar en la investigación de esta estructura clave.

Pero no solo eso, gracias a DeepCERES también podemos generar reconstrucciones detalladas en tres dimensiones de cada una de las estructuras del cerebelo; especialmente de la sustancia blanca del interior conocida como “arbor vitae” (árbol de vida), llamada así por su forma arbolada con múltiples ramificaciones. Siguiendo los pasos de Leonardo y Cajal, nuestro objetivo es captar la complejidad y la belleza de esta joya oculta del cerebro.

Reconstrucción en 3D de la segmentación de la sustancia blanca del cerebelo obtenida mediante DeepCERES.

The Conversation

José Vicente Manjon herrera recibe fondos de investigación publica del ministerio de ciencia e innovación.

Sergio Morell Ortega no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El cerebelo, una joya oculta del cerebro entre el arte y la ciencia – https://theconversation.com/el-cerebelo-una-joya-oculta-del-cerebro-entre-el-arte-y-la-ciencia-255889

Colonization devastated biodiversity, habitats and human life in the Pacific Northwest

Source: The Conversation – Canada – By Meaghan Efford, Postdoctoral Research Fellow, Institute for the Oceans and Fisheries, University of British Columbia

Burrard Inlet, known traditionally as səl̓ilwəɬ (Tsleil-Wat) in the hən̓q̓əmin̓əm̓ language, has been the heart of the traditional, ancestral and unceded territory of the səl̓ilwətaɬ (Tsleil-Waututh Nation) since time immemorial.

A satellite image of a waterway surrounded by a cityscape
An image of part of Burrard Inlet and the City of Vancouver taken from the International Space Station in April 2022.
(NASA)

The inlet is a water system that wraps through and around what we now know today as the city of Vancouver on the coast of British Columbia. The ecosystem is home to essential habitat for species like Pacific herring, Pacific salmon and harbour seals.

Burrard Inlet is also host to many commercial, industrial and urban developments and interests. This includes the Port of Vancouver, one of the largest marine ports in Canada and the terminal end of the Trans Mountain Pipeline. Today, more than 2.5 million people call the area home and it’s a popular tourism spot.

This is relatively new, however. Colonization and urbanization have caused intense change and damage since Europeans first settled in the area in around 1792, with most changes occurring since the 1880s.

Through a collaborative research project between the Tsleil-Waututh Nation, the University of British Columbia, engineering consultant firm Kerr Wood Leidal and Mitacs Canada, we assessed the impact of colonization on the Burrard Inlet ecosystem since Europeans first settled in the area.

When we look at the cumulative effects of specific events, we are adding the individual impacts of each event together to get a fuller picture of how colonialism impacted the ecosystem.

How we tracked change over time

We chose four sources of stress to the ecosystem to assess for this research:

1) The impact of smallpox on the ancestral Tsleil-Waututh population and the resulting health of the inlet.

2) The impact of settler fisheries, including Pacific salmon and Pacific herring.

3) The impact of settler hunting on land animals, including deer.

4) The impact of urbanization on the health of the ecosystem.

We used an ecosystem modelling software program called Ecopath with Ecosim, and modelled how these events impacted the inlet ecosystem between 1750-1980. We found there was a significant decrease in biomass (how much of a given organism is in an ecosystem) and available habitat.

We focused on 12 animal groups based on another collaborative project that focused on traditional Tsleil-Waututh diets.

To do this, we drew on multiple sources of data, including Tsleil-Waututh traditional ecological knowledge, archeological data, historical and archival work and ecological resources.

By combining these different sources of information, we can address gaps in each data source and weave together information to paint a fuller picture of ecological change over time.

An aerial photo of boats in a waterway with a sandy shoreline with mountains in the background
An aerial photo of the Burrard Inlet’s North Shore and the Maplewood Mudflats taken by a Tsleil-Waututh field survey team by drone during a kelp survey in August 2020.
(Tsleil-Waututh Nation)

What we found

Our research highlights how shoreline change from events like the construction of the Port of Vancouver resulted in the loss of more than half of the intertidal habitat that clams, crabs, birds and fish rely on.

Along with over-harvesting, this has resulted in a dramatic population decline for these species. Clams and other bivalves have also become unsafe to eat due to pollution.

Over-fishing has been a huge problem. Forage fish, including Pacific herring, eulachon, surf smelt and Northern anchovy, collectively experienced a 99 per cent decline in biomass.

Pacific herring was completely wiped out by dynamite fishing, and only recently returned.

Pink salmon and chum salmon both experienced more than 40 per cent losses in biomass due to over-fishing. White sturgeon were almost wiped out.

Mammals didn’t fare any better: three-quarters of the deer and elk populations and over one-quarter of the harbour seal population in the area around the inlet were lost to hunting.

Smallpox had a devastating effect on Salish communities throughout the region. The loss of lives caused dramatic change in the ecosystem because it reduced how much food was taken out of the ecosystem significantly.

The smallpox epidemics only touch the surface of how colonization impacted Indigenous lives. Other events that we didn’t include in the model — like the Residential School system and the Reserve System, for example — severely limited or criminalized stewardship activities that Tsleil-Waututh and other Nations have been using to take care of their territory for millennia.

Tsleil-Waututh stewardship and sovereignty

Tsleil-Waututh people are specialists in managing and stewarding the marine, tidal and terrestrial resources of the inlet’s ecosystem. Tsleil-Waututh salmon stewardship sustainably maintained a chum salmon fishery for almost 3,000 years.

The research questions, priorities and direction of our project were established through frequent collaborative meetings. This approach ensured Tsleil-Waututh co-authors and colleagues were involved in every step of the research.

This kind of community-driven work is complex. It is also incredibly valuable for understanding ecosystem change over time. Without the leadership and knowledge of Tsleil-Waututh knowledge-holders, this research would have had massive data and knowledge gaps and the work would have much less significance.

This is an example of transdisciplinary research: research that is interdisciplinary, that draws on multiple disciplines for data and methods and is grounded in community from the beginning.

Our research shows that colonialism has had a devastating impact on habitats and biodiversity in and around Burrard Inlet. This is not just an ecological story, but a human story that speaks to the wide-reaching impacts of colonization. It is an intertwined story that shows how harmful colonization and rapid urbanization can be, both to humans and to the ecosystems we call home.

The Conversation

Meaghan Efford received funding from Mitacs Canada through a collaborative project with Tsleil-Waututh Nation.

ref. Colonization devastated biodiversity, habitats and human life in the Pacific Northwest – https://theconversation.com/colonization-devastated-biodiversity-habitats-and-human-life-in-the-pacific-northwest-260791

Canada’s proposed Strong Borders Act further threatens the legal rights of migrants

Source: The Conversation – Canada – By Shiva S. Mohan, Research Fellow, Canada Excellence Research Chair in Migration & Integration program, Toronto Metropolitan University

Canada’s federal government recently introduced the Strong Borders Act, also known as Bill C-2, that proposes Canada tighten migration controls and modernize border enforcement between Canada and the United States.

Critics have warned the bill “could pave the way for mass deportations” as well as increase precarity for legal migrants.




Read more:
Why Canada’s Strong Borders Act is as troublesome as Donald Trump’s travel bans


Even now, under existing laws, a migrant could be “legal” and still be denied health care, lose their job or effectively be unable to leave Canada for fear of being denied re-entry.

Bill C-2’s expanded enforcement powers and increased risk of status revocation could make these precarities much worse.

This is already the quiet reality for thousands of migrants in Canada under their “maintained status”, formerly “implied status.” This status is a legal provision designed to protect continuity for temporary residents who apply to extend their permits.

Maintained status itself is not the problem. On paper, it offers legal protection.

But in practice, it often collapses because of the ecosystem in which it operates: fragmented institutions, absent co-ordination and lack of transparency.

Maintained status has been narrowed

In May 2025, Immigration, Refugees and Citizenship Canada (IRCC) quietly narrowed the scope of maintained status.

Under the new rules, if a person’s first application is refused while they are on maintained status, any second application submitted during that period is now automatically refused.

This effectively strips applicants of legal status, including protections under maintained status, to remain in Canada. The change shows how even compliant migrants can lose status abruptly, further heightening the insecurity built into the system.

This is a clear expression of complex precarity: a condition in which migrants face legal, economic and social insecurity, even when they follow all the rules.

Maintained status is just one example of this larger phenomenon of Canadian policy generating hidden forms of exclusion.

Legal, but not recognized?

Migrants on maintained status are legally allowed to stay in Canada and continue working or studying under the same conditions as their expired permit. Yet no new permit is issued to confirm this status.

Proof of this legal standing varies depending on how a person applies. Those who apply online may receive a WP-EXT letter confirming their right to continue working. However, this isn’t issued to post-graduation work-permit holders, and expires after 365 days.

Paper-based applicants are advised that no such letter will be provided. Instead, they must rely on a copy of their application, a fee payment receipt or courier tracking information to demonstrate continued legal status.

If no letter is available, or once it expires, IRCC advises applicants to direct employers to the Help Centre web page as proof of their right to remain and work.

These workarounds are legally valid but fall short of what many employers, landlords and service providers consider adequate proof of status.




Read more:
Canada’s new immigration policy favours construction workers but leaves the rest behind


The limits of informal proof

My current ongoing research points to how employers following rigid HR protocols often reject informal documentation. Some migrants even obtain letters from immigration lawyers to explain their legal right to remain and work.

IRCC does not publish public data on the number of people on maintained status or how long they remain in that condition. Some front-line organizations have adjusted their services in response to this gap.

MOSAIC, for example, a major settlement agency in British Columbia, explicitly lists “migrant workers on maintained status” as eligible for support. This signals institutional recognition of the category.

The broader situation, however, reflects a disconnect between legal recognition by the state and practical verifiability in everyday life.

The risk of travel

Travel while on maintained status is legally permitted only under narrow conditions, such as holding a valid Temporary Resident Visa, being visa-exempt or returning from the U.S. under specific circumstances.

But even in these cases, leaving Canada terminates maintained status.

Migrants may be allowed to re-enter as visitors, but they cannot resume work or study until a new permit is issued. This introduces major uncertainties for people who may need to travel for family, emergencies or professional obligations.

Disparities in provincial health access

Access to public health insurance during maintained status varies widely across provinces.

In Ontario, OHIP (Ontario Health Insurance Plan) cards are directly tied to the expiration of work permits. Unless migrants know to proactively request extended coverage and can meet specific document requirements, they risk losing health insurance entirely. Even when eligible, coverage is not automatic and may require out-of-pocket payment pending reimbursement.

In Québec, RAMQ (Régie de l’assurance maladie du Québec) treats migrants on maintained status like new arrivals. They must reregister for coverage and face a three-month waiting period from the time of renewal, regardless of continuous legal presence.

In British Columbia, by contrast, the MSP (Medical Services Plan) offers temporary coverage for up to six months (extendable) to individuals on maintained status, provided they previously held MSP and submit IRCC receipt proof.

This more inclusive approach highlights how uneven provincial co-ordination amplifies the precarity of federal policy.

Infrastructure is needed immediately

Migrants face great risks on maintained status.

Despite investments in automation and digital infrastructure, IRCC continues to experience chronic processing delays, leaving migrants in prolonged uncertainty: legally present, but practically unrecognized.

To address this, Canada needs systems and resources designed to uphold legal recognition in daily life. It needs to:

  • Create a secure centralized portal that allows migrants to control who can verify their legal status in real time. The U.K.’s share code platform and the American myE‑Verify system provide clear examples of how this can work, reducing confusion for employers, landlords, and service providers.

  • Issue co-ordinated provincial guidance, particularly regarding access to essential services such as health care, so that front-line staff have clarity on migrants’ rights under maintained status.

  • Protect continuity of status after international travel, ensuring that those who leave Canada while on maintained status do not lose the ability to return and resume work or study.

As Canada advances legislation like Bill C‑2, we must not ignore the country’s quiet erosion of its existing legal architecture for migrants.

Migrants on maintained status have followed the rules.

If we are serious about building trust in immigration systems, we must commit to infrastructure that is workable, visible and fair.

The Conversation

Shiva S. Mohan receives funding from the Canada Excellence Research Chair in Migration and Integration Program at Toronto Metropolitan University. He has no other affiliations or financial interests that would benefit from this article.

ref. Canada’s proposed Strong Borders Act further threatens the legal rights of migrants – https://theconversation.com/canadas-proposed-strong-borders-act-further-threatens-the-legal-rights-of-migrants-259349

Supreme Court news coverage has talked a lot more about politics ever since the 2016 death of Scalia and GOP blocking of Obama’s proposed nominee

Source: The Conversation – USA – By Joshua Boston, Associate Professor of Political Science, Bowling Green State University

Reporters used to treat the Supreme Court as a nonpolitical institution, but not anymore. Tetra Images/Getty

The U.S. Supreme Court has always ruled on politically controversial issues. From elections to civil rights, from abortion to free speech, the justices frequently weigh in on the country’s most debated problems.

And because of the court’s influence over national policy, political parties and interest groups battle fiercely over who gets appointed to the high court.

The public typically finds out about the court – including its significant decisions and the politics surrounding appointments – from the news media. While elected officeholders and candidates make direct appeals to their voters, the justices and Supreme Court nominees are different – they largely rely on the news to disseminate information about the court, giving the public at least a cursory understanding.

Recently, something has changed in newspaper coverage of the Supreme Court. As scholars of judicial politics, political institutions and political behavior, we set out to understand precisely how media coverage of the court has changed over the past 40 years. Specifically, we analyzed the content of every article referencing the Supreme Court in five major newspapers from 1980 to 2023.

Of course, people get their news from a variety of sources, but we have no reason to believe the trends we uncovered in our research of traditional newspapers do not apply broadly. Research indicates that alternative media sources largely follow the lead of traditional beat reporters.

What we found: Politics has a much stronger presence in articles today than in years past, with a notable increase beginning in 2016.

When public goodwill prevailed

Not many cases have been more important in the past quarter-century or, from a partisan perspective, more contentious than Bush v. Gore – the December 2000 ruling that stopped a ballot recount, resulting in then-Texas Governor George W. Bush defeating Democratic candidate Al Gore and winning the presidential election.

Bush v. Gore is particularly interesting to us because nine unelected, life-tenured justices functionally decided an election.

A New York Times front page story from Dec. 13, 2000, with banner headline 'BUSH PREVAILS.'
The New York Times story about the Supreme Court’s decision in Bush v. Gore indicated the justices’ names and votes but neither the party of the president who appointed them nor their ideological leanings.
Screenshot, The New York Times

Surprisingly, the court’s public support didn’t suffer, ostensibly because the court had built up a sufficient store of public goodwill.

One reason public support remained steady following Bush v. Gore might be newspaper coverage. Although the court’s decision reflected the justices’ ideologies, with the more conservative members effectively voting to end the recount and its more liberal members voting in favor of the recount, newspapers largely ignored the role of politics in the decision.

For example, the New York Times case coverage indicated the justices’ names and their votes but mentioned neither the party of the president who appointed them nor their ideological leanings. The words “Democrat,” “Republican,” “liberal” and “conservative” – what we call political frames – do not appear in the Dec. 13, 2000, story about the decision.

This epitomizes court-related newspaper articles from the 1980s to the early 2000s, when reporters treated the court as a nonpolitical institution. According to our research, court-related news articles in The New York Times, The Washington Post, Chicago Tribune, Los Angeles Times and The Wall Street Journal hardly used political frames during that time.

Instead, newspapers perpetuated a dominant belief among the public that Supreme Court decisions were based almost completely on legal principles rather than political preferences. This belief, in turn, bolstered support for the court.

Recent newspaper coverage reveals a starkly different pattern.

A contemporary political court

It would be nearly impossible to read contemporary articles about the Supreme Court without getting the impression that it is just as political as Congress and the presidency.

Analyzing our data from 1980 to 2023, the average number of political frames per article tripled. To be sure, politics has always played a role in the court’s decisions. Now, newspapers are making that clear. The question is when this change occurred.

Across the five major newspapers, reporting about the court has gradually become more political over time. That isn’t surprising: America has been gradually polarizing since the 1980s as well, and the changes in news media coverage reflect that polarization.

Take February of 2016, when Justice Antonin Scalia unexpectedly died. Of course, justices have died while serving on the court before. But Scalia was a conservative icon, and his death could have swung the court to the center or the left.

How the politics of naming his successor played out after Scalia’s death was unprecedented.

President Barack Obama’s nomination effort to put Merrick Garland on the court were stonewalled. The Senate majority leader, Republican Mitch McConnell of Kentucky, said the Senate would not consider any nomination until after the presidential election, nine months from Scalia’s death.

Republican candidate Donald Trump, seeing an opening, promised to fill the vacancy with a conservative justice who would overturn Roe v. Wade. The court and the 2016 election became inseparable.

People bowing their heads next to a U.S. flag-covered casket.
President Barack Obama and first lady Michelle Obama pay respects to Justice Antonin Scalia, whose 2016 death brought lasting change in newspaper coverage of the court.
Tom Williams/CQ Roll Call via Getty Images

Scalia vacancy changed everything

February 2016 brought about an abrupt and lasting change in newspaper coverage. The day before Scalia’s death, a typical article referencing the court used 3.22 political frames.

The day after, 10.48.

We see an uptick in political frames if we consider annual changes as well. In 2015, newspapers averaged 3.50 political frames per article about the Supreme Court. Then, in 2016, 5.30.

Using a variety of statistical methods to identify enduring framing shifts, we consistently find February 2016 as the moment newspapers shifted to higher levels of political framing of the court. We find the number of political frames in newspapers remained elevated through 2023.

How stories frame something shapes how people think about it.

If an article frames a court decision as “originalist” – an analytical approach that says constitutional texts should be interpreted as they were understood at the time they became law – then readers might think of the court as legalistic.

But if the newspaper were to frame the decision as “conservative,” then readers might think of the court as ideological.

We found in our study that when people read an article about a court decision using political frames, court approval declines. That’s because most people desire a legal court rather than a political one. No wonder polls today find the court with precariously low public support.

We do not necessarily hold journalists responsible for the court’s dramatic decline in public support. The bigger issue may be the court rather than reporters. If the court acts politically, and the justices behave ideologically, then reporters are doing their job: writing accurate stories.

That poses yet another problem. Before Trump’s three court appointments, the bench was known for its relative balance. Sometimes decisions were liberal; other times, conservative.

In June 2013, the court provided protections to same-sex marriages. Two days earlier, the court struck down part of the Voting Rights Act. A liberal win, a conservative win – that’s what we might expect from a legal institution.

Today the court is different. For most salient issues, the court supports conservative policies.

Given, first, the media’s willingness to emphasize the court’s politics, and second, the justices’ ideologically consistent decisions across critical issues, it is unlikely that the news media retreats from political framing anytime soon.

If that’s the case, the court may need to adjust to its low public approval.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Supreme Court news coverage has talked a lot more about politics ever since the 2016 death of Scalia and GOP blocking of Obama’s proposed nominee – https://theconversation.com/supreme-court-news-coverage-has-talked-a-lot-more-about-politics-ever-since-the-2016-death-of-scalia-and-gop-blocking-of-obamas-proposed-nominee-259120

Grok, l’IA de Musk, est-elle au service du techno-fascisme ?

Source: The Conversation – in French – By Jonathan Durand Folco, Associate professor, Université Saint-Paul / Saint Paul University

Début juillet, la mise à jour de Grok dérape gravement : l’IA d’Elon Musk génère des propos antisémites et se présente comme « Mecha-Hitler ». Moins de deux semaines plus tard, la compagnie qui a développé Grok, xAI, décroche un contrat de 200 millions de dollars avec Le Pentagone.

Faut-il craindre qu’une intelligence artificielle sans garde-fous alimente l’appareil militaire américain ?

Parmi les nombreux robots conversationnels existant sur le marché, un sort du lot par sa prétention à sortir des balises du « politiquement correct » : Grok. Cette intelligence artificielle générative, filiale d’Elon Musk, a pour ambition de dépasser les capacités de ses concurrents (comme ChatGPT, Claude, Gemini, Copilot), tout en s’inscrivant dans une perspective « anti-woke », c’est-à-dire exempte de « censure » ou de règles morales trop rigides.

Dès avril 2023, l’entrepreneur milliardaire lançait le projet « TruthGPT » visant à créer « une IA en quête de vérité maximale qui tente de comprendre la nature de l’univers », tout en offrant une alternative aux « biais libéraux » de ChatGPT.

Notons que Musk, qui avait cofondé l’entreprise OpenAI en 2015 avant de la quitter en 2018 après avoir échoué à en devenir le patron, cherche depuis à prendre sa revanche sur son rival Sam Altman, devenu une superstar de l’industrie numérique depuis le succès mondial de ChatGPT.

Professeur à l’École d’innovation sociale de l’Université Saint-Paul, à Ottawa, mes travaux de recherche portent sur les mutations du capitalisme, les impacts sociaux de l’intelligence artificielle et l’autoritarisme contemporain. J’ai récemment publié Le capital algorithmique avec mon collègue Jonathan Martineau.

Grok, un miroir déformant de son créateur

À l’image de son créateur, Grok est conçu pour répondre avec humour noir et un côté rebelle, affichant ouvertement son mépris des normes sociales et des tabous. Un premier problème survient avec sa propension à répandre de fausses nouvelles, surtout via son intégration au média social X également possédé par Musk. Comme d’autres IA génératives, Grok souffre de biais, d’hallucinations et d’imprécisions.

Mais l’absence de balises éthiques et factuelles afin d’offrir un robot conversationnel « sans censure » peut mener à des résultats aberrants, comme la production d’images réalistes de Musk et Mickey Mouse tuant des enfants, ou la promotion du récit du « génocide blanc » en Afrique du Sud. L’idée d’une IA « anti-woke » aboutit ici à une amplification spectaculaire de la désinformation, au nom d’une liberté d’expression sans responsabilité.

Quand l’extrême droite flirte avec la haute technologie

Un deuxième problème survient dans un contexte politique où l’homme le plus riche du monde, ainsi que l’ensemble des élites de la Silicon Valley, se rallient à la nouvelle administration de Donald Trump.

L’engagement remarqué de Musk dans la campagne présidentielle de Trump, son adhésion à l’idéologie réactionnaire du Dark MAGA, son salut nazi du 20 janvier 2025, ou encore son soutien au parti Alternative pour l’Allemagne (AfD), témoignent de son virage vers l’extrême droite de l’échiquier politique.

Non satisfait que son IA soit encore trop « woke » ou qu’il reprenne trop les idées des médias traditionnels, Musk a annoncé la mise à jour de Grok 4 début juillet. Mais le robot a rapidement généré des discours antisémites, néonazis et conspirationnistes, se qualifiant lui-même de « Mecha-Hitler » (la start-up xAI s’est depuis excusée). Cela est inquiétant mais guère surprenant : la créature étant souvent à l’image de son créateur.

Quand le pouvoir technologique infiltre l’État

Un troisième problème survient lorsque les intérêts du secteur privé et du secteur public convergent à un point tel qu’on peut parler de collusion, voire de corruption. Cela est un secret de polichinelle, mais Elon Musk a été embauché comme employé spécial du Departement of Governement Efficiency (DOGE) pour opérer des coupures massives dans l’administration fédérale, alors que ses propres compagnies privées (Tesla, SpaceX, Neuralink) cumulent plus de 2,37 milliards de dollars en contrats fédéraux.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’usage de l’IA et la logique « move fast and break things » dans la mise en œuvre de compressions budgétaires automatisées par le DOGE ont été décrites par certains auteurs comme un « coup d’État assisté par l’IA ».

Ironiquement, Musk avait signé la lettre ouverte Pause Giant AI Experiments en mars 2023, appuyée par des centaines de personnalités publiques à travers le monde. À cette époque, la majorité des milieux de la recherche, de l’industrie, du secteur public et de la société civile appelait à un moratoire sur le développement de l’IA générative face aux nombreux risques qu’elle posait : désinformation, surveillance, pertes d’emploi, impacts environnementaux ou encore menaces pour la démocratie.

Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? […] Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », alertaient alors les signataires.

En 2025, le scénario inverse s’impose : les IA diffusent massivement des contenus mensongers, des décisions majeures sont confiées à des acteurs privés non élus, et l’intelligence artificielle devient un levier de domination économique, politique et militaire.

Cette grande convergence entre l’oligarchie de la Silicon Valley et le mouvement populiste Make America Great Again est d’ailleurs parfois qualifiée de « techno-fascisme ». Il ne s’agit pas ici de la simple complicité entre Musk et Trump, qui a rapidement pris fin de façon spectaculaire en juin 2025 avec un échange d’insultes. Il s’agit d’une intégration structurelle des technologies algorithmiques dans un projet autoritaire.

Ce projet vise le démantèlement de l’État de droit et la mise en place d’un État policier, inspiré du président hongrois Viktor Orban et de sa « démocratie illibérale ».

De Mecha-Hitler à assistant des forces armées

Un dernier exemple de l’intégration de l’IA au service du techno-fascisme est le contrat signé à la mi-juillet entre xAI et le département américain de la Défense.

L’armée souhaite utiliser Grok pour fournir « ses capacités de soutien aux combattants » et aider à « préserver un avantage stratégique sur leurs adversaires ». Même si Musk a officiellement quitté le DOGE et rompu avec Trump, son IA se qualifiant de « Mecha-Hitler » sera directement branchée sur les forces armées.

Ajoutons à cela la déréglementation totale du secteur numérique par Trump, l’adoption du projet de loi Big Beautiful Bill qui fait exploser le budget de la police de l’immigration ICE, ou encore le projet Stargate de 500 milliards de dollars, et nous voilà au seuil d’une nouvelle ère techno-fasciste.

La Conversation Canada

Jonathan Durand Folco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Grok, l’IA de Musk, est-elle au service du techno-fascisme ? – https://theconversation.com/grok-lia-de-musk-est-elle-au-service-du-techno-fascisme-261215

CAN des dames : 3 signes que le football féminin africain commence enfin à prendre son envol

Source: The Conversation – in French – By Chuka Onwumechili, Professor of Communications, Howard University

Le football féminin en Afrique a connu des changements radicaux au cours des dernières années. Après des débuts modestes à la fin des années 1990, il s’est développé au point que sa plus grande compétition attire aujourd’hui l’attention du monde entier.

La Coupe d’Afrique des nations féminine 2024 se dirige vers ses quarts de finale, avec huit pays encore en lice. Jusqu’à présent, ce tournoi, qui se tient tous les deux ans, a tenu ses promesses en matière de compétitivité. Les écarts importants entre les équipes participantes semblent avoir disparu. Les matches sont plus serrés, les primes ont augmenté et le public est au rendez-vous partout dans le monde.




Read more:
Les exploits méconnus des footaballeuses africaines face aux obstacles dévoilés dans un nouveau livre


En tant que spécialiste de la communication sportive et du football féminin, je suggère à la Confédération africaine de football (CAF) d’envisager d’augmenter le nombre d’équipes participant à la phase finale. Il y en a actuellement 12, mais ce nombre pourrait facilement passer à 16 sans perdre en qualité.

Il y a des sceptiques, surtout après que le pays hôte, le Maroc, et la CAF ont reporté le tournoi de 2024 à 2025 pour éviter un chevauchement avec les Jeux Olympiques de Paris. Cela a également donné au Maroc le temps de terminer la rénovation de ses stades. Malgré les sceptiques, le tournoi repose sur des bases solides. Il y a des signes clairs qu’il est sur la bonne voie.

1. Les écarts entre les équipes se réduisent

Les écarts au niveau des scores se réduisent. La plus grande différence de buts enregistrée lors du tournoi de cette année est de 4-0, dans deux matchs. L’un a été remporté par l’équipe championne en titre, l’Afrique du Sud, contre le Mali et l’autre par le Sénégal contre la République démocratique du Congo (RDC).

Cependant, ni le Mali ni la RDC ne se sont montrés faciles à battre. Ils ont simplement connu une mauvaise soirée lors de leurs défaites respectives 0-4. En fait, bien que la RDC ait perdu tous ses matchs, elle s’est montrée compétitive face au pays hôte, l’une des équipes favorites de cette année, le Maroc. Elle s’est inclinée de justesse face à la Zambie, une équipe qui a terminé troisième devant l’éternel champion, le Nigeria, il y a seulement trois ans. Le Mali, avec quatre points, s’est qualifié pour les quarts de finale en tant que meilleure troisième.

Bien sûr, les grandes équipes habituelles ont atteint les phases à élimination directe. Personne n’a été surpris que le Maroc et l’Afrique du Sud soient rejoints en phase à élimination directe par le Nigeria, la Zambie, le Ghana et le Sénégal. L’Algérie, deuxième de son groupe, s’est qualifiée pour la phase à élimination directe pour la première fois. Elle l’a fait après un match nul mérité contre le Nigeria. L’émergence de l’Algérie témoigne du redressement continu des équipes féminines nord-africaines, qui étaient jusqu’à présent à la traîne dans les compétitions féminines sur le continent.

Ces progrès sont le fruit d’un travail acharné. Le Maroc a investi massivement et a vu ses équipes nationales féminines et ses clubs se hisser au sommet du football féminin.

L’Algérie est sur le point de connaître une ascension similaire. Ses performances dans cette compétition sont le fruit d’un recrutement important de joueuses d’origine algérienne vivant à l’étranger par le sélectionneur Farid Benstiti, qui dirigeait auparavant l’équipe féminine du Paris Saint-Germain. L’Algérie a également recruté plusieurs joueuses basées à l’étranger.

La compétitivité croissante entre les équipes de la CAN se reflète par l’élimination précoce de grandes nations comme la Côte d’Ivoire, la Guinée équatoriale et le Cameroun, absentes des quarts de finale.

La Guinée équatoriale a remporté le trophée à plusieurs reprises, seul pays à avoir réussi cet exploit avec le Nigeria. Le Cameroun est une puissance traditionnelle qui a représenté le continent à plusieurs reprises lors de la Coupe du monde féminine de football. La Tanzanie a créé la surprise en éliminant la Côte d’Ivoire lors de la phase de poule. Le Kenya a battu le Cameroun et la RDC a battu la Guinée équatoriale. Ces résultats témoignent avant tout du niveau élevé des équipes féminines de football sur le continent.

Cependant, certains défis subsistent. Parmi ceux-ci, on peut citer : le manque de financement des équipes nationales féminines tout au long de l’année en dehors des compétitions, le sexisme et les barrières religieuses dans certaines régions du continent.

2. Augmentation des primes

La CAF soutient de plus en plus la CAN féminine. Cette année, les primes remises aux vainqueurs ont augmenté de 100 % pour atteindre 1 million de dollars américains.

Le montant total des primes s’élève à 3,75 millions de dollars américains. Les finalistes malheureux recevront 500 000 dollars américains. L’équipe classée troisième aura 350 000 dollars américains et la quatrième 300 000 dollars américains. Les autres recevront des montants moins élevés. Ce soutien accru se reflète également dans les 600 000 dollars américains attribués à l’équipe vainqueur de la Ligue des champions féminine de la CAF.

Ce montant est toutefois loin d’être comparable à celui attribué lors de l’Euro féminin 2025 de l’UEFA (47,8 millions de dollars). Mais il témoigne des progrès constants réalisés par la CAN féminine pour réduire l’écart, alors que le football féminin suscite un intérêt croissant de la part des sponsors.

Et l’écart entre les hommes et les femmes en termes de prix reste important. Il s’agit toutefois d’un phénomène mondial.

3. Intérêt croissant des médias

L’affluence dans les stades de la CAN féminine a été décevante, en partie parce que les matches se jouent dans 3 petits stades. Les plus grands stades du Maroc sont encore en rénovation en vue de la co-organisation de la Coupe du monde masculine de football en 2026. La couverture médiatique a été impressionnante.

La CAF a indiqué que le match d’ouverture entre le Maroc et la Zambie a été diffusé dans plus de 120 territoires. Les principaux diffuseurs, dont beIN Sport, CANAL+, SuperSport et SportTV, couvrent l’événement.

Selon un communiqué de presse de la CAF :

Les spectateurs du monde entier pourront suivre les matchs depuis les États-Unis, le Brésil, le Canada, l’Australie, la France, la Belgique, l’Allemagne, le Qatar, les Pays-Bas et Singapour.

Vers un tournoi élargi ?

Compte tenu des progrès réalisés par la compétition au fil des ans, il est peut-être temps d’augmenter le nombre d’équipes participant à la phase finale de 12 à 16. Cela nécessitera bien sûr une augmentation des primes afin de garantir que chaque équipe reçoive une somme égale ou supérieure à celle distribuée lors de la compétition de cette année.

Cependant, le tournoi de cette année a clairement montré qu’il y aurait davantage de place pour des concurrentes de talent lors de la phase finale, sans faire baisser le niveau.

La CAN féminine a parcouru un long chemin depuis sa création au début du siècle. Elle est passée de huit équipes à douze, et pourrait encore s’agrandir. Le montant des récompenses a doublé pour l’équipe gagnante et la couverture télévisée s’est étendue à travers le monde. Il s’agit clairement d’une compétition en plein essor.

The Conversation

Chuka Onwumechili does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. CAN des dames : 3 signes que le football féminin africain commence enfin à prendre son envol – https://theconversation.com/can-des-dames-3-signes-que-le-football-feminin-africain-commence-enfin-a-prendre-son-envol-261326

Ce que les entreprises familiales comme Rothschild peuvent enseigner sur la résilience

Source: The Conversation – in French – By Liena Kano, Professor, Haskayne School of Business, University of Calgary

Fondée par James de Rothschild (1792-1868), cinquième fils de Mayer Amschel, la branche dite « de Paris » – dont est issu Edmond de Rothschild (1926-1997) créateur de sa propre société d’investissement – fut à l’origine de la Compagnie des chemins de fer du Nord, absorbée par la SNCF créée en 1938. HJBC/Shutterstock

Quelles leçons tirer de l’entreprise Rothschild, la société multicentenaire née au XVIIIe siècle, pour affronter les crises ? Une résilience fondée sur un langage organisationnel commun, des objectifs de long terme, une réputation de marque et des routines. Mais l’entreprise familiale s’est heurtée à ses limites en ratant son développement aux États-Unis : une prise de décision basée sur les émotions, sans déléguer à des associés hors de la famille.


Les entreprises familiales constituent une composante vitale du paysage économique en France. Dans le contexte économique turbulent actuel, marqué par les tensions géopolitiques, les perturbations technologiques et l’évolution des structures commerciales, être une entreprise compétitive est plus important que jamais.

Partout dans le monde, les entreprises familiales ont fait preuve d’une résilience remarquable face aux chocs externes. Certaines des plus anciennes entreprises au monde sont des entreprises familiales qui ont survécu à des guerres mondiales, des révolutions, des catastrophes naturelles et des pandémies.

Parmi ces multinationales de longue date figure la société Rothschild, une banque d’investissement familiale européenne vieille de plusieurs siècles. Notre étude de cas sur la famille Rothschild, fondée sur une analyse historique, met en lumière la façon dont des relations durables, des routines organisationnelles fiables et des objectifs de long terme lui ont conféré des avantages significatifs dans le commerce international.

En même temps, les structures familiales peuvent contribuer à créer des « biais de bifurcation », qui consistent à privilégier les ressources familiales par rapport à des ressources non familiales de valeur égale ou supérieure. Notre étude révèle que ce biais de bifurcation peut compromettre le développement international d’une entreprise, en particulier sur des marchés éloignés et complexes.

Une brève histoire des Rothschild

Mayer Amschel Rothschild (1744-1812), fondateur de la dynastie.
Wikimedia Commons

À l’origine une entreprise commerciale, de prêt sur gages, la société est fondée à la fin du XVIIIe siècle par Mayer Amschel Rothschild, né dans le ghetto juif de Francfort (Hesse, Allemagne).

Rothschild et sa femme, Guttle, ont dix enfants, dont cinq fils : Amschel, Salomon, Nathan, Carl et James.

En 1798, Rothschild envoie Nathan à Manchester en Angleterre. Par effet de ricochet, l’entreprise se développe dans ce pays et opère sa mutation d’opérations purement marchandes à des transactions financières. Dans les années 1820, Rothschild devient une banque multinationale, avec Amschel, Salomon, Nathan, Carl et James à la tête de maisons bancaires à Francfort, à Vienne, à Londres, à Naples et à Paris, respectivement.

Avantages et inconvénients des liens familiaux

Nathan Mayer Rothschild (1777-1836). Fondateur de la branche dite « de Londres », il finança l’effort de guerre britannique contre les ambitions napoléoniennes.
Wikimedia Commons

Au XIXe siècle, la stratégie des Rothschild consistant à s’appuyer sur les membres de la famille fonctionne bien pour l’entreprise.

Ingénieux, les cinq frères Rothschild correspondent dans un langage codé. Ils partagent également un pool commun de ressources à une époque où l’échange de données financières est rare dans le secteur bancaire international.

Leurs liens familiaux étroits permettent aux frères de transférer des informations, de l’argent et des marchandises à travers les frontières à une vitesse et une portée inaccessibles à leurs concurrents.

Cette cohésion interne protège les affaires des Rothschild, en facilitant les transactions et en leur permettant de rester résilients à travers les périodes de bouleversements politiques importants : une vision audacieuse pendant les guerres napoléoniennes, le ralliement républicain en 1848 et un patriotisme économique durant la Première Guerre mondiale.

Cette même dépendance excessive à la famille devient un inconvénient lorsque l’entreprise Rothschild se développe aux États-Unis.

Biais de bifurcation

Les Rothschild montrent un intérêt pour le marché états-unien dès les années 1820. Leurs tentatives répétées d’envoyer des membres de leur famille aux États-Unis pour étendre leurs opérations échouent, car aucun n’est prêt à y rester, préférant le confort de la vie européenne.

August Belmont fut agent de la banque Rothschild aux États-Unis.
Wikimediacommons

Comme ils ne sont pas en mesure d’établir un ancrage familial dans le pays, les Rothschild nomment un agent, August Belmont, pour diriger les opérations états-uniennes en leur nom en 1837.

Belmont n’a pas le pouvoir de prendre des décisions entrepreneuriales, de faire des investissements ou de conclure des accords. Il n’a pas non plus un accès illimité au capital et n’a jamais été chargé d’un mandat officiel Rothschild ou reconnu comme un associé à part entière. Les Rothschild ne sont pas disposés à déléguer de telles décisions à quelqu’un qui n’est pas un descendant masculin direct du fondateur, Mayer Amschel Rothschild.

Cette incapacité à utiliser Belmont comme lien entre la famille – avec ses expériences réussies, ses capacités, ses routines et ses connexions en Europe – et le marché états-unien – avec ses opportunités croissantes et les précieux réseaux que Belmont commence à développer – empêche finalement l’entreprise Rothschild de reproduire son succès aux États-Unis.

Les Rothschild sont finalement éclipsés par les banques Barings et J P Morgan en Amérique. Les deux concurrents suivent un chemin différent sur le marché en ouvrant des filiales états-uniennes à part entière sous leurs marques d’entreprise, avec des fonds importants et une autonomie décisionnelle.

Garde-fous

Ce « biais de bifurcation » n’a pas toujours un impact négatif immédiat. Les pratiques de gouvernance biaisées sont restées sans conséquence pour les Rothschild – tant qu’il y avait suffisamment d’héritiers compétents pour diriger les opérations de la banque dispersées aux quatre coins du monde.

À court et à moyen terme, les liens de la famille, ses routines éprouvées et sa confiance mutuelle ont construit un réservoir de résilience qui a soutenu la banque tout au long du XIXe siècle, l’une des périodes politiques les plus instables de l’histoire européenne.

Mais lorsque les ambitions internationales d’une entreprise dépassent la taille de la famille, le biais de bifurcation peut nuire à la compétitivité, tant sur les marchés internationaux qu’au pays.

À un moment donné, les entreprises familiales doivent passer d’une prise de décision émotionnelle et biaisée à des systèmes de gouvernance efficaces. Ceux-ci impliquent l’intégration de gestionnaires non familiaux et la sélection de ressources, d’emplacements et de projets qui n’ont pas de signification émotionnelle.

La famille Tata, à la tête d’un groupe industriel indien créé en 1868, a mis en place des garde-fous pour empêcher les biais de bifurcation.
Shutterstock

De nombreuses entreprises familiales prospères mettent en œuvre des outils dans leurs systèmes de gouvernance pour détecter et éliminer les comportements biaisés. Par exemple, les multinationales familiales telles que Merck en Allemagne, Cargill aux États-Unis et Tata Group en Inde ont créé des freins et garde-fous qui empêchent les décideurs de penser uniquement en termes familiaux.

Les stratégies les plus efficaces pour se prémunir contre le biais de bifurcation invitent à un examen extérieur dans la prise de décision des entreprises : nomination de PDG extérieurs à la famille, mise en place de conseils d’administration indépendants, embauche de consultants et octroi de pouvoirs de décision aux associés.

Leçons pour les entreprises familiales

Aujourd’hui, alors que l’environnement commercial mondial est sans doute confronté à une instabilité sans précédent, les entreprises cherchent à renforcer leur résilience.

Les entreprises familiales multigénérationnelles doivent apprendre à se prémunir contre le biais de bifurcation pour prospérer sur les marchés internationaux. Leur capacité démontrée à résister aux chocs externes offre de précieuses leçons pour d’autres entreprises.

Comment les entreprises non familiales peuvent-elles imiter le succès et la longévité des Rothschild ? Le cas Rothschild nous enseigne l’importance d’avoir un langage organisationnel commun, de fixer des objectifs à long terme, de maintenir des routines stables et de mettre l’accent sur la réputation de la marque.

Ces stratégies peuvent aider toute entreprise, familiale ou non, à renforcer sa résilience en période de volatilité.

The Conversation

Liena Kano a reçu des financements de SSHRC.

.

Alain Verbeke a reçu des financements de SSHRC.

Luciano Ciravegna a reçu des financements d’INCAE Business School, où il dirige la chaire Steve Aronson.

Andrew Kent Johnston ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ce que les entreprises familiales comme Rothschild peuvent enseigner sur la résilience – https://theconversation.com/ce-que-les-entreprises-familiales-comme-rothschild-peuvent-enseigner-sur-la-resilience-260735