Concienciados y sostenibles… ¿solo en teoría? Así elige alojamiento la generación Z

Source: The Conversation – (in Spanish) – By Raquel González del Pozo, Personal docente e investigador, Universidad Complutense de Madrid

Boyloso/Shutterstock

Desde el punto de vista del ocio y los viajes, la generación Z, la de los nacidos entre 1995 y 2010, representa una parte cada vez más relevante del turismo mundial. Se estima que, en los próximos años, supondrán más del 20 % de los viajeros internacionales.

Por otra parte, esta generación se suele identificar con causas sociales y medioambientales. Se les asocia con el activismo digital, el reciclaje y el consumo responsable. Pero ¿hasta qué punto estas intenciones se reflejan en sus decisiones cotidianas, como la forma en la que eligen alojamiento cuando viajan?

De lo que se dice a lo que se hace

Aunque muchos jóvenes afirman estar comprometidos con el medioambiente, sus decisiones de viaje no siempre reflejan ese discurso. A la hora de reservar alojamiento en plataformas digitales suelen dar más importancia a aspectos como la limpieza, la comodidad o el estado general del establecimiento que al respeto por el entorno.

En una investigación realizada por la Universidad Complutense de Madrid con jóvenes estudiantes de universidades españolas se determinó qué criterios tienen más peso cuando eligen alojamiento online. Para ello, se les pidió que compararan distintos aspectos, como el trato recibido, las instalaciones, la ubicación o el impacto ecológico del alojamiento. Los resultados fueron claros: la sostenibilidad no es una prioridad.

El respeto al medioambiente queda por detrás de otros factores más visibles y directos como las instalaciones o la limpieza, y tanto hombres como mujeres priorizan elementos que afectan de forma inmediata a su experiencia como viajeros. Eso sí, las mujeres mostraron algo más de sensibilidad hacia el criterio ecológico, aunque no fue suficiente para situarlo entre los más importantes.

Importancia media de cada criterio en la selección de alojamiento (%)
Fuente: elaboración propia

¿Y por qué no eligen lo más sostenible?

Que la sostenibilidad no sea una prioridad a la hora de elegir dónde alojarse no significa que a la generación Z no le importe el medioambiente. Lo que ocurre es que, a la hora de tomar decisiones concretas, influyen otros factores más inmediatos: el precio, la comodidad, la limpieza o la claridad de la información disponible.

En muchos casos, los alojamientos sostenibles no están claramente identificados o no explican qué prácticas ecológicas aplican. A la hora de reservar, habitualmente se desconoce si el alojamiento utiliza energías renovables, si aplica medidas para reducir el consumo de agua o si compensa su huella de carbono. De modo que, si el viajero no encuentra esa información de forma sencilla, es probable que acabe tomando su decisión basándose en otros criterios más visibles.

Además, el presupuesto también juega un papel importante. Muchos jóvenes viajan con recursos limitados y, aunque valoran las prácticas sostenibles, no siempre están dispuestos a pagar más por ellas –o no siempre pueden permitírselo–.

Por otra parte, las agencias y plataformas de reservas de viajes online también influyen. Algunas permiten puntuar criterios como limpieza o atención del personal, pero no incluyen el aspecto ecológico en su sistema de valoraciones. Otras han empezado a incorporar el criterio “eco-friendly, pero todavía es poco visible. Esa falta de coherencia y transparencia entre las diferentes plataformas puede dificultar que la sostenibilidad entre realmente en juego a la hora de elegir.

¿Qué puede hacer el sector turístico?

Los resultados de la investigación apuntan a una idea clara: para conectar con la generación Z no basta con ofrecer alojamientos sostenibles. Hay que comunicarlos mejor. Es necesario explicar de forma clara y sencilla qué prácticas sostenibles utilizan los alojamientos.

Además, las plataformas de viajes pueden ayudar a impulsar decisiones más sostenibles. En este sentido, puede marcar la diferencia:

  • Incluir el criterio ecológico en sus valoraciones.

  • Destacarlo en los filtros de búsqueda.

  • Explicar claramente qué hace que un alojamiento sea considerado sostenible.

Sin embargo, en muchas de estas webs la información sobre sostenibilidad sigue siendo poco clara o confusa frente a otros aspectos como el precio o la categoría del alojamiento.

También es fundamental que las opciones sostenibles no se perciban como algo exclusivo o fuera del alcance. La generación Z valora el compromiso ambiental pero también busca viajes accesibles, flexibles y con buena relación calidad-precio. Si el sector turístico consigue que lo ecológico no se vea como un obstáculo sino como una ventaja real, será más fácil que las nuevas generaciones lo integren de forma habitual en su forma de viajar.

Del discurso ecológico a las decisiones reales

De la generación Z se dice que valora la sostenibilidad, pero los resultados muestran que no siempre actúa en consecuencia cuando viaja. Sin embargo, si incluso una generación tan identificada con el medioambiente prioriza otros factores al tomar decisiones, ¿qué se puede esperar del resto?

Quizá el reto no sea solo cambiar la conciencia individual, sino reflexionar sobre cómo se presenta, comunica y facilita la sostenibilidad en todos los niveles. Aunque esta investigación se centra en el turismo, la reflexión es aplicable a muchos otros ámbitos del consumo diario. Si queremos que la sostenibilidad sea algo real, y no solo una idea, necesitamos integrarla de forma clara, visible y accesible en nuestras decisiones del día a día.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Concienciados y sostenibles… ¿solo en teoría? Así elige alojamiento la generación Z – https://theconversation.com/concienciados-y-sostenibles-solo-en-teoria-asi-elige-alojamiento-la-generacion-z-260596

¿Qué fue la ‘tercera España’?

Source: The Conversation – (in Spanish) – By Santiago de Navascués Martínez, Profesor ayudante doctor de Historia Contemporánea, Universidad de Navarra

Manifestación en España contra los reunidos en Múnich. Movimiento Europeo

En junio de 1962, un variado grupo de españoles se reunió en Múnich para celebrar el IV Congreso del Movimiento Europeo, una organización fundada en 1947 que tenía como objetivo promover la integración europea.

Lo que comenzó como un encuentro político terminó como uno de los hitos de la reconciliación nacional más memorables de las últimas décadas: por primera vez en muchos años una mayoría antifranquista dejaba al margen sus diferencias para apostar por un proyecto en común.

El nacimiento de una idea

Cuando se proclamó la Segunda República española en abril de 1931, pocos podían intuir la tragedia que se avecinaba. Para una amplia mayoría de intelectuales –periodistas, escritores, profesores de universidad– la “niña bonita” simbolizaba un saludable cambio político para poner fin a los problemas endémicos de España.

Nombres señeros de la cultura, como José Ortega y Gasset, Gregorio Marañón y Ramón Pérez de Ayala, se movilizaron para formar la Agrupación al Servicio de la República con vistas a defender el nuevo régimen. Cuando apenas cinco años más tarde estalló la Guerra Civil, una gran parte de ellos había renegado de él.

En los tres años que duró el conflicto bélico, muchos de ellos se exiliaron en Europa o en América, y desde allí manifestaron posturas diversas sobre la legitimidad de los combatientes. Una de las más reconocibles fue la denominada “tercera España”, un maleable concepto que evocaba un rechazo tanto hacia el militarismo y el fascismo de los sublevados como hacia los métodos de los revolucionarios del lado republicano.

El diplomático Salvador de Madariaga, quien dio mayor difusión a esta posición equidistante, se postuló como mediador por la paz y la reconciliación durante la guerra. Por ello recibió críticas tanto de la izquierda, que lo acusó de traición a la República, como de la derecha, que lo tildó de “lacayo de Londres” y las potencias extranjeras.

Otros, como José Castillejo, pedagogo y profesor de la Institución Libre de Enseñanza, denunciaron el fracaso de la Segunda República por su incapacidad para crear una base social con valores afines, un proyecto en común para los españoles de todos los colores políticos.

La teorización de Madariaga

Para muchos de ellos, la Segunda República fue una república sin republicanos: llegó de forma inesperada en 1931, sin referéndum ni consulta popular, y encontró a sus principales actores políticos divididos. La derecha seguía siendo monárquica y la izquierda, cada vez más influida por el modelo soviético, prefería la vía revolucionaria. Más que un régimen democrático, la República funcionó desde el principio como un proyecto ideológico de ruptura, impulsado por sectores que entendían la legalidad como un instrumento transitorio para consolidar el poder. Los verdaderos republicanos eran minoría, como quedó claro en 1936.

En un contexto europeo marcado por crisis, fascismos y dictaduras, la República fue vista por muchos como un régimen transitorio o indeseable. Para unos fue la antesala de la revolución; para otros, una república burguesa que debía ser destruida. De ahí la sucesión de golpes, huelgas y conspiraciones que acabarían llevándola al colapso.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


La idea de formar una “tercera España”, lejos de ser un simple intento de reconciliación, aspiraba a una mediación activa entre las polaridades de la sociedad española, buscando un espacio intermedio de encuentro y diálogo entre ciudadanos de tendencias diversas.

Para Madariaga, la “tercera España” tenía dos sentidos fundamentales: por un lado, como una clave interpretativa de la historia española que cuestionaba la dicotomía de las “dos Españas” y condenaba explícitamente tanto las sublevaciones de izquierda durante la República como el golpe de Estado de 1936. Por otro lado, y con mayor fuerza en esta etapa, como una actitud proyectiva y una propuesta orientada al ideal de reconciliación y a una solución práctica para la restauración política.

En la posguerra, la variedad de exiliados por oposición al régimen de Franco era insoslayable: monárquicos liberales, republicanos, democratacristianos, socialistas, socialdemócratas, nacionalistas vascos y catalanes. Para superar el franquismo, que se alimentaba de la exclusión de la anti-España, proclamar una reconciliación entre todas estas tendencias era clave.

El exilio y la búsqueda de consenso

Si la tercera España tuvo una cierta operatividad en la vida pública fue siguiendo una nueva vía, clave para distinguirse del aislacionismo franquista tanto como de los bloques comunista y americano que se habían consolidado en la Guerra Fría: la integración en Europa.

En cierto sentido, el aislamiento español había evitado que el país sufriera los embates de las dos guerras mundiales. Pero el ostracismo internacional en los años cincuenta solo perpetuaba un régimen cada vez más anacrónico.

Salvador de Madariaga, líder clave del europeísmo, enfatizó la necesidad de insertar a España en las Comunidades Europeas.

Así, con ocasión de la participación en el IV Congreso del Movimiento Europeo de Múnich en 1962, se consiguió reconciliar simbólicamente a diversos grupos antifranquistas con la vía de consenso. Allí estaban exfalangistas como Dionisio Ridruejo, poumistas como Julián Gorkin, monárquicos como Gil Robles y socialistas como Rodolfo Llopis.

En la clausura del Congreso, Madariaga expresó la sensación compartida de que en la ciudad alemana había terminado simbólicamente la Guerra Civil. El régimen franquista reaccionó con virulencia para evitar que aquella imagen de unidad entre exiliados tomara forma política o simbólica dentro del país. De inmediato calificó el encuentro como una conspiración subversiva, orquestada por “rojos y separatistas”, y desató una campaña de propaganda que lo presentó como un “contubernio antiespañol”. El gobierno sancionó a los participantes españoles con detenciones, destierros internos como el envío forzoso a Canarias, retirada de pasaportes y vigilancia policial.

Sin embargo, Múnich impulsó una cultura de consenso y reconciliación que posteriormente fue recuperada y resignificada durante la Transición española, promoviendo movimientos políticos para aproximar a socialistas y monárquicos en el exilio.

Una lección para el presente

A pesar de que no constituyó una fuerza con capacidad movilizadora de masas ni contó con estructuras formales, la tercera España dejó huella en varias dimensiones.

Por un lado, proporcionó un marco ético alternativo a la confrontación excluyente de la guerra y postuló la coexistencia necesaria de los españoles. Como comentaba socarronamente el escritor Josep Pla, no puede cortarse un queso por la mitad y que una parte sea de bola y la otra de gruyer. Por otro lado, al hacer de la reconciliación un imperativo tras el fratricidio, preparó el terreno para la reforma política. Incubó así los pactos de consenso que cristalizarían en la Constitución de 1978.

Hoy, cuando las sociedades vuelven a experimentar formas de antagonismo extremo, la experiencia de la “tercera España” invita a reconsiderar la viabilidad de un espacio político basado en el diálogo y el reconocimiento mutuo de posiciones antes irreconciliables. Este grupo heterogéneo se unió precisamente en el rechazo al triste fatalismo de las “dos Españas”. Aunque nunca se tradujo en un proyecto político, su legado cultural proporcionó un anteproyecto clave para la convivencia plural en los albores de la España democrática.

The Conversation

Santiago de Navascués Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué fue la ‘tercera España’? – https://theconversation.com/que-fue-la-tercera-espana-260137

No, las vacunas no son la causa del autismo

Source: The Conversation – (in Spanish) – By Ignacio López-Goñi, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología (SEM), Universidad de Navarra

andriano.cz/Shutterstock

Robert F. Kennedy Jr., secretario de Salud y Servicios Humanos de Estados Unidos, lleva mucho tiempo criticando las vacunas y ha expresado en varias ocasiones que las inyecciones infantiles causan enfermedades del desarrollo e incluso autismo. Estas afirmaciones han generado un aumento de los movimientos contrarios a las vacunas.

Un estudio reciente sugiere que, a pesar de que los programas de vacunación han prevenido más de 154 millones de muertes infantiles en los últimos cincuenta años, la cobertura vacunal mundial se ha atascado o incluso empeorado. Una de las razones tiene que ver con la desinformación y la desconfianza hacia la vacunación. Incluso ya se pone en duda uno de los objetivos de la Agenda de Inmunización: conseguir reducir a la mitad el número de niños sin ninguna dosis de vacuna para 2030.

Autismo y vacuna contra el sarampión, las paperas y la rubéola

El trastorno del espectro autista es un grupo heterogéneo de trastornos del neurodesarrollo caracterizados por alteraciones en la interacción social, déficits en la comunicación verbal y no verbal y patrones restringidos, repetitivos y estereotipados de comportamiento. El término incluye el autismo, el trastorno de Asperger y el trastorno generalizado del desarrollo.

Uno de los grandes problemas es su heterogeneidad clínica; de hecho, puede considerarse un cajón de sastre donde se agrupan numerosos síndromes clínicos, cuyos síntomas suelen aparecer mayoritariamente al año y medio de edad. Las causas se desconocen y existe un intenso debate y mucha investigación al respecto. Influyen varios factores, desde genéticos, neurológicos y bioquímicos hasta ambientales.

La coincidencia en la edad en la que aparecen los síntomas y en la que se administran las vacunas ha hecho que se relacionen ambos hechos sin ningún fundamento científico, en dos escenarios: vinculando el autismo con la vacuna contra el sarampión, las paperas y la rubéola (SPR), y con el timerosal y el aluminio, conservantes que se añaden en algunas inmunizaciones.

Respecto a la vacuna SPR, la polémica comenzó en 1998 cuando el médico Andrew J. Wakefield sugirió una posible relación entre esa inmunización y el autismo. La noticia se difundió en todos los medios de comunicación, cundió el pánico y se redujeron drásticamente las coberturas vacunales en muchos países.

Sin embargo, se acabó demostrando que Wakefield había cometido fraude científico al falsificar datos: fue probado que algunos niños ya tenían síntomas neurológicos antes de ponerles la vacuna; algunos síntomas aparecieron varios meses después de la vacunación, por lo que no se podía demostrar la relación directa entre ambos hechos; y los pacientes del estudio habían sido reclutados durante una campaña antivacunación. Wakefield fue expulsado del registro de médico de Gran Bretaña.

Posteriormente, se realizaron gran cantidad de estudios con el objetivo de evaluar la seguridad de la vacuna. En ninguno de ellos se ha encontrado nunca una relación con el autismo. Por ejemplo, en 2014 se revisaron más de mil trabajos científicos en los que habían participado cerca de 1,3 millones de niños en Reino Unido, Japón, Polonia, Dinamarca y Estados Unidos. Los resultados sugieren que entre los grupos de niños vacunados el riesgo de autismo sería inferior.

Años más tarde, en 2021, se publicó una revisión exhaustiva de más de 56 000 artículos cuyas conclusiones confirmaban lo que ya se había publicado con anterioridad: no existe evidencia alguna de relación entre las vacunas y el autismo y otros eventos adversos graves.

El timerosal y el alumnio de las vacunas

El timerosal (o tiomersal) es un derivado del mercurio de muy baja toxicidad y con gran poder antiséptico y antifúngico. Este compuesto orgánico contiene etilmercurio, empleado como conservante en algunas vacunas para prevenir el crecimiento de microorganismos que las puedan contaminar. También se usa en otros productos médicos como preparaciones de inmunoglobulinas, antígenos para diagnosis de alergias, antisueros y productos nasales y oftálmicos.

No todas las vacunas llevan timerosal. Únicamente las modalidades en formato multidosis contienen dosis muy bajas para asegurar que se conservan de manera adecuada, evitando que crezcan bacterias u hongos.

La preocupación por el mercurio surgió a partir de las intoxicaciones por metilmercurio en el pescado, un compuesto neurotóxico capaz de concentrarse en el organismo y de pasar por la cadena alimentaria. Pero el etilmercurio del timerosal no es lo mismo que el metilmercurio, ya que el primero no se acumula en el organismo y se elimina rápidamente.

Su baja toxicidad se puso en evidencia tras utilizarlo para tratar la meningitis durante una fuerte epidemia ocurrida en Indiana (Estados Unidos) en 1929, cuando todavía no había antibióticos. El timerosal no funcionó como método curativo de la meningitis, pero ya entonces quedó clara su inocuidad en dosis 10 000 veces superior a la que contenían las vacunas. Hay una sólida evidencia de que los niños autistas tienen los mismos niveles de mercurio que los no autistas.

Respecto al aluminio, ahora se acaba de publicar otro estudio para dilucidar si la exposición acumulada a este compuesto contenido en las vacunas administradas durante los primeros 2 años de vida está asociada con el desarrollo posterior de enfermedades autoinmunes, alérgicas o neurológicas, como el autismo.

Basándose en los datos de todos los niños nacidos vivos en Dinamarca entre el 1 de enero de 1997 y el 31 de diciembre de 2018, los investigadores estudiaron la cantidad total de aluminio recibida a través de las vacunas (difteria, tétanos, tos ferina acelular, polio inactivado, Hib, neumococo) hasta los 2 años e hicieron un seguimiento hasta los 5 años de edad.

Pues bien, no se encontró ninguna asociación entre la exposición acumulada al aluminio por las vacunas en los primeros años de vida y el riesgo de desarrollar enfermedades autoinmunes, atópicas/alérgicas o trastornos del neurodesarrollo. Este estudio proporciona una evidencia poblacional sólida y bien controlada para refutar preocupaciones infundadas sobre que las vacunas con aluminio causen autismo u otras enfermedades crónicas.

En conclusión, existe una extensa y sólida evidencia epidemiológica respecto a la ausencia de relación entre las vacunas, el timerosal, el aluminio y la prevalencia de autismo en la población. Las vacunas son los medicamentos más regulados, vigilados y seguros, y constituyen la mejor estrategia para prevenir enfermedades que pueden llegar a ser mortales.


La versión original de este artículo fue publicada en el blog del autor, microBIO.


The Conversation

Ignacio López-Goñi no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. No, las vacunas no son la causa del autismo – https://theconversation.com/no-las-vacunas-no-son-la-causa-del-autismo-261320

El cerebelo, una joya oculta del cerebro entre el arte y la ciencia

Source: The Conversation – (in Spanish) – By Sergio Morell Ortega, Estudiante de doctorado, Universitat Politècnica de València

Oculto en la base del cráneo, el cerebelo es una estructura que solo abarca alrededor del 10 % del volumen total del cerebro, pero que alberga más del 50 % de todas las neuronas del sistema nervioso central. Esa extraordinaria densidad neuronal delata su importancia funcional, que va más allá de regular los movimientos y mantener el equilibrio, el papel que se le ha atribuido tradicionalmente.

Conocido como el “pequeño cerebro”, el cerebelo está situado en la parte posterior e inferior del encéfalo, justo debajo de los hemisferios cerebrales y detrás del tronco encefálico. Como decíamos, hasta hace no mucho se consideraba que su único rol era el de afinar la motricidad: integra señales de los músculos, las articulaciones y el oído interno para ajustar en tiempo real la fuerza, la amplitud y el ritmo de cada gesto.

Situación del cerebelo.
Wikimedia Commons, CC BY

Así, cuando estiramos el brazo para tocar un objeto, el cerebelo predice la trayectoria óptima y corrige cualquier desviación, evitando esos movimientos erráticos que veríamos en alguien con lesión cerebelosa. De hecho, enfermedades que afectan a esta estructura, como la ataxia cerebelosa, se caracterizan por una marcha inestable o temblor, que son síntomas de la incapacidad para regular los movimientos finos.

Más allá de los movimientos

Sin embargo, en las dos últimas décadas se ha revelado que el cerebelo no es un mero regulador mecánico, sino también un modulador de procesos mentales más complejos.

Así, el síndrome cognitivo-afectivo cerebeloso (CCAS), descrito por primera vez en 1998, combina alteraciones motoras con dificultades en planificación, lenguaje, memoria de trabajo y control de las emociones. Se piensa que la uniformidad de la microarquitectura cerebelosa –la que calcula los ajustes de movimiento– se emplea también para generar “modelos internos” que anticipan y afinan la dinámica de pensamientos y estados de ánimo.

Existen más ejemplos de la implicación del cerebelo en otras enfermedades, como el alzhéimer. Esta dolencia neurodegenerativa se caracteriza por la acumulación anormal de la proteína β-amiloide y genera el adelgazamiento de una capa de neuronas llamada capa granular, clave para procesar la información que llega al cerebelo. A la postre, esos cambios pueden afectar la coordinación de la mente y el cuerpo.

En el caso del autismo, se ha observado que las alteraciones en unas neuronas llamadas células de Purkinje y en las conexiones cerebelo-corticales están detrás de las dificultades para interpretar gestos, sonidos o tonos de voz, influyendo en la comunicación y la socialización.

Y en la esquizofrenia, la descoordinación entre el cerebelo y la corteza frontal puede traducirse en pensamientos desorganizados o problemas para regular las emociones, pues el cerebelo ya no “afina” tales procesos internos con la misma precisión. Por lo tanto, cuidarlo es clave no solo para movernos bien, sino para pensar con claridad y sentirnos en equilibrio.

De Leonardo a Ramón y Cajal

Pero mucho antes de estos hallazgos, el cerebelo ya fue objeto de interés científico e inspiración artística para dos de las mentes más brillantes de todos los tiempos.

El primero de nuestros protagonistas, Leonardo Da Vinci (1452–1519), fue el prototipo del científico renacentista, hombre modelo de la tercera cultura que no distinguía entre arte y ciencia. En la búsqueda de la relación entre el microscosmos y el macroscosmos, muy temprano reconoció el papel clave del sentido de la visión y de la capacidad de integración del cerebro.

En sus estudios anatómicos se interesó por los ventrículos cerebrales y desarrolló un método para inyectar cera caliente en cráneos de buey, obteniendo moldes exactos del sistema ventricular.
Aunque se atribuye al genio florentino el nombre “cerebelo” (del latín cerebellum, que significa “pequeño cerebro”, en referencia a su similitud estructural con el cerebro), esta afirmación no ha podido ser comprobada.

Dibujo de Leonardo Da Vinci de lo que se cree el método para rellenar de cera el cráneo de un buey para estudiar su anatomía y funciones.
Royal Collection of the United Kingdom

Lo que sí se sabe es que despertó su interés, pues en sus dibujos sitúa el vermis cerebeloso (la parte central del cerebelo) como una “válvula” que regula el paso entre el “sentido común” y la “memoria”. Esa fusión de visión neoplatónica –buscar el asiento del alma– con rigor anatómico le permitió romper con la tradición medieval y sentar las bases de la anatomía funcional.

Siglos después, Santiago Ramón y Cajal (1852–1934), el padre de la neurociencia moderna, llevó el arte anatómico al nivel celular. A través de una rigurosa observación y el perfeccionamiento de las técnicas de tinción –en especial la mejora del método de impregnación con nitrato de plata desarrollado por Camillo Golgi–, Cajal logró visualizar con claridad la estructura íntima del sistema nervioso.

Dibujo de células de Purkinje (A) y células granulosas (B) del cerebelo de una paloma, por Santiago Ramón y Cajal (1899).
Instituto Cajal / Wikipedia Commons, CC BY

Su mirada se posó con particular atención sobre el cerebelo, donde descubrió y dibujó con meticulosa precisión las complejas arborizaciones de las antes citadas células de Purkinje, unas de las más notables por su tamaño y ramificación dendrítica. Además de revelar la individualidad de las neuronas, su trabajo sentó las bases del principio de la “doctrina de la neurona”, desafiando la idea dominante de una red nerviosa continua.

Estas observaciones, capturadas en decenas de dibujos que combinan rigor científico con un sorprendente valor artístico, permitieron entender al cerebelo no como un órgano aislado, sino como una estructura clave en la coordinación motora y el procesamiento sensorial.

Nuestra visión artística del cerebelo

Sin pretender compararnos con científicos de la talla de Leonardo o Cajal, en la Universidad Politécnica de Valencia hemos desarrollado un software a partir de resonancia magnética, denominado DeepCERES, que permite segmentar (cuantificar) 27 estructuras del cerebelo humano a ultra alta resolución gracias al uso de técnicas de inteligencia artificial, lo que permitirá avanzar en la investigación de esta estructura clave.

Pero no solo eso, gracias a DeepCERES también podemos generar reconstrucciones detalladas en tres dimensiones de cada una de las estructuras del cerebelo; especialmente de la sustancia blanca del interior conocida como “arbor vitae” (árbol de vida), llamada así por su forma arbolada con múltiples ramificaciones. Siguiendo los pasos de Leonardo y Cajal, nuestro objetivo es captar la complejidad y la belleza de esta joya oculta del cerebro.

Reconstrucción en 3D de la segmentación de la sustancia blanca del cerebelo obtenida mediante DeepCERES.

The Conversation

José Vicente Manjon herrera recibe fondos de investigación publica del ministerio de ciencia e innovación.

Sergio Morell Ortega no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El cerebelo, una joya oculta del cerebro entre el arte y la ciencia – https://theconversation.com/el-cerebelo-una-joya-oculta-del-cerebro-entre-el-arte-y-la-ciencia-255889

Colonization devastated biodiversity, habitats and human life in the Pacific Northwest

Source: The Conversation – Canada – By Meaghan Efford, Postdoctoral Research Fellow, Institute for the Oceans and Fisheries, University of British Columbia

Burrard Inlet, known traditionally as səl̓ilwəɬ (Tsleil-Wat) in the hən̓q̓əmin̓əm̓ language, has been the heart of the traditional, ancestral and unceded territory of the səl̓ilwətaɬ (Tsleil-Waututh Nation) since time immemorial.

A satellite image of a waterway surrounded by a cityscape
An image of part of Burrard Inlet and the City of Vancouver taken from the International Space Station in April 2022.
(NASA)

The inlet is a water system that wraps through and around what we now know today as the city of Vancouver on the coast of British Columbia. The ecosystem is home to essential habitat for species like Pacific herring, Pacific salmon and harbour seals.

Burrard Inlet is also host to many commercial, industrial and urban developments and interests. This includes the Port of Vancouver, one of the largest marine ports in Canada and the terminal end of the Trans Mountain Pipeline. Today, more than 2.5 million people call the area home and it’s a popular tourism spot.

This is relatively new, however. Colonization and urbanization have caused intense change and damage since Europeans first settled in the area in around 1792, with most changes occurring since the 1880s.

Through a collaborative research project between the Tsleil-Waututh Nation, the University of British Columbia, engineering consultant firm Kerr Wood Leidal and Mitacs Canada, we assessed the impact of colonization on the Burrard Inlet ecosystem since Europeans first settled in the area.

When we look at the cumulative effects of specific events, we are adding the individual impacts of each event together to get a fuller picture of how colonialism impacted the ecosystem.

How we tracked change over time

We chose four sources of stress to the ecosystem to assess for this research:

1) The impact of smallpox on the ancestral Tsleil-Waututh population and the resulting health of the inlet.

2) The impact of settler fisheries, including Pacific salmon and Pacific herring.

3) The impact of settler hunting on land animals, including deer.

4) The impact of urbanization on the health of the ecosystem.

We used an ecosystem modelling software program called Ecopath with Ecosim, and modelled how these events impacted the inlet ecosystem between 1750-1980. We found there was a significant decrease in biomass (how much of a given organism is in an ecosystem) and available habitat.

We focused on 12 animal groups based on another collaborative project that focused on traditional Tsleil-Waututh diets.

To do this, we drew on multiple sources of data, including Tsleil-Waututh traditional ecological knowledge, archeological data, historical and archival work and ecological resources.

By combining these different sources of information, we can address gaps in each data source and weave together information to paint a fuller picture of ecological change over time.

An aerial photo of boats in a waterway with a sandy shoreline with mountains in the background
An aerial photo of the Burrard Inlet’s North Shore and the Maplewood Mudflats taken by a Tsleil-Waututh field survey team by drone during a kelp survey in August 2020.
(Tsleil-Waututh Nation)

What we found

Our research highlights how shoreline change from events like the construction of the Port of Vancouver resulted in the loss of more than half of the intertidal habitat that clams, crabs, birds and fish rely on.

Along with over-harvesting, this has resulted in a dramatic population decline for these species. Clams and other bivalves have also become unsafe to eat due to pollution.

Over-fishing has been a huge problem. Forage fish, including Pacific herring, eulachon, surf smelt and Northern anchovy, collectively experienced a 99 per cent decline in biomass.

Pacific herring was completely wiped out by dynamite fishing, and only recently returned.

Pink salmon and chum salmon both experienced more than 40 per cent losses in biomass due to over-fishing. White sturgeon were almost wiped out.

Mammals didn’t fare any better: three-quarters of the deer and elk populations and over one-quarter of the harbour seal population in the area around the inlet were lost to hunting.

Smallpox had a devastating effect on Salish communities throughout the region. The loss of lives caused dramatic change in the ecosystem because it reduced how much food was taken out of the ecosystem significantly.

The smallpox epidemics only touch the surface of how colonization impacted Indigenous lives. Other events that we didn’t include in the model — like the Residential School system and the Reserve System, for example — severely limited or criminalized stewardship activities that Tsleil-Waututh and other Nations have been using to take care of their territory for millennia.

Tsleil-Waututh stewardship and sovereignty

Tsleil-Waututh people are specialists in managing and stewarding the marine, tidal and terrestrial resources of the inlet’s ecosystem. Tsleil-Waututh salmon stewardship sustainably maintained a chum salmon fishery for almost 3,000 years.

The research questions, priorities and direction of our project were established through frequent collaborative meetings. This approach ensured Tsleil-Waututh co-authors and colleagues were involved in every step of the research.

This kind of community-driven work is complex. It is also incredibly valuable for understanding ecosystem change over time. Without the leadership and knowledge of Tsleil-Waututh knowledge-holders, this research would have had massive data and knowledge gaps and the work would have much less significance.

This is an example of transdisciplinary research: research that is interdisciplinary, that draws on multiple disciplines for data and methods and is grounded in community from the beginning.

Our research shows that colonialism has had a devastating impact on habitats and biodiversity in and around Burrard Inlet. This is not just an ecological story, but a human story that speaks to the wide-reaching impacts of colonization. It is an intertwined story that shows how harmful colonization and rapid urbanization can be, both to humans and to the ecosystems we call home.

The Conversation

Meaghan Efford received funding from Mitacs Canada through a collaborative project with Tsleil-Waututh Nation.

ref. Colonization devastated biodiversity, habitats and human life in the Pacific Northwest – https://theconversation.com/colonization-devastated-biodiversity-habitats-and-human-life-in-the-pacific-northwest-260791

Canada’s proposed Strong Borders Act further threatens the legal rights of migrants

Source: The Conversation – Canada – By Shiva S. Mohan, Research Fellow, Canada Excellence Research Chair in Migration & Integration program, Toronto Metropolitan University

Canada’s federal government recently introduced the Strong Borders Act, also known as Bill C-2, that proposes Canada tighten migration controls and modernize border enforcement between Canada and the United States.

Critics have warned the bill “could pave the way for mass deportations” as well as increase precarity for legal migrants.




Read more:
Why Canada’s Strong Borders Act is as troublesome as Donald Trump’s travel bans


Even now, under existing laws, a migrant could be “legal” and still be denied health care, lose their job or effectively be unable to leave Canada for fear of being denied re-entry.

Bill C-2’s expanded enforcement powers and increased risk of status revocation could make these precarities much worse.

This is already the quiet reality for thousands of migrants in Canada under their “maintained status”, formerly “implied status.” This status is a legal provision designed to protect continuity for temporary residents who apply to extend their permits.

Maintained status itself is not the problem. On paper, it offers legal protection.

But in practice, it often collapses because of the ecosystem in which it operates: fragmented institutions, absent co-ordination and lack of transparency.

Maintained status has been narrowed

In May 2025, Immigration, Refugees and Citizenship Canada (IRCC) quietly narrowed the scope of maintained status.

Under the new rules, if a person’s first application is refused while they are on maintained status, any second application submitted during that period is now automatically refused.

This effectively strips applicants of legal status, including protections under maintained status, to remain in Canada. The change shows how even compliant migrants can lose status abruptly, further heightening the insecurity built into the system.

This is a clear expression of complex precarity: a condition in which migrants face legal, economic and social insecurity, even when they follow all the rules.

Maintained status is just one example of this larger phenomenon of Canadian policy generating hidden forms of exclusion.

Legal, but not recognized?

Migrants on maintained status are legally allowed to stay in Canada and continue working or studying under the same conditions as their expired permit. Yet no new permit is issued to confirm this status.

Proof of this legal standing varies depending on how a person applies. Those who apply online may receive a WP-EXT letter confirming their right to continue working. However, this isn’t issued to post-graduation work-permit holders, and expires after 365 days.

Paper-based applicants are advised that no such letter will be provided. Instead, they must rely on a copy of their application, a fee payment receipt or courier tracking information to demonstrate continued legal status.

If no letter is available, or once it expires, IRCC advises applicants to direct employers to the Help Centre web page as proof of their right to remain and work.

These workarounds are legally valid but fall short of what many employers, landlords and service providers consider adequate proof of status.




Read more:
Canada’s new immigration policy favours construction workers but leaves the rest behind


The limits of informal proof

My current ongoing research points to how employers following rigid HR protocols often reject informal documentation. Some migrants even obtain letters from immigration lawyers to explain their legal right to remain and work.

IRCC does not publish public data on the number of people on maintained status or how long they remain in that condition. Some front-line organizations have adjusted their services in response to this gap.

MOSAIC, for example, a major settlement agency in British Columbia, explicitly lists “migrant workers on maintained status” as eligible for support. This signals institutional recognition of the category.

The broader situation, however, reflects a disconnect between legal recognition by the state and practical verifiability in everyday life.

The risk of travel

Travel while on maintained status is legally permitted only under narrow conditions, such as holding a valid Temporary Resident Visa, being visa-exempt or returning from the U.S. under specific circumstances.

But even in these cases, leaving Canada terminates maintained status.

Migrants may be allowed to re-enter as visitors, but they cannot resume work or study until a new permit is issued. This introduces major uncertainties for people who may need to travel for family, emergencies or professional obligations.

Disparities in provincial health access

Access to public health insurance during maintained status varies widely across provinces.

In Ontario, OHIP (Ontario Health Insurance Plan) cards are directly tied to the expiration of work permits. Unless migrants know to proactively request extended coverage and can meet specific document requirements, they risk losing health insurance entirely. Even when eligible, coverage is not automatic and may require out-of-pocket payment pending reimbursement.

In Québec, RAMQ (Régie de l’assurance maladie du Québec) treats migrants on maintained status like new arrivals. They must reregister for coverage and face a three-month waiting period from the time of renewal, regardless of continuous legal presence.

In British Columbia, by contrast, the MSP (Medical Services Plan) offers temporary coverage for up to six months (extendable) to individuals on maintained status, provided they previously held MSP and submit IRCC receipt proof.

This more inclusive approach highlights how uneven provincial co-ordination amplifies the precarity of federal policy.

Infrastructure is needed immediately

Migrants face great risks on maintained status.

Despite investments in automation and digital infrastructure, IRCC continues to experience chronic processing delays, leaving migrants in prolonged uncertainty: legally present, but practically unrecognized.

To address this, Canada needs systems and resources designed to uphold legal recognition in daily life. It needs to:

  • Create a secure centralized portal that allows migrants to control who can verify their legal status in real time. The U.K.’s share code platform and the American myE‑Verify system provide clear examples of how this can work, reducing confusion for employers, landlords, and service providers.

  • Issue co-ordinated provincial guidance, particularly regarding access to essential services such as health care, so that front-line staff have clarity on migrants’ rights under maintained status.

  • Protect continuity of status after international travel, ensuring that those who leave Canada while on maintained status do not lose the ability to return and resume work or study.

As Canada advances legislation like Bill C‑2, we must not ignore the country’s quiet erosion of its existing legal architecture for migrants.

Migrants on maintained status have followed the rules.

If we are serious about building trust in immigration systems, we must commit to infrastructure that is workable, visible and fair.

The Conversation

Shiva S. Mohan receives funding from the Canada Excellence Research Chair in Migration and Integration Program at Toronto Metropolitan University. He has no other affiliations or financial interests that would benefit from this article.

ref. Canada’s proposed Strong Borders Act further threatens the legal rights of migrants – https://theconversation.com/canadas-proposed-strong-borders-act-further-threatens-the-legal-rights-of-migrants-259349

Supreme Court news coverage has talked a lot more about politics ever since the 2016 death of Scalia and GOP blocking of Obama’s proposed nominee

Source: The Conversation – USA – By Joshua Boston, Associate Professor of Political Science, Bowling Green State University

Reporters used to treat the Supreme Court as a nonpolitical institution, but not anymore. Tetra Images/Getty

The U.S. Supreme Court has always ruled on politically controversial issues. From elections to civil rights, from abortion to free speech, the justices frequently weigh in on the country’s most debated problems.

And because of the court’s influence over national policy, political parties and interest groups battle fiercely over who gets appointed to the high court.

The public typically finds out about the court – including its significant decisions and the politics surrounding appointments – from the news media. While elected officeholders and candidates make direct appeals to their voters, the justices and Supreme Court nominees are different – they largely rely on the news to disseminate information about the court, giving the public at least a cursory understanding.

Recently, something has changed in newspaper coverage of the Supreme Court. As scholars of judicial politics, political institutions and political behavior, we set out to understand precisely how media coverage of the court has changed over the past 40 years. Specifically, we analyzed the content of every article referencing the Supreme Court in five major newspapers from 1980 to 2023.

Of course, people get their news from a variety of sources, but we have no reason to believe the trends we uncovered in our research of traditional newspapers do not apply broadly. Research indicates that alternative media sources largely follow the lead of traditional beat reporters.

What we found: Politics has a much stronger presence in articles today than in years past, with a notable increase beginning in 2016.

When public goodwill prevailed

Not many cases have been more important in the past quarter-century or, from a partisan perspective, more contentious than Bush v. Gore – the December 2000 ruling that stopped a ballot recount, resulting in then-Texas Governor George W. Bush defeating Democratic candidate Al Gore and winning the presidential election.

Bush v. Gore is particularly interesting to us because nine unelected, life-tenured justices functionally decided an election.

A New York Times front page story from Dec. 13, 2000, with banner headline 'BUSH PREVAILS.'
The New York Times story about the Supreme Court’s decision in Bush v. Gore indicated the justices’ names and votes but neither the party of the president who appointed them nor their ideological leanings.
Screenshot, The New York Times

Surprisingly, the court’s public support didn’t suffer, ostensibly because the court had built up a sufficient store of public goodwill.

One reason public support remained steady following Bush v. Gore might be newspaper coverage. Although the court’s decision reflected the justices’ ideologies, with the more conservative members effectively voting to end the recount and its more liberal members voting in favor of the recount, newspapers largely ignored the role of politics in the decision.

For example, the New York Times case coverage indicated the justices’ names and their votes but mentioned neither the party of the president who appointed them nor their ideological leanings. The words “Democrat,” “Republican,” “liberal” and “conservative” – what we call political frames – do not appear in the Dec. 13, 2000, story about the decision.

This epitomizes court-related newspaper articles from the 1980s to the early 2000s, when reporters treated the court as a nonpolitical institution. According to our research, court-related news articles in The New York Times, The Washington Post, Chicago Tribune, Los Angeles Times and The Wall Street Journal hardly used political frames during that time.

Instead, newspapers perpetuated a dominant belief among the public that Supreme Court decisions were based almost completely on legal principles rather than political preferences. This belief, in turn, bolstered support for the court.

Recent newspaper coverage reveals a starkly different pattern.

A contemporary political court

It would be nearly impossible to read contemporary articles about the Supreme Court without getting the impression that it is just as political as Congress and the presidency.

Analyzing our data from 1980 to 2023, the average number of political frames per article tripled. To be sure, politics has always played a role in the court’s decisions. Now, newspapers are making that clear. The question is when this change occurred.

Across the five major newspapers, reporting about the court has gradually become more political over time. That isn’t surprising: America has been gradually polarizing since the 1980s as well, and the changes in news media coverage reflect that polarization.

Take February of 2016, when Justice Antonin Scalia unexpectedly died. Of course, justices have died while serving on the court before. But Scalia was a conservative icon, and his death could have swung the court to the center or the left.

How the politics of naming his successor played out after Scalia’s death was unprecedented.

President Barack Obama’s nomination effort to put Merrick Garland on the court were stonewalled. The Senate majority leader, Republican Mitch McConnell of Kentucky, said the Senate would not consider any nomination until after the presidential election, nine months from Scalia’s death.

Republican candidate Donald Trump, seeing an opening, promised to fill the vacancy with a conservative justice who would overturn Roe v. Wade. The court and the 2016 election became inseparable.

People bowing their heads next to a U.S. flag-covered casket.
President Barack Obama and first lady Michelle Obama pay respects to Justice Antonin Scalia, whose 2016 death brought lasting change in newspaper coverage of the court.
Tom Williams/CQ Roll Call via Getty Images

Scalia vacancy changed everything

February 2016 brought about an abrupt and lasting change in newspaper coverage. The day before Scalia’s death, a typical article referencing the court used 3.22 political frames.

The day after, 10.48.

We see an uptick in political frames if we consider annual changes as well. In 2015, newspapers averaged 3.50 political frames per article about the Supreme Court. Then, in 2016, 5.30.

Using a variety of statistical methods to identify enduring framing shifts, we consistently find February 2016 as the moment newspapers shifted to higher levels of political framing of the court. We find the number of political frames in newspapers remained elevated through 2023.

How stories frame something shapes how people think about it.

If an article frames a court decision as “originalist” – an analytical approach that says constitutional texts should be interpreted as they were understood at the time they became law – then readers might think of the court as legalistic.

But if the newspaper were to frame the decision as “conservative,” then readers might think of the court as ideological.

We found in our study that when people read an article about a court decision using political frames, court approval declines. That’s because most people desire a legal court rather than a political one. No wonder polls today find the court with precariously low public support.

We do not necessarily hold journalists responsible for the court’s dramatic decline in public support. The bigger issue may be the court rather than reporters. If the court acts politically, and the justices behave ideologically, then reporters are doing their job: writing accurate stories.

That poses yet another problem. Before Trump’s three court appointments, the bench was known for its relative balance. Sometimes decisions were liberal; other times, conservative.

In June 2013, the court provided protections to same-sex marriages. Two days earlier, the court struck down part of the Voting Rights Act. A liberal win, a conservative win – that’s what we might expect from a legal institution.

Today the court is different. For most salient issues, the court supports conservative policies.

Given, first, the media’s willingness to emphasize the court’s politics, and second, the justices’ ideologically consistent decisions across critical issues, it is unlikely that the news media retreats from political framing anytime soon.

If that’s the case, the court may need to adjust to its low public approval.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Supreme Court news coverage has talked a lot more about politics ever since the 2016 death of Scalia and GOP blocking of Obama’s proposed nominee – https://theconversation.com/supreme-court-news-coverage-has-talked-a-lot-more-about-politics-ever-since-the-2016-death-of-scalia-and-gop-blocking-of-obamas-proposed-nominee-259120

Grok, l’IA de Musk, est-elle au service du techno-fascisme ?

Source: The Conversation – in French – By Jonathan Durand Folco, Associate professor, Université Saint-Paul / Saint Paul University

Début juillet, la mise à jour de Grok dérape gravement : l’IA d’Elon Musk génère des propos antisémites et se présente comme « Mecha-Hitler ». Moins de deux semaines plus tard, la compagnie qui a développé Grok, xAI, décroche un contrat de 200 millions de dollars avec Le Pentagone.

Faut-il craindre qu’une intelligence artificielle sans garde-fous alimente l’appareil militaire américain ?

Parmi les nombreux robots conversationnels existant sur le marché, un sort du lot par sa prétention à sortir des balises du « politiquement correct » : Grok. Cette intelligence artificielle générative, filiale d’Elon Musk, a pour ambition de dépasser les capacités de ses concurrents (comme ChatGPT, Claude, Gemini, Copilot), tout en s’inscrivant dans une perspective « anti-woke », c’est-à-dire exempte de « censure » ou de règles morales trop rigides.

Dès avril 2023, l’entrepreneur milliardaire lançait le projet « TruthGPT » visant à créer « une IA en quête de vérité maximale qui tente de comprendre la nature de l’univers », tout en offrant une alternative aux « biais libéraux » de ChatGPT.

Notons que Musk, qui avait cofondé l’entreprise OpenAI en 2015 avant de la quitter en 2018 après avoir échoué à en devenir le patron, cherche depuis à prendre sa revanche sur son rival Sam Altman, devenu une superstar de l’industrie numérique depuis le succès mondial de ChatGPT.

Professeur à l’École d’innovation sociale de l’Université Saint-Paul, à Ottawa, mes travaux de recherche portent sur les mutations du capitalisme, les impacts sociaux de l’intelligence artificielle et l’autoritarisme contemporain. J’ai récemment publié Le capital algorithmique avec mon collègue Jonathan Martineau.

Grok, un miroir déformant de son créateur

À l’image de son créateur, Grok est conçu pour répondre avec humour noir et un côté rebelle, affichant ouvertement son mépris des normes sociales et des tabous. Un premier problème survient avec sa propension à répandre de fausses nouvelles, surtout via son intégration au média social X également possédé par Musk. Comme d’autres IA génératives, Grok souffre de biais, d’hallucinations et d’imprécisions.

Mais l’absence de balises éthiques et factuelles afin d’offrir un robot conversationnel « sans censure » peut mener à des résultats aberrants, comme la production d’images réalistes de Musk et Mickey Mouse tuant des enfants, ou la promotion du récit du « génocide blanc » en Afrique du Sud. L’idée d’une IA « anti-woke » aboutit ici à une amplification spectaculaire de la désinformation, au nom d’une liberté d’expression sans responsabilité.

Quand l’extrême droite flirte avec la haute technologie

Un deuxième problème survient dans un contexte politique où l’homme le plus riche du monde, ainsi que l’ensemble des élites de la Silicon Valley, se rallient à la nouvelle administration de Donald Trump.

L’engagement remarqué de Musk dans la campagne présidentielle de Trump, son adhésion à l’idéologie réactionnaire du Dark MAGA, son salut nazi du 20 janvier 2025, ou encore son soutien au parti Alternative pour l’Allemagne (AfD), témoignent de son virage vers l’extrême droite de l’échiquier politique.

Non satisfait que son IA soit encore trop « woke » ou qu’il reprenne trop les idées des médias traditionnels, Musk a annoncé la mise à jour de Grok 4 début juillet. Mais le robot a rapidement généré des discours antisémites, néonazis et conspirationnistes, se qualifiant lui-même de « Mecha-Hitler » (la start-up xAI s’est depuis excusée). Cela est inquiétant mais guère surprenant : la créature étant souvent à l’image de son créateur.

Quand le pouvoir technologique infiltre l’État

Un troisième problème survient lorsque les intérêts du secteur privé et du secteur public convergent à un point tel qu’on peut parler de collusion, voire de corruption. Cela est un secret de polichinelle, mais Elon Musk a été embauché comme employé spécial du Departement of Governement Efficiency (DOGE) pour opérer des coupures massives dans l’administration fédérale, alors que ses propres compagnies privées (Tesla, SpaceX, Neuralink) cumulent plus de 2,37 milliards de dollars en contrats fédéraux.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’usage de l’IA et la logique « move fast and break things » dans la mise en œuvre de compressions budgétaires automatisées par le DOGE ont été décrites par certains auteurs comme un « coup d’État assisté par l’IA ».

Ironiquement, Musk avait signé la lettre ouverte Pause Giant AI Experiments en mars 2023, appuyée par des centaines de personnalités publiques à travers le monde. À cette époque, la majorité des milieux de la recherche, de l’industrie, du secteur public et de la société civile appelait à un moratoire sur le développement de l’IA générative face aux nombreux risques qu’elle posait : désinformation, surveillance, pertes d’emploi, impacts environnementaux ou encore menaces pour la démocratie.

Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? […] Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », alertaient alors les signataires.

En 2025, le scénario inverse s’impose : les IA diffusent massivement des contenus mensongers, des décisions majeures sont confiées à des acteurs privés non élus, et l’intelligence artificielle devient un levier de domination économique, politique et militaire.

Cette grande convergence entre l’oligarchie de la Silicon Valley et le mouvement populiste Make America Great Again est d’ailleurs parfois qualifiée de « techno-fascisme ». Il ne s’agit pas ici de la simple complicité entre Musk et Trump, qui a rapidement pris fin de façon spectaculaire en juin 2025 avec un échange d’insultes. Il s’agit d’une intégration structurelle des technologies algorithmiques dans un projet autoritaire.

Ce projet vise le démantèlement de l’État de droit et la mise en place d’un État policier, inspiré du président hongrois Viktor Orban et de sa « démocratie illibérale ».

De Mecha-Hitler à assistant des forces armées

Un dernier exemple de l’intégration de l’IA au service du techno-fascisme est le contrat signé à la mi-juillet entre xAI et le département américain de la Défense.

L’armée souhaite utiliser Grok pour fournir « ses capacités de soutien aux combattants » et aider à « préserver un avantage stratégique sur leurs adversaires ». Même si Musk a officiellement quitté le DOGE et rompu avec Trump, son IA se qualifiant de « Mecha-Hitler » sera directement branchée sur les forces armées.

Ajoutons à cela la déréglementation totale du secteur numérique par Trump, l’adoption du projet de loi Big Beautiful Bill qui fait exploser le budget de la police de l’immigration ICE, ou encore le projet Stargate de 500 milliards de dollars, et nous voilà au seuil d’une nouvelle ère techno-fasciste.

La Conversation Canada

Jonathan Durand Folco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Grok, l’IA de Musk, est-elle au service du techno-fascisme ? – https://theconversation.com/grok-lia-de-musk-est-elle-au-service-du-techno-fascisme-261215

CAN des dames : 3 signes que le football féminin africain commence enfin à prendre son envol

Source: The Conversation – in French – By Chuka Onwumechili, Professor of Communications, Howard University

Le football féminin en Afrique a connu des changements radicaux au cours des dernières années. Après des débuts modestes à la fin des années 1990, il s’est développé au point que sa plus grande compétition attire aujourd’hui l’attention du monde entier.

La Coupe d’Afrique des nations féminine 2024 se dirige vers ses quarts de finale, avec huit pays encore en lice. Jusqu’à présent, ce tournoi, qui se tient tous les deux ans, a tenu ses promesses en matière de compétitivité. Les écarts importants entre les équipes participantes semblent avoir disparu. Les matches sont plus serrés, les primes ont augmenté et le public est au rendez-vous partout dans le monde.




Read more:
Les exploits méconnus des footaballeuses africaines face aux obstacles dévoilés dans un nouveau livre


En tant que spécialiste de la communication sportive et du football féminin, je suggère à la Confédération africaine de football (CAF) d’envisager d’augmenter le nombre d’équipes participant à la phase finale. Il y en a actuellement 12, mais ce nombre pourrait facilement passer à 16 sans perdre en qualité.

Il y a des sceptiques, surtout après que le pays hôte, le Maroc, et la CAF ont reporté le tournoi de 2024 à 2025 pour éviter un chevauchement avec les Jeux Olympiques de Paris. Cela a également donné au Maroc le temps de terminer la rénovation de ses stades. Malgré les sceptiques, le tournoi repose sur des bases solides. Il y a des signes clairs qu’il est sur la bonne voie.

1. Les écarts entre les équipes se réduisent

Les écarts au niveau des scores se réduisent. La plus grande différence de buts enregistrée lors du tournoi de cette année est de 4-0, dans deux matchs. L’un a été remporté par l’équipe championne en titre, l’Afrique du Sud, contre le Mali et l’autre par le Sénégal contre la République démocratique du Congo (RDC).

Cependant, ni le Mali ni la RDC ne se sont montrés faciles à battre. Ils ont simplement connu une mauvaise soirée lors de leurs défaites respectives 0-4. En fait, bien que la RDC ait perdu tous ses matchs, elle s’est montrée compétitive face au pays hôte, l’une des équipes favorites de cette année, le Maroc. Elle s’est inclinée de justesse face à la Zambie, une équipe qui a terminé troisième devant l’éternel champion, le Nigeria, il y a seulement trois ans. Le Mali, avec quatre points, s’est qualifié pour les quarts de finale en tant que meilleure troisième.

Bien sûr, les grandes équipes habituelles ont atteint les phases à élimination directe. Personne n’a été surpris que le Maroc et l’Afrique du Sud soient rejoints en phase à élimination directe par le Nigeria, la Zambie, le Ghana et le Sénégal. L’Algérie, deuxième de son groupe, s’est qualifiée pour la phase à élimination directe pour la première fois. Elle l’a fait après un match nul mérité contre le Nigeria. L’émergence de l’Algérie témoigne du redressement continu des équipes féminines nord-africaines, qui étaient jusqu’à présent à la traîne dans les compétitions féminines sur le continent.

Ces progrès sont le fruit d’un travail acharné. Le Maroc a investi massivement et a vu ses équipes nationales féminines et ses clubs se hisser au sommet du football féminin.

L’Algérie est sur le point de connaître une ascension similaire. Ses performances dans cette compétition sont le fruit d’un recrutement important de joueuses d’origine algérienne vivant à l’étranger par le sélectionneur Farid Benstiti, qui dirigeait auparavant l’équipe féminine du Paris Saint-Germain. L’Algérie a également recruté plusieurs joueuses basées à l’étranger.

La compétitivité croissante entre les équipes de la CAN se reflète par l’élimination précoce de grandes nations comme la Côte d’Ivoire, la Guinée équatoriale et le Cameroun, absentes des quarts de finale.

La Guinée équatoriale a remporté le trophée à plusieurs reprises, seul pays à avoir réussi cet exploit avec le Nigeria. Le Cameroun est une puissance traditionnelle qui a représenté le continent à plusieurs reprises lors de la Coupe du monde féminine de football. La Tanzanie a créé la surprise en éliminant la Côte d’Ivoire lors de la phase de poule. Le Kenya a battu le Cameroun et la RDC a battu la Guinée équatoriale. Ces résultats témoignent avant tout du niveau élevé des équipes féminines de football sur le continent.

Cependant, certains défis subsistent. Parmi ceux-ci, on peut citer : le manque de financement des équipes nationales féminines tout au long de l’année en dehors des compétitions, le sexisme et les barrières religieuses dans certaines régions du continent.

2. Augmentation des primes

La CAF soutient de plus en plus la CAN féminine. Cette année, les primes remises aux vainqueurs ont augmenté de 100 % pour atteindre 1 million de dollars américains.

Le montant total des primes s’élève à 3,75 millions de dollars américains. Les finalistes malheureux recevront 500 000 dollars américains. L’équipe classée troisième aura 350 000 dollars américains et la quatrième 300 000 dollars américains. Les autres recevront des montants moins élevés. Ce soutien accru se reflète également dans les 600 000 dollars américains attribués à l’équipe vainqueur de la Ligue des champions féminine de la CAF.

Ce montant est toutefois loin d’être comparable à celui attribué lors de l’Euro féminin 2025 de l’UEFA (47,8 millions de dollars). Mais il témoigne des progrès constants réalisés par la CAN féminine pour réduire l’écart, alors que le football féminin suscite un intérêt croissant de la part des sponsors.

Et l’écart entre les hommes et les femmes en termes de prix reste important. Il s’agit toutefois d’un phénomène mondial.

3. Intérêt croissant des médias

L’affluence dans les stades de la CAN féminine a été décevante, en partie parce que les matches se jouent dans 3 petits stades. Les plus grands stades du Maroc sont encore en rénovation en vue de la co-organisation de la Coupe du monde masculine de football en 2026. La couverture médiatique a été impressionnante.

La CAF a indiqué que le match d’ouverture entre le Maroc et la Zambie a été diffusé dans plus de 120 territoires. Les principaux diffuseurs, dont beIN Sport, CANAL+, SuperSport et SportTV, couvrent l’événement.

Selon un communiqué de presse de la CAF :

Les spectateurs du monde entier pourront suivre les matchs depuis les États-Unis, le Brésil, le Canada, l’Australie, la France, la Belgique, l’Allemagne, le Qatar, les Pays-Bas et Singapour.

Vers un tournoi élargi ?

Compte tenu des progrès réalisés par la compétition au fil des ans, il est peut-être temps d’augmenter le nombre d’équipes participant à la phase finale de 12 à 16. Cela nécessitera bien sûr une augmentation des primes afin de garantir que chaque équipe reçoive une somme égale ou supérieure à celle distribuée lors de la compétition de cette année.

Cependant, le tournoi de cette année a clairement montré qu’il y aurait davantage de place pour des concurrentes de talent lors de la phase finale, sans faire baisser le niveau.

La CAN féminine a parcouru un long chemin depuis sa création au début du siècle. Elle est passée de huit équipes à douze, et pourrait encore s’agrandir. Le montant des récompenses a doublé pour l’équipe gagnante et la couverture télévisée s’est étendue à travers le monde. Il s’agit clairement d’une compétition en plein essor.

The Conversation

Chuka Onwumechili does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. CAN des dames : 3 signes que le football féminin africain commence enfin à prendre son envol – https://theconversation.com/can-des-dames-3-signes-que-le-football-feminin-africain-commence-enfin-a-prendre-son-envol-261326

Les droits d’auteur en danger ? Ce que l’affaire « Bartz contre Anthropic » risque de changer aux États-Unis… et ailleurs

Source: The Conversation – in French – By Maximiliano Marzetti, Associate Professor of Law, IESEG School of Management, Univ. Lille, CNRS, UMR 9221 – LEM – Lille Économie Management, IÉSEG School of Management

Aux États-Unis, un premier jugement autorise l’usage d’œuvres légalement acquises pour l’apprentissage des modèles d’intelligence artificielle, mais le recours à des contenus piratés est, lui, explicitement condamné. Un coup d’arrêt pour les auteurs, et un bouleversement juridique aux enjeux internationaux ?


En 2024, les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont porté plainte contre Anthropic, l’un des géants de l’intelligence artificielle (IA), l’accusant d’avoir utilisé leurs ouvrages pour entraîner son modèle de langage Claude.

Cette affaire s’inscrit dans une série de litiges similaires : au moins 47 procès ont déjà été engagés aux États-Unis, visant différentes entreprises consacrées à l’IA. La question principale ? Les modèles d’IA auraient été entraînés à partir d’œuvres protégées par le droit d’auteur, sans autorisation préalable des auteurs, en violation ainsi de leurs droits exclusifs.

Une problématique universelle

Mais ce type de conflit ne se limite pas aux États-Unis : des contentieux similaires émergent dans le monde entier.

Partout, ce sont donc les juges qui, faute de précédents juridiques clairs, doivent trancher des affaires complexes (les hard cases, comme les appellent les auteurs états-uniens). Le droit d’auteur varie d’un pays à l’autre, certes, mais le cœur du conflit reste universel : des créateurs humains confrontés à une technologie non humaine qui bouscule leur place, leur légitimité et leur avenir.

Du côté des entreprises d’IA, l’argument est tout autre : selon elles, l’utilisation de contenus protégés dans le cadre de l’entraînement de modèles relève du fair use (usage équitable), c’est-à-dire une exception aux droits exclusifs des auteurs existant dans le droit américain. En d’autres termes, elles estiment ne pas avoir à demander la permission ni à verser de droits aux auteurs.

Cette position alimente une crainte croissante chez les auteurs humains : celle d’être dépossédés de leurs œuvres ou, pire encore, d’être remplacés par des IA capables de produire des contenus en quelques secondes, parfois de qualité comparable à celle d’un humain.

Guerre de récits

Ce débat est désormais au cœur d’une guerre de récits, relayée à la fois dans les médias et sur les réseaux sociaux. D’un côté, les défenseurs du droit d’auteur traditionnel et des créateurs humains ; de l’autre, les partisans des technologies disruptives et des avancées rapides de l’IA. Derrière ces récits, on assiste à une véritable confrontation entre modèles économiques, celui des auteurs humains et des industries fondées sur le droit d’auteur « traditionnel » (éditeurs, producteurs cinématographiques et musicaux, entre autres), et celui des entreprises et investisseurs développant des technologies de l’IA « révolutionnaires ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Bien que le copyright ait été conçu au début du XVIIIᵉ siècle en Angleterre, dans un paradigme technologique qu’on peut appeler « analogique », jusqu’à présent il a su s’adapter et aussi profiter des technologies à l’époque considérées comme « disruptives », telles que la photographie, le phonographe, le cinéma et, plus tard, le paradigme numérique et Internet. Cependant, aujourd’hui il se retrouve mis à l’épreuve à nouveau, peut-être plus sérieusement que jamais, par l’IA générative. Le droit d’auteur pourra-t-il aussi s’adapter à l’IA ou est-il, cette fois, en menace de disparition, de changements radicaux ou encore condamné à l’insignifiance ?

Des intérêts publics, géopolitiques et géoéconomiques pèsent aussi sur ces cas juridiques. Dans l’actuel ordre mondial multipolaire et conflictuel, des pays ne cachent pas leurs ambitions de faire de l’intelligence artificielle un atout stratégique.

C’est le cas des États-Unis de Donald Trump, lequel n’hésite pas à recourir aux politiques publiques pour soutenir le leadership des entreprises états-uniennes en matière d’IA, vraie « raison d’État ». Cela engendre une politique de dérégulation pour éliminer des règles existantes considérées comme des obstacles à l’innovation nationale. Pour des raisons similaires, l’Union européenne a décidé d’aller dans la direction contraire, en assignant à l’innovation en IA un cadre juridique plus contraignant.

Les décisions des tribunaux états-uniens servent de boussole

Le 23 juin 2025, le juge Alsup du Tribunal du district nord de Californie a rendu la première décision, dans le cadre d’un procès en procédure sommaire introduit par les auteurs mentionnés précédemment contre l’entreprise Anthropic, par laquelle il a établi que l’utilisation d’œuvres protégées par des droits d’auteur, acquises de manière légale, pour entraîner des modèles de langage à grande échelle (LLM), constitue un usage légitime (« fair use ») et ne viole donc pas les droits d’auteur de leurs titulaires.

De même, cette décision a également établi que le téléchargement d’œuvres protégées par le droit d’auteur depuis des sites pirates ne pourra jamais être considéré comme un usage légitime, constituant ainsi une violation du droit d’auteur (même si ces œuvres ne sont pas utilisées pour entraîner des LLM et sont simplement stockées dans une bibliothèque à usage général).

Les décisions rendues par les tribunaux états-uniens en matière de droits d’auteur, bien qu’elles ne produisent d’effets juridiques que sur le territoire des États-Unis, servent généralement de boussole quant à l’évolution de la régulation des nouvelles technologies disruptives. Cela est dû non pas tant au prestige de la culture juridique nord-américaine, mais au fait que les plus grandes entreprises technologiques ainsi que les industries culturelles du cinéma, de la télévision et de la musique sont implantées aux États-Unis.

C’est la jurisprudence nord-américaine qui a établi en son temps que les enregistreurs à cassette (affaire Betamax (Sony)) ne violaient pas les droits d’auteur. Ce sont également les tribunaux américains qui ont statué que les réseaux de partage de fichiers peer-to-peer contrevenaient au droit d’auteur (affaires Napster et Grokster), entraînant la fermeture massive de ces sites.

Actuellement, la technologie accusée de porter atteinte au droit d’auteur est donc l’intelligence artificielle générative.

Les affaires pour violation présumée des droits d’auteur contre les géants états-uniens de l’IA générative (comme OpenAI, Anthropic, Microsoft, etc.) peuvent être regroupées en deux catégories :

  • l’utilisation d’œuvres protégées pour entraîner les algorithmes (problème des « inputs »),

  • et la reproduction totale ou partielle d’œuvres protégées dans les résultats générés par l’IA générative (problème des « outputs »).

Une victoire à la Pyrrhus pour les entreprises d’IA ?

Le litige opposant Bartz à Anthropic relève de la première catégorie. Bartz et d’autres auteurs accusent Anthropic d’avoir utilisé leurs œuvres pour entraîner ses algorithmes sans paiement ni autorisation. Il convient de rappeler que, tant aux États-Unis qu’ailleurs dans le monde, l’ensemble des droits d’exploitation d’une œuvre revient à son auteur. De son côté, Anthropic a fait valoir que cette utilisation devait être considérée comme un usage légitime ne nécessitant ni rémunération ni autorisation préalable.

La doctrine du fair use, codifiée à la section 107 du 17 US Code (recueil des lois fédérales), prévoit que, pour déterminer si l’utilisation d’une œuvre est conforme à la loi, le juge doit apprécier au cas par cas si les quatre critères posés par la loi favorisent le titulaire du droit d’auteur (le demandeur) ou la personne qui a utilisé l’œuvre (le défendeur).

Ces quatre critères sont :

  1. le but et la nature de l’utilisation, notamment si elle est de nature commerciale ou à des fins éducatives sans but lucratif ;

  2. la nature de l’œuvre protégée ;

  3. la quantité et la substance de la partie utilisée par rapport à l’ensemble de l’œuvre ;

  4. l’effet de l’utilisation sur le marché potentiel ou la valeur de l’œuvre protégée.

Dans l’affaire en question, le juge Alsup a opéré une distinction entre les usages légitimes d’œuvres légalement acquises et ceux qui ne le sont pas.

Dans le premier cas, Anthropic affirmait avoir acheté des œuvres protégées en format papier, les avoir scannées, converties au format numérique, puis avoir détruit les copies physiques (ce point étant juridiquement important car il s’agit alors d’un simple changement de format, sans reproduction de l’œuvre originale), afin de les utiliser pour entraîner son modèle LLM. Le juge Alsup a estimé que cet usage était légitime, compte tenu de l’acquisition licite des œuvres et en donnant la priorité au premier critère, avec le soutien de la jurisprudence relative au « transformative use » (plus l’usage d’une œuvre est novateur, plus il est probable qu’il soit considéré comme du fair use).

Concernant les œuvres acquises illégalement, soit environ 7 millions d’œuvres téléchargées depuis des bibliothèques pirates telles que Library Genesis et Pirate Library Mirror, le fair use n’a pas été retenu. D’une part, Anthropic ne pouvait ignorer la provenance illicite de ces œuvres, ce qui empêche tout usage légitime ultérieur. D’autre part, le simple fait de les conserver dans un dépôt numérique, même sans les avoir utilisées pour entraîner ses algorithmes, ne constitue pas une défense recevable, car Anthropic n’a aucun droit à leur copie ou à leur stockage.

En conséquence, s’agissant des œuvres téléchargées depuis des sites pirates, la procédure se poursuit, et Anthropic devra faire face à un procès sur le fond, qui pourrait lui coûter très cher, la législation américaine en matière de droit d’auteur autorisant l’octroi de dommages-intérêts forfaitaires (« statutory damages ») pouvant aller jusqu’à 150 000 dollars américains par œuvre en cas d’infraction commise de mauvaise foi.

Des réactions divergentes

Certains commentateurs ont salué cette décision comme une victoire éclatante pour les entreprises de l’IA. Une lecture plus nuancée s’impose. S’il s’agit bien de la première décision reconnaissant comme légitime l’utilisation d’œuvres protégées, acquises légalement, pour l’entraînement d’un système d’IA, elle établit également que l’usage d’œuvres issues de sites pirates, même transformé, ne pourra jamais être considéré comme légitime. En d’autres termes, l’utilisation d’œuvres piratées restera toujours illégale. Cette décision pourrait accélérer la négociation de licences permettant l’acquisition légale d’œuvres à des fins d’entraînement de LLM, une tendance déjà amorcée.

Les critiques à l’encontre de cette décision n’ont pas tardé. Certains reprochent au juge Alsup une mauvaise interprétation du droit fédéral et de la jurisprudence, en particulier de l’arrêt Warhol v. Goldsmith rendu en 2023 par la Cour suprême, qui a établi que le premier critère pouvait être écarté s’il compromettait fortement le quatrième : à savoir, si une œuvre dérivée concurrence ou diminue la valeur de l’œuvre originale.

En outre, il convient de souligner que cette décision est celle d’un tribunal de première instance. Il faudra attendre l’avis de la cour d’appel, voire, en dernier ressort, de la Cour suprême des États-Unis, en tant qu’interprète ultime de la loi. En tout cas, cette décision semble avoir une valeur symbolique importante.

La situation en Europe

Des litiges similaires ont également été engagés en Europe et dans d’autres pays. Bien que les législations sur le droit d’auteur soient proches de celle des États-Unis, elles présentent des différences notables.

En Europe continentale, il n’existe pas d’équivalent à la doctrine du fair use : le droit y repose sur un système d’exceptions et de limitations strictement énumérées par la loi, dont l’interprétation est restrictive pour les juges, à la différence de la souplesse dont jouissent leurs homologues états-uniens.

Par ailleurs, bien que la directive européenne de 2019 ait instauré une exception spécifique pour la fouille de textes et de données, sa portée semble plus limitée que celle du fair use nord-américain. En outre, dans le cadre d’usages commerciaux, les titulaires de droits d’auteur peuvent y faire opposition (« opt-out »).

Enfin, l’Union européenne dispose d’autres instruments susceptibles d’encadrer les IA, tels que le règlement sur l’IA, qui établit diverses garanties pour le respect des droits d’auteur, sans équivalent dans la législation états-unienne.

Répercussions internationales ?

Pour conclure, il convient de noter que le conflit entre droit d’auteur et IA dépasse les seules considérations juridiques.

La course au leadership en matière d’IA revêt aussi une forte dimension nationale. À cette fin, les pays rivalisent entre eux pour favoriser leurs entreprises par tous les moyens à leur disposition, y compris juridiques.

Compte tenu de la politique de régulation minimaliste et des directives émises par le gouvernement Trump, il ne serait donc pas surprenant que des juges idéologiquement proches du président adoptent des interprétations allant dans ce sens, privilégiant les intérêts des entreprises d’IA au détriment des titulaires de droits d’auteur. Une perspective qui relève du pragmatisme juridique états-unien.

Richard Posner, ancien juge fédéral, a d’ailleurs suggéré que, face à des « affaires difficiles », les juges ne suivent pas aveuglément les règles logiques et procédurales, mais qu’ils les résolvent de manière pragmatique, en tenant compte des conséquences possibles de leurs décisions et du contexte politique et économique.

Sous l’angle du « lawfare », le droit d’auteur pourrait bien devenir un nouveau champ de bataille dans la course mondiale à la domination technologique entre les États-Unis, l’Union européenne et la Chine.

The Conversation

Maximiliano Marzetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les droits d’auteur en danger ? Ce que l’affaire « Bartz contre Anthropic » risque de changer aux États-Unis… et ailleurs – https://theconversation.com/les-droits-dauteur-en-danger-ce-que-laffaire-bartz-contre-anthropic-risque-de-changer-aux-etats-unis-et-ailleurs-261182