Why is bamboo used for scaffolding in Hong Kong? A construction expert explains

Source: The Conversation – Global Perspectives – By Ehsan Noroozinejad, Senior Researcher and Sustainable Future Lead, Urban Transformations Research Centre, Western Sydney University

At least 44 people have died and more than 270 are missing after a major fire engulfed an apartment complex in Hong Kong’s Tai Po district. The fire, which swept through multiple high-rise towers, is still burning.

The exact cause of the blaze, which broke out just before 3pm local time on Wednesday, is still unknown. Hong Kong Police have arrested three construction company executives on suspicion of manslaughter.

The apartment blocks are 31 stories tall. Opened in 1983, they were undergoing renovations at the time of the blaze, and were covered in bamboo scaffolding and green protective mesh.

Bamboo scaffolding has been a feature of the city for centuries. But why? The answer is part history, part engineering and part economics.

But the recent tragedy has sharpened the focus on fire safety, and when and where bamboo should be used.

A fast-growing grass

Bamboo is a fast-growing grass with hollow, tube-like stems (known as “culms”). Those tubes give it a high strength-to-weight ratio. A pole is light enough to carry up a stairwell, yet strong enough, when braced and tied correctly, to support platforms and workers.

Crews lash poles together in tight grids and tie them back to the buildings with brackets and anchors. Properly designed, a bamboo scaffold can resist wind and working loads.

Hong Kong’s Buildings Department and Labour Department publishes clear guidelines on the design and construction of bamboo scaffolds.

Bamboo scaffolding is also used in parts of mainland China, India, and across Southeast Asia and South America.

A cheap and flexible material

There are three main reasons why bamboo scaffolds are used in Hong Kong.

First, speed. An experienced team can “wrap” a building quickly because poles are light and can be cut to fit irregular shapes. That matters in tight streets with limited crane access.

Second, cost. Bamboo is a fraction of the price of metal systems, so contractors can keep bids low. The material is also easy to source locally, which keeps routine repairs and repainting within budget.

Third, tradition and skills. Bamboo scaffolding features in a famous piece of Chinese art, Along the River During the Qingming Festival, painted by Zhang Zeduan who lived between 1085 and 1145. Hong Kong still trains and certifies bamboo scaffolders, and the craft remains part of the city’s construction culture.

These factors explain why bamboo has remained visible on the city’s skyline even as metal systems dominate elsewhere.

Unlike metal made in blast furnaces, bamboo also grows back, and turning a stalk into a pole takes little processing. This means its overall climate impact is smaller.

What are the risks?

There are two main risks of bamboo scaffolding.

The first, as this tragedy in Hong Kong highlights, is fire.

Dry bamboo is combustible, and the green plastic mesh often draped over scaffolds can also quickly burn.

In the Tai Po fire, footage and reports indicate the fire quickly raced up the scaffolding and mesh, and across the facade of the buildings.

This is why there are calls for non-combustible temporary works on occupied towers – or at minimum, flame-retardant nets, treated bamboo, and breaks in the scaffold so fire can’t easily jump from bay to bay.

The second risk of using bamboo scaffolding is related to variability and weather.

Bamboo is a natural material, so strength varies with species, age and moisture. Lashings can loosen and storms are a common risk.

Hong Kong’s updated guidelines and code try to manage this with material rules (such as age, diameter and drying), mandatory ties to the structure, steel brackets and anchor testing, and frequent inspections – especially before bad weather.

A high-rise apartment covered in bamboo scaffolding and white mesh.
Bamboo has been used for scaffolding in Hong Kong for centuries.
Frank Barning/Pexels

A shift to metal

In March 2025, Hong Kong’s Development Bureau directed that metal scaffolds be adopted in at least 50% of new government public-works building contracts. It also encouraged metal use in maintenance where feasible.

Subsequent government replies to the Legislative Council in June and July reiterated the 50% requirement and described a progressive transition based on project feasibility.

Private projects may still use bamboo under existing codes. But for public works the baseline is now metal, signalling a move toward non-combustible systems.

The lesson from Hong Kong is not that bamboo is “good” or “bad” for scaffolding – it’s about context. It has clear advantages for small-scale, short-duration, ground-anchored work where streets are tight and budgets are lean. But on tall, occupied residential blocks, especially with mesh-wrapped facades, its fire risk and variability demand much stronger controls.

Bamboo scaffolding helped build Hong Kong’s skyline because it was fast, clever and affordable. The science behind fire and the realities of high-rise living now demand a tighter line: use the right tool for the job, and when the risks climb, switch to non-combustible systems.

That way the city can honour a proud craft, while keeping people safe in the homes those scaffolds surround.

The Conversation

Dr Ehsan Noroozinejad has received funding from both national and international organisations. His most recent funding on integrated housing and climate policy comes from the Australian Public Policy Institute (APPI). He also serves on the Executive Committee of the Early- and Mid-Career Academic and Practitioner (EMCAP) Network at Natural Hazards Research Australia, the Australian government-funded national centre for natural hazard resilience and disaster risk reduction.

ref. Why is bamboo used for scaffolding in Hong Kong? A construction expert explains – https://theconversation.com/why-is-bamboo-used-for-scaffolding-in-hong-kong-a-construction-expert-explains-270780

Una diminuta molécula podría acabar con las bacterias inmunes a los antibióticos

Source: The Conversation – (in Spanish) – By Ainhoa Roldán Terrones, Estudiante predoctoral en el área de la biofísica de membranas, Universitat de les Illes Balears

Destrucción de una bacteria por antibióticos. La capacidad de adaptación de estos microorganismos hace que los tratamientos pierdan eficacia. Kateryna Kon/Shutterstock

Actualmente, la capacidad de bacterias, virus y hongos de evadir los efectos de tratamientos diseñados para combatirlos está considerada como una de las diez amenazas principales para la salud pública. Se estima que esa resistencia a los fármacos antimicrobianos se cobra cada año 5 millones de vidas.

Sin embargo, este grave problema no sólo se debe a la alta capacidad adaptativa que tienen los microorganismos patógenos: gran parte de la culpa es nuestra. ¿Cuántas veces nos han dicho, cuando nos encontrábamos mal: “Tómate tal medicamento, en un par de días te encontrarás mejor”? ¿O cuántas veces hemos guardado los restos de un antibiótico “por si acaso”?

Malas prácticas con consecuencias

Según una encuesta realizada en 14 países europeos con más de 8 500 participantes, 1 de cada 3 de personas consumió antibióticos sin receta médica; en algunos países el porcentaje ascendía incluso a más de la mitad. La gran mayoría parecía ser consciente de que un mal uso de los medicamentos pueden hacerlos menos efectivos, pero casi el 50 % también afirmó que un antibiótico es funcional frente a un virus, cuando sólo resulta efectivo frente a bacterias.




Leer más:
Lecciones de la evolución para mejorar nuestra relación con las bacterias


Por otro lado, ¿alguna vez ha dejado un tratamiento antibiótico a medias porque ya se encontraba mejor? Si un especialista ha pautado el fármaco durante 7 días cada 8 horas, interrumpirlo porque “ya estoy bien” no es lo mismo que hacerlo porque “ya he combatido por completo la infección”. Del mismo modo, tratar resfriados o gripes con antibióticos es error muy común, ya que un antiviral no es lo mismo que un antibiótico.

Esta amplia lista de malas prácticas explica en buena medida el aumento de las resistencias microbianas.

Antibióticos con eficacia decreciente

Sin duda, el descubrimiento de los antibióticos marcó un hito en la historia de la humanidad. Su edad de oro se extendió entre las décadas de 1940 y 1960, periodo durante el cual se hallaron antibióticos naturales procedentes de bacterias como las tetraciclinas, de origen fúngico como las penicilinas y sintéticos como las sulfonas.

Aunque estos fármacos se siguen empleando, ha disminuido notoriamente su eficacia. De hecho, los tratamientos betalactámicos (gran familia de antibióticos que matan bacterias al inhibir la formación de su pared celular) son frente a los que más microorganismos han desarrollado resistencia desde 2014, y cada vez hay menos terapias eficaces.

Por eso, ante un caso de infección con bacterias multirresistentes se suele recurrir en el hospital a cócteles de antibióticos de amplio espectro. Esto tiene sus inconvenientes porque nuestro organismo alberga bacterias no patógenas que también acaban destruidas con esas terapias tan agresivas.

Péptidos antimicrobianos al rescate

Una nueva estrategia para combatir a las bacterias multiresistentes son los péptidos antimicrobianos (AMP), considerados agentes evolutivos –agentes que cambian con el tiempo– de nuestro sistema inmune innato.

Los AMP, que se encuentran en gran variedad de organismos, actúan como primera línea de defensa contra bacterias, virus y hongos. Se caracterizan por sus propiedades anfipáticas (presentan aminoácidos que interaccionan con el agua y otros que la repelen) y por su pequeño tamaño. Concretamente, contienen no más de 50 aminoácidos, las piezas diminutas que conforman las proteínas. Para hacernos una idea, una cadena de 50 aminoácidos es aproximadamente 40 veces más pequeño que un virus.

En las dos últimas décadas, los AMP han ido ganando la atención de los investigadores debido a su capacidad de discernir entre las membranas procariotas y eucariotas, es decir, entre las envolturas celulares de las bacterias y de las células humanas. Esto se debe a que, al tener carga positiva, los péptidos antimicrobianos solo interaccionan con las membranas bacterianas (carga negativa), sin afectar a las células eucariotas, que son neutras (no presentan carga).

Usar AMP como tratamiento antimicrobiano dificultaría el desarrollo de las resistencias, ya que estos péptidos actúan sobre toda la superficie de la membrana, y, cambiar la carga de esa cobertura no es una estrategia sencilla para el microorganismo por el elevado coste energético que supone. Además, para que esto ocurra se deberían acumular miles de eventos evolutivos, que podrían tardar muchos años en ocurrir.

No obstante, los péptidos antimicrobianos aún no se usan como tratamiento antibacteriano, ya que producen efectos negativos en el organismo y se degradan por las enzimas que produce nuestro cuerpo. Pero la comunidad científica sigue haciendo grandes avances para superar estos obstáculos. Por ejemplo, el proyecto FORMAMP (UE) estudió la manera de formular AMP con nanopartículas con el fin de mejorar su estabilidad y eficacia.

A la espera de que lleguen soluciones como las AMP, debemos seguir siendo conscientes de que la automedicación es una de las principales causas de resistencia a los antibióticos. El uso prudente de estos fármacos ayudará, por lo menos, a no agravar el problema.

The Conversation

Ainhoa Roldán Terrones recibe fondos de European Commission Horizon Europe Programme, Spanish Ministerio de Ciencia e Innovación y Laminar Pharmaceuticals S.A. Ella trabaja para Laminar Pharmaceuticals S.A.

Marta Salvador Castell recibe fondos del Ministerio de Ciencia e Innovación de España, Agencia Estatal de Investigación, PTQ2022-012455. Ella trabaja para laminar Pharmaceuticals S.A.

ref. Una diminuta molécula podría acabar con las bacterias inmunes a los antibióticos – https://theconversation.com/una-diminuta-molecula-podria-acabar-con-las-bacterias-inmunes-a-los-antibioticos-261906

¿Puede la industria del lujo ser exclusiva y a la vez sostenible?

Source: The Conversation – (in Spanish) – By Marta Ortiz-de-Urbina-Criado, Catedrática de Universidad y Doctora en Dirección y Organización de Empresas, Universidad Rey Juan Carlos

En 2025, y después de años de subidas imparables, la industria de la moda de lujo está viendo reducir sus ingresos y la pérdida de confianza de sus clientes. Sobre todo la de los más jóvenes, de las generaciones Z y alpha (nacidos de 1995 en adelante).

Aunque la sostenibilidad (o su carencia) no parece ser la causa de este descenso, sí pasa por convertirse en una de las soluciones. Ahora los consumidores están dispuestos a pagar más por productos más sostenibles. Además, se espera que el mercado de productos de lujo sostenibles se incremente un 9,1 % anual entre 2024 y 2034, hasta 162 900 millones de dólares.

¿Estamos preparados para una moda de lujo sostenible?

Las empresas de lujo son sensibles a las presiones del mercado y la normativa en materia de sostenibilidad, incluido el abanico de leyes europeas redactadas tras la firma del Pacto Verde. Sin embargo, sus acciones no están explícitamente alineadas con los objetivos de desarrollo sostenible (ODS). Esas prácticas a menudo se basan en cumplir con las regulaciones obligatorias y se centran en aspectos que mejoran su reputación y la percepción del consumidor.

En particular, sus esfuerzos se concentran en objetivos de desarrollo sostenible como la igualdad de género (ODS 5), el trabajo decente (ODS 8), el consumo responsable (ODS 12), la acción por el clima (ODS 13) y el logro de dichos objetivos (ODS 17). Por el contrario, se observa una notable falta de énfasis en los ODS que abordan la erradicación de la pobreza, el hambre, la educación, la reducción de la desigualdad, la sostenibilidad de las ciudades y la protección de los ecosistemas (ODS 14 y 15).

La cuestión es que, por ejemplo, en la lucha contra el hambre y la pobreza, la forma en que se obtienen y tratan algunas materias primas fundamentales en la cadena de suministro del lujo –e incluso se reinterpreta el patrimonio cultural– es algo que afecta a las comunidades locales, ajenas a lo que se decide en los centros de gestión.




Leer más:
¿’Quo vadis’, ODS?


Distintas marcas, distintos modos de ser sostenibles

Las propuestas de moda de lujo sostenible no son homogéneas, sino que cada marca ha establecido su propio compromiso de sostenibilidad. Por otra parte, muchas están retrasadas en el cumplimiento de sus metas.

Las diferencias en el compromiso con la sostenibilidad de las marcas de lujo suelen estar ligadas a su propia identidad. Stella McCartney es el paradigma de dicho compromiso, que se materializa usando fibras orgánicas y piel vegana en sus productos.

La casa italiana Bottega Veneta ofrece el cuidado y mantenimiento de sus bolsos intrecciatos, que son, además, todo un alarde de oficio artesanal.

Vuitton y Gucci se han enfocado más en aspectos medioambientales como la eficiencia energética. Recientemente, Ralph Lauren ha renunciado a ser una compañía con cero emisiones en 2040 y apunta a metas más realistas como la reducción de un 30 % de sus emisiones antes de 2030.

El grupo Puig, propietario de marcas como Carolina Herrera, ha alcanzado un 74 % de uso de energías renovables y ha reducido un 23 % sus emisiones. El grupo LVMH ha reciclado más de 290 000 m² de materiales, impulsa proyectos de defensa de la biodiversidad y ha lanzado el programa LIFE 360 Business Partners para reducir sus emisiones indirectas, que suponen el 96 % de su huella de carbono.

Mucho por hacer

Pese a estos avances queda mucho pendiente. Según el Fashion Revolution Index 2025, la transparencia media del sector es solo del 14 %. El informe advierte que muchas firmas de lujo siguen sobreproduciendo sin informar sobre sus emisiones indirectas ni sobre su cadena de suministro completa.

En el terreno de la gobernanza también hay sombras. Chloé, Gucci y Loewe han sido multadas recientemente por la Unión Europea por infringir normas de competencia.

Por otra parte, firmas como Prada, Fendi, Louis Vuitton o Bottega Veneta continúan empleando cuero y pieles exóticas en sus colecciones pese a la presión de asociaciones defensoras de los derechos animales, que tratan de evitar su sacrificio y maltrato para estos usos.

Aunque esas compañías tienen certificaciones que garantizan proveedores seguros o políticas para el bienestar animal, esto no es suficiente para los activistas.

Valorar la sostenibilidad

Con todo, a pesar de que se estén haciendo cambios en las formas de producir, el consumidor tiene la última palabra. La motivación principal de la compra de moda de lujo es la calidad y el estatus, pero también se empieza a valorar el tema de la sostenibilidad. No obstante, todavía hay clientes que siguen prefiriendo prendas realizadas con tejidos naturales frente a los producidos con fibras recicladas.

El término reciclado puede parecer opuesto a la importancia que tienen la calidad y la exclusividad en este sector. Por ello, las estrategias para impulsar el lujo sostenible deben abordarse con prudencia. La clave parece estar en permanecer alineados con los atributos fundamentales del lujo. Es decir, el diseño, el legado, la calidad, la durabilidad y la atemporalidad.

Impulsar el lujo sostenible

Conseguir que el usuario se sienta orgulloso de la sostenibilidad de sus productos de lujo puede ayudar a alcanzar el objetivo marcado. Sin embargo, no hay que perder de vista el riesgo de greenwashing.




Leer más:
Europa contra el ‘greenwashing’ de las marcas


Leyes como la directiva europea Green Claims van dirigidas a regular las afirmaciones medioambientales de las empresas para evitar engaños. Su cumplimiento, junto al uso de herramientas que garanticen la trazabilidad de las prendas y el control de la veracidad de las declaraciones de los fabricantes, podrá impulsar el crecimiento de una moda de lujo más sostenible.

Por otra parte, hay una gran oportunidad de negocio en el mercado de segunda mano. Algunas estimaciones señalan que superará los 65 000 millones de dólares en 2033. Así, se puede fomentar la sostenibilidad a través de la economía circular, con iniciativas como el alquiler o intercambio de prendas de lujo que generan experiencias de uso en sí misma.




Leer más:
Crece la ola del mercado de segunda mano (y Zara se apunta al carro)


Lujo, sostenibilidad, innovación y diferenciación

Queda en el aire si el lujo puede alcanzar la sostenibilidad y si los consumidores están realmente dispuestos a consumir un lujo más responsable y menos clásico.

Para avanzar hacia un modelo sostenible, las empresas pueden desarrollar modelos de cocreación. En estos modelos pueden intervenir diferentes agentes: proveedores de materiales, diseñadores, distribuidores, e incluso las empresas de recogida de residuos textiles.

Un ejemplo es el de Stella McCartney y su colaboración con Adidas y la plataforma Clevercare. A través de esta plataforma se establece una comunicación con los consumidores para impulsar hábitos de cuidado de las prendas. Otras casas como Dolce&Gabbana tienen modelos de colaboración con sus proveedores para lograr la reducción de emisiones y la mejora de la trazabilidad.

La sostenibilidad desafía al lujo, pero también puede ser su ventaja más audaz: una vía para innovar y diferenciarse.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Puede la industria del lujo ser exclusiva y a la vez sostenible? – https://theconversation.com/puede-la-industria-del-lujo-ser-exclusiva-y-a-la-vez-sostenible-268475

Evacuar un avión no es un juego: saber gestionar un desastre puede salvarle la vida

Source: The Conversation – (in Spanish) – By David Cobos Sanchiz, Profesor Titular Dpto. Educación y Psicología Social, Universidad Pablo de Olavide

Salida de emergencia en la cabina de un avión Artit Wongpradu/Shutterstock

Según previsiones de la Asociación Internacional de Transporte Aéreo (IATA), a finales de este año 2025 alcanzaremos unas cifras récord en aviación comercial, superando los 5 000 millones de pasajeros en unos 40 millones de vuelos.

Solo en España (un gigante del turismo) la red de Aeropuertos Españoles y Navegación Aérea (AENA) movió a más de 183,3 millones de pasajeros en los primeros siete meses de 2025.

Es muy posible que haya tomado alguno de estos vuelos y puede que sea de los que se aburren o desconectan cuando se informa sobre las medidas de seguridad aérea y especialmente sobre la evacuación del avión en caso de emergencia.

Puede que también haya contemplado pasajeros sentados en las salidas de emergencia que simplemente hacen caso omiso de las instrucciones de la tripulación o que incluso se dejan puestos los auriculares, se colocan un antifaz o manipulan el teléfono móvil a la hora de despegar, justo lo que les han dicho unos minutos antes que no hagan.

Un pasajero lee atentamente las instrucciones de evacuación en caso de emergencia aérea.
Un pasajero lee atentamente las instrucciones de evacuación en caso de emergencia aérea.
Makistock/Shutterstock

Si no es usted muy aprensivo y está bien informado puede que no se preocupe, porque sabe que las probabilidades de morir en accidente aéreo son realmente insignificantes. Pero esto no es óbice para inhibirse de las instrucciones de emergencia y evacuación.

Si nos falta motivación para entender la importancia de una evacuación rápida y efectiva bastaría con visionar la película Sully, que relata el amerizaje de emergencia en el río Hudson, frente a Manhattan, poco después del despegue, y su subsiguiente evacuación. En esta ocasión, absolutamente todos los ocupantes del avión (155 personas) se salvaron sin mayores consecuencias.

Trailer de la película Sully.

El coste del comportamiento irracional

Pero el comportamiento y las características de los pasajeros pueden dificultar la evacuación de emergencia: el pánico, la ansiedad, los intentos por recuperar el equipaje y la diversidad física afectan significativamente a la eficiencia de la evacuación. Especialmente, el comportamiento irracional y la tendencia a recuperar el equipaje pueden retrasar significativamente la salida, como señalan algunos estudios.

Si hay evidencia científica sobre esto, ¿por qué no hacemos algo? Varias cuestiones rechinan aquí.

En primer lugar, todos los organismos internacionales se han olvidado de los pasajeros a la hora de establecer recomendaciones de formación. ICAO –International Civil Aviation Organization– fija las normas y métodos recomendados para la formación y licencias; IATA –International Air Transport Association– desarrolla programas de capacitación estandarizados y manuales de buenas prácticas en la industria aérea; IFALPA –International Federation of Air Line Pilots’ Associations– influye en temas de seguridad y formación desde la perspectiva de los pilotos, e ILO –International Labour Organization– establece lineamientos laborales relacionados con capacitación en transporte aéreo en algunos convenios. Pero todos estos estándares y recomendaciones son para los pilotos y la tripulación, no hay absolutamente nada previsto para los pasajeros.

Sin embargo, ya hemos hablado en otras ocasiones sobre la importancia de desarrollar una cultura de la prevención generalizada a nivel social para evitar los riesgos y sus consecuencias para la salud y la economía global.

Hay que formarse, no solo informarse

Está más que consolidada la idea de que para gestionar un desastre, la población en general (no solo los profesionales) debe poseer un conocimiento y pautas de acción apropiadas que no pueden adquirirse si antes no se ha efectuado una labor continuada de pedagogía y sensibilización.

En segundo lugar, información no es formación. La información no es más que un conjunto de datos estructurados, transmitidos con un propósito comunicativo, que no necesariamente implica un cambio comportamental en la persona que la recibe.

Dependiendo de la motivación de la persona, la información calará en su psique y transformará su comportamiento o simplemente la oirá como quien oye llover… En cambio, parafraseando al filosofo Hans-Georg Gadamer, la formación no es una mera acumulación de conocimientos, sino que implica su apropiación de manera que nos forme y transforme.

Volviendo al tema que nos ocupa, las personas a las que se debería proporcionar ayuda durante un proceso de evacuación en caso de emergencia aérea solo reciben actualmente una información atropellada que, en muchas ocasiones, no tiene ningún impacto en absoluto.

Además, no es descabellado pensar que quienes ocupen los asientos de las salidas de emergencia en los aviones deben poseer una mínima formación previa que les ayude a desempeñar mejor sus obligaciones en caso de necesidad.

La importancia del factor humano en la evacuación

Como hemos visto, investigaciones recientes destacan la importancia del factor humano a la hora de la evacuación de emergencia, por lo que sostenemos que la formación en evacuación aérea es fundamental para maximizar la supervivencia en este tipo de situaciones, como sucede en otros contextos de la vida cotidiana.

Es obvio que estaríamos hablando de una formación muy sencilla, pero comparable a la que se proporciona en muchos otros contextos, especialmente en el ámbito escolar y laboral (educación para la salud en el caso de estudiantes, formación en prevención de riesgos laborales para trabajadores, primeros auxilios para todos…).

Esta formación debería incluir los procedimientos básicos a seguir en caso de emergencia mediante simulaciones realistas porque, como ya hemos dicho antes, la formación no es solo información, sino que debe propiciar el “saber hacer”.

Todo está por construir, pero si ICAO fijara estándares básicos en forma de recomendaciones, las grandes alianzas comerciales (Star, SkyTeam, OneWorld) priorizaran sentar en las salidas de emergencia a personas con esta formación mínima acreditada. Y si los Estados la fomentaran patrocinándola de algún modo y empezando por formar gratuitamente a su personal, en poco tiempo habría un número muy significativo de personas preparadas y concienciadas para colaborar en este tipo de situaciones.

Obviamente se trata solo de una idea, pero es una idea que puede salvar su vida.

The Conversation

David Cobos Sanchiz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Evacuar un avión no es un juego: saber gestionar un desastre puede salvarle la vida – https://theconversation.com/evacuar-un-avion-no-es-un-juego-saber-gestionar-un-desastre-puede-salvarle-la-vida-265650

Conejos en la península ibérica: dos historias evolutivas, ¿dos especies diferentes?

Source: The Conversation – (in Spanish) – By Patricia Hidalgo Vaquerizas, Profesor Sustituto, Didácticas Específicas, Universidad de Córdoba

Dos ejemplares de conejo europeo (_Oryctolagus cuniculus_). François Mougeot

El conejo europeo (Oryctolagus cuniculus) recibe su nombre común por ser una especie que puede encontrarse en buena parte de Europa. Esta presencia es resultado de los múltiples traslados históricos que comienzan a realizarse en época romana desde la península ibérica, de donde es originario.

En la actualidad, Oryctolagus cuniculus sigue siendo un habitante común de los campos de la península ibérica, considerándose una pieza fundamental de los ecosistemas mediterráneos y un elemento clave en la relación entre naturaleza, caza y agricultura.

No obstante, estudios recientes han desvelado que su historia evolutiva es más compleja de lo que se pensaba. De hecho, un trabajo que acabamos de publicar en European Journal of Wildlife Research revela cómo en la península ibérica coexisten dos tipos de conejo distintos.

Dos linajes separados por millones de años

Mapa de la distribución mundial actual del conejo silvestre europeo. Las áreas oscuras y las flechas señalan los lugares donde se ha informado de la presencia de la especie.
Imagen tomada de Vaquerizas (2023)

Porque, como detallamos en el artículo, el conejo europeo se divide en dos subespecies con trayectorias evolutivas independientes. Por un lado está Oryctolagus cuniculus cuniculus (abreviadamente, Occ), presente en el norte y el este de la península ibérica. Y por otro, Oryctolagus cuniculus algirus (Oca), endémico del suroeste ibérico y del norte de África.

Ambos linajes se separaron hace unos dos millones de años, durante las glaciaciones del Pleistoceno, y hoy apenas coinciden en una estrecha franja central.




Leer más:
“Mismos” animales, genomas diferentes


Occ es el linaje introducido en Europa en los últimos dos milenios, desde donde se expandió a muchas otras regiones del mundo, incluidas Australia y Nueva Zelanda. Por su parte, Oca solo fue introducido solo en algunas islas, incluidas las Azores y Canarias. Por tanto, Oca más que “europeo”, es realmente “ibérico”.

Aunque Oca y Occ se parecen morfológicamente, como ocurre entre muchas otras especies de conejos del mundo, su biología, comportamiento y genética muestran profundas diferencias.

Tras revisar 57 estudios publicados desde 1980 hasta la actualidad, encontramos que casi el 80 % de ellos documenta diferencias significativas entre ambos linajes en aspectos genéticos, morfológicos, reproductivos y ecológicos. El Oca es más pequeño, oscuro y de orejas más cortas, crece más lentamente y tiene camadas más reducidas; mientras que el Occ es más grande, prolífico y adaptable a diferentes ambientes.

Incluso existen incompatibilidades entre sus cromosomas X e Y, evidenciando una especiación incipiente. Es decir, la etapa inicial del proceso de formación de una nueva especie en la que dos o más poblaciones empiezan a divergir hasta alcanzar un aislamiento reproductivo significativo pero aún incompleto.




Leer más:
¿Controlar o dejar en paz? Por qué no todas las especies introducidas son iguales


El conejo: plaga y especie amenazada

Estas diferencias biológicas se reflejan también en el estado de sus poblaciones. En el suroeste, donde predomina Oca, han sufrido un drástico declive, agravado por la aparición hace unos años de una nueva variante del virus hemorrágico RHDV2, que produce una enfermedad fatal en los conejos.

En el norte y el centro, donde vive Occ, las poblaciones en general se han mantenido estables o incluso en expansión.

Este hecho ofrece una paradoja: el conejo figura como especie que se encuentra amenazada en el sur mientras se considera una plaga en el norte del centro peninsular. Sin embargo, las políticas públicas lo siguen tratando como una sola entidad, aplicando los mismos marcos de gestión a situaciones opuestas.

El conejo es la base alimentaria de depredadores emblemáticos como el lince ibérico (Lynx pardinus) y el águila imperial ibérica (Aquila adalberti). Su escasez en el sur pone en riesgo la recuperación de estas especies, mientras que su abundancia en el norte y el centro genera graves daños a cultivos de viñedos y cereales en comunidades autónomas como Castilla-La Mancha, Aragón o Cataluña.

Repoblar sin mirar el ADN puede salir caro

Desde los años noventa, las repoblaciones y translocaciones de conejos desde zonas donde aún conserva altas densidades se han usado para reforzar poblaciones menguantes con fines de conservación o caza. No obstante, los expertos advierten que mover conejos sin tener en cuenta su origen genético puede ser contraproducente para la conservación de Oca.

Introducir ejemplares de un linaje en territorios ocupados por el otro puede provocar pérdida de adaptaciones locales y desequilibrios ecológicos. Aunque la Directiva Hábitats (92/43/CEE) prohíbe introducir linajes no nativos, su aplicación práctica sigue siendo limitada. En Castilla-La Mancha, quizá la comunidad autónoma con mayor grado de dificultad para que coexistan Occ y Oca de manera natural, han comenzado a regularlo, pero falta una estrategia común a nivel de toda la región ibérica.




Leer más:
El ADN como bola de cristal para estudiar los urogallos


Dos estrategias para garantizar su futuro

La gestión del conejo en la península debe adaptarse a la biología de cada linaje. En el suroeste, donde domina Oca, es urgente priorizar la conservación, restaurando hábitats y reduciendo la mortalidad por enfermedades, caza y depredación. En áreas agrícolas del norte y centro, donde abunda Occ, las medidas deben centrarse en un control sostenible que minimice los daños a los cultivos sin alterar los ecosistemas.

Las repoblaciones, además, deberían realizarse solo dentro del área natural de cada linaje y basarse en análisis genéticos previos para evitar problemas indeseados, como el reemplazo de poblaciones Oca por Occ en el área de distribución de Oca.

Dos historias bajo un mismo nombre

El caso del conejo silvestre en la península ibérica muestra cómo la historia evolutiva puede condicionar los retos de la conservación actual. Dos linajes separados hace millones de años responden hoy de manera diferente a las presiones humanas y ambientales. Ignorar esa diversidad podría llevarnos a perder uno de los linajes más antiguos de Europa mientras el otro se multiplica sin control.

En la península ibérica conviven bajo un mismo nombre, pues, dos historias naturales: la de un conejo genuinamente ibérico que necesita protección, y la de otro, más europeo y cosmopolita, que debe ser gestionado. Reconocer esa dualidad es el primer paso para garantizar su conservación y su coexistencia.

The Conversation

Patricia Hidalgo Vaquerizas no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Conejos en la península ibérica: dos historias evolutivas, ¿dos especies diferentes? – https://theconversation.com/conejos-en-la-peninsula-iberica-dos-historias-evolutivas-dos-especies-diferentes-267932

Descolonizar las prácticas científicas: el caso del desierto de Atacama en Chile

Source: The Conversation – (in Spanish) – By Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

El desierto de Atacama, considerado como un “análogo terrestre” de Marte, es escenario de numerosas investigaciones científicas, la mayoría de ella llevadas a cabo por expertos de fuera de América Latina. Diego Jimenez / Unsplash, CC BY

Cuando estábamos realizando la investigación bibliográfica que precedía a nuestro trabajo sobre la caracterización medioambiental de la región de la Puna Seca y el desierto de Atacama, en Sudamérica, nos llamó la atención que la mayoría de los trabajos publicados hasta entonces habían sido realizados por equipos extranjeros, sin ninguna participación de investigadores locales.

Si trasladamos esta situación, por ejemplo, a Francia, ¿sería posible y aceptable que los volcanes Puys de Auvernia o el glaciar Mar de Hielo fueran estudiados exclusivamente por equipos procedentes de organismos de investigación argentinos, chilenos, peruanos o bolivianos, sin la participación de investigadores pertenecientes a instituciones francesas?

Ubicación geográfica de la Puna seca (rojo) y del desierto de Atacama (amarillo).
Fourni par l’auteur

Laboratorios naturales

La Puna Seca y el desierto de Atacama son regiones del globo que se extienden a caballo entre cuatro países (Argentina, Bolivia, Chile y Perú). Su aridez extrema da forma a paisajes que muchos calificarían espontáneamente de “lunares” o “marcianos”. Estas dos regiones corresponden, en efecto, a lo que en la jerga científica se denomina “análogos planetarios”: lugares geográficos presentes en la Tierra, pero que pueden asemejarse a entornos extraterrestres.

La Puna seca y el desierto de Atacama se consideran, por tanto, buenos análogos terrestres de Marte y podrían presentar, en la actualidad, condiciones físico-químicas similares a las que pudo haber tenido el planeta rojo a lo largo de su historia geológica. Por lo tanto, son formidables laboratorios naturales para los campos de las ciencias planetarias y la astrobiología. Su rareza también despierta el interés de científicos de todo el mundo.

Comparación entre un paisaje terrestre en el desierto de Atacama durante una campaña de búsqueda de meteoritos y un paisaje marciano capturado por el rover Curiosity.
Parte superior: Luigi Folco/Parte inferior: NASA/JPL-Caltech/MSSS, CC BY

Mayoría de científicos extranjeros

¿Cómo pasar de una vaga impresión a la certeza de que hay una preponderancia de trabajos extranjeros en la zona geográfica en cuestión? Nuestro equipo franco-chileno, compuesto por geólogos, geofísicos, astrofísicos y biólogos, ha establecido un método sistemático para comparar artículos basados, de una u otra manera, en las características excepcionales de la Puna Seca y el desierto de Atacama, en los campos de las ciencias planetarias y la astrobiología.

Nuestra impresión se vio confirmada en un artículo recogido en la revista Meteoritics and Planetary Science: de 5 369 artículos analizados de la selección general en ciencias de la Tierra, 161 en ciencias planetarias y astrobiología, más del 60 % de los trabajos se publicaron sin la participación de ningún investigador perteneciente a una institución nacional de uno de los países que albergan la Puna Seca o el desierto de Atacama.

El desequilibrio puesto de manifiesto es similar al de otras disciplinas científicas y no se limita a esta región.

Ciencias “safari”

La valorización científica del patrimonio natural de algunos países, sin una contribución importante de los investigadores locales, suscita cada vez más inquietudes en una parte de la comunidad científica.

Durante este trabajo, hemos descubierto términos relativamente recientes (acuñados desde los años 2000) como “ciencias helicóptero”, “ciencias paracaídas”, “ciencias safari” o “ciencias neocoloniales”, que permiten poner nombre a prácticas caracterizadas por la puesta en marcha de proyectos de investigación científica llevados a cabo por equipos de países desarrollados (Norte Global) en países en desarrollo o subdesarrollados (Sur Global), sin ninguna implicación de los investigadores locales.

Estas prácticas tienden a considerarse contrarias a la ética y el tema se convierte en objeto de debate y publicaciones en el ámbito de la ciencia básica: la mayoría de las veces en forma de diagnóstico general, pero también en términos de cuantificación.

Iniciativas anticolonialistas

Algunas revistas científicas, entre ellas Geoderma (referencia en el ámbito de la ciencia del suelo) a partir de 2020, han tomado la iniciativa de adoptar una posición inequívoca contra las prácticas científicas neocoloniales. De esa manera allanan el camino para modificar las políticas editoriales con el fin de tener en cuenta la necesidad de involucrar a los investigadores locales en las publicaciones científicas.

Es el caso, por ejemplo, de todas las ediciones de PLOS, que desde 2021 exige que se rellene un cuestionario de inclusión de investigadores locales para las investigaciones realizadas en terceros países. Desde entonces, este requisito ha sido imitado en el mundo de la edición científica.

El requerimiento ético para las investigaciones realizadas en países extranjeros se está convirtiendo, por tanto, en una norma editorial importante, aunque todavía no mayoritaria. Sin embargo, se podrían activar otras palancas, como marcos legislativos nacionales o internacionales restrictivos que impongan la participación de investigadores locales en los trabajos de campo realizados por científicos extranjeros.

En Francia, por ejemplo, la puesta en marcha de programas de investigación en territorios excepcionales como las islas Kerguelen (territorio subantártico francés del océano Índico) o la Tierra Adelia en la Antártida requiere que el proyecto sea liderado por un agente titular de un organismo de investigación público francés.

Por lo tanto, ya existen modelos que permiten evitar este problema de apropiación cultural de un patrimonio natural científico por parte de investigadores pertenecientes a instituciones extranjeras. Sin embargo, nos parece necesario que la comunidad científica lleve a cabo una autoobservación de estas prácticas.

Imperialismo en el conocimiento

Este es el objetivo del estudio que hemos realizado y de otros trabajos similares que se están generalizando desde hace algunos años: visibilizar estas prácticas científicas neocoloniales –sobre todo, cuantificando el fenómeno– para que el problema se debata dentro de la comunidad.

Eso ha permitido a nuestro equipo plantearse preguntas fundamentales sobre sus prácticas científicas y (re)descubrir las importantes contribuciones realizadas, desde hace más de 60 años, por sociólogos y epistemólogos sobre las raíces profundas e históricas que pueden vincular el colonialismo, el imperialismo y la ciencia y, de manera más general, las relaciones entre el centro y la periferia (por ejemplo, los desequilibrios, dentro de un mismo país, entre las instituciones metropolitanas o centrales y las instituciones regionales).

El ejemplo de la Puna Seca y el desierto de Atacama ilustra así las diferencias económicas, científicas y tecnológicas que se han ido acentuando progresivamente entre el Norte y el Sur Global.

Las ciencias planetarias y la astrobiología han estado históricamente vinculadas al desarrollo tecnológico de programas espaciales ambiciosos y muy costosos cuyas principales ambiciones no eran científicas. En este contexto, los países del Sur Global no tuvieron la oportunidad de aprovechar la conquista espacial de la segunda mitad del siglo XX para desarrollar una comunidad científica local en dichas disciplinas.

Colaboración Norte y Sur

Actualmente se están realizando esfuerzos en el continente sudamericano para paliar esta situación y facilitar así la identificación de interlocutores científicos locales por parte de investigadores de instituciones extranjeras.

También se han llevado a cabo iniciativas entre algunos investigadores sudamericanos y sus homólogos del Norte Global con el fin de desarrollar iniciativas de investigación locales en ámbitos específicos de las ciencias planetarias y la astrobiología (por ejemplo, en un caso que nuestro equipo conoce bien, la investigación sobre meteoritos en Chile).

En el campo de la astronomía, la creación de grandes observatorios internacionales en territorio chileno ha permitido la estructuración de una comunidad local de astrónomos que representa un buen ejemplo del inicio de una cooperación fructífera entre el Norte y el Sur Global.

No olvidemos mencionar también el notable y ejemplar desarrollo de la astrobiología en México, siguiendo los pasos de los científicos mexicanos Antonio Lazcano y Rafael Navarro-González. Ello demuestra que sigue siendo posible una estructuración local independiente que genere una dinámica positiva para todo el continente sudamericano.

Sin embargo, todas estas iniciativas siguen siendo demasiado escasas o demasiado desequilibradas en favor del liderazgo del Norte Global y no pueden sustituir a un profundo esfuerzo de autocrítica por parte de la comunidad científica.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Descolonizar las prácticas científicas: el caso del desierto de Atacama en Chile – https://theconversation.com/descolonizar-las-practicas-cientificas-el-caso-del-desierto-de-atacama-en-chile-269964

Cómo aprovechar la ‘dieta mediática’ de los adolescentes para trabajar el pensamiento crítico

Source: The Conversation – (in Spanish) – By Pedro Adalid Ruíz, Profesor Universitario de Políticas de Calidad Educativa y Planes de Mejora, Universidad CEU San Pablo

PeopleImages.com/Shutterstock

Para los niños y adolescentes de hoy la frontera entre el aprendizaje formal y el consumo de medios se ha diluido: plataformas como TikTok, YouTube e Instagram no son meros pasatiempos, sino espacios primordiales de socialización, construcción de identidad y acceso a información.

Esta “dieta mediática juvenil”, compuesta por vídeos virales, memes, trends y noticias fragmentadas, es la principal matriz cultural de las nuevas generaciones. ¿Cómo debe afrontarla la escuela? Ignorar o rechazar estos contenidos, por considerarlos distracciones, genera una brecha entre la escuela y la vida de los estudiantes. Además, deja a los jóvenes desarmados frente a los desafíos de la desinformación, los estereotipos y la manipulación emocional que proliferan en entornos sin filtros editoriales.




Leer más:
Siete preguntas que debemos hacernos antes de compartir una noticia en redes sociales


La alfabetización digital no es enseñar a usar herramientas tecnológicas, sino formar sujetos capaces de comprender, cuestionar y transformar los discursos que consumen y producen. Así, organismos internacionales como la UNESCO la definen como “alfabetización mediática e informacional” y la consideran imprescindible para el desarrollo personal.

Traer los contenidos a la escuela

Proyectos impulsados por instituciones como Fad Juventud promueven actividades educativas gamificadas para fomentar el pensamiento crítico entre adolescentes. Un ejemplo destacado es el proyecto ERASER, una aventura interactiva diseñada para centros de Educación Secundaria, Bachillerato y Formación Profesional.

En este entorno lúdico, los estudiantes asumen el rol de “detectives digitales”, enfrentándose a casos reales de desinformación. A través de vídeos, publicaciones en redes sociales y audios virales, aplican técnicas de verificación de hechos, identifican bulos y deepfakes y analizan estrategias de manipulación digital.

Deconstruir un vídeo viral

Al utilizar, por ejemplo, un vídeo viral de TikTok en el aula, el docente puede desgranar conceptos complejos y esenciales para el pensamiento crítico como:

  • La autoría y credibilidad: ¿Quién está detrás de este mensaje? ¿cuál es su intención (informar, persuadir, vender)? ¿existen credenciales que respalden la información?

  • El lenguaje audiovisual: ¿Qué recursos de edición, música o encuadres se utilizan para manipular o influir en la emoción del espectador?

  • Los sesgos y algoritmos: ¿Por qué la plataforma me muestra este contenido específico? ¿cómo la lógica algorítmica moldea nuestra “burbuja informativa” y sesga nuestra visión del mundo?

Esta aproximación transforma el consumo pasivo en un ejercicio de reflexión profunda, trasladando el foco de la alfabetización técnica (saber usar el dispositivo) a la comprensión crítica (saber interpretar y cuestionar el contenido), demostrando que esta no es una propuesta teórica, sino una práctica factible.

Enfoques desde distintas asignaturas

En este sentido, un docente de Lengua puede trabajar con vídeos de influencers para analizar discursos persuasivos, mientras que un profesor de Ciencias Sociales puede explorar cómo se construyen identidades o se representan conflictos en memes y clips virales, vinculando el contenido digital con los temas curriculares.

Al dar a los estudiantes el papel de productores o analistas de contenido, se desarrolla una mayor conciencia sobre su rol en el ecosistema digital.

Currículum y familia

Para que esta transformación prospere se requiere una alianza entre escuela y familia. Los docentes necesitan formación específica en competencias digitales críticas que vaya más allá del manejo de software, y les ayuden a comprender los lenguajes, dinámicas y riesgos inherentes a los entornos digitales. También es necesario incorporar en el currículum el análisis de contenidos digitales en las planificaciones, promoviendo debates sobre temas éticos y sociales presentes en redes y utilizando rúbricas de pensamiento crítico.




Leer más:
Jóvenes y adolescentes en redes sociales: ¿consumidores o creadores?


Por su parte, las familias pueden pasar de la censura o la indiferencia a la mediación activa. La conversación y la confianza familiar son pilares para el desarrollo de la autonomía digital. Preguntas como “¿Qué has aprendido hoy en TikTok?” o “¿Por qué crees que este influencer te dice eso?” abren un diálogo crucial.

De la pasividad a la participación

Enseñar a comprender los contenidos digitales no es una tarea opcional, sino una responsabilidad educativa urgente. La pedagogía del siglo XXI debe integrar los lenguajes, hábitos y dinámicas digitales que forman parte del entorno del niño y adolescente, transformándolos en herramientas educativas dentro del aula del futuro.

La clave reside en transformar el consumo en análisis, la reproducción en creación, y la pasividad en participación consciente. Así será posible formar generaciones con la brújula intelectual necesaria para navegar el vasto mundo digital con autonomía, criterio y compromiso cívico.

The Conversation

Pedro Adalid Ruíz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cómo aprovechar la ‘dieta mediática’ de los adolescentes para trabajar el pensamiento crítico – https://theconversation.com/como-aprovechar-la-dieta-mediatica-de-los-adolescentes-para-trabajar-el-pensamiento-critico-267715

La UE de Von der Leyen favorece el ‘marketing’ de Silicon Valley para invertir en IA, sin base científica

Source: The Conversation – (in Spanish) – By Ramon López de Mántaras, Profesor de investigación del CSIC, Instituto de Investigación en Inteligencia Artificial (IIIA – CSIC)

Ursula von der Leyen, presidenta de la Comisión Europea, durante un acto en Bucarest (Rumanía) en julio de 2024. CornelPutan/Shutterstock

La presidenta de la Comisión Europea, Ursula von der Leyen, aseguró el pasado mes de mayo, en la conferencia anual sobre el presupuesto europeo, que la inteligencia artificial alcanzaría la “capacidad de razonar como un ser humano” en 2026. Ante el comentario, muchos especialistas nos llevamos las manos a la cabeza. No lo dijo citando un artículo revisado por pares ni un estudio científico sólido. Lo dijo repitiendo materiales de marketing de algunas de las grandes tecnológicas norteamericanas.

La comunidad científica alerta de las decisiones políticas tomadas en la UE comprando humo a las grandes tecnológicas norteamericanas. Los contratos de IA para servicios públicos en Europa benefician sobre todo a firmas privadas que venden sistemas cuyo impacto real está por demostrar. La IA no va a solucionar el sistema sanitario, revolucionar los servicios sociales ni modernizar la administración. Hay que invertir en personas, no en desarrollos imposibles.

Carta abierta de la comunidad científica

A mediados de noviembre de este año, más de 250 científicos firmamos una carta abierta pidiendo a la presidenta que se retractara de la afirmación de que la IA se acercará al razonamiento humano el próximo año; que evaluara con rigor otras afirmaciones de marketing similares sobre productos de IA; y que se asegurara de contar en el futuro con el asesoramiento científico imparcial necesario.

La Comisión Europea respondió que la afirmación se basaba en “el conocimiento profesional de los servicios de la Comisión y una revisión de literatura científica”.

Esa “literatura científica”, sin embargo, resultó ser un puñado de declaraciones del CEO de Anthropic, del director de OpenAI, del responsable de Nvidia y del experto en IA Yoshua Bengio.

La carta abierta es muy crítica, ya que al entrar en el juego del marketing de las grandes tecnológicas, Europa mina su propia credibilidad.

La distancia entre política y realidad

Pero éste no es el único problema. El programa europeo de 200 000 millones destinado a “gigafactorías de IA” responde a las promesas de muchos gobiernos europeos de que la inteligencia artificial revolucionará el sistema sanitario y transformará los servicios públicos. Europa está tomando decisiones políticas y económicas con dinero público sobre una base preocupante: la publicidad empresarial, no la ciencia.

Los científicos que firmamos la carta no somos enemigos de la tecnología: trabajamos con ella a diario. Justamente por eso alertamos de la distancia creciente entre lo que los políticos prometen y lo que la IA realmente es capaz de hacer.

Rao Kambhampati, expresidente de la prestigiosa AAAI (Asociación para el Avance de la Inteligencia Artificial), publicó en 2023 un trabajo titulado ¿Pueden los modelos masivos de lenguaje realmente razonar y planificar?. Ahí argumenta sólidamente que lo que hacen estos modelos (el más conocido por el gran público es ChatGPT) no es razonar sino más bien recitar, recuperando, aproximadamente, información que se les había proporcionado durante la fase de entrenamiento.

Recientemente, en 2025, investigadores de Apple publicaron un trabajo titulado The Illusion of Thinking (La Ilusión del Pensamiento) en el que mostraban que los modelos de “razonamiento” más avanzados fallan estrepitosamente en problemas complejos. Funcionan bien mientras las tareas son simples, pero sus capacidades colapsan cuando se incrementa la dificultad.

Por su parte, en noviembre de este mismo año, un estudio llevado a cabo por 42 investigadores de prestigiosas instituciones (Universidad de Oxford, Escuela Politécnica Federal de Lausana, Universidad Stanford, Universidad Técnica de Munich, Universidad de California-Berkeley, Instituto de Seguridad de la IA del Reino Unido, Weizenbaum Institute y Universidad de Yale), analizaron 445 tests (benchmarks) de IA y concluyeron que muchos no evalúan lo que dicen evaluar: más que razonar, los modelos memorizan patrones, confirmando así las conclusiones de Kambhampati.

No habrá IA con inteligencia similar a la humana

El informe de 2025 del denominado “Panel Presidencial” de la AAAI sobre el futuro de la investigación en IA revela que el 76 % de los científicos que investigan en IA afirman que es “poco probable” o “muy poco probable” que los enfoques actuales de la IA permitan alcanzar una IA general similar a la humana, lo que sugiere serias dudas sobre el futuro de los paradigmas actuales de la IA generativa. Y, aun así, demasiados líderes europeos siguen tomando como referencia la palabra de los CEO de Silicon Valley, cuyo deber fiduciario es defender sus beneficios, no la verdad científica.

Riesgo público y beneficios privados

El patrón es claro. Ursula von der Leyen ha repetido en varias ocasiones que la IA alcanzará pronto capacidades de razonamiento humano mientras impulsa un gigantesco plan de inversión pública. En la cumbre de “Acción en IA” de París, en febrero de 2025, anunció una infraestructura europea de “computación masiva”, con la adquisición de 100 000 procesadores avanzados.

La financiación vendría de fondos públicos y privados: “la mayor asociación público-privada del mundo para desarrollar IA fiable”, afirmó. En otras palabras: riesgos públicos, beneficios privados.

En el Reino Unido, el Gobierno de Keir Starmer y la mayoría de líderes europeos siguen una narrativa muy similar. Según su discurso, la IA es la llave para transformar el sistema sanitario, revolucionar los servicios sociales y modernizar la administración.

Contratos privados con empresas de IA

La realidad es más pedestre: los contratos millonarios con empresas de IA avanzan, pero la inversión en personas se desploma: los sistemas públicos de salud pierden personal sanitario, los maestros y profesores abandonan la profesión exhaustos y los trabajadores sociales gestionan cargas inasumibles. Ninguna de estas profesiones puede ser reemplazada por IA.

La medicina requiere juicio clínico y empatía para tratar a los pacientes; la educación exige interpretar señales emocionales y despertar curiosidad; el trabajo social implica navegar por situaciones familiares complejas y sostener decisiones difíciles. La IA puede asistir en tareas concretas (procesar datos, identificar patrones en imágenes médicas), pero no suplanta el criterio profesional. Puede generar textos plausibles, no conocimiento. En los servicios públicos, esta diferencia no es un matiz: es la línea que separa el buen funcionamiento del fracaso.

El rastro del dinero

Para entender qué pasa, conviene seguir el rastro del dinero: mientras las empresas de IA cuentan con ejércitos de lobistas, los antiguos responsables de políticas públicas encuentran nuevos empleos asesorando a las mismas compañías que antes regulaban.

No sorprende que la “revisión de literatura” de la Comisión Europea diera como resultado un conjunto de declaraciones de directivos de empresas con enormes intereses en juego.

Mientras tanto, cada contrato de IA para servicios públicos beneficia sobre todo a firmas privadas que venden sistemas cuyo impacto real está por demostrar. La financiación pública se convierte así en capital de riesgo para proyectos tecnológicos.

Von der Leyen ha comprometido 200 000 millones para el desarrollo de IA europea. ¿Cuánto de ese dinero se destinará a formar y retener médicos, maestros, trabajadores sociales y funcionarios? Muy poco. La paradoja es evidente: se promete modernización mientras se desinvierte en las personas que sostienen la vida pública.

Que la inversión pública se centre en las capacidades humanas

Los científicos que cuestionamos a Von der Leyen no rechazamos la IA. Rechazamos el engaño. Pedimos políticas basadas en evidencia real, no en el marketing de Silicon Valley. Exigimos que la inversión pública vuelva a centrarse en la capacidad humana: salarios competitivos, formación continua, estructuras organizativas que preserven el conocimiento y permitan evaluar las consecuencias de las decisiones.

La IA puede ser útil, sí. Puede agilizar tareas, aportar eficiencia, complementar el trabajo de profesionales experimentados. Pero no es una solución milagrosa, ni un sustituto del personal cualificado, ni una excusa para continuar externalizando funciones esenciales del Estado.

Cuando la Comisión Europea reconoció que su afirmación sobre el “razonamiento humano” se apoyaba en declaraciones de CEO, quedó claro el problema de fondo: estamos construyendo políticas públicas sobre cimientos de propaganda.

Europa tiene que elegir. O sigue confiando en promesas tecnológicas sin fundamento y entrega sus servicios públicos a la lógica del outsourcing, o afronta la tarea –menos brillante, pero indispensable– de reconstruir su capacidad humana.

El futurible de la IA no será el que anuncien los directivos con intereses comerciales, sino el que permitan la ciencia, la responsabilidad política y la inversión sostenida en lo que de verdad funciona: las personas. La pregunta es si nuestros líderes están dispuestos a admitirlo.

The Conversation

Ramon López de Mántaras no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La UE de Von der Leyen favorece el ‘marketing’ de Silicon Valley para invertir en IA, sin base científica – https://theconversation.com/la-ue-de-von-der-leyen-favorece-el-marketing-de-silicon-valley-para-invertir-en-ia-sin-base-cientifica-270304

Can bigger-is-better ‘scaling laws’ keep AI improving forever? History says we can’t be too sure

Source: The Conversation – Global Perspectives – By Nathan Garland, Lecturer in Applied Mathematics and Physics, Griffith University

Milad Fakurian / Unsplash

OpenAI chief executive Sam Altman – perhaps the most prominent face of the artificial intelligence (AI) boom that accelerated with the launch of ChatGPT in 2022 – loves scaling laws.

These widely admired rules of thumb linking the size of an AI model with its capabilities inform much of the headlong rush among the AI industry to buy up powerful computer chips, build unimaginably large data centres, and re-open shuttered nuclear plants.

As Altman argued in a blog post earlier this year, the thinking is that the “intelligence” of an AI model “roughly equals the log of the resources used to train and run it” – meaning you can steadily produce better performance by exponentially increasing the scale of data and computing power involved.

First observed in 2020 and further refined in 2022, the scaling laws for large language models (LLMs) come from drawing lines on charts of experimental data. For engineers, they give a simple formula that tells you how big to build the next model and what performance increase to expect.

Will the scaling laws keep on scaling as AI models get bigger and bigger? AI companies are betting hundreds of billions of dollars that they will – but history suggests it is not always so simple.

Scaling laws aren’t just for AI

Scaling laws can be wonderful. Modern aerodynamics is built on them, for example.

Using an elegant piece of mathematics called the Buckingham π theorem, engineers discovered how to compare small models in wind tunnels or test basins with full-scale planes and ships by making sure some key numbers matched up.

Those scaling ideas inform the design of almost everything that flies or floats, as well as industrial fans and pumps.

Another famous scaling idea underpinned the boom decades of the silicon chip revolution. Moore’s law – the idea that the number of the tiny switches called transistors on a microchip would double every two years or so – helped designers create the small, powerful computing technology we have today.

But there’s a catch: not all “scaling laws” are laws of nature. Some are purely mathematical and can hold indefinitely. Others are just lines fitted to data that work beautifully until you stray too far from the circumstances where they were measured or designed.

When scaling laws break down

History is littered with painful reminders of scaling laws that broke. A classic example is the collapse of the Tacoma Narrows Bridge in 1940.

The bridge was designed by scaling up what had worked for smaller bridges to something longer and slimmer. Engineers assumed the same scaling arguments would hold: if a certain ratio of stiffness to bridge length worked before, it should work again.

Instead, moderate winds set off an unexpected instability called aeroelastic flutter. The bridge deck tore itself apart, collapsing just four months after opening.

Likewise, even the “laws” of microchip manufacturing had an expiry date. For decades, Moore’s law (transistor counts doubling every couple of years) and Dennard scaling (a larger number of smaller transistors running faster while using the same amount of power) were astonishingly reliable guides for chip design and industry roadmaps.

As transistors became small enough to be measured in nanometres, however, those neat scaling rules began to collide with hard physical limits.

When transistor gates shrank to just a few atoms thick, they started leaking current and behaving unpredictably. The operating voltages could also no longer be reduced with being lost in background noise.

Eventually, shrinking was no longer the way forward. Chips have still grown more powerful, but now through new designs rather than just scaling down.

Laws of nature or rules of thumb?

The language-model scaling curves that Altman celebrates are real, and so far they’ve been extraordinarily useful.

They told researchers that models would keep getting better if you fed them enough data and computing power. They also showed earlier systems were not fundamentally limited – they just hadn’t had enough resources thrown at them.

But these are undoubtedly curves that have been fit to data. They are less like the derived mathematical scaling laws used in aerodynamics and more like the useful rules of thumb used in microchip design – and that means they likely won’t work forever.

The language model scaling rules don’t necessarily encode real-world problems such as limits to the availability of high-quality data for training, or the difficulty of getting AI to deal with novel tasks – let alone safety constraints or the economic difficulties of building data centres and power grids. There is no law of nature or theorem guaranteeing that “intelligence scales” forever.

Investing in the curves

So far, the scaling curves for AI look pretty smooth – but the financial curves are a different story.

Deutsche Bank recently warned of an AI “funding gap” based on Bain Capital estimates of a US$800 billion mismatch between projected AI revenues and the investment in chips, data centres and power that would be needed to keep current growth going.

JP Morgan, for their part, has estimated that the broader AI sector might need around US$650 billion in annual revenue just to earn a modest 10% return on the planned build-out of AI infrastructure.

We’re still finding out which kind of law governs frontier LLMs. The realities may keep playing along with the current scaling rules; or new bottlenecks – data, energy, users’ willingness to pay – may bend the curve.

Altman’s bet is that the LLM scaling laws will continue. If that’s so, it may be worth building enormous amounts of computing power because the gains are predictable. On the other hand, the banks’ growing unease is a reminder that some scaling stories can turn out to be Tacoma Narrows: beautiful curves in one context, hiding a nasty surprise in the next.

The Conversation

Nathan Garland does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Can bigger-is-better ‘scaling laws’ keep AI improving forever? History says we can’t be too sure – https://theconversation.com/can-bigger-is-better-scaling-laws-keep-ai-improving-forever-history-says-we-cant-be-too-sure-270448

How the Trump administration tried to sell Ukraine a diplomatic debacle

Source: The Conversation – Global Perspectives – By Matthew Sussex, Associate Professor (Adj), Griffith Asia Institute; and Fellow, Strategic and Defence Studies Centre, Australian National University

A flurry of recent diplomatic activity has seen two competing peace plans for Ukraine emerge.

The first, widely touted as a US plan, was apparently hashed out between Kremlin insider Kirill Dmitriev and Steve Witkoff, President Donald Trump’s Russia point-man.

The second, hurriedly drafted by the United Kingdom, France and Germany, is based on the 28 points in the US plan, but with key modifications and deletions.

Following the release of the US plan, Trump accused Ukraine of showing “zero gratitude” for US assistance in the war effort, and demanded Kyiv accept the terms by Thanksgiving in the United States – November 27 – or face being cut off from US intelligence sharing and military aid.

Unlike the US plan, the European counter-proposal places the blame for the war squarely at Russia’s feet. It proposes freezing Russian assets until reparations are made by Moscow. It also seeks to freeze the conflict in place, leaving the question of which party retains which part of Ukraine contingent on subsequent negotiations.

Speaking about the peace proposals, European Commission President Ursula von der Leyen made it clear the European Union was committed to several key positions:

  • that Ukraine’s borders cannot be altered by force
  • there cannot be limitations on Ukraine’s armed forces that would leave it vulnerable, and
  • the EU needed to have a seat at the table in any agreement.

Comparing the two plans, it is clear Russia and Europe remain as far apart as ever on Ukraine’s future. That much is unsurprising.

What should be more shocking to Western observers is just how much the US plan echoed Russian demands that have remained largely unaltered since President Vladimir Putin’s full-scale invasion of Ukraine in early 2022.

Lacking logic and specifics

Put simply, the US plan would have had as much credibility if it had been written in crayon.

For starters, it has wording that appears to make more sense in Russian than English (or perhaps AI-translated English).

And it seems more focused on bringing about a new era of friendly Russia-US economic cooperation than a serious attempt to resolve Europe’s biggest land war since the Second World War.

Typical of Trumpian robber-baron foreign policy, the document foresaw large cash grabs for the US, amounting to little more than attempts at extortion.

In return, Ukraine was offered a murky NATO-style security guarantee that could be reneged upon under flimsy pretexts.

The plan also demanded:

  • large territorial concessions from Kyiv
  • a limited army
  • a pledge enshrined in Ukraine’s constitution that it would never to join NATO, and
  • a promise to hold elections in 100 days.

And while it expected Ukraine to strategically emasculate itself, the document made only vague suggestions about what Russia is “expected” to do, with no means of enforcement.

No multinational force was put forward to monitor the peace. And Ukraine was required to give up key defensive positions by ceding the territory it still controls in the Donbas region to Russia. That would leave the centre of the country defenceless against future Russian attacks.

Accepting those terms, as originally written, would be politically suicidal for Ukrainian President Volodomyr Zelensky. This was obvious in his sombre message that the plan forced Ukraine to choose between its dignity and continued US support.

A point-by-point breakdown

A closer look at just a selection of its key points illustrates just how bizarre the plan is.

  • Point 4 calls for “dialogue” between Russia and NATO, mediated by the US. That’s odd, since the US is a member of NATO.

  • Point 7 requires NATO to include a provision in its statutes that Ukraine will not be admitted. But the main purpose of NATO is that membership is open to all.

  • Point 9 says “European fighter jets” will be stationed in Poland, but doesn’t mention the American F-35s currently there.

  • Point 10 states that if Ukraine launches a missile “without cause” at St Petersburg or Moscow (strangely implying it’s fine to hit Smolensk or Voronezh, for instance) – then Kyiv loses its US security guarantee.

  • Point 13 says Russia will be invited to rejoin the G8 (the group now known as the G7 after Russia was expelled in 2014). But it says nothing about whether the other six members would agree to that.

  • Point 16 requires Russia to enshrine in law a policy of non-aggression towards Ukraine. However, it had already done so several times in the past, yet still invaded Ukraine in 2022.

  • Point 22 foresees a demilitarised zone in parts of Donetsk that Russian troops will not be able to enter. How to enforce that is left unspecified.

  • Point 26 gives everyone involved in the conflict full amnesty for their actions, including numerous alleged war criminals.

  • Point 27 establishes a “Peace Council” that would be overseen by Trump, similar to the “Board of Peace” envisioned in the Gaza peace plan, also headed by Trump. This gives him the ability to determine whether the agreement is being violated (and, crucially, by whom).

Where to next?

Ukrainians have been sold a diplomatic lemon before. In 1994, Ukraine signed the Budapest Memorandum, in which Kyiv agreed to give up the nuclear weapons it still held from the Soviet era, in return for commitments by Russia and the US that its sovereignty and borders would be respected.

Just as the current US plan has been rebuffed by Kyiv, there is no hope of the European alternative being endorsed by the Putin regime. Indeed, it has already been rejected by one of Putin’s senior advisers.

Where does this leave the peace process? US Secretary of State Marco Rubio has already walked back the US plan from a concrete set of demands to a “living, breathing document”, and hinted at great progress in negotiations with Ukraine.

European and Ukrainian stakeholders have also made approving noises, knowing that if the White House loses interest, securing peace will be much harder.

Yet it’s below the surface that the real soul-searching will be happening, in Ukraine, as well as the broader West. Once again, the Trump administration has proven it is more interested in long-term deals with autocrats than achieving just and lasting resolutions to security crises.

That alone should give US allies pause, and not just in Europe. For those nations, it’s one thing to doubt Putin’s motives. But it’s another thing entirely to now have to doubt America’s as well.

The Conversation

Matthew Sussex has received funding from the Australian Research Council, the Atlantic Council, the Fulbright Foundation, the Carnegie Foundation, the Lowy Institute and various Australian government departments and agencies.

ref. How the Trump administration tried to sell Ukraine a diplomatic debacle – https://theconversation.com/how-the-trump-administration-tried-to-sell-ukraine-a-diplomatic-debacle-270561