Are peanut allergies actually declining?

Source: The Conversation – UK – By Sheena Cruickshank, Professor in Immunology, University of Manchester

Changing allergy guidelines may be behind the decline. Roman Rybaleov/ Shutterstock

Peanut allergy is one of the most common food allergies, affecting between 1% and 2% of people living in the west. And, for many years, their prevalence has been rising.

But a recent study out of the US shows that the rate of peanut allergy diagnoses in infants has actually declined. It appears this decline may be due to changes in allergy guidelines – highlighting the importance of introducing this common allergen early on.

A food allergy is a type of allergic reaction which occurs when your immune system reacts inappropriately to things it should ignore – such as pollen or certain types of foods. The most common allergic condition is hayfever – a reaction to pollen. Peanut allergy is one of the most common true food allergies – and also the most common cause of fatal food reactions.

The proportion of people with food allergies in England has more than doubled between 2008 and 2018. Similar data in the US showed more than triple the number of people developed a food allergy between 1997 and 2008.

The reasons for these increases are complex and due to many factors – including exposure to environmental pollutants, alterations in the gut microbiome and genetic predisposition. There also appears to be a link between certain inflammatory health conditions (such as atopic dermatitis and an infant’s likelihood of developing a food allergy.




Read more:
What’s behind the large rise in food allergies among children in the UK?


But this latest study has shown that the US appears to have deviated from this overall trend, with peanut allergies actually falling in infants.

The study examined changes in the rates of peanut allergies since 2015. This was the year allergy guidelines in the US changed to encourage infants considered most at risk of food allergy (such as those with atopic dermatitis) to be introduced to peanuts early in life.

Previous research had shown that these guideline changes had resulted in an increase in the number of parents introducing peanuts into their child’s diet by one year of age. The research team wanted to assess whether this had had any affect on peanut allergy rates, too.

They enrolled almost 39,000 children during the pre-guidelines phase (when advice was to avoid peanuts) and around 47,000 in the post-guidelines phase (after 2015). Allergy incidence in both groups was tracked for one to two years.

A young girl eats whole peanuts.
Early exposure to peanuts is linked with reduced likelihood of developing an allergy.
triocean/ Shutterstock

The research showed that the total rate of peanut allergy decreased from almost 0.8% to 0.5%. This meant fewer at-risk infants developed a peanut allergy following the guideline change.

These findings mirror prior work in the UK showing that early exposure to peanuts before the age of five was linked to a reduced likelihood of developing an allergy.

Food allergy guidelines

In the late-1990s and early 2000s, the burgeoning incidence of food allergies and their life-threatening implications prompted sweeping policy changes in many western countries.

In the UK in 1998 and the US in 2000, guidelines changed to recommend high-risk allergens (such as peanuts) were completely avoided by pregnant women, breastfeeding mothers and infants considered at high risk for allergy.

But these guidelines were made in the absence of any rigorous studies actually showing they’d have a positive effect. Indeed, animal studies had suggested there may be no benefits – showing that eating potential allergens early in life actually invokes an important phenomenon called oral tolerance.

Oral tolerance is where the immune system ignores a potential allergen after it has been introduced to the gut through diet. How oral tolerance develops isn’t fully understood, but involves several mechanisms that help immune cells to be effectively “switched off” so they don’t mistake certain foods for a threat.

But despite the change in advice to avoid peanuts, rates of peanut allergies did not fall.

A major UK review conducted in 2008 consequently showed there was no clear evidence that eating or not eating peanuts (or foods containing peanuts) during pregnancy, while breastfeeding or in early childhood had any effect on the chances of a child developing a peanut allergy. As such, the advice in the UK to avoid peanuts (and eggs) during pregnancy and early childhood was reversed in 2009.

A randomised trial conducted since this policy change came into place showed that among infants considered at high risk of allergy, consistent consumption of peanuts from 11 months of age resulted in an over 80% lower rate of peanut allergy by the age of five compared with children who had avoided peanuts.

Other studies confirmed these findings, which subsequently led to guidelines changing in the US in 2015.

Many questions remain

It’s now increasingly clear that the early introduction of potentially allergic foods may actually benefit us and reduce our risk of developing a life-changing allergy. Nonetheless, there’s much we still don’t understand.

For example, while the mechanisms underpinning oral tolerance are being elucidated, we still don’t know what the best window of age is for safely invoking it.

We also don’t understand why infants with atopic dermatitis are most at risk of developing a food allergy. The hypothesis is that early exposure to food proteins through a disrupted skin barrier is what leads to allergy, as the immune system becomes sensitised to the food.

It’s also important to note that overall, the incidence of food allergies is still increasing. While this recent US study offers hope for preventing some types of food allergies, questions still remain. For example, some people can develop food allergies during adolescence and adulthood. More must be done to understand why this happens.

There are also still barriers impeding access to diagnosis for severe food allergies. This means many at-risk patients have not been diagnosed, so they also have been prescribed potentially life-saving treatments. These trends are magnified for people living in more deprived areas of the country.

Much more needs to be done to answer these questions and tackle food allergies more broadly.

The Conversation

Sheena Cruickshank receives funding from EPSRC and MRC to investigate how environmental factors impact respiratory and gut conditions

ref. Are peanut allergies actually declining? – https://theconversation.com/are-peanut-allergies-actually-declining-269739

Baseball in Canada is thriving — but not on campus

Source: The Conversation – Canada – By George S. Rigakos, Professor of the Political Economy of Policing, Carleton University

Baseball in Canada is thriving, from the grassroots to the professional level.

Recent Toronto Blue Jays viewership numbers have been extraordinary, youth participation continues to climb, elite player showcasing and recruiting is expanding — and a new 19U national championship has just been announced by Baseball Canada.

When I’m not researching or writing about policing and security — an area requiring reflection about the interplay of structures, power and bureaucracy — I devote my energies to doing my small part to help the state of baseball in Canada, both as general manager of the Carleton Ravens baseball team and as a researcher.

I helped found the Ottawa chapter of the Society for American Baseball Research, co-authored a peer-reviewed article for the Baseball Research Journal and have reflected on the state Canadian university baseball for the Canadian Baseball Network.

My research and experience points to an an unavoidable conclusion: university baseball in Canada is shaped less by a lack of interest than by a series of persistent organizational barriers.

Formal recognition lacking

To start, outside Ontario, no major university sport body formally recognizes baseball.

University teams in Atlantic and Western Canada operate only because coaches and students organize their own schedules, pay their own way and operate outside the formal sport-administration structure that supports varsity teams. The notable exception is the UBC Thunderbirds, who play in the U.S.-based National Association of Intercollegiate Athletics.

The bodies overseeing university sport in Western Canada, the Maritimes and Québec don’t sanction or host university baseball in any capacity.

A three-game season

While Ontario University Athletics (OUA) formally recognizes university baseball, the organization’s official university baseball schedule is woeful, consisting of three, maybe four games. Under the OUA structure, the only sanctioned competition is a single regional weekend in October, followed by an underwhelming two-game provincial championship for the four teams that win their regions. This represents the entire formal university baseball calendar in Ontario.

A team that doesn’t move past the regional stage, therefore, completes its entire OUA “season” in one weekend.

This would be extraordinary for any major sport, but it is especially remarkable in baseball: a game built around long schedules, repeat matchups and consequential sample sizes. The 20 or more games that teams actually do play in September and early October are not acknowledged by the OUA in any formal way.

There are no official standings, statistics, athlete profiles or an official league website. For most of the fall, university baseball effectively takes place outside the provincial athletic system.

Held together by volunteers

Because the OUA acknowledges only a small fraction of the schedule, coaches organize every game, secure fields, arrange umpires, co-ordinate travel and compile statistics that are published by yet another savvy volunteer.

Some programs receive modest institutional support; most rely on player fees. Some Ontario universities treat baseball as varsity sport while most classify it as a “club” or “varsity club.”

By contrast, for student athletes participating in the three other major Canadian sports — hockey, football and basketball — established provincial and national structures provide visibility, scheduling and predictable competitive pathways.

Baseball’s exclusion from the varsity system in Ontario and its complete absence from university athletics bodies in the remainder of the country simply does not square with fan interest and participation.

Despite its tremendous popularity, baseball has been treated as the odd man out.

Baseball athlete exodus

This structural absence contributes to the large number of athletes who leave the country to pursue collegiate competition. According to data compiled by the Canadian Baseball Network for 2025, 1,187 Canadian baseball players are currently competing at U.S. colleges across NCAA, NAIA and junior college levels.

To put this into some perspective, Canadian collegiate baseball rosters typically carry about 25 to 30 athletes. The Canadians now playing south of the border therefore represent approximately 45 fully rostered university and college baseball teams.

Even if only a small fraction of these players remained in Canada, it would dramatically expand the competitive landscape and provide enough depth for a robust college and university system. As I wrote this article, there were only 26 recognized university programs competing in Canada.

The cost of this exodus is not merely athletic. Canadian colleges and universities are currently facing a serious financial crisis.

Assuming an average annual undergraduate tuition of $7,573 per year, the Canadian student-athletes now playing baseball at U.S. colleges represent up to $36 million dollars in foregone four-year domestic tuition revenue alone.

This is not simply a story of elite prospects seeking professional opportunities. Many players leave because there is no structured, visible or reliable university baseball pathway at home.

A dead zone

Even so, the experience of university baseball is meaningful to those who play.

Coaches, managers and other volunteers record results, manage schedules and transform the fall season into consequential competition, counting the results toward qualification for a grassroots championship involving teams from Ontario, Québec and the Maritimes.

The broader problem is institutional. Public interest is high, youth development is strong and the talent exists in abundance. University baseball in Canada is active, committed and culturally meaningful — but left outside the structures that ordinarily support and sustain collective achievement, it struggles to thrive.

In sociological terms, it operates in a state once described by the late, great social anthropologist David Graeber: a “dead zone.”

For Graeber, a “dead zone” is fostered when a system creates obstacles that frustrate and silence people, effectively making them unseen. Often these zones operate outside formal rules, and are dependent on unpaid labour. As a consequence, they’re prone to crises and collapse.

How could this change?

Despite the apparent fragility of the current system, change would be neither complicated nor costly. Indeed, as we have noted, a “rogue” national championship already exists.

In late October, coaches from Ontario, Québec, New Brunswick, Prince Edward Island and Nova Scotia organize their own Canadian “national” tournament, selecting teams, setting the schedule and administering the entire event.

Teams from Alberta and B.C. compete in the Canadian College Baseball Conference with a different calendar. A fuller national tournament — a “Canadian University World Series” — could incorporate these teams, even by using final placement from the previous year as a qualifier if necessary.

In a 2019 research paper, statistics student Mitchell Thompson and I explored the utility of a simple mathematical model used in NCAA baseball to determine “at-large” qualifiers and seeding for their College World Series.

We examined how useful the NCAA’s Ratings Percentage Index (RPI) would be for a potential Canadian University World Series, which would see teams across Canada compete for a national championship.

Nothing, of course, beats head-to-head qualifiers but most programs currently lack the resources for athletes and staff to travel on short notice. Any viable system will therefore have to respect limits of time, distance and funding.

But what’s missing is not data, talent or competitive interest. It’s a willingness by provincial sport organizations, Baseball Canada and, most importantly, universities to build and resource a structure that addresses their shared constraints.

At this point, even modest institutional co-ordination would move university baseball out of its current dead zone and into a system where student-athletes could be seen, recognized and supported.

The Conversation

George S. Rigakos is affiliated with the Carleton University Ravens baseball team but writes here as an independent researcher. His views are his own and do not represent Carleton University or Carleton University Athletics.

ref. Baseball in Canada is thriving — but not on campus – https://theconversation.com/baseball-in-canada-is-thriving-but-not-on-campus-269785

We can’t ban AI, but we can build the guardrails to prevent it from going off the tracks

Source: The Conversation – Canada – By Simon Blanchette, Lecturer, Desautels Faculty of Management, McGill University

Artificial intelligence is fascinating, transformative and increasingly woven into how we learn, work and make decisions.

But for every example of innovation and efficiency — such as the custom AI assistant recently developed by an accounting professor at the Université du Québec à Montréal — there’s another that underscores the need for oversight, literacy and regulation that can keep pace with the technology and protect the public.

A recent case in Montréal illustrates this tension. A Québec man was fined $5,000 after submitting “cited expert quotes and jurisprudence that don’t exist” to defend himself in court. It was the first ruling of its kind in the province, though similar cases have occurred in other countries.

AI can democratize access to learning, knowledge and even justice. Yet without ethical guardrails, proper training, expertise and basic literacy, the very tools designed to empower people can just as easily undermine trust and backfire.

Why guardrails matter

Guardrails are the systems, norms and checks that ensure artificial intelligence is used safely, fairly and transparently. They allow innovation to flourish while preventing chaos and harm.

The European Union became the first major jurisdiction to adopt a comprehensive framework for regulating AI with the EU Artificial Intelligence Act, which came into force in August 2024. The law divides AI systems into risk-based categories and rolls out rules in phases to give organizations time to prepare for compliance.

The act makes some uses of AI unacceptable. These include social scoring and real-time facial recognition in public spaces, which were banned in February.

High-risk AI used in critical areas like education, hiring, health care or policing will be subject to strict requirements. Starting in August 2026, these systems must meet standards for data quality, transparency and human oversight.

General-purpose AI models became subject to regulatory requirements in August 2025. Limited-risk systems, such as chatbots, must disclose that users are interacting with an algorithm.

The key principle is the higher the potential impact on rights or safety, the stronger the obligations. The goal is not to slow innovation, but to make it accountable.

Critically, the act also requires each EU member state to establish at least one operational regulatory sandbox. These are controlled frameworks where companies can develop, train and test AI systems under supervision before full deployment.

For small and medium-sized enterprises that lack resources for extensive compliance infrastructure, sandboxes provide a pathway to innovate while building capacity.

Canada is still catching up on AI

Canada has yet to establish a comprehensive legal framework for AI. The Artificial Intelligence and Data Act was introduced in 2022 as part of Bill C-27, a package known as the Digital Charter Implementation Act. It was meant to create a legal framework for responsible AI development, but the bill was never passed.

Canada now needs to act quickly to rectify this. This includes strengthening AI governance, investing in public and professional education and ensuring a diverse range of voices — educators, ethicists, labour experts and civil society — are involved in shaping AI legislation.

A phased approach similar to the EU’s framework could provide certainty while supporting innovation. The highest-risk applications would be banned immediately, while others face progressively stricter requirements, giving businesses time to adapt.

Regulatory sandboxes could help small and medium-sized enterprises innovate responsibly while building much needed capacity in the face of ongoing labour shortages.

The federal government recently launched the AI Strategy Task Force to help accelerate the country’s adoption of the technology. It is expected to deliver recommendations on competitiveness, productivity, education, labour and ethics in a matter of months.

But as several experts have pointed out, the task force is heavily weighted toward industry voices, risking a narrow view on AI’s societal impacts.

Guardrails alone aren’t enough

Regulations can set boundaries and protect people from harm, but guardrails alone aren’t enough. The other vital foundation of an ethical and inclusive AI society is literacy and skills development.

AI literacy underpins our ability to question AI tools and content, and it is fast becoming a basic requirement in most jobs.

Yet, nearly half of employees using AI tools at work received no training, and over one-third had only minimal guidance from their employers. Fewer than one in 10 small or medium-sized enterprises offer formal AI training programs.

As a result, adoption is happening informally and often without oversight, leaving workers and organizations exposed.

AI literacy operates on three levels. At its base, it means understanding what AI is, how it works and when to question its outputs, including awareness of bias, privacy and data sources. Mid-level literacy involves using generative tools such as ChatGPT or Copilot. At the top are advanced skills, where people design algorithms with fairness, transparency and accountability in mind.

Catching up on AI literacy means investing in upskilling and reskilling that combines critical thinking with hands-on AI use.

As a university lecturer, I often see AI framed mainly as a cheating risk, rather than as a tool students must learn to use responsibly. While it can certainly be misused, educators must protect academic integrity while preparing students to work alongside these systems.

Balancing innovation with responsibility

We cannot ban or ignore AI, but neither can we let the race for efficiency outpace our ability to manage its consequences or address questions of fairness, accountability and trust.

Skills development and guardrails must advance together. Canada needs diverse voices at the table, real investment to match its ambitions and strong accountability built into any AI laws, standards and protections.

More AI tools will be designed to support learning and work, and more costly mistakes will emerge from blind trust in systems we don’t fully understand. The question is not whether AI will proliferate, but whether we’ll build the guardrails and literacy necessary to accommodate it.

AI can become a complement to expertise, but it cannot be a replacement for it. As the technology evolves, so too must our capacity to understand it, question it and guide it toward public good.

We need to pair innovation with ethics, speed with reflection and excitement with education. Guardrails and skills development, including basic AI literacy, are not opposing forces; they are the two hands that will support progress.

The Conversation

Simon Blanchette does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. We can’t ban AI, but we can build the guardrails to prevent it from going off the tracks – https://theconversation.com/we-cant-ban-ai-but-we-can-build-the-guardrails-to-prevent-it-from-going-off-the-tracks-268172

Gaza y la ingeniería del escombro: manual para rehacer una ciudad pulverizada y sin recursos

Source: The Conversation – (in Spanish) – By José Ygnacio Pastor Caño, Catedrático de Universidad en Ciencia e Ingeniería de los Materiales, Universidad Politécnica de Madrid (UPM)

Decían los viejos canteros de las logias masónicas que toda piedra recuerda su catedral. En Gaza, cada grano de polvo recuerda una casa. El viento, que no entiende de política, levanta ese polvo por las avenidas colapsadas; y nadie imagina una hormigonera paciente, dispuesta a devolverle a la arena su forma de muro, patio o escuela.

¿Cuánto se destruyó?

Las cifras son, sencillamente, sobrecogedoras: la cartografía satelital de UNOSAT de agosto identifica más de 102 000 estructuras destruidas, 17 421 severamente dañadas y 41 895 afectadas. Conjuntamente, la fracción alcanza dos tercios del terreno edificado, con picos del 84–92 % en Beit Hanoun, Shujaiya, Khan Younis y el norte de la ciudad de Gaza. El coste de reconstrucción en vivienda, agua, salud y educación supera los 70 000 millones de dolares, según datos de la ONU/UNDP.

Los escombros tampoco son metáfora: con más de 50 millones de toneladas de escombros que contienen entre un (5 % y un 10 % de las bombas lanzadas que no detonaron, lo que agrava la complejidad del reciclaje de materiales.

Tras la perplejidad inicial, la cuestión deja de ser poética y se vuelve urgente: reconstruir con lo que queda sin repetir errores pasados.




Leer más:
Comienza la reconstrucción de Gaza con mucha cautela y una paz imperfecta


Eeconstrucción rápida, ecológica, sostenible y barata

Toda reconstrucción sostenible exige una secuencia clara de acciones. En Gaza, el proceso podría dividirse en tres fases principales:

Seguridad: despeje de accesos, trabajos de cartografía y neutralización de UXO (siglas en inglés de “municiones sin explotar”), es decir, bombas o proyectiles que no detonaron al impactar y permanecen entre los escombros. Además, requiere crear zonas de acopio segregadas y controlar el polvo, reduciendo las partículas que dañan la salud.

Planta de escombros: aquí se separan metales, se trituran y lavan los hormigones y se eliminan contaminantes, registrándose origen y calidad.

Fabricación rápida: reacciones químicas entre polvos ricos en sílice y aluminio, activados con soluciones alcalinas y curados a baja temperatura.

Para garantizarían la eficacia y transparencia precisamos cinco decisiones clave: normas de árido reciclado (materia prima secundaria obtenida de escombros); mezclas de cementos de bajo carbono (LC3), menos contaminantes; sistemas autónomos de agua y energía; métricas simples de control (€/m², m²/día y emisiones de CO₂); y prioridad a los equipamientos básicos.

Convertir ruina en materia prima

Los escombros, lejos de ser un desecho, pueden transformarse en recursos si se tratan con técnicas modernas de circularidad:

  • Áridos: el árido es arena y grava. El hormigón triturado puede utilizarse para sustituir del 30 al 100 % de la grava.

  • Cementos: compuestos principalmente por clinker, mezcla de caliza y arcilla calentada a más de 1.400 °C que forma los pequeños granos que vemos en los sacos de cemento. Producir una tonelada libera unas 0,8 y 0,9 toneladas de CO₂. Utilizando impresión 3D de hormigón, la literatura científica muestra reducciones del 20-40 %, según las formulaciones, manteniendo la resistencia.




Leer más:
El asedio pone en situación crítica el débil sistema sanitario de Gaza


  • Geopolímeros de CDW: restos en polvo pueden transformarse en un “cemento alternativo” sin clínker, mezclándolos con activadores suaves, para fabricar bloques y paneles resistentes con menor impacto ambiental.

  • LC3: esta formulación moderna limita el uso de clínker (sustituyéndolo por arcilla calcinada y caliza), reduce la liberación de CO₂ hasta el 40 % y mejora la resistencia a cloruros y sulfatos. Estos últimos provocan la corrosión del acero de refuerzo al romper la capa protectora del hormigón y causan la degradación y expansión del propio hormigón. Un caso exitoso de utilización de LC3 es el aeropuerto de Noida, en India.

  • Materias primas: se pueden usar arcillas y calizas locales de baja pureza, evitando costosas importaciones y simplificando la logística.

  • Prefabricados de montaje rápido: losas alveolares, paneles sándwich con núcleo de árido de hormigón reciclado (RCA) y pequeñas cerchas de acero recuperado.

  • Impresión 3D: permite construir muros, aulas o depósitos con una boquilla robótica, sin encofrado ni moldes, lo que acelera y abarata la obra. También integra conductos y oquedades para instalaciones.

Implicaciones para la reconstrucción y para la paz

El escombro como recurso cambia la economía política de la ayuda: implica menos divisas para importar áridos y cemento, más empleo local, trazabilidad pública –registro transparente, en tiempo real y preciso, de cada acción y decisión– y plazos mensurables.

La Evaluación Rápida Provisional de Daños y Necesidades (IRDNA), realizada conjuntamente por Naciones Unidas, la Unión Europea y el Banco Mundial, cifraba en 2024 el desempleo en la Franja de Gaza en casi un 80 %. Poner en marcha “plantas” locales de reciclaje y prefabricado, que transformen los escombros en nuevos materiales de construcción, permitiría crear un tejido productivo propio, con empleo, formación y capacidad técnica.




Leer más:
Edificios que se montan y se desmontan: la economía circular se cuela en la construcción


Más allá de la palabra “verde” en una tierra estéril

Desde el punto de la sostenibilidad ecocológica, estos son los posibles abordajes:

  • CO₂: LC3 y geopolímeros disminuyen sustancialmente el consumo de clínker y energía.

  • Agua: los geopolímeros reducen el curado hídrico, mientras que el 3DCP (impresión 3D de hormigón) minimiza lavados y encofrados (moldes para dar forma al hormigón fresco).

  • Resiliencia costera: El LC3, que resiste cloruros y sulfatos, es vital frente a la intrusión marina y las aguas salobres.

  • Agricultura: exige geotextiles y gaviones (estructuras de cestas de malla metálica rellenas de piedras) de árido reciclado para controlar la erosión y drenaje de suelos salinizados. La superficie agrícola dañada alcanza un 84 % en el norte y altos valores en el resto.

¿Qué infraestructuras son prioritarias?

La materia destruida vuelve a levantar la ciudad, cumpliendo la metáfora inicial de que la materia tiene memoria:

  • Vivienda modular incremental y edificios escolares y sanitarios (76,6 % con impacto directo) prefabricados mediante impresión 3D de hormigón.

  • Redes de agua y saneamiento: anillos de tubería de polímero reforzado y pozos de infiltración impresos en 3D.

  • Viales y drenaje: subbases (capa de material que se coloca entre el suelo y la capa principal de un pavimento), firmes con árido reciclado estabilizado y alcantarillas impresas.

  • Energía: microrredes solares con almacenamiento modular para desalinización, emergencia y bombeo.

Cierre del círculo de la memoria

En la primera mañana sin sirenas, una niña recoge un fragmento rojo, un ladrillo hecho trizas de tristeza por su destrucción. Años después, la nueva casa tiene un alféizar templado al sol; sobre él, la niña, ahora adulta, deja el mismo fragmento. No es reliquia: es materia prima que volvió a una casa ecológica y económica.

La ciudad, que nunca olvidó su forma, respira.

The Conversation

José Ygnacio Pastor Caño no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Gaza y la ingeniería del escombro: manual para rehacer una ciudad pulverizada y sin recursos – https://theconversation.com/gaza-y-la-ingenieria-del-escombro-manual-para-rehacer-una-ciudad-pulverizada-y-sin-recursos-267926

El riesgo de crisis alimentarias se agudiza en el mundo: estos son los puntos críticos del hambre

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

El 12 de noviembre de 2025, la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) y el Programa Mundial de Alimentos (WFP) publicaron un informe que vuelve a encender las alarmas sobre el estado de la seguridad alimentaria global. Ambos organismos advierten que la “ventana para evitar que millones de personas caigan en inseguridad alimentaria aguda se está estrechando rápidamente”.

En concreto, el documento identifica dieciséis regiones del mundo donde el riesgo de crisis alimentarias severas no solo continúa creciendo, sino que podría desencadenar emergencias humanitarias de gran magnitud si no se adoptan medidas urgentes y coordinadas.

Conflictos armados que bloquean alimentos y paralizan economías

El conflicto armado se mantiene como la causa central en la mayoría de los países señalados. La violencia prolongada, la destrucción de tierras cultivables, los desplazamientos masivos y el bloqueo de corredores humanitarios reducen de manera drástica el acceso a alimentos.

Sudán aparece como uno de los escenarios más críticos: tras meses de intensificación de los combates, millones de personas han quedado atrapadas en zonas donde los mercados han colapsado y la distribución de ayuda es prácticamente imposible. La FAO advierte que algunas regiones podrían acercarse a los umbrales técnicos de hambruna si no se logra estabilizar la situación.

Yemen presenta un escenario similar, con más del 40 % de la población en niveles de crisis alimentaria severa. Allí, la destrucción de infraestructuras esenciales y la falta de combustible dificultan la llegada de importaciones, de las que depende la mayor parte de la dieta del país.

En Palestina, el informe subraya que la inestabilidad crónica y las restricciones al movimiento de bienes esenciales han reducido aún más la disponibilidad de alimentos, generando un rápido deterioro en los indicadores nutricionales.

También es preocupante la situación de Malí y Burkina Faso, donde la inseguridad y el control inestable del territorio están generando interrupciones en los mercados, bloqueos al comercio agrícola y pérdidas significativas de producción de cultivos.

Así, en Burkina Faso, los hogares más pobres que viven en zonas afectadas por el conflicto se enfrentan a las “disrupciones del mercado y la asistencia humanitaria limitada”, según el análisis más reciente de seguridad alimentaria.

Estas dinámicas se observan también en Malí, donde las mismas condiciones están provocando “un rápido deterioro en los niveles locales de consumo alimentario y nutrición”. Es un diagnóstico reforzado por los datos del indicador de Insufficient Food Consumption (IPC), que situaba en torno al 52 % la proporción de población insuficientemente alimentada en septiembre de 2025.

Choques económicos que multiplican la vulnerabilidad

El segundo impulsor de la inseguridad alimentaria es la inestabilidad económica, que se manifiesta a través del encarecimiento de los alimentos, la depreciación de las monedas locales y el aumento del precio del combustible y de los insumos agrícolas.

En Haití, esta situación se ve agravada por la violencia y la interrupción del funcionamiento normal de los mercados, lo que ha dejado a millones de personas en una vulnerabilidad extrema. De hecho, alrededor de 5,7 millones de haitianos, más de la mitad del país, se encuentran ya en niveles de inseguridad alimentaria aguda, una cifra que sigue aumentando.

Circunstancias similares se observan en Myanmar y Etiopía, donde la devaluación de la moneda y la interrupción de las actividades económicas han encarecido el precio de los alimentos básicos, reduciendo drásticamente el poder adquisitivo de los hogares.

La crisis climática, un factor estructural

El tercer gran factor identificado es el cambio climático, que ya no actúa como fenómeno excepcional, sino como un impulsor estructural de vulnerabilidad. Sequías prolongadas, inundaciones repentinas, ciclones y olas de calor afectan de manera recurrente a regiones cuya agricultura depende en gran medida de las precipitaciones estacionales.

El Cuerno de África es el caso más evidente: tras cinco temporadas consecutivas de lluvias fallidas, millones de pastores y agricultores han perdido su ganado y cosechas, lo que ha provocado desplazamientos masivos y un aumento drástico de la dependencia de programas nutricionales.

El informe del WFP subraya que estos fenómenos, intensificados por variaciones asociadas a El Niño, seguirán repitiéndose. En países como Sudán del Sur, Somalia y Etiopía, las lluvias extremas que suceden a las sequías destruyen infraestructuras básicas, arrasan cultivos y contaminan fuentes de agua esenciales.

Una crisis profundizada por el déficit de financiación humanitaria

El cuarto factor, y uno de los más decisivos para comprender la magnitud del problema, es el enorme déficit de financiación humanitaria. El WFP ha advertido que los fondos disponibles este año podrían situarse en torno a 6 400 millones de dólares. Es una cifra muy inferior a la necesaria para sostener sus operaciones globales y está claramente por debajo de los niveles previos, lo que obliga a recortar raciones, suspender programas nutricionales y priorizar de forma estricta a los beneficiarios más vulnerables.

Las consecuencias de estos recortes son directas: en áreas donde el conflicto impide el acceso a los alimentos y los mercados locales han colapsado, la ayuda humanitaria constituye la única fuente de sustento. Si la financiación continúa siendo insuficiente, millones de personas corren el riesgo de pasar rápidamente de una situación de crisis a una emergencia alimentaria severa o incluso a condiciones cercanas a la hambruna.

El propio WFP ha señalado que la falta de recursos está comprometiendo gravemente la capacidad para anticiparse a los picos de hambre estacional o climática, limitando su margen de actuación en algunos de los entornos más frágiles del planeta.

La alimentación como indicador de estabilidad global

Este informe demuestra que la alimentación no es solo un asunto doméstico ni una cuestión de hábitos individuales. La inseguridad alimentaria se convierte tanto en síntoma como en causa de inestabilidad, con efectos sobre la salud pública, el funcionamiento de las economías locales y los movimientos migratorios. La interdependencia de los mercados globales implica que las crisis alimentarias en los dieciséis hunger hotspots (puntos críticos del hambre) identificados repercuten en regiones muy alejadas de ellos, generando tensiones adicionales en países importadores y en economías vulnerables.

A pesar del tono de advertencia, el informe de FAO-WFP concluye que aún es posible evitar el deterioro masivo previsto para 2026. Señala que invertir en medios de vida, en resiliencia y en protección social antes de que el hambre alcance su pico será “una inversión inteligente en paz y estabilidad a largo plazo”.

También subraya que el apoyo agrícola, como semillas, salud del ganado o acción anticipatoria, es esencial para estabilizar la producción alimentaria y reducir la dependencia de la ayuda de emergencia. Al mismo tiempo, advierte que la falta de financiación y el acceso humanitario bloqueado están comprometiendo gravemente la capacidad de actuar a tiempo, y que ignorar esta ventana de oportunidad tendrá un coste humano incalculable.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El riesgo de crisis alimentarias se agudiza en el mundo: estos son los puntos críticos del hambre – https://theconversation.com/el-riesgo-de-crisis-alimentarias-se-agudiza-en-el-mundo-estos-son-los-puntos-criticos-del-hambre-269954

Respirar bajo el agua: la increíble historia evolutiva de los mamíferos marinos

Source: The Conversation – (in Spanish) – By Antonio Figueras Huerta, Profesor de investigación del Consejo Superior de Investigaciones Científicas, Instituto de Investigaciones Marinas (IIM-CSIC)

Delfines nadando. Tom Radetzki / Unsplash., CC BY

Imagine tener que aguantar la respiración mientras nada hasta el supermercado, duerme, da a luz o cría a sus hijos. Un escenario imposible que es la realidad cotidiana de ballenas, delfines, focas y manatíes. Estos mamíferos marinos comparten los rasgos fundamentales de todos los mamíferos –pulmones, sangre caliente, pelo (al menos, en alguna etapa de la vida) y leche para alimentar a sus crías–, pero viven en un mundo donde el oxígeno escasea y cada respiración debe ser gestionada de manera consciente.

¿Cómo sobrevivir permanentemente en el agua sin dejar nunca de ser animales que dependen del aire? Para lograrlo, han reinventado la respiración, el sueño, la reproducción y el control cardiovascular. Sus cuerpos condensan 50 millones de años de innovación evolutiva y son una lección sobre la extraordinaria capacidad de la vida para adaptarse.

Orificios nasales: la respiración rediseñada

La adaptación más visible es el espiráculo. Lo que comenzó como orificios nasales frontales en mamíferos terrestres migró, a lo largo de decenas de millones de años, hasta la parte superior de la cabeza de delfines y ballenas. Este cambio ahorra una enorme cantidad de energía: en lugar de levantar toda la cabeza fuera del agua, un delfín puede respirar exponiendo solo una pequeña parte de su cuerpo.

Pero el espiráculo es mucho más que una nueva ubicación. Es una válvula muscular que se cierra herméticamente bajo el agua. A diferencia de los humanos, los delfines y las ballenas no respiran de manera automática. Cada inhalación y exhalación es un acto deliberado y controlado.

Respiración de las ballenas.

Pulmones que son ejemplo de eficiencia

Cuando salen a la superficie, los mamíferos marinos respiran con una eficiencia extraordinaria. Los humanos intercambiamos alrededor del 10–15 % del aire de nuestros pulmones en cada respiración. Las ballenas y los delfines pueden reemplazar hasta el 90 %. Sus pulmones están diseñados para una “ventilación explosiva”, vaciándose y llenándose en menos de un segundo. Se han medido flujos de aire en delfines que superan los 160 litros por segundo.

Esto no es solo velocidad, sino estrategia. Al intercambiar casi todo el aire de sus pulmones, maximizan la captación de oxígeno y reducen al mínimo el tiempo que necesitan pasar en la superficie.

¿Por qué no se ahogan?

Vivir bajo el agua con pulmones conlleva un riesgo constante: el ahogamiento. Para evitarlo, los delfines han desarrollado una separación casi completa entre sus vías respiratorias y digestivas. Su laringe se curva en un ángulo pronunciado, lo que permite que los alimentos pasen por el esófago mientras el espiráculo se conecta directamente con la tráquea. No pueden respirar por la boca en absoluto.

Silueta de una ballena azul.
muratart/Shutterstock

La misma precisión se observa en la lactancia. Las madres producen una leche extraordinariamente grasa que puede ser expulsada directamente en la boca de la cría. Ésta forma un sello hermético con los labios, evitando la entrada de agua salada, mientras la leche espesa resiste la dispersión en el agua.

Abrazar el colapso pulmonar

Durante las inmersiones profundas, los mamíferos marinos afrontan presiones que aplastarían a un buceador humano. Sin embargo, su estrategia no consiste en resistir la presión, sino en aprovecharla

Al descender, el aire es expulsado de los diminutos alveolos donde ocurre el intercambio gaseoso y se traslada a las vías respiratorias reforzadas que no transfieren nitrógeno a la sangre. Este colapso controlado del pulmón impide la acumulación de nitrógeno y evita la enfermedad por descompresión o “mal de los buzos”. A la vez, permite conservar oxígeno para los órganos vitales.

Dormir con medio cerebro

Dado que la respiración es voluntaria, el sueño plantea un desafío único. Los delfines y las focas lo resuelven con el sueño de ondas lentas unihemisférico. La mitad del cerebro duerme mientras la otra mitad permanece lo suficientemente despierta como para controlar la respiración y el movimiento.

En los delfines mulares, cada hemisferio obtiene unas cuatro horas de sueño de ondas lentas al día. El lado despierto del cerebro les permite salir a la superficie para respirar y mantenerse vigilantes ante los depredadores. El sueño REM —la fase de los sueños en los humanos— está prácticamente ausente, lo que sugiere que los mamíferos marinos han redefinido el concepto mismo de dormir.

Nacimiento y primeros pasos de vida

Incluso la reproducción ha tenido que reinventarse. Las crías de ballenas y delfines suelen nacer de cola, lo que reduce el riesgo de ahogamiento durante el parto. Las madres se colocan de manera que ayudan al recién nacido a alcanzar la superficie para su primera respiración.

Desde ese momento, la cría debe aprender a respirar conscientemente. La lactancia, con su sistema de leche grasa y sellado bucal –sus bocas forman una especie de ventosa que impide que se cuele agua del exterior–, permite un rápido crecimiento evitando que el agua salada entre en los pulmones.

Ballena amamantando a su cría.

El “interruptor maestro” cardiovascular

Estos animales dependen también de un poderoso reflejo fisiológico conocido como la respuesta de inmersión, o el “interruptor maestro de la vida”. Al bucear, su frecuencia cardiaca se reduce drásticamente –una orca puede bajarla a la mitad en solo 15 segundos– y el flujo sanguíneo se desvía hacia órganos vitales como el cerebro y el corazón.

Combinado con enormes reservas de oxígeno en la mioglobina –proteína que almacena y transporta oxígeno– de los músculos, esto permite que ballenas y focas permanezcan sumergidas durante largos periodos, incluso más de una hora en algunas especies.

Lecciones para humanos

Estas adaptaciones no solo son fascinantes: podrían tener aplicaciones en medicina humana. El colapso pulmonar de los mamíferos buceadores evita las rupturas alveolares que sufren algunos pacientes con respiración asistida. Además, sus proteínas surfactantes permiten reabrir los alveolos de forma segura, lo que podría inspirar tratamientos para el fallo respiratorio.

Todos estos sistemas finamente ajustados son, sin embargo, vulnerables. El cambio climático, la contaminación, la sobrepesca y, especialmente, el ruido submarino generado por barcos y sonares, pueden interferir en sus procesos fisiológicos. Alteraciones en sus patrones de buceo o estrés prolongado pueden aumentar el riesgo de embolias gaseosas y varamientos.

Proteger a los mamíferos marinos implica no solo conservar sus hábitats, sino también comprender y respetar las adaptaciones evolutivas que les permiten vivir entre dos mundos: atados para siempre al aire, pero dueños del océano.

The Conversation

Antonio Figueras Huerta no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Respirar bajo el agua: la increíble historia evolutiva de los mamíferos marinos – https://theconversation.com/respirar-bajo-el-agua-la-increible-historia-evolutiva-de-los-mamiferos-marinos-269953

¿Dónde nos habíamos quedado en ‘Stranger Things’? El motivo por el que tenemos ‘memoria de pez’ para las series

Source: The Conversation – (in Spanish) – By Elena Neira, Profesora colaboradora de los Estudios de la Comunicación y de la Información de la UOC, UOC – Universitat Oberta de Catalunya

Fotograma de la quinta temporada de _Stranger Things_. Netflix Inc.

Cuando vuelve una serie tan esperada como Stranger Things, muchos espectadores descubren, con cierta sorpresa, que al ver la nueva temporada no recuerdan casi nada de lo ocurrido anteriormente.
Lo que ya se conoce como “memoria de pez” tiene una explicación desde la neuropsicología, la ciencia que estudia cómo el cerebro procesa, almacena y recupera la información. La forma en que hoy consumimos ficción (rápido, de forma intensiva y condicionada por algoritmos) está moldeando, sin que nos demos cuenta, nuestros hábitos de atención, memoria y toma de decisiones.

No hay tiempo (ni memoria) para tanta televisión

Nuestra memoria lleva ya varios años sufriendo las consecuencias de que haya demasiado que ver. Hace quince años, cuando las plataformas de streaming estaban en pañales, uno podía abarcar con relativa facilidad la mayoría de series que se distribuían comercialmente. Las ficciones nos acompañaban durante meses e incluso años, lo que permitía establecer una relación estrecha con los personajes y con las cosas que les pasaban. Cualquiera que haya vivido esta etapa seguro que recuerda con nitidez muchas de las series que vio entonces.

La llegada de las plataformas cambió este escenario radicalmente. A diferencia de las cadenas, no buscaban una concentración de espectadores ante una emisión para hacer negocio con los anunciantes. Lo suyo era un modelo basado en la suscripción, que convirtió en prioridad de negocio la captación y retención de clientes. Netflix fue quien se dio cuenta de que lo que más ayudaba a que una persona pagase mes a mes era un catálogo abundante que permitiese ver contenido de forma intensiva. La lógica era sencilla: el servicio que usemos (mucho) será el que tendrá menos papeletas de ser cancelado.




Leer más:
¿Por qué Netflix lanza ‘Stranger Things’ en dos partes?


Las cifras hablan por sí solas. En 2015 se produjeron 38 series en España, mientras que en 2024 fueron 68 (+79%). En cuanto a las dinámicas del consumo, el maratón se ha convertido en la nueva normalidad. Según una nota difundida en su blog, la compañía trabaja (y programa) teniendo en cuenta la velocidad a la que serán vistas.

Así diferencian entre series que serán devoradas y aquellas que el público saboreará, dependiendo del ritmo del contenido y de su densidad emocional. Las primeras son las que que los usuarios completan en un promedio de 4 días, viendo más de 2 horas diarias. Las segundas son las que los usuarios tardan 6 días en terminar, a menos de 2 horas por día.

El índice de maratones de series. A la izquierda, las que se consumen de forma más lenta (las series irreverentes y los diferentes tipos de dramas), y a la derecha los contenidos de género (_thrillers_, terror, ciencia ficción, acción y aventura), que se
El índice de maratones de series. A la izquierda, las que se consumen de forma más lenta (las series irreverentes y los diferentes tipos de dramas), y a la derecha los contenidos de género (thrillers, terror, ciencia ficción, acción y aventura), que se consumen con más avidez.
Netflix Inc.

Este tipo de fast-fiction ha provocado un flujo de estrenos y maratones incesante. Una vez hemos terminado un programa, otra docena pelea por nuestra atención. Ya no vemos sino que consumimos, y vivimos con esa sensación constante de que no nos da la vida.

Maratones y memoria: ¿combinación compatible?

Para que un recuerdo se almacene de forma estable, el cerebro necesita tiempo, atención y la posibilidad de relacionar lo nuevo con lo ya aprendido. La memoria funciona por etapas (codificar, almacenar y recuperar) y cada una requiere recursos limitados.

Cuando vemos varios episodios seguidos, el flujo continuo de tramas, personajes e imágenes satura la memoria de trabajo, que es frágil, e impide que la información pase bien a la memoria a largo plazo. Además, al “maratonear” eliminamos actividades que ayudan a afianzar los recuerdos, como comentar lo visto o conectar la historia con nuestros conocimientos previos.

Un ser maligno acaricia la cara de un joven.
Para quienes no lo recuerdan, el pobre Will fue secuestrado en la primera temporada y por lo visto sigue martirizado por el mundo del revés en esta quinta.
Netflix Inc.

Este fenómeno rompe el efecto de memoria espaciada, que demuestra que cuanto más repartido está el aprendizaje, más duradero es. Igual que estudiar todo en un día funciona peor que hacerlo en varios, consumir una temporada de golpe permite recordar la idea general, pero dificulta retener detalles.

Un estudio de la Universidad de Melbourne constató cómo los distintos ritmos de visionado afectan la comprensión y la memoria. Los participantes vieron una temporada completa de una serie siguiendo tres modalidades: un episodio por semana, un episodio por día o todos los episodios en una sola sesión. Se evaluó su comprensión y retención uno, siete y 140 días después de finalizar el visionado. Aunque quienes hicieron maratón recordaban más información inmediatamente, 140 días después, los espectadores semanales superaban a los que maratoneaban por unos dos puntos. Además, aquellos que vieron la serie de una sola vez reportaron menos disfrute que quienes la consumieron a ritmo diario o semanal.

No se trata, por tanto, de “mala memoria”, sino de exceso de información y falta de procesamiento. Desde la neuropsicología sabemos que la memoria falla cuando no hemos prestado suficiente atención o cuando la información no ha tenido tiempo para consolidarse. Si además vemos una serie mientras revisamos el móvil, la atención se fragmenta y la codificación se vuelve superficial.

Y todo ello explica por qué, meses después de ver una temporada completa, apenas recordamos los hechos principales y necesitamos un resumen.

El ‘efecto túnel’: cuando decidimos menos de lo que creemos

Otro de los factores con una incidencia clave en nuestra memoria tiene que ver con la forma en la que las plataformas construyen sus sistemas de recomendación, que tratan de evitar por todos los medios que entremos en un bucle de indecisión que provoque el abandono.




Leer más:
El secreto de Netflix: 90 segundos para engancharnos


Aunque ofrecen miles de títulos, terminamos viendo siempre lo mismo porque los algoritmos dirigen nuestra atención hacia contenidos similares a los que ya nos han gustado. Es el “efecto túnel”. El cerebro, además, busca eficiencia: tiende a repetir patrones que funcionaron y a elegir aquello que promete recompensa inmediata.

Este atajo mental se combina con el sistema de recompensa: cuando vemos imágenes o títulos atractivos, se activa la dopamina, generando anticipación y motivación y le damos al play.

Fotografía de una captura de una plataforma en la que se indica qué otras cosas podrían gustar al cliente.
Las propias plataformas indican qué podría gustarnos para que no busquemos realmente qué podría gustarnos (tal vez en otra plataforma).
Prime Video

Todo este diseño favorece una atención bottom-up, guiada por estímulos llamativos: vemos una portada atractiva, que enlaza con lo que nos puede gustar y simplemente hacemos clic. En cambio, la atención top-down, que implica explorar el catálogo y decidir de forma consciente, requiere más esfuerzo, por lo que solemos evitarla. Así, creemos que elegimos libremente, pero en realidad solo recorremos una parte muy limitada de la oferta.

A largo plazo, esta falta de variedad también influye en el cerebro. La plasticidad cerebral (la capacidad de aprender y reorganizarse) se fortalece con experiencias diversas. Pero si consumimos siempre lo mismo, estimulamos solo ciertos circuitos neuronales y reducimos oportunidades de aprendizaje que pueden promover un incremento de nuestra reserva cognitiva, dado que nuevos títulos fuera de nuestra “zona de confort” pueden potenciar otros circuitos cerebrales o complementar los habituales.

Y si no queremos que esto pase, ¿qué podemos hacer?

La solución no pasa por dejar de ver series, sino por modificar pequeños hábitos para que la experiencia sea más coherente con el funcionamiento natural del cerebro. Ver los episodios con algo más de espacio entre ellos permite que la información se asiente mejor; hablar sobre lo que hemos visto ayuda a organizar las ideas y profundizar en la trama; salir del circuito de recomendaciones automáticas nos expone a historias distintas y más variadas; evitar la multitarea mejora la concentración; y alternar distintos tipos de contenidos evita la saturación.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Las plataformas han transformado la forma en que consumimos ficción, pero lo que realmente está ocurriendo es que han aprendido a dialogar con nuestro cerebro. Entender cómo funciona la memoria, el razonamiento, la atención y la motivación no solo explica por qué olvidamos tramas enteras, sino también por qué seguimos diciendo “un capítulo más”.

La buena noticia es que el cerebro es flexible, por lo que con hábitos más conscientes podemos resistir, aunque sea un poco, a la lógica del consumo acelerado y centrarnos en lo que estamos viendo en el momento.

Quizá así, cuando volvamos a Hawkins, no necesitemos preguntarnos quién era Vecna… ni qué portal ha quedado abierto esta vez.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Dónde nos habíamos quedado en ‘Stranger Things’? El motivo por el que tenemos ‘memoria de pez’ para las series – https://theconversation.com/donde-nos-habiamos-quedado-en-stranger-things-el-motivo-por-el-que-tenemos-memoria-de-pez-para-las-series-269106

¿Por qué tenemos huellas dactilares y para qué sirven realmente?

Source: The Conversation – (in Spanish) – By Juan Carlos Alvarez, Profesor de Criminalística en el Grado en Criminología. Especialista en Identificación Genética Humana, Universidad de Granada

Frettie/Wikimedia Commons, CC BY

Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com


Pregunta formulada por Juan, de 16 años, del IES Sierra de las Villas, Villacarrillo (Jaén)


Si examinas cuidadosamente la punta de tus dedos, observarás una red de curvas, espirales y ramificaciones. Se llaman crestas papilares y permiten que, junto con los surcos que hay entre ellas y las secreciones de nuestra piel (sudor y grasa) se forme un “dibujo” o huella dactilar al tocar un objeto.

El desarrollo de esas crestas papilares se produce en el feto –entre las semanas 10 y 16 de gestación– y depende de la interacción entre nuestros genes, el crecimiento del tejido de la piel y los movimientos, las presiones y la posición del feto dentro del útero.

Este proceso tan complejo hace que ni siquiera los gemelos idénticos tengan las mismas huellas. Aunque eso sirve para que la policía resuelva delitos, en realidad surgieron para ayudarnos a tocar, agarrar y explorar lo que nos rodea.

Tenerlas da muchas ventajas

Las huellas dactilares tienen, por lo tanto, una función básica: nos ayudan a interactuar con el mundo. Los científicos coinciden en que cumplen tres funciones principales:

1. Mejorar el agarre. Las crestas papilares aumentan el roce o fricción, igual que los dibujos de un neumático o tus zapatillas. Gracias a ellas podemos sujetar objetos pequeños o resbaladizos sin que se nos escapen, incluso con las manos húmedas.

2. Distribuir la presión. Al agarrar algo, las crestas reparten mejor la fuerza y evitan que la piel se dañe o se desgaste con facilidad.

3. Aumentar la sensibilidad táctil. Bajo las crestas hay terminaciones nerviosas que detectan vibraciones y texturas muy finas. Las crestas actúan, pues, como “amplificadores” del tacto, permitiéndonos sentir con mucha más precisión.

En otras palabras, nuestras huellas son una adaptación evolutiva que ha hecho posible que manipulemos herramientas, trepemos o toquemos con más eficacia. Gracias a ellas, acciones tan cotidianas como desbloquear el móvil o abrir un tarro resultan mucho más fáciles.

Pero, además, las crestas papilares tienen otra misión: canalizar el sudor. En la cima de muchas crestas se abren los poros de las glándulas sudoríparas ecrinas, que liberan pequeñas cantidades de agua y sales. Esto no solo ayuda a regular la temperatura corporal, sino que también mejora el contacto con las superficies, aumentando la fricción.

De la evolución al laboratorio forense

Aunque nuestras huellas evolucionaron con esos fines táctiles, tres propiedades la convierten en una herramienta indispensable para la identificación humana:

Recogida de huellas dactilares en el escenario de un robo.
Wikimedia Commons, CC BY

1. Son únicas: cada persona tiene un diseño que hasta el momento nunca se ha visto repetido.

2. No cambian: permanecen invariables toda la vida, salvo que haya heridas muy profundas.

3. Son perennes: aparecen desde antes de nacer y persisten incluso tras la muerte.

Gracias a esto, la dactiloscopia (la ciencia que estudia las huellas, nacida a finales del siglo XIX) se ha convertido en apoyo fundamental en la investigación criminal.

Nacidos sin huellas

Sin embargo, algunas personas nacen con la piel de los dedos completamente lisa. Sufren un trastorno genético muy raro, localizado en el gen SMARCAD1, que recibe el nombre adermatoglifia. Tan infrecuente es este trastorno que las familias afectadas en el mundo se pueden contar con los dedos de una mano… aunque esa mano no tenga huellas.

En realidad, las personas con adermatoglifia llevan una vida normal, pero pueden tener más dificultades para manipular objetos o regular el sudor en esas zonas. En su día a día, pueden encontrarse con obstáculos curiosos: desde problemas en el control de pasaportes, hasta la dificultades para utilizar los sistemas de reconocimiento dactilar en el móvil.

Mucho más que una “firma” biológica

Ahora que conoces todo esto, la próxima vez que desbloquees el móvil con el dedo o dejes tu huella en un vaso, piensa que las huellas dactilares son el resultado de millones de años de evolución que te ayudan a agarrar, a sentir y a explorar el mundo con las manos.

Al fin y al cabo, cada una de nuestras huellas nos susurra un secreto: nacemos únicos, vivimos únicos y dejamos una marca única en el mundo porque no hubo ni habrá nadie como tú.


El museo interactivo Parque de las Ciencias de Andalucía y su Unidad de Cultura Científica e Innovación colaboran en la sección The Conversation Júnior.


The Conversation

Juan Carlos Alvarez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Por qué tenemos huellas dactilares y para qué sirven realmente? – https://theconversation.com/por-que-tenemos-huellas-dactilares-y-para-que-sirven-realmente-267462

Los hijos deciden cada vez más sobre gastos familiares, pero sin saber cuánto ganan sus padres

Source: The Conversation – (in Spanish) – By Beatriz Feijoo, Profesora Titular de Publicidad, Universidad Villanueva

BearFotos/Shutterstock

Los hijos participan cada vez más en las decisiones de consumo del hogar: opinan sobre dónde ir de vacaciones, qué tecnología comprar en el hogar o incluso qué productos de cuidado personal entran en casa. Sin embargo, la mayoría desconoce el presupuesto familiar. Dos elementos que avanzan en direcciones opuestas: más poder para decidir, pero menos información para comprender lo que implican esas decisiones.

Esta es una de las conclusiones más llamativas del proyecto MARK&TEEN, una investigación que hemos realizado en la Universidad Villanueva con el apoyo de la Fundación BBVA. Se encuestaron a 1 088 adolescentes de entre 12 y 17 años y a uno de sus progenitores (en total, 2 176 personas de toda España) para analizar el fenómeno del consumo familiar desde dos perspectivas: la de los jóvenes y la de los adultos.

Lo que los hijos sienten y lo que los padres creen

Cuando se pregunta a los adolescentes por su participación en las decisiones familiares, la imagen que describen es la de una presencia activa, aunque no siempre decisoria. La mitad afirma que las vacaciones se eligen entre todos y un 5,4 % siente que en esa elección su opinión ha tenido más peso. En decisiones sobre tecnología del hogar el porcentaje de participación conjunta baja al 35 %, y en la decoración o el mobiliario, al 25 %. Es decir, los adolescentes están en la conversación, pero no siempre tienen la sensación de estar determinando el resultado.

Esa percepción cambia cuando se trata de decisiones sobre sí mismos. En ropa, tecnología personal, productos de cuidado corporal u ocio, alrededor del 50 % de los adolescentes señala que son ellos principalmente quienes deciden. Aquí la voz juvenil sí se experimenta como autónoma, como parte de su construcción identitaria y de su forma de estar en el mundo.

Incluso más allá de su propio consumo, los adolescentes describen un espacio de influencia hacia los padres. Un 10 % dice intervenir en la elección de la ropa de los adultos, un 20 % en sus planes de ocio y hasta un 29 % en decisiones relacionadas con los productos de higiene y cuidado personal.

Desde la perspectiva adulta, la imagen es aún más participativa. Seis de cada diez padres consideran que las decisiones sobre vacaciones, decoración o servicios compartidos, como las plataformas de streaming, se toman de forma democrática. En lo relativo a su propio consumo, uno de cada cuatro admite que sus hijos participan y casi un 30 % reconoce que, cuando se trata de productos destinados a los adolescentes, la decisión la toman preferentemente ellos.

Los datos muestran familias que se conciben a sí mismas como espacios dialogados, donde la participación juvenil no solo es aceptada, sino valorada. Pero también revelan un matiz importante: los padres tienden a percibir más democracia de la que los propios adolescentes sienten.

Participan en la decisión, pero sin toda la información

La autonomía de consumo de los adolescentes no llega solo a la elección de productos: también se refleja en su relación cotidiana con el dinero. Casi el 65 % de los menores afirma manejarlo con frecuencia y, en la mayoría de los casos (85 %), las cantidades pueden ascender a los 100 euros mensuales, algo que padres e hijos reconocen de forma coincidente. Además, cerca de seis de cada diez tiene una cuenta bancaria a su nombre y un 18 % puede ingresar o retirar dinero de manera autónoma. Uno de cada cuatro dispone incluso de tarjeta con capacidad de compra. Es decir, estamos ante jóvenes que no solo consumen, sino que administran y gestionan recursos reales en el día a día.

Sin embargo, cuando trasladamos la conversación a la economía familiar, la fotografía cambia. El 68 % de los adolescentes no sabe cuánto ganan sus padres. Esta falta de información no es anecdótica: se combina con otro dato significativo, el 86 % nunca ha recibido educación financiera.

En términos prácticos, están aprendiendo a tomar decisiones de consumo sin conocer los límites económicos reales que las sustentan. Pueden sugerir cambiar de destino de vacaciones, suscribirse a una nueva aplicación de streaming o incorporar un nuevo producto de cuidado, pero no conocen el esfuerzo material, o simbólico, que implica asumir ese gasto dentro del conjunto de necesidades familiares.

Lo que está ocurriendo es una de falta de contexto. Parece evidenciarse que la conversación sobre el dinero continúa siendo, incluso en hogares dialogados, un espacio reservado al mundo adulto.

Participación, sí, pero con reflexión conjunta

En este contexto, el reto no es frenar la autonomía de los adolescentes ni volver a modelos jerárquicos. La clave reside en acompañar esa participación con información. Si los adolescentes están presentes en la toma de decisiones también deben conocer el contexto y comprender lo que implica decidir. Educar para el consumo no es sólo comprar sino ayudar a pensar qué necesitamos, qué deseamos, qué podemos permitirnos y qué sentido tiene lo que hacemos con el dinero que circula en una familia.

La democratización del consumo familiar es una oportunidad extraordinaria para formar ciudadanos conscientes, capaces de tomar decisiones informadas y responsables. Los adolescentes ya están dentro de la mesa de decisiones. Lo que falta, en muchos casos, es que también estén dentro de la conversación sobre los límites, las prioridades y los valores. Consumir es elegir, y elegir siempre debe implicar conocer y comprender.

La pregunta no es si deben participar. La pregunta es: ¿vamos a darles las herramientas para entender lo que están decidiendo?

The Conversation

Beatriz Feijoo recibe fondos de la Beca Leonardo de Investigación Científica y Creación Cultural 2024 de la
Fundación BBVA. La Fundación BBVA no se responsabiliza de las opiniones, comentarios y contenidos incluidos en el
proyecto y/o los resultados obtenidos del mismo, los cuales son total y absoluta responsabilidad de
sus autores.

ref. Los hijos deciden cada vez más sobre gastos familiares, pero sin saber cuánto ganan sus padres – https://theconversation.com/los-hijos-deciden-cada-vez-mas-sobre-gastos-familiares-pero-sin-saber-cuanto-ganan-sus-padres-268529

Criar a los hijos en una lengua no materna: lo que dice la ciencia

Source: The Conversation – (in Spanish) – By Irene Gassín Mondaca, Profesora de Enseñanza Bilingüe en el Máster en Profesorado, Universidad Pablo de Olavide

PeopleImages.com /Shutterstock

Cada vez es más frecuente que los padres decidan criar a sus hijos en un idioma que no es ni su lengua nativa ni la lengua de la sociedad en la que viven. Por ejemplo, en España resulta cada vez más común escuchar a padres españoles hablando a sus hijos en inglés en el parque o a la salida del colegio. A menudo, son padres que han logrado un nivel avanzado en inglés tras muchos años de esfuerzo y que pretenden ahorrarles ese “sufrimiento” a sus hijos o abrirles las puertas a un mundo cultural internacional.

Este fenómeno, conocido como “bilingüismo no nativo” o como “inmersión lingüística en el hogar”, no es nuevo ni se da solo en España. Los primeros casos datan de los años 60, y se ha constatado la práctica en más de 14 países, entre los que destacan Eslovaquia, España, Turquía, Polonia y Corea.

Los precursores del fenómeno

El primer caso documentado de inmersión lingüística en el hogar se remonta a 1965, en la antigua Yugoslavia. A lo largo de siete años, el lingüista N. R. Dimitrijević (nativo de serbio) habló con su hijo únicamente en inglés y analizó el desarrollo lingüístico del niño en serbio (lengua del entorno) y en inglés.

La práctica no tuvo ninguna repercusión negativa en el nivel de serbio del niño. No obstante, este autor sí observó que su hijo entendía el inglés mejor que lo hablaba, y que además su nivel en esta lengua iba disminuyendo poco a poco a medida que su entorno social fue adquiriendo mayor peso, especialmente los amigos del colegio. Esto consolidó el serbio como su lengua dominante.

En la Australia de los años 70, un profesor de alemán llamado George Saunders crió a sus tres hijos en alemán (pese a que él era nativo en inglés) y analizó su desarrollo lingüístico a lo largo de 12 años con vídeos y pruebas de nivel. En este caso, los niños alcanzaron un gran dominio en ambos idiomas, comparable al de otros niños bilingües de padres nativos. Este autor recogió su experiencia en dos manuales, de lectura recomendada.

Tras estos dos casos pioneros, el interés académico sobre esta política lingüística familiar fue cada vez mayor, intensificándose en la última década. En un reciente proyecto, hemos realizado una revisión sistematizada de lo investigado, analizando los 46 estudios y 13 manuales que han tratado la inmersión lingüística en el hogar hasta la fecha. Estos resultados pueden organizarse en torno a los tres grandes agentes implicados: los padres, los niños y el entorno social.

Los padres: miedos y estrategias

Miedos recurrentes de los padres a la hora de tomar esta decisión son transmitir errores lingüísticos que los niños heredarán (al no tratarse de un idioma nativo) o provocar un retraso en el lenguaje de los niños por confundirlos con dos lenguas. Esto no es nuevo: en las primeras décadas del siglo XX, el bilingüismo familiar se consideraba una práctica poco recomendable e incluso perjudicial para el desarrollo lingüístico e intelectual de los niños, aunque se tratase de una familia en la que los progenitores tuvieran lenguas maternas distintas (por ejemplo, una madre china y un padre francés).

A finales de siglo, sin embargo, ya se demostró que el bilingüismo no resulta negativo para el desarrollo de los niños, y recientemente incluso que puede llegar a ser igual de beneficioso que otros estímulos intelectuales, como la música. Dicho esto, los padres que se decidan por esta práctica deben considerar si se sentirán cómodos en todos los escenarios que la crianza involucra, que van desde gestionar una rabieta y cantar una canción infantil hasta tratar temas complejos como política y religión. Puede que estos padres nunca se hayan enfrentado a esos contextos, pero podrán adquirir el vocabulario necesario a través de vídeos, libros o consultas a amigos.

En cualquier caso, los errores lingüísticos menores no deberían ser una preocupación, puesto que los niños escucharán el inglés de muchas más fuentes que neutralizarán esa transmisión (películas, cuentos, canciones, otros hablantes, etcétera).




Leer más:
No soy nativo: ¿debería hablar a mis hijos en inglés? Diez claves prácticas para conseguirlo


Otra decisión es la política lingüística familiar concreta. ¿Serán uno o los dos progenitores los que hablarán la lengua extranjera, o lo harán solo en determinados lugares o rutinas? Ante esto, es importante aclarar que se suele establecer como guía que para que un niño sea bilingüe ha de escuchar la lengua minoritaria un mínimo del 25 % de las horas que pasa despierto.

Por otro lado, ¿se usarán técnicas más monolingües (como fingir que no entienden el español si su hijo se dirige a ellos en esa lengua) o más bilingües (como seguir adelante en inglés, como si nada)? En principio, son las primeras las que más éxito tienen en el desarrollo lingüístico de los hijos, aunque hay que tener en cuenta siempre el bienestar de los niños y la armonía del hogar. Es decir: si usar una estrategia más estricta causa estrés o frustración en el niño, será conveniente usar otra mas flexible.




Leer más:
Bilingüismo no nativo: pros y contras


Por último, serán muy importantes los recursos de apoyo externos que favorecen que los niños se expongan a otras fuentes escritas y auditivas en la lengua extranjera, además de la de los padres: libros o cuentos en inglés, series o dibujos en la televisión, canciones, tutores privados o incluso viajes al extranjero en familia.

Los niños: su desarrollo lingüístico en las dos lenguas

La mayoría de los estudios concluye que el desarrollo lingüístico de los niños bilingües por inmersión lingüística en el hogar es comparable al de otros niños bilingües o monolingües. En etapas tempranas ocurren fenómenos como la interferencia lingüística (por ejemplo, el uso de palabras que se parecen en inglés y en español o estructuras que se calcan de una a otra lengua). No obstante, al poco tiempo los niños controlan este valioso recurso de transferencia lingüística.

En todos los estudios, sin embargo, se describe el mismo patrón: la lengua del entorno suele acabar consolidándose como la dominante. Así, el inglés, en el caso de un contexto español, tiende a ocupar una posición subordinada. Los niños muestran más capacidad para entenderlo que para hablarlo, debido a las escasas oportunidades de entrar en contacto con este idioma en comparación con el español. Este desequilibrio se acentúa cuando entran en el colegio y comienzan a socializar con otros niños y adultos en español. Por esta razón, la apuesta más segura sería que los dos progenitores hablen la lengua extranjera en casa, estrategia conocida como “lengua minoritaria en el hogar”.

Por último, son pocos los estudios que se centran en los sentimientos de los niños. Aunque la experiencia suele ser positiva, en algunos casos se menciona un cierto rechazo o resistencia hacia el uso del inglés en el hogar, especialmente cuando los niños entran en el colegio. Es ahí cuando empiezan a ser más conscientes de su realidad lingüística y se dan cuenta de que sus padres saben hablar la lengua que se habla en el colegio y que hablan sus amigos. En ocasiones, estas dificultades llevan incluso al abandono de la práctica de la inmersión lingüística en el hogar por parte de las familias.

La sociedad: el impacto del entorno

La sociedad desempeña un papel bastante relevante en este tipo de bilingüismo. Frecuentemente, las personas del entorno no comprenden por qué una familia iba a renunciar al uso de su lengua materna.

Cuestiones como la identidad o la transmisión de emociones, a menudo muy ligadas a la lengua materna, entran en juego en este tipo de debates, aunque en ninguno de los 59 estudios se identifica el problema de la falta de afecto. Es más, frente a la inmersión lingüística en el hogar en lenguas no nativas pero que tienen gran difusión (como el inglés), hay casos constatados de familias que han criado a sus hijos en esperanto, una lengua artificial o planificada.

En contraposición, hay familias que sí reciben un apoyo social que refuerza la práctica de la inmersión lingüística en el hogar. En estos casos, la armonía familiar no se ve afectada, y se pueden concentrar los esfuerzos en la transmisión de la lengua.

Hacia dónde vamos

¿Merece la pena todo este esfuerzo? ¿Aprenden mejor los niños una segunda lengua si se emplea la inmersión lingüística en el hogar? Los testimonios de los padres estudiados así lo indican. Incluso los que abandonan la práctica afirman que ha sido una experiencia muy enriquecedora de la que no se arrepienten.

No obstante, son pocos los autores que realizan medición lingüística del nivel de los niños, y se confía en la percepción de los padres. Por ello, si ha llevado a cabo la inmersión lingüística en el hogar o conoce a alguien que lo haya hecho, le invitamos a participar en nuestra investigación. Queremos analizar qué factores resultan clave para un desarrollo adecuado y cuáles son las estrategias más efectivas. Su colaboración es fundamental.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Criar a los hijos en una lengua no materna: lo que dice la ciencia – https://theconversation.com/criar-a-los-hijos-en-una-lengua-no-materna-lo-que-dice-la-ciencia-268113