Racial gerrymandering may be here to stay

Source: The Conversation – USA – By Claire B. Wofford, Associate Professor of Political Science, College of Charleston

A recent Supreme Court decision is sparking a major push for partisan redistricting. Douglas Rissing, iStock/Getty Images Plus

The outrage was swift and severe when the U.S. Supreme Court, by an ideologically divided 6-3 vote, recently struck down Louisiana’s majority Black congressional district as an unconstitutional racial gerrymander. Critics lambasted the court for gutting the Voting Rights Act, the federal law that had until recently garnered strong bipartisan support and had ensured Black political representation in the South for more than half a century.

Many analysts see Jim Crow-era disenfranchisement of Black voters on the horizon.

Whether Louisiana v. Callais will wreak this kind of havoc remains to be seen, although some Southern states have already begun to redraw their legislative districts, aiming to ensure Republican control. Several Black legislators – all Democrats – are expected to lose their seats in the upcoming midterm elections. Democrats are threatening to retaliate with their own redistricting plans.

Because of a 2019 decision by the court, such political gerrymanders, where a legislative district is crafted to ensure partisan control, cannot be challenged under federal law. Both parties had taken full advantage of that ruling.

Prior to the Callais ruling, however, legislators had to be sure that when they sought partisan control of a district, they did not excessively dilute the voting power of minority residents. Multiple lawsuits had challenged political gerrymanders on exactly these grounds.

After Callais, that guardrail is gone. Indeed, lest they provoke the same type of litigation faced by Louisiana, state legislators must now ignore the race of voters altogether. From here on out, gerrymandering is fine, but only if it’s race-neutral.

This does not mean, however, that the race-blind mapmaking process envisioned by the Supreme Court majority will manifest. Based on our recently published research, it may, in fact, be just the opposite.

Race, we found, is – at least in the South – a more reliable predictor of how someone will vote than their party identification. And that makes race, we believe, a potentially irresistible lure for those designing congressional districts.

Three men in suits with the one on the left, who is Black, swearing an oath with his right hand raised.
In 1972, Andrew Young, left, was the first Black person to be elected to Congress from the deep South since Reconstruction.
AP Photo

Race a more reliable predictor

We are both political scientists – one of us an expert on Congress and national elections and the other a constitutional law and Supreme Court scholar. In Southern states, race and political party overlap significantly, with the vast majority of Black voters favoring Democrats and most white voters favoring Republicans. And in our study, we document that in this region, mapmakers actually have an incentive to take race into account when conducting a political gerrymander.

Political gerrymandering is the process of drawing electoral districts to favor one party over another. In most states, the responsibility for drawing districts rests with the state legislature. Thus, the party that controls state legislatures very often controls elections – at both the state and congressional level.

The goal of partisan redistricting is to maximize the chance that candidates from that political party will win elections. Our study shows that using both the race and party of voters to redraw districts, rather than just party alone, better ensures partisan advantage.

The research we conducted was motivated by a claim made by Justice Samuel Alito in another recent racial gerrymandering case decided by the Supreme Court, Alexander vs. South Carolina NAACP. He argued in the court’s majority opinion that when drawing districts to favor one party, mapmakers would need to look only at voters’ party affiliation – their race would be irrelevant to ensuring partisan control.

It is a straightforward, seemingly sensible claim. It is also wrong.

Our study uses an original dataset of precinct-level election results in South Carolina from 2010 to 2020 to explore how well a precinct’s racial and partisan composition before redistricting predicts how it votes over the following decade.

What we found reveals a more complicated picture than Alito – and the subsequent Callais decision – presumes.

A precinct’s Democratic and Republican vote share prior to redistricting was the strongest predictor of future election results. But there are two problems with relying on only such partisan data when gerrymandering a district.

First, our analysis showed that roughly a quarter of a precinct’s voters in the next election did not follow what the partisan data predicted – a sizable amount, given the supposed ease of gerrymandering by party.

Second, precinct election results are surprisingly volatile. Our analysis shows that the effect of preredistricting partisanship varies with election cycles, national conditions, gradual changes in party coalitions and other factors. A precinct that leaned Republican in the election before redistricting may vote very differently in a midterm wave year when the president is unpopular, precisely the type of election coming in November.

By comparison, the analysis shows that voters’ race is a more reliable predictor than their party of how they will vote in the next election. Consequently, it seems that, at least in Southern states, legislators have a genuine, data-driven incentive to use racial data when drawing partisan districts.

A man with white hair and glasses who looks stern and is pointing at someone not in the photo.
Republicans in South Carolina want to draw a new congressional map, and it could eliminate the district that has for decades elected Democrat Jim Clyburn.
Kevin Wolf/AP Photo

Will race still affect political gerrymanders?

Consider this redistricting scenario: South Carolina’s Republican-led legislature wants to flip the state’s lone Democratic congressional seat – long held by prominent African American U.S. Rep. Jim Clyburn – for the 2026 midterms. A simple approach is to identify those who voted for Donald Trump in 2024 and then just redraw the district to add enough of those voters to ensure Republican control.

The plan backfires, however. Not only does Clyburn hold his seat, but a neighboring district also elects a Democrat. What went wrong?

Simply put, the legislature failed to realize that past partisan returns are an imperfect predictor of future voting behavior.

A heavily Democratic area that is predominantly Black will vote Democratic far more consistently than a heavily Democratic area that is predominantly white. Two precincts that look identical on a partisan map can behave very differently at the ballot box. And a legislature that fails to take this into account has taken an unreliable route to partisan advantage.

If Republican legislators want to oust Democratic officials, the most reliable route is to oust from a district the minority Democratic voters who would have elected them.

This is not to suggest that legislators should use race in this way. It certainly smacks of racism and echoes the type of electoral machinations used during Jim Crow. But that analogy is not exactly on point. The approach we identified targets the power of Black voters not because they are Black, but because they are such reliable Democrats.

To many, that may be a difference that makes no difference. More litigation over gerrymanders is inevitable. If litigants can demonstrate that race was a “predominant” factor that “drove” redistricting, or that mapmakers purposefully attempted to diminish the power of Black voters because of their race, legal liability can still follow.

Voting rights advocates should be aware of the temptation legislators may have to let race affect their political gerrymanders.

Perhaps minority voters are as free from invidious discrimination as Alito’s majority opinion in the Callais case suggests. This does not mean, however, that those charged with ensuring all voters are fairly represented in American democracy will be colorblind. Our findings show that race could easily remain embedded in the political gerrymandering landscape, despite vehement claims to the contrary.

The Conversation

Jordan Ragusa has served as an expert witness in racial gerrymandering litigation, most notably in Alexander v. South Carolina State Conference of the NAACP. He also serves on the advisory board of Charleston Civil Rights and Civics (C3), an educational non-profit that fosters civic engagement and civil rights awareness among high school students

Claire B. Wofford does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Racial gerrymandering may be here to stay – https://theconversation.com/racial-gerrymandering-may-be-here-to-stay-282349

Trump-Xi summit will be no ‘Nixon in China’ moment – that they are talking is enough for now

Source: The Conversation – USA – By Rana Mitter, Professor of U.S.-Asia Relations, Harvard Kennedy School

Xi and Trump: A plastic friendship at best? Pedro Pardo/AFP via Getty Images

Meetings between Chinese and American leaders are not exactly routine, but few are historically groundbreaking.

The exceptions include the very first visit by a sitting U.S. president to China, when Richard Nixon met with Chairman Mao Zedong in Beijing in February 1972 – at a time when America did not even formally recognize the People’s Republic of China. Deng Xiaoping’s visit to the U.S. in 1979 generated a similarly iconic moment when the reformist Chinese leader donned a Stetson at a Texas rodeo, a sign that he would be willing to engage with America in a way that Mao contemplated only near the end of his life.

Donald Trump may harbor hopes that his upcoming visit, slated for May 14-15, 2026, could have similar historical significance to those moments half a century ago. It will, after all, be the first face-to-face meeting of U.S. and Chinese leaders in Beijing since Trump’s own visit nearly a decade ago in 2017.

Two men in suits shake hands.
Chinese Communist Party Chairman Mao Zedong welcomes U.S. President Richard Nixon to his house in Beijing in 1972.
AFP via Getty Images

Yet the outcomes of this Trump summit with Xi Jinping are likely to be vague because the goals for both leaders are also only partially evident. The visit is being driven by trade imperatives, but there are other issues that threaten U.S.-China relations in the longer term.

It will be extremely hard for the two sides to address these more deep-rooted divides. Indeed, as an analyst of U.S.-China relations, I believe the world’s two largest economies will have an essentially competitive relationship for years to come, and areas of plausible cooperation – whether on climate change or AI regulation – are increasingly hard to find.

Taiwan: A change in US position?

One area that has been a source of contention for quite some time is Taiwan. Xi has made it clear that the unification of the island with the mainland cannot be left to “another generation” but has left it vague – up to now – as to how that goal will be achieved.

The summit has been preceded by lots of chatter about U.S. preparedness to honor its somewhat ambiguous promise to defend Taiwan in the event of an invasion – with Chinese analysts concluding that the war in Iran has severely weakened Washington’s capabilities on this front.

However, there are plenty of signs that Xi would rather find peaceful means to unite with Taiwan that avoid all-out war, particularly as the examples of Russia in Ukraine and the U.S. in Iran show that the outcomes of wars are not predictable.

Instead, China has seemingly concentrated its efforts on influencing the upcoming January 2028 Taiwan presidential election. The leader of the island’s major opposition Kuomintang party, Cheng Li-wun, recently visited the mainland and had a photo op with Xi – a sign that she thinks dealmaking with China might just be acceptable to the Taiwan electorate despite its deep distrust of Beijing.

To further fuel the narrative of a seemingly inevitable path toward unification, it would be helpful for Xi to have signals that the U.S. is no longer committed to defending Taiwan.

China will push for a change from the official position that the U.S. “does not support Taiwan independence” to “the U.S. opposes Taiwan independence.” The latter change sounds minor but would have great significance, as it would essentially be an acknowledgment that the U.S. recognizes unification, by some means, as a legitimate goal in its own right.

Trump has kept his own position ambiguous: He has noted more than once that Taiwan is very close to China and very far from the U.S., but he has also authorized major arms sales to the island that have infuriated Beijing.

The outline of a man is seen in front of a large ship.
Taiwanese navy warships anchored in Keelung, Taiwan.
Annabelle Chih/Getty Images

Taiwan’s ruling Democratic Progressive Party does not specifically endorse independence, as it knows that’s a red line for Beijing, but it would regard this change in American language as a serious blow to its position. It’s unlikely that the U.S. would make such a major concession during Trump’s visit – but that won’t stop Beijing from asking for it.

AI: The battle for global leadership

A more tentative but increasingly important area for discussion during the Xi-Trump summit is technology in general and AI in particular.

Just three years ago, the attitude of the U.S. government was summed up in the phrase of then national security adviser Jake Sullivan: “small yard, high fence.”

In other words, there would be only a few restricted areas of technology, but they would be fiercely guarded.

In 2026, things have changed. In some areas, tech restrictions have just become looser; the U.S. government now permits the sale to China of some high-specification, American-manufactured chips that were previously restricted. That policy was probably driven by the sense that China was developing its own domestic alternatives anyway and that the U.S. was losing market share.

Yet there is growing concern both in the U.S. and China that AI developments are moving too fast for governments – or companies – to know fully what the technology is capable of doing, let alone being able to regulate it.

China and the U.S. both desire to dominate AI and set the global norms and standards surrounding it. But they are also aware that AI has the potential to cause immense damage.

There has been loose discussion of whether any joint form of supervision or regulation of AI between the U.S. and China might be possible. And that could well form part of the discussions during the leaders’ summit.

But realistically, both sides see themselves in fierce competition, and the likelihood that either American or Chinese companies would restrain themselves may be fanciful.

The trade elephant in the room

The most substantial achievements of the summit, however, are likely to be in the least glamorous area: remedying the trade deficit.

Trump’s tariffs aim to make the United States’ global trade partners pay a higher price for entry to the American market, and China’s persistent and massive trade surplus has been a prime target for the U.S. president.

Four people sit on chairs surrounded by flags.
U.S. first lady Melania Trump, Donald Trump, Chinese President Xi Jinping and his wife, Peng Liyuan, in West Palm Beach, Fla., on April 6, 2017.
Jim Watson /AFP via Getty Images

While there are many American products that China would like to buy, most of them are not products that the U.S. government is willing to let them have, including high-tech equipment that could be used for military purposes.

Instead, the key products are likely to be agricultural, including U.S. soybeans and beef. Look out for concessions from China that would benefit farmers in key Republican states, such as Iowa.

The current tariff dispute between the U.S. and China has frozen into a standoff: The U.S. has agreed to allow China’s goods into its immense market at manageable tariff rates, and China has – mostly – agreed to allow critical minerals and rare earths to flow to U.S. manufacturers.

That truce lasts until October, but the summit may see it extended.

Neither side is keen to restart the trade war that marked the summer of 2025, when Trump announced tariffs of over 100% on China and the U.S. was in danger of having key mineral supplies cut off as a result.

Summit to talk about? Perhaps not

So how consequential will the Trump-Xi summit be? Well, don’t expect another “Nixon meets Mao” moment.

The circumstances more than a half-century on are also remarkably different. Today’s China, unlike in 1972, has an economy and military second only to the U.S. and a central position in global organizations, from the United Nations to the World Trade Organization, particularly as the U.S. retreats from such institutions.

Both the U.S. and Chinese sides know that they can expect limited cooperation at best from their opponent.

But after a period, particularly during the COVID-19 pandemic, when communication between the countries atrophied, it’s still important that they are talking at all.

The Conversation

Rana Mitter does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump-Xi summit will be no ‘Nixon in China’ moment – that they are talking is enough for now – https://theconversation.com/trump-xi-summit-will-be-no-nixon-in-china-moment-that-they-are-talking-is-enough-for-now-282295

Why political gerrymandering in the South will likely continue to consider voters’ race despite Supreme Court ruling

Source: The Conversation – USA – By Claire B. Wofford, Associate Professor of Political Science, College of Charleston

A recent Supreme Court decision is sparking a major push for partisan redistricting. Douglas Rissing, iStock/Getty Images Plus

The outrage was swift and severe when the U.S. Supreme Court, by an ideologically divided 6-3 vote, recently struck down Louisiana’s majority Black congressional district as an unconstitutional racial gerrymander. Critics lambasted the court for gutting the Voting Rights Act, the federal law that had until recently garnered strong bipartisan support and had ensured Black political representation in the South for more than half a century.

Many analysts see Jim Crow-era disenfranchisement of Black voters on the horizon.

Whether Louisiana v. Callais will wreak this kind of havoc remains to be seen, although some Southern states have already begun to redraw their legislative districts, aiming to ensure Republican control. Several Black legislators – all Democrats – are expected to lose their seats in the upcoming midterm elections. Democrats are threatening to retaliate with their own redistricting plans.

Because of a 2019 decision by the court, such political gerrymanders, where a legislative district is crafted to ensure partisan control, cannot be challenged under federal law. Both parties had taken full advantage of that ruling.

Prior to the Callais ruling, however, legislators had to be sure that when they sought partisan control of a district, they did not excessively dilute the voting power of minority residents. Multiple lawsuits had challenged political gerrymanders on exactly these grounds.

After Callais, that guardrail is gone. Indeed, lest they provoke the same type of litigation faced by Louisiana, state legislators must now ignore the race of voters altogether. From here on out, gerrymandering is fine, but only if it’s race-neutral.

This does not mean, however, that the race-blind mapmaking process envisioned by the Supreme Court majority will manifest. Based on our recently published research, it may, in fact, be just the opposite.

Race, we found, is – at least in the South – a more reliable predictor of how someone will vote than their party identification. And that makes race, we believe, a potentially irresistible lure for those designing congressional districts.

Three men in suits with the one on the left, who is Black, swearing an oath with his right hand raised.
In 1972, Andrew Young, left, was the first Black person to be elected to Congress from the deep South since Reconstruction.
AP Photo

Race a more reliable predictor

We are both political scientists – one of us an expert on Congress and national elections and the other a constitutional law and Supreme Court scholar. In Southern states, race and political party overlap significantly, with the vast majority of Black voters favoring Democrats and most white voters favoring Republicans. And in our study, we document that in this region, mapmakers actually have an incentive to take race into account when conducting a political gerrymander.

Political gerrymandering is the process of drawing electoral districts to favor one party over another. In most states, the responsibility for drawing districts rests with the state legislature. Thus, the party that controls state legislatures very often controls elections – at both the state and congressional level.

The goal of partisan redistricting is to maximize the chance that candidates from that political party will win elections. Our study shows that using both the race and party of voters to redraw districts, rather than just party alone, better ensures partisan advantage.

The research we conducted was motivated by a claim made by Justice Samuel Alito in another recent racial gerrymandering case decided by the Supreme Court, Alexander vs. South Carolina NAACP. He argued in the court’s majority opinion that when drawing districts to favor one party, mapmakers would need to look only at voters’ party affiliation – their race would be irrelevant to ensuring partisan control.

It is a straightforward, seemingly sensible claim. It is also wrong.

Our study uses an original dataset of precinct-level election results in South Carolina from 2010 to 2020 to explore how well a precinct’s racial and partisan composition before redistricting predicts how it votes over the following decade.

What we found reveals a more complicated picture than Alito – and the subsequent Callais decision – presumes.

A precinct’s Democratic and Republican vote share prior to redistricting was the strongest predictor of future election results. But there are two problems with relying on only such partisan data when gerrymandering a district.

First, our analysis showed that roughly a quarter of a precinct’s voters in the next election did not follow what the partisan data predicted – a sizable amount, given the supposed ease of gerrymandering by party.

Second, precinct election results are surprisingly volatile. Our analysis shows that the effect of preredistricting partisanship varies with election cycles, national conditions, gradual changes in party coalitions and other factors. A precinct that leaned Republican in the election before redistricting may vote very differently in a midterm wave year when the president is unpopular, precisely the type of election coming in November.

By comparison, the analysis shows that voters’ race is a more reliable predictor than their party of how they will vote in the next election. Consequently, it seems that, at least in Southern states, legislators have a genuine, data-driven incentive to use racial data when drawing partisan districts.

A man with white hair and glasses who looks stern and is pointing at someone not in the photo.
Republicans in South Carolina want to draw a new congressional map, and it could eliminate the district that has for decades elected Democrat Jim Clyburn.
Kevin Wolf/AP Photo

Will race still affect political gerrymanders?

Consider this redistricting scenario: South Carolina’s Republican-led legislature wants to flip the state’s lone Democratic congressional seat – long held by prominent African American U.S. Rep. Jim Clyburn – for the 2026 midterms. A simple approach is to identify those who voted for Donald Trump in 2024 and then just redraw the district to add enough of those voters to ensure Republican control.

The plan backfires, however. Not only does Clyburn hold his seat, but a neighboring district also elects a Democrat. What went wrong?

Simply put, the legislature failed to realize that past partisan returns are an imperfect predictor of future voting behavior.

A heavily Democratic area that is predominantly Black will vote Democratic far more consistently than a heavily Democratic area that is predominantly white. Two precincts that look identical on a partisan map can behave very differently at the ballot box. And a legislature that fails to take this into account has taken an unreliable route to partisan advantage.

If Republican legislators want to oust Democratic officials, the most reliable route is to oust from a district the minority Democratic voters who would have elected them.

This is not to suggest that legislators should use race in this way. It certainly smacks of racism and echoes the type of electoral machinations used during Jim Crow. But that analogy is not exactly on point. The approach we identified targets the power of Black voters not because they are Black, but because they are such reliable Democrats.

To many, that may be a difference that makes no difference. More litigation over gerrymanders is inevitable. If litigants can demonstrate that race was a “predominant” factor that “drove” redistricting, or that mapmakers purposefully attempted to diminish the power of Black voters because of their race, legal liability can still follow.

Voting rights advocates should be aware of the temptation legislators may have to let race affect their political gerrymanders.

Perhaps minority voters are as free from invidious discrimination as Alito’s majority opinion in the Callais case suggests. This does not mean, however, that those charged with ensuring all voters are fairly represented in American democracy will be colorblind. Our findings show that race could easily remain embedded in the political gerrymandering landscape, despite vehement claims to the contrary.

The Conversation

Jordan Ragusa has served as an expert witness in racial gerrymandering litigation, most notably in Alexander v. South Carolina State Conference of the NAACP. He also serves on the advisory board of Charleston Civil Rights and Civics (C3), an educational non-profit that fosters civic engagement and civil rights awareness among high school students

Claire B. Wofford does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why political gerrymandering in the South will likely continue to consider voters’ race despite Supreme Court ruling – https://theconversation.com/why-political-gerrymandering-in-the-south-will-likely-continue-to-consider-voters-race-despite-supreme-court-ruling-282349

The women’s rights crisis in Afghanistan is an ongoing humanitarian calamity

Source: The Conversation – Canada – By Sepita Hatami, Gender Studies researcher; PhD candidate in Comparative Literature, Western University

Where is one of worst places to be a woman? Afghanistan.

That’s what most people think when it comes to the topic of the women’s rights crisis under the ruling Taliban in Afghanistan. But this only tells part of the story.

Focusing on the word “rights” hides something more serious underneath: how people live and survive in this situation. What’s unfolding in Afghanistan is not just a women’s rights crisis, but a humanitarian disaster.

It affects how people access health care, education, food systems and basic supports and whether these system can function at all when half the population has been systematically removed from them. It forces families to deal with women’s limited access to work and services, often pushing households into deeper economic and social vulnerability.

The Taliban has steadily removed women from public spaces including work, health care and education. Recently, for example, female health-care workers were stopped at the gates of a United Nations office and banned from entering the facility by Taliban authorities.

These ongoing removals are incrementally creating a system that determines who has the right to exist, to provide assistance and to receive assistance.

What’s happening in Afghanistan is not simply gender discrimination; rather, it’s pushing an entire gender out of public systems altogether. The predicament of Afghan women is less a social problem and more a structural crisis that shapes institutions and everyday life.

Gender apartheid

This is why the situation in Afghanistan is increasingly referred to as a form of gender apartheid rather than a women’s rights crisis. The exclusion of women reveals how institutions are built and will be maintained in the future.

Gender apartheid refers to a situation in which people are banned from certain spaces or activities based on their gender identity.

This discriminatory and violent practice in Afghanistan has been widely documented and heavily reported on, but the situation continues to deteriorate daily.

Its effects are also accumulative, with each restriction reinforcing others and deepening the overall crisis. These systemic rights violations would be increasingly difficult to reverse even if political bodies and the ruling government changed tomorrow.

That’s because removing women from professional spaces leads to schools losing teachers, hospitals losing trained staff and aid networks losing access to half the population. And this loss isn’t temporary; it limits how systems can respond to the growing needs around them.

When women get barred from institutions, the problem isn’t just that these organizations suffer in their service delivery and performance. It also results in the loss of institutional memory — the skills, professional knowledge and experience that is no longer transferred to future generations.

Over time, institutions also scale down or suspend certain services due to a shortage of female workers. As services shrink, significant gaps appear in the networks of care and support leaving entire groups of people without consistent access to support.

Blocking aid and support

The Taliban refusal to allow female workers into UN and UNICEF offices is one of many examples happening today in Afghanistan that ban qualified women from entering places where they can deliver urgent care and assistance.

This effective crackdown on women’s rights is blocking aid and support in a society where it’s desperately needed.

Male workers are also limited in the ways they can assist female patients due to Taliban gender norms and restrictions, so support for women cannot be simply reassigned to them. This affects several aspects of humanitarian aid including health care, food distribution and protection systems.

It also delegates the burden of these unmet needs into households where women must provide unpaid labour and care-giving responsibilities.

Taliban rule consequently delays or prevents life-saving interventions for women and children, a violation of the human right to survive.

It’s not just UN and UNICEF offices where women workers are banned from entry: they’re being turned away at other aid organizations, hospitals, schools and various public institutions in a widespread erosion of human rights. The Taliban has put in place a network of human rights violations across the entire humanitarian system.

Humanitarian aid also depends on access to information and correct data: who is hungry, who is unsafe and who needs protection. In Afghanistan, where women are limited in who they can interact with and where female staff are largely absent from outreach, surveys and home visits, this information becomes incomplete.

Poor data leads to incomplete distribution of assistance and mismatched allocation of aid. As a result, the most vulnerable populations can remain invisible in official assessments.

This invisibility especially affects households headed by women and those living in remote or rural areas with already limited access.

Normalizing crises

The impact of Aghanistan’s gender apartheid might not be visible to many outside the country, but in the near future, humanitarian systems will break down.

Future generations of female professionals have already been eliminated by the Taliban’s ban of girls from schools.

UNICEF estimates the ban could cost Afghanistan 25,000 teachers and health-care workers. In a country where women are prohibited from receiving care from male providers, banning women from both education and health-care work creates a profound medical emergency.




Read more:
The Taliban wages war on women, but their voices roar on the page. Here are 5 essential books by Afghan women writers


Over time, systems will be redesigned without women as providers even as they remain central as recipients. As gender restrictions disrupt the flow of resources, knowledge and care, the capacity to deliver services is declining every day despite high demand. Many women are also pushed into informal or hidden work that is insecure and vulnerable to exploitation and abuse.

Gender apartheid in Afghanistan will not end through recognition alone. Naming systemic terror does not stop it and, without action, repeated exposure to crisis can instead normalize it through compassion fatigue. Humanitarian organizations now face a stark choice: operate under restrictive conditions and risk legitimizing them, or withdraw and leave people without support.

The longer the situation persists, the more the exclusion of women in Afghanistan risks becoming a normalized structure rather than an emergency. The question is no longer only how to restore what’s been lost, but whether systems once dependent on women’s participation can be rebuilt at all.

The Conversation

Sepita Hatami does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The women’s rights crisis in Afghanistan is an ongoing humanitarian calamity – https://theconversation.com/the-womens-rights-crisis-in-afghanistan-is-an-ongoing-humanitarian-calamity-281686

¿Qué nos cuenta la guerra entre EE. UU. y España por Cuba sobre el intervencionismo y la geopolítica actual?

Source: The Conversation – (in Spanish) – By Francisco López-Muñoz, Catedrático de Farmacología y Vicerrector de Investigación y Ciencia, Universidad Camilo José Cela

Lienzo de la batalla naval de Santiago de Cuba (3 de julio de 1898), obra de Ildefonso Sanz Doménech, que supuso una victoria decisiva de Estados Unidos. Benjamín Núñez González/Wikimedia Commons, CC BY

En un momento en el que la geopolítica internacional se ve de nuevo sometida a los vaivenes de una política intervencionista estadounidense y su corolario de conflictos bélicos, merece la pena recordar lo sucedido con España hace 128 años. Salvando algunas diferencias propias de contextos históricos diferentes, lo ocurrido presenta muchas similitudes con los procesos actuales.

El 25 de abril de 1898 se formalizó la declaración de guerra de Estados Unidos a España. Un acto que acabó con el prolongado proceso de crisis del sistema colonial español y dio inicio a un nuevo estatus geopolítico de alcance global.

El origen inmediato del conflicto hay que situarlo en la insurrección de 1895, que desencadenó la conocida como Guerra de la Independencia cubana. El levantamiento frente al dominio español evidenció la incapacidad de la metrópoli para sofocar la disidencia, al tiempo que se adoptaban medidas de una dureza extrema contra la población. Es el caso de la política de reconcentración del general Valeriano Weyler, precedente de los campos de concentración, que costó la vida a más de 100.000 cubanos debido al hambre y las enfermedades.

Prensa amarilla

Estas medidas generaron una creciente presión internacional, especialmente en EE.UU., donde intereses económicos y una opinión pública influida por la prensa sensacionalista o “amarilla” (yellow journalism) favorecieron la intervención bélica. El pretexto se basó en un deber humanitario y solidario con la sangre cubana derramada, “que ha herido el sentido moral del pueblo de los Estados Unidos y afrentado la civilización cristiana”. Y todo ello, olvidando la inestimable y esencial ayuda española, un siglo antes, en el proceso de independencia de las Trece Colonias del Reino Unido.

La explosión del acorazado USS Maine en el puerto de La Habana el 15 de febrero de 1898, no suficientemente esclarecida y considerada por algunos investigadores incluso como una operación de falsa bandera, supuso la justificación definitiva para la entrada estadounidense en guerra. Se trata, pues, de un proceso calculado de escalada de tensiones que combinó factores políticos, económicos y mediáticos en el contexto de un cambio de poder colonial en el área del Caribe y el Pacífico. Todo ello por mor de la Doctrina Monroe, con el claro objetivo final de anexionar o adquirir la isla.




Leer más:
Doctrina Monroe: más de dos siglos de “América para los americanos”


Posiblemente, si el gobierno español hubiera cumplido los compromisos contraídos al firmar la Paz de Zanjón (1878) y hubiera dotado a sus posesiones ultramarinas de una justa autonomía, como había comenzado a hacer el Reino Unido, se habría podido desactivar el movimiento emancipador y tal vez se hubiera evitado el choque armado con EE. UU.

La construcción premeditada de una declaración de guerra

Tras semanas de creciente tensión, el primer mandatario de EE. UU., William McKinley, remitió al Congreso, el 11 de abril de 1898, un mensaje solicitando autorización para intervenir en Cuba. Inicialmente evitó una declaración explícita de guerra, optando por enmarcar la acción en términos humanitarios y de protección de los intereses estadounidenses. Sin embargo, el Congreso, influido por la opinión pública y por actores políticos expansionistas, como el entonces subsecretario de Marina y futuro presidente, Theodore Roosevelt, dio un paso más allá. El 19 de abril se aprobó una resolución conjunta de las dos cámaras reconociendo la independencia de Cuba y exigiendo la retirada inmediata de las fuerzas españolas de la isla.

Este documento incluía la conocida Enmienda Teller, aprobada por el Senado el día anterior. Por medio de esta, EE. UU. se comprometía formalmente a no anexionarse Cuba tras el conflicto, en un intento de legitimar la intervención como una acción altruista y no imperialista. La presencia armada se justificaba con el fin de pacificar de la isla. El texto señalaba la “determinación de que, cuando se hayan alcanzado estos objetivos, dejará el gobierno de la Isla a su pueblo”. La resolución equivalía, en la práctica, a un ultimátum.

España, bajo la regencia de María Cristina de Habsburgo-Lorena, que encarnaba la continuidad institucional durante la minoría de edad de Alfonso XIII, respondió rompiendo relaciones diplomáticas el 21 de abril, lo que precipitó los acontecimientos.

Ese mismo día, la Armada estadounidense inició el bloqueo de Cuba. Un acto de guerra de facto que precedió a la declaración formal del 25 de abril. Jurídicamente, esta secuencia es relevante, pues el conflicto comenzó materialmente antes de ser reconocido oficialmente, lo que obligó al Congreso a introducir una cláusula retroactiva. La disposición establecía que el estado de guerra existía desde cinco días antes.

Esta retroactividad fue una decisión con implicaciones legales, que daba cobertura jurídica a las operaciones militares ya iniciadas, la captura de buques y la aplicación del derecho de guerra. Una medida que refleja la importancia de dotar de cobertura jurídica a acciones que, en la práctica, ya estaban en curso.

Los desastres de la guerra

Desde la perspectiva estratégica, la declaración formalizó una guerra breve, diplomáticamente calculada y cuidadosamente preparada. EE. UU. había acelerado su programa de modernización naval en las décadas anteriores, lo que le permitió entrar en conflicto con una clara superioridad material. Por el contrario, España, bajo el Gobierno presidido por Práxedes Mateo Sagasta, se vio empujada a un conflicto bélico para el que no estaba plenamente preparada. Culminaba de este modo un estado de guerra casi permanente durante todo el siglo XIX. España poseía unas capacidades militares especialmente obsoletas en el ámbito naval y vivía una gran presión fundamentada en el honor nacional, lo que explica la dificultad política de aceptar el ultimátum sin combatir.

Las derrotas de los almirantes Patricio Montojo y Pascual Cervera frente al comodoro George Dewey y al almirante William T. Sampson en las batallas de Cavite (1 de mayo de 1898) y de Santiago de Cuba (3 de julio de 1898) sellaron el destino del conflicto en apenas ocho meses.

Ramón y Cajal, visionario

Algunos de los más agudos y acertados análisis sobre este conflicto bélico se los debemos al Premio Nobel Santiago Ramón y Cajal, quien estuvo destinado durante 14 meses en Cuba, entre 1874 y 1875, como capitán médico durante la primera guerra de independencia, conocida como la Guerra de los Diez Años.

El 26 de octubre de 1898 escribía en el diario madrileño El Liberal:

“Llegado el duro trance de la guerra, nuestros quijotes políticos parecen tomar como valor actual la energía bélica del pasado, sin considerar que el mundo ha cambiado en torno nuestro, que los débiles de ayer se han hecho todopoderosos… Hemos caído ante los Estados Unidos por ignorantes y por débiles. Éramos tan ignorantes, que hasta negábamos su ciencia y su fuerza”.

En su obra autobiográfica Recuerdos de mi vida (1901), Cajal reflexiona sobre los desaciertos de la política ultramarina:

“¡Tan peligroso y arduo resultaba patentizar a los ojos del pueblo… que una nación de 90 millones de habitantes, con riquezas inmensas, recursos industriales y aprestos bélicos inagotables, había de aplastar irremediablemente a un país pobrísimo, de 17 millones de almas, y anemiado, además, por cuatro asoladoras guerras civiles!”.

Y en su obra El mundo visto a los ochenta años, publicada en 1934, poco antes de su muerte, refiere como “en la guerra con los Estados Unidos no fracasó el soldado o el pueblo (que dio cuanto se le pidió), sino un gobierno imprevisor, desatento a los profundos e incoercibles anhelos de las colonias, e ignorante de las codicias solapadamente incubadas, como del incontrastable poderío militar de Yanquilandia”.

El nacimiento de una nueva potencia mundial

El 12 de agosto de 1898 el gobierno español firmó un armisticio con EE. UU., tras una breve guerra en la que apenas perdieron 300 hombres en combate frente a unos 1 000 españoles.

La firma del Tratado de París, el 10 de diciembre de 1898, formalizó el fin de las hostilidades y supuso la cesión de Cuba (bajo tutela), Puerto Rico, Filipinas y Guam (la mayor de las islas del archipiélago de las Marianas) a EE.UU. y el colapso definitivo del imperio español. Esto generó una absoluta crisis moral, política y social en la Península, popularmente conocida como el “Desastre del 98” y un proceso de reacción popular y político que fraguó en el movimiento regeneracionista liderado por Joaquín Costa.

Desde la perspectiva militar, la derrota puso de manifiesto la necesidad de modernización de las Fuerzas Armadas y de revisión de la doctrina estratégica española.

Sin embargo, para EE. UU. la guerra representó su consolidación como potencia emergente con proyección global, marcando el inicio de una política exterior más activa e intervencionista. Ocho años después, en 1906, cuando le otorgaron a Cajal el Premio Nobel de Medicina, le concedieron también el Premio Nobel de la Paz al entonces presidente Theodore Roosevelt.

Al tener noticia de este hecho, Cajal comentó:

“¿No es el colmo de la ironía y del buen humor convertir en campeón del pacifismo al temperamento más impetuosamente guerrero y más irreductiblemente imperialista que ha producido la raza yanqui?”.

En suma, la declaración de guerra del 25 de abril de 1898 constituye un caso paradigmático de notable interés desde la perspectiva jurídico-política y estratégica. Muestra cómo las democracias modernas formalizan el paso de la tensión a la guerra, integrando legitimidad interna, narrativa pública, cálculos diplomáticos y acción militar efectiva.

Su devenir y resolución dieron lugar a la reconfiguración del equilibrio de poder a finales del siglo XIX, que inauguró una nueva etapa en la historia militar y política internacional.

The Conversation

Francisco López-Muñoz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué nos cuenta la guerra entre EE. UU. y España por Cuba sobre el intervencionismo y la geopolítica actual? – https://theconversation.com/que-nos-cuenta-la-guerra-entre-ee-uu-y-espana-por-cuba-sobre-el-intervencionismo-y-la-geopolitica-actual-282328

Ni pasar página ni romper: equilibrio en la pareja

Source: The Conversation – (in Spanish) – By Agata Kasprzak, Profesora de Psicología y terapeuta, Universidad Francisco de Vitoria

simona pilolla 2/shutterstock

Hay decisiones que no se toman en voz alta. Se toman en silencio, cuando uno repasa la discusión con su pareja una y otra vez y se pregunta si debería dejarlo pasar o marcar un antes y un después.

Tras una mentira, un comentario hiriente o una falta repetida de respeto, muchas personas se enfrentan a una disyuntiva: perdonar y seguir adelante o poner límites y arriesgar la relación de pareja.

Perdonar parece generoso. Poner límites, necesario. Pero ¿y si no fueran opciones opuestas? Quizá el verdadero problema no esté en la ofensa, sino en cómo entendemos el perdón.

Culturalmente hemos aprendido a asociar el perdón con la generosidad y los límites con la dureza. Perdonar se percibe como un gesto noble, incluso a veces hasta moralmente superior.

La culpa a la hora de poner límites

Poner límites, en cambio, suele interpretarse como frialdad, egoísmo o una amenaza para la continuidad de la relación. Muchas personas experimentan incluso culpa al hacerlo o empiezan a dudar de sí mismas: ¿estaré siendo demasiado exigente?, ¿no debería ser más comprensivo/a?, ¿significará poner límites amar con menos intensidad?

Esta manera de entenderlo alimenta una falsa dicotomía: o soy comprensivo y paso página o me protejo y arriesgo el vínculo.

Sin embargo, la investigación muestra que esta oposición es engañosa. El perdón en la pareja no consiste en “hacer como si nada” ni en tolerar cualquier conducta. Desde el punto de vista científico, implica un cambio motivacional profundo: disminuir el deseo de venganza y evitación y aumentar progresivamente la benevolencia hacia quien ha causado el daño.

Numerosos estudios indican que cuando el perdón genuino se asocia con mayor satisfacción relacional, la resolución de conflictos y la regulación emocional. Pero también señalan algo clave: el perdón que fortalece una relación no elimina los límites: se apoya en ellos.

No todo lo que llamamos “perdón” repara una relación. Desde una perspectiva psicológica, es posible distinguir entre un perdón genuino y lo que podríamos llamar pseudoperdón: cuando alguien dice haber perdonado, pero en realidad ha restado importancia a la herida o ha reprimido su propio dolor. Un perdón entendido así no sana el vínculo. Lo debilita. Lo deforma.

Cuando analizamos cómo funciona el perdón tras una ofensa concreta, una mentira, una traición o una falta repetida de consideración, entre otros muchos motivos, comprobamos que la gravedad percibida del daño influye directamente en el malestar posterior. Cuanto más grave se percibe la ofensa, mayor tienden a ser la rumiación, la evitación y el resentimiento.

Sin embargo, en una investigación reciente que hemos llevado a cabo con casi 600 personas en relaciones de pareja encontramos algo decisivo: la capacidad de mantener un equilibrio entre conexión emocional y autonomía, lo que en psicología llamamos diferenciación del self , modifica radicalmente este proceso. En personas con baja diferenciación, cuanto más grave era la ofensa, mayor era el malestar emocional y la tendencia a la evitación. En cambio, en quienes mostraban alta diferenciación, esa relación prácticamente desaparecía: podían reconocer el daño sin quedar atrapadas en él.

El perdón no es resignación

Perdonar no significa que todo siga igual. Significa que el daño no decide quién soy ni quién quiero ser. El perdón que repara no consiste en eliminar límites, sino en integrarlos. Implica reconocer la injusticia, expresar el impacto, pedir cambios si son necesarios y, desde ahí, decidir si se quiere perdonar. Sin límites claros, el perdón puede convertirse en resignación. Con límites saludables, puede convertirse en una oportunidad real de reparación.

El perdón no es una decisión impulsiva ni un acto de debilidad. Tampoco es un cheque en blanco. Para que realmente repare una relación de pareja necesita un reconocimiento claro del daño, la asunción de responsabilidad por parte de quien ha ofendido y cambios consistentes que devuelvan seguridad al vínculo.

Cuando estas condiciones no están presentes, perdonar puede convertirse en autoengaño o resignación. Pero cuando existen, el perdón deja de ser una amenaza para los límites y se transforma en un ejercicio de madurez emocional.

No se trata de elegir entre perdonar o poner límites. Se trata de comprender que el perdón genuino es, en sí mismo, una forma de límite: delimita lo que fue injusto, marca lo que no puede repetirse y abre la posibilidad de reconstruir sin borrar lo ocurrido.

Quizá el verdadero dilema no sea perdonar o poner límites, sino si estamos dispuestos a hacer ambas cosas al mismo tiempo.

The Conversation

Agata Kasprzak no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Ni pasar página ni romper: equilibrio en la pareja – https://theconversation.com/ni-pasar-pagina-ni-romper-equilibrio-en-la-pareja-276350

¿Cuánto pesan las nubes? El gran problema energético de normalizar el uso de IA

Source: The Conversation – (in Spanish) – By Paula Lamo, Profesora e investigadora, Universidad de Cantabria

Pingingz/Shutterstock

Durante años hemos hablado de “la nube” como si los datos flotaran en un espacio limpio, abstracto y casi sin coste. La expansión de la inteligencia artificial ha empezado a romper esa ilusión. Porque lo digital no es inmaterial: detrás de cada consulta, cada archivo y cada automatización hay una infraestructura física que exige energía, refrigeración, materiales y territorio. Y, cuanto más ligera parece una tecnología en la pantalla, más fácil resulta olvidar el peso real que desplaza fuera de nuestra vista.

Ese es uno de los grandes malentendidos de la era digital. Hemos aprendido a asociar lo visible con lo material y lo invisible con lo limpio. Una fábrica, una carretera o una central eléctrica nos parecen inmediatamente “pesadas”. Un algoritmo, una plataforma o un asistente de inteligencia artificial, no. Pero esa diferencia es engañosa: la tecnología digital no ha dejado atrás la materia, sino que simplemente la ha redistribuido y la ha hecho menos perceptible.

La desaparición de la máquina es una ilusión

La promesa cultural de lo digital siempre ha sido la ligereza. Menos papel, menos objetos, menos desplazamientos, menos fricción. En parte, esa promesa tiene algo de verdad, ya que muchos procesos se han vuelto más rápidos y algunos recursos se usan de forma más eficiente. Pero eso no significa que la tecnología se haya desmaterializado.

En realidad, la máquina solo ha salido del campo visual del usuario. Cada correo almacenado, cada vídeo reproducido, cada foto “guardada en la nube”, cada documento resumido por una IA depende de una cadena física: centros de datos, servidores, equipos de red, sistemas de respaldo, refrigeración, cableado y dispositivos.

El soporte no ha desaparecido; se ha alejado. Y esa distancia importa, porque, cuando no vemos una infraestructura, tendemos a pensar menos en sus límites, en sus costes y en quién los asume.

La IA no crea el problema, pero lo amplifica

La inteligencia artificial no ha inventado la materialidad de lo digital, lo que ha hecho es intensificarla y volverla más difícil de ignorar. El debate se ha centrado en el entrenamiento de grandes modelos y en su elevado coste computacional. Sin embargo, el verdadero cambio no se juega únicamente ahí, sino en el momento en que la IA deja de ser excepcional y pasa a integrarse en el uso cotidiano.

Durante años, internet pudo seguir presentándose como una capa relativamente abstracta de servicios. La IA ha cambiado eso porque ha devuelto al centro la cuestión del cálculo. De repente, el debate público habla de chips, centros de datos, consumo energético y necesidades de refrigeración. De hecho, la escala ya es visible. Según la Comisión Europea, los centros de datos consumen en torno a 415 teravatios-hora (TWh) al año y podrían alcanzar 945 TWh en 2030. El Departamento de Energía de Estados Unidos, además, estima que su consumo pasó de 58 TWh en 2014 a 176 TWh en 2023. No porque esos elementos sean nuevos, sino porque el salto de escala empieza a hacerse visible.

Pero esa materialidad no solo se mide en energía: también se experimenta en el territorio. Hay un aspecto del que se habla poco: la proximidad. A diferencia de otras infraestructuras industriales, los centros de datos no se sitúan a decenas de kilómetros de donde vivimos. Necesitan estar cerca de los núcleos urbanos por razones de conectividad e infraestructura. Mientras que una mina o una central pueden estar lejos, el centro de datos que sostiene esa “nube” puede ubicarse, literalmente, al lado.

Esa cercanía tiene consecuencias. Implica sistemas de refrigeración que funcionan de forma continua, ruido persistente y una presencia física que transforma el entorno inmediato. Cada vez más, las comunidades cercanas perciben un cambio en su calidad de vida cuando uno de estos centros se instala en los alrededores.

Por ejemplo, en el condado de Fairfax (Virginia, Estados Unidos), la contestación vecinal llevó a reformar la normativa urbanística para responder a preocupaciones sobre ruido, diseño y proximidad a zonas residenciales. En el condado de Loudoun, otro gran enclave de centros de datos situado en Virginia, las propias autoridades locales reconocen que el ruido figura entre las principales quejas ciudadanas. Y en Le Bourget, en el entorno de París, la oposición a nuevos proyectos se ha articulado también en torno al ruido, el calor y la cercanía a áreas habitadas y escolares.

Consumo anual de electricidad de los centros de datos en equivalentes de consumo eléctrico doméstico y concentración espacial de las distintas instalaciones en relación con su proximidad a las zonas urbanas.
IEA, CC BY-SA

El problema, por tanto, no es solo el coste de entrenar un modelo, sino lo que ocurre cuando ese modelo se integra de forma transversal en buscadores, herramientas de productividad, atención al cliente o plataformas educativas. En ese momento, la IA deja de ser una novedad y pasa a normalizarse y convertirse en una capa estructural del sistema.

Lo pequeño, cuando se escala, no lo es tanto

Una sola consulta –un resumen, una traducción, una imagen, una corrección de estilo– parece irrelevante. Nada de eso, visto de forma aislada, parece especialmente grave. Pero la infraestructura digital no se diseña para responder una vez, sino para responder millones de veces, sin interrupción y con tiempos de respuesta competitivos.

Ahí cambia todo. Antes buscábamos información; ahora esperamos respuestas generadas. Antes redactábamos desde cero; ahora pedimos borradores. Antes editábamos una imagen; ahora la producimos desde una instrucción. Cada gesto parece pequeño. La suma no lo es.

En el libro El Principito, el problema del planeta no eran las grandes catástrofes repentinas, sino los baobabs. Sus semillas casi invisibles que parecían inofensivas al principio y que, si nadie las arrancaba a tiempo, acababan ocupándolo todo. La imagen sigue siendo útil. Muchas transformaciones tecnológicas no se vuelven problemáticas cuando irrumpen, sino cuando se vuelven costumbre. Cuando entran en la rutina sin que nadie se pregunte demasiado qué exigen del mundo para funcionar.

Pensar también calienta

Hay, además, un aspecto poco intuitivo que suele quedar fuera del debate público: además de consumir energía para procesar información, los sistemas digitales también necesitan recursos para disipar el calor que generan.

Extracción y consumo de agua en centros de datos en el Escenario Base, 2023 y 2030.
IEA, CC BY-SA

Esto se vuelve especialmente relevante con la inteligencia artificial. A medida que crece la intensidad de cálculo, aumenta la densidad de potencia y el problema térmico gana protagonismo. En los centros de datos, no basta con alimentar los equipos: hay que mantenerlos dentro de condiciones térmicas estables. Cuanto más cálculo, más exigencia de refrigeración. Un estudio publicado en Nature señala que las tecnologías de refrigeración convencionales pueden llegar a representar hasta el 40 % de la demanda energética total de un centro de datos.

Ese detalle obliga a mirar la tecnología de otra manera. Aparte de electricidad, la IA requiere una infraestructura térmica más intensa y, en algunos contextos, mayor presión sobre el agua o sobre sistemas de enfriamiento más complejos.

Dicho de otro modo: cuando pedimos más “inteligencia” a una máquina, también estamos pidiendo más capacidad para sostener físicamente esa inteligencia.

La verdadera alfabetización digital

El problema de fondo no es solo energético. Es cultural. Durante años, hemos entendido la alfabetización digital como la capacidad de usar herramientas: buscar, compartir, automatizar, aprovechar plataformas. Pero esa definición ya no basta. Hoy necesitamos otra forma de alfabetización, que nos enseñe a ver la infraestructura detrás de la interfaz.

No solo qué hace una tecnología, sino qué necesita para existir. No solo qué automatiza, sino qué recursos moviliza. No solo qué ahorra, sino qué desplaza.

Eso no implica demonizar la innovación ni defender una nostalgia analógica. La cuestión no es renunciar a la inteligencia artificial o a la digitalización; la cuestión es dejar de tratarlas como si fueran ligeras por naturaleza.

Quizá, el gran truco cultural de la era digital ha sido hacernos creer que, como no vemos el peso de la tecnología, ese peso ha desaparecido. Pero no ha desaparecido, solo se ha movido.

The Conversation

Este trabajo ha sido apoyado por el Gobierno Regional de Cantabria y financiado por la UE bajo el proyecto de investigación 2023-TCN-008 UETAI. También, fue financiado por el Ministerio de Ciencia e Innovación de España MICIU/AEI/10.13039/501100011033 y por FEDER, UE bajo el proyecto de investigación PID2021-128941OB-I00, “Transformación Energética Eficiente en Entornos Industriales”. Además, fue financiado parcialmente por la Consejería de Educación, Formación y Universidades del Gobierno de Cantabria a través del Contrato Programa del Gobierno de Cantabria y la Universidad de Cantabria a través del proyecto 04.50.00.VQ25.541A.646.62, “Habilitando entornos residenciales más sostenibles mediante la transformación inteligente y activa de la energía eléctrica”.

Carolina González Cambero no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Cuánto pesan las nubes? El gran problema energético de normalizar el uso de IA – https://theconversation.com/cuanto-pesan-las-nubes-el-gran-problema-energetico-de-normalizar-el-uso-de-ia-280835

¿Quién da información en las crisis sanitarias? El hantavirus reabre el debate sobre las fuentes

Source: The Conversation – (in Spanish) – By Mariola Moreno, Investigadora en el ICS, Universidad de Navarra

Visual Generation/Shutterstock

Estos últimos días, muchos hemos experimentado una inevitable vuelta al pasado, concretamente al 31 de enero de 2020, cuando se confirmó el primer caso de covid-19 en España en La Gomera.

Más de seis años después, Canarias ha vuelto a estar en el foco mediático, esta vez por los casos de hantavirus detectados en un crucero internacional cuyos pasajeros fueron evacuados en el puerto de Granadilla (Tenerife).

Sí, se trata de situaciones diferentes, pero tienen algo en común: la rapidez informativa. Ante una crisis sanitaria, la urgencia acaba marcando la forma de comunicar. Esta celeridad en momentos críticos hace que se tienda a explicar menos de lo que la ciudadanía necesita entender, que el foco se vaya por otros derroteros y la crisis sanitaria derive a una crisis política.

Ocurrió con el coronavirus y lo estamos viendo con el hantavirus. ¿Entonces, se están repitiendo las dinámicas informativas que vimos entonces?

El relato de los hechos sin fuentes gubernamentales

El caso saltó a la agenda pública tras detectarse un brote de hantavirus a bordo del crucero MV Hondius, notificando casos de personas fallecidas e infectadas. Esta situación obligó a activar protocolos internacionales de control sanitario y que los organismos competentes hablasen de qué plan ejecutar para evacuar a los pasajeros.

Ante este contexto, los medios españoles inicialmente relataban hechos factuales sobre la situación en el barco sin usar la fuente gubernamental en la descripción de los hechos concernientes al virus y las implicaciones de este.

Pero el foco mediático cambió el 4 de mayo, cuando Cabo Verde y Marruecos no permitieron el atraque del crucero. Desde entonces, la crisis dejó de ser solo una cuestión sanitaria y paso a un primer plano en el debate político.
Las diferencias entre el Gobierno central y el Gobierno de Canarias, las negociaciones con la Organización Mundial de la Salud y las declaraciones institucionales comenzaron a ocupar gran parte de la cobertura mediática, algo similar a lo que ocurrió durante la pandemia.

Cuando una crisis avanza con rapidez, el debate político suele ganar espacio frente a las explicaciones científicas y los ciudadanos pueden encontrar dificultades para obtener información valiosa sobre cuestiones claves. De hecho, una investigación mostró que las fuentes más utilizadas por las agencias de prensa en España en la pandemia fueron líderes políticos nacionales y autonómicos, tanto de los gobiernos como de los partidos de la oposición, circunstancia que se está reproduciendo de igual manera en la crisis del hantavirus.

Las declaraciones institucionales, las diferencias entre administraciones y la gestión del crucero han tenido más protagonismo que las explicaciones sobre el propio virus, y eso tiene consecuencias. Cuando la información se centra sobre todo en el conflicto político, muchas personas pueden sentirse más confundidas o inseguras.

Las fuentes en las crisis sanitarias

La pandemia dejó una lección importante: en una crisis sanitaria, no todas las voces ayudan igual a la ciudadanía. Y también dejó como precedente una auténtica “infodemia”, es decir, una sobreabundancia de información que, lejos de aclarar, muchas veces generó más temor y confusión.

Los políticos son necesarios para informar sobre decisiones, medidas o protocolos. Pero quienes realmente pueden explicar una enfermedad son los médicos, científicos y expertos en salud pública. Ellos están capacitados para responder a las preguntas que más preocupan a la gente: cómo se transmite un virus, qué riesgos existen o qué medidas deben tomarse.

Por un lado, se trata de ofrecer información verificada para reducir la incertidumbre propia de las crisis; y, por otro, de contrarrestar la desinformación que tiende a aparecer en estos contextos excepcionales. Así se evita, a su vez, que la cobertura mediática se encuadre en los intereses políticos y electorales, cada vez más presentes en el contexto de campaña permanente.

Los líderes viven sometidos al escrutinio constante de una ciudadanía que demanda información, transparencia y rendición de cuentas. Sin embargo, cuando una crisis avanza muy rápido, las voces políticas suelen ocupar más espacio en los medios. Comparecen constantemente, generan titulares y marcan el ritmo de la actualidad, en ocasiones generando una sobreabundancia informativa que no ayuda a entender mejor el virus (solo entre el 12 de marzo y el 31 de mayo de 2020, el Gobierno de España llevó a cabo 166 comparecencias).

Y mientras tanto, las explicaciones científicas quedan muchas veces en segundo plano.

Idénticas dinámicas

Con el hantavirus ha vuelto a verse esa misma dinámica. Se ha hablado mucho del conflicto político alrededor del crucero, del choque de competencias y responsabilidades políticas, pero bastante menos sobre el propio virus y sus riesgos reales, cuya confusión se percibe en la opinión pública.

En el análisis de los teletipos de Europa Press de la primera semana de mayo vemos la conexión discursiva entre “Gobierno” y “Canarias” (siendo además las dos palabras más frecuentes en el total de datos recogidos), así como la recurrencia a fuentes institucionales para elaborar sus informaciones, mientras que científicos y expertos en la materia no aparecen entre los más recurrentes.

Por eso, una de las grandes lecciones pendientes sigue siendo dar mayor espacio mediático a las fuentes expertas y rigurosas. Porque, en una crisis sanitaria, la ciudadanía no solo necesita información rápida, necesita entender qué está ocurriendo y cómo proteger su salud. Y ahí los medios deben cumplir, una vez más, su función social.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Quién da información en las crisis sanitarias? El hantavirus reabre el debate sobre las fuentes – https://theconversation.com/quien-da-informacion-en-las-crisis-sanitarias-el-hantavirus-reabre-el-debate-sobre-las-fuentes-282435

El clima laboral, clave para evitar el ‘mobbing’

Source: The Conversation – (in Spanish) – By José María Sacristán Rodríguez, Profesor del Departamento de Ciencias de la Salud, Universidad Europea Miguel de Cervantes

El clima laboral es determinante para la salud mental de los trabajadores. Vitaly Gariev / Unsplash., CC BY

Un problema de las organizaciones en la actualidad es que suelen estar encabezadas por personas que dirigen, ordenan, persuaden… pero no lideran. Así, en muchas de ellas, el problema no es la falta de talento, sino la incapacidad para retenerlo. Reclutar personal constantemente no siempre es señal de crecimiento sino, muchas veces, de déficits internos tales como liderazgo débil, falta de desarrollo o ambientes laborales poco saludables en los que puede aparecer un clima negativo, o incluso tóxico.

Invertir en las personas, escucharlas y crear condiciones donde quieran quedarse, no solo reduce costes: fortalece la cultura organizacional de la empresa, mejora sus resultados a largo plazo, fomenta un clima laboral positivo y, a su vez, evita posibles cuadros de estrés.

El clima laboral importa

Cada empresa tiene su propio clima laboral, que puede ser percibido como un entorno de confianza, crecimiento y progreso, o como un escenario de inseguridad, malestar o terror. Es importante señalar que no se puede hablar de un único “clima”, sino de la existencia de subclimas que coexisten simultáneamente. Así una unidad dentro de una misma organización puede tener un clima excelente, mientras que en otra unidad puede ser muy deficiente.

Este aspecto podría diferenciar las empresas de éxito de las que no lo son: mientras un clima agradable se orienta hacia los objetivos empresariales, su opuesto destruye el ambiente de trabajo, ocasionando situaciones de conflicto, bajo rendimiento, desgana, indiferencia o absentismo laboral, a la vez que hace crecer los niveles de estrés de los empleados.

El termómetro del estrés

Existen dos tipos de estrés en el ser humano: el eustrés y su antagonista, el distrés. El primero es la vivencia positiva del estrés: es aquel que mantiene activo el cerebro para realizar las actividades diarias a tiempo. Al contrario, el distrés hace referencia a su vivencia negativa, lo que todos vulgarmente mal llamamos estrés. Surge cuando la persona se enfrenta a cargas y situaciones que superan su capacidad de respuesta.

Cabe reseñar que el distrés es un mecanismo de defensa que posee nuestro organismo humano, una señal, una advertencia inequívoca ante una amenaza. Así un clima laboral positivo establece buenos canales comunicativos entre los superiores y los subordinados, un elevado grado de colaboración y cooperación entre sus miembros, un liderazgo sólido y eficaz. Promueve la carrera profesional de los empleados, les genera además un elevado grado de satisfacción y establece unas condiciones físicas saludables para el desempeño del trabajo.

Caldo de cultivo para el mobbing

Sin embargo, cuando el clima laboral es negativo, puede favorecer casos de acoso laboral o mobbing, definido como “hostigamiento al que, de forma sistemática, se ve sometida una persona en el ámbito laboral, y que suele provocarle serios trastornos psicológicos”. Según los últimos datos de la organización Internacional del Trabajo, el 22 % de la población padece esta forma de maltratato psicológico.

La violencia en el ámbito laboral preocupa cada vez más, ya que afecta a la calidad de vida de las personas, repercute sobre su dignidad y tiene consecuencias no solo a quien lo sufre, sino a todo su entorno personal y laboral.

Por todo ello, el trabajo organizado de forma eficiente, óptima, correcta y garantizando la satisfacción, la integridad y la dignidad de los empleados constituyen en sí mismo un medio para evaluar la salud del trabajador, entendida desde un punto de vista holístico.

En nuestra sociedad, el centro de trabajo constituye un lugar destacado e importante en nuestras vidas, debido a que en el pasamos unas ocho horas diarias o más. Por ello, todos debemos de cuidar el clima laboral en el que estamos inmersos. En especial, las personas al mando son responsables de marcar esas líneas maestras dentro de los planes estratégicos empresariales, en su cultura de misión, visión y valores. Estos deben estar presentes en cualquier organización que se precie como tal.

The Conversation

José María Sacristán Rodríguez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El clima laboral, clave para evitar el ‘mobbing’ – https://theconversation.com/el-clima-laboral-clave-para-evitar-el-mobbing-279472

Guía para elegir y consumir bebidas isotónicas

Source: The Conversation – (in Spanish) – By José Miguel Martínez Sanz, Profesor Titular. Dpto de Enfermería. Grupo de Investigación en Dietética Aplicada, Nutrición y Composición Corporal (DANuC)., Universidad de Alicante

Adamov_d/Shutterstock

Haciendo ejercicio físico, es inevitable echarse a sudar. Se debe a que el 80 % de la energía producida para la contracción muscular se libera en forma de calor. Y claro, conviene eliminar ese calor a toda prisa antes de que provoque un aumento de la temperatura corporal que impida a nuestro organismo funcionar correctamente.

Sudar supone una pérdida de líquido interno que puede llegar a un ritmo de 3 litros/hora. Hablamos de un líquido que, lejos de ser agua pura, lleva diluidos electrolitos, esto es, minerales necesarios para nuestras funciones vitales. De ahí la importancia de reponerlos tanto durante como después de estar físicamente activos.

Una bebida deportiva está formulada, precisamente, para cubrir tres necesidades fundamentales: aportar hidratos de carbono que mantengan una concentración adecuada de glucosa en sangre y retrasen el vaciado de los depósitos de glucógeno; reponer electrolitos, principalmente sodio; y evitar la deshidratación, proporcionando agua.

Las bebidas deportivas disponibles en el mercado se presentan listas para consumir o en polvo, con una amplia gama de sabores que mejoran su palatabilidad. Generalmente, la concentración recomendable de hidratos de carbono es del 6-8 % (6-8 g por cada 100 ml) y la concentración de sodio debe estar dentro del rango 20-40 mmol/L (46-92 mg/100 ml).

¿Glucosa, fructosa o edulcorantes?

Las bebidas deportivas bajas en calorías o sin azúcar pueden ser útiles cuando se busca ingerir líquidos sin consumir carbohidratos. Concretamente, en protocolos de entrenamiento con baja disponibilidad de hidratos de carbono o train low, usando la terminología anglosajona.

En una actividad física más intensa, es preferible optar por las que contienen carbohidratos de transporte múltiple (por ejemplo, glucosa y fructosa), en lugar de las que solo incorporan glucosa. De este modo reducimos las molestias gastrointestinales a la vez que contribuimos a que los hidratos de carbono se oxiden.

Por otra parte, existen variedades que pueden contener hasta un 14 % de hidratos de carbono. Están diseñadas para suplir las elevadas necesidades energéticas durante el ejercicio de ultrarresistencia, es decir, el que dura más de 6 horas.

¿Cómo y cuándo consumir bebidas deportivas?

Las bebidas deportivas permiten cubrir las necesidades de energía, líquidos y electrolitos tanto antes como durante y después del ejercicio físico. Se recomienda recurrir a ellas en sesiones de más de 1 hora de duración, sin descartarlas en sesiones más breves pero intensas o con alta sudoración.

Si se consume inmediatamente antes de comenzar la práctica deportiva, puede mejorar el estado de hidratación previo. Además, pueden ayudar a cumplir con las recomendaciones generales de 500 ml de líquido en las 2 horas previas a la práctica físico-deportiva. Durante el ejercicio, promueve tanto la hidratación como el aporte energético, ayudando a prolongar el esfuerzo. Y si se consume después del ejercicio, es ideal para reponer líquidos y glucógeno.

La cantidad de bebida deportiva a ingerir depende de los objetivos y las necesidades individuales de cada deportista, la intensidad y duración del ejercicio, y las oportunidades para beber, que vienen determinadas por el tipo de práctica deportiva.

Malas para la salud dental

Las bebidas deportivas no son necesarias en todas las sesiones de entrenamiento, por lo que resulta fundamental ajustar su uso a situaciones en las que realmente puedan ser de utilidad.

Por otro lado, se ha demostrado que contribuyen a la erosión dental como consecuencia de su elevado contenido en azúcares. Para minimizar su impacto, conviene reducir el tiempo de contacto de la bebida con los dientes y evitar “enjuagarnos” la boca con ella.

Una botella exprimible resulta una buena opción, ya que dirige el líquido hacia la parte posterior de la boca. Otra opción es enjuagarse la boca con agua inmediatamente después de consumir la bebida deportiva.

Cuando las bebidas deportivas producen dolor de tripa

Algunos deportistas sufren molestias gastrointestinales al ingerir bebidas deportivas. Este malestar se puede prevenir con un “entrenamiento del intestino”, que consiste en consumir un volumen y una concentración progresivamente mayores durante los entrenamientos. De este modo, el intestino desarrolla una mayor capacidad para absorber hidratos de carbono sin molestias.

También suele funcionar optar por bebidas deportivas con mezclas de carbohidratos de transporte múltiple (glucosa, fructosa, maltodextrinas, entre otros), especialmente si se consumen hidratos de carbono a un ritmo elevado (más de 60 gramos por hora).

En cuanto al volumen de bebida a ingerir, depende de las necesidades individuales, la intensidad y duración del ejercicio, así como las oportunidades para pararse a beber durante la práctica deportiva. Si es posible espaciar la frecuencia de las tomas cada 15 a 20 minutos, se recomienda dar sorbos de 150-250 ml.

¿Y a qué temperatura? Lo ideal es que esté fresca, en un rango de entre 10 ºC y 20 ºC, que es óptimo para favorecer el vaciado gástrico.

Temperaturas muy frías podrían ralentizar la absorción, mientras que temperaturas por encima de 20 ºC no son apetecibles y podrían provocar un menor consumo. En ambientes muy calurosos, puede resultar interesante agregar cúbitos de hielo a la bebida, para mantenerla fresca y mejorar su palatabilidad.

The Conversation

José Miguel Martínez Sanz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Guía para elegir y consumir bebidas isotónicas – https://theconversation.com/guia-para-elegir-y-consumir-bebidas-isotonicas-276004