Por qué necesitamos más y mejores áreas marinas protegidas antes de 2030

Source: The Conversation – (in Spanish) – By José Antonio García Charton, Profesor titular de Ecología, Universidad de Murcia

Vista submarina de la Reserva Marina de Cabo de Palos (España) Damsea/Shutterstock

En diciembre de 2022, los países participantes en la COP15 del Convenio sobre la Diversidad Biológica de las Naciones Unidas, celebrada en Montreal (Canadá), acordaron proteger al menos el 30 % de nuestras tierras y océanos para 2030, el conocido como “objetivo 30 x 30”. Este compromiso se basa en estudios científicos que sugieren que el 30 % es el mínimo necesario para restaurar la vida marina y todos los beneficios que proporciona a la humanidad.

En un planeta que sufre una crisis ambiental sin precedentes, las áreas marinas protegidas (AMP) son actualmente una de las mejores herramientas –cuando no la mejor– para proteger la biodiversidad marina, conservar los recursos de los océanos, permitir una mayor resiliencia al cambio climático y mantener los servicios prestados por los ecosistemas marinos que aseguren la calidad de vida de las comunidades costeras.

Con el fin de alcanzar de un modo efectivo el objetivo 30 x 30, los expertos abogan actualmente por la creación de “redes de AMP”, un conjunto de AMP individuales que rinden resultados de manera sinérgica, diseñadas para cumplir las metas que una única área no puede lograr por sí sola.

Para ello se requiere, ante todo, limitar las actividades humanas que dañan los ecosistemas que albergan. Estas redes deben incluir distintos tipos de hábitats –desde praderas submarinas hasta zonas profunda– y replicarlos en distintas extensiones para asegurar su resistencia ante cambios o impactos catastróficos.

También es importante variar el tamaño de las áreas según cómo se mueven las especies, e incluir diferentes niveles de protección, desde reservas totalmente cerradas hasta zonas donde se permitan actividades reguladas como la pesca o el buceo.




Leer más:
Conservación entre fronteras: reservas marinas móviles para proteger especies migratorias


La conectividad es otro aspecto clave: las AMP deben estar lo bastante cerca unas de otras como para permitir el intercambio de larvas y el movimiento de adultos, reforzando así las poblaciones y beneficiando a zonas no protegidas. Además, la red debe cuidar espacios con ecosistemas únicos, especies emblemáticas o poblaciones pesqueras importantes para la sostenibilidad futura.

Por otro lado, las AMP deben diseñarse y gestionarse con una participación real de todos los sectores implicados –pesca, turismo, ciencia, oenegés y administraciones–, promoviendo una gobernanza eficaz y equitativa que incluya también el conocimiento tradicional y local.

Un compromiso global insuficiente

Aunque casi 200 países se han comprometido con el objetivo 30 x 30, hoy solo el 9,6 % del océano global está bajo algún tipo de protección y menos del 3 % corresponde a AMP altamente o totalmente protegidas. Estas, según muchos ecólogos marinos, son las que verdaderamente restauran ecosistemas y aportan beneficios tangibles a la sociedad. El mundo necesita cuadruplicar el nivel actual de protección en apenas 5 años.

La mayor parte del progreso en AMP durante las dos últimas décadas se ha hecho creando muy pocas áreas extremadamente grandes –más de 100 000 km²– en lugares remotos de las zonas económicas exclusivas (ZEE) de ciertos estados. Es decir, en aquellas áreas marítimas que se extienden hasta 200 millas náuticas desde la costa de un país, donde este tiene derechos soberanos sobre la exploración, uso y conservación de sus recursos naturales (pesca, minerales, energía) y jurisdicción sobre actividades como investigación científica y protección ambiental.

Esto ha hecho avanzar los porcentajes globales, pero tiene un efecto limitado sobre los ecosistemas donde se concentra la biodiversidad y la actividad humana: las aguas costeras. Aunque el 94 % de todas las AMPs del planeta se ubican en aguas dentro de las 12 millas (mar territorial), son tan pequeñas (mediana de 1,1 km²) que colectivamente solo protegen el 0,3 % del océano mundial.

Un estudio reciente ha puesto de manifiesto que para cubrir las lagunas de protección global habría que crear cerca de 300 AMP grandes y unas 188 000 AMP pequeñas. Esto supone añadir 1,68 millones de km² de protección costera y más de 16 millones de km² en aguas exteriores. En términos operativos, esto se traduce en crear unas 85 AMP nuevas cada día entre 2025 y 2030. Algo que, evidentemente, no está ocurriendo.

Como además evidencia este reciente trabajo, el problema no es solo de cantidad, sino de calidad. Un tercio de la superficie marina considerada “protegida” permite actividades incompatibles con la conservación, como pesca industrial, minería marina, extracción de hidrocarburos, energía eólica marina, etc. Y miles de AMP carecen de planes de gestión, seguimiento o vigilancia. En realidad, sólo el 3 % del océano mundial está realmente bien protegido.




Leer más:
Proteger el 30 % de los océanos no es suficiente


Las AMP españolas: un ejemplo de lo que pasa en el resto del mundo

El mar Mediterráneo ofrece un ejemplo especialmente claro de la deficiente aplicación de las AMP: hasta el 95 % de ellas no presentan diferencias normativas y la mayoría no albergan más biodiversidad que las zonas no protegidas.

Además de que casi no existen zonas altamente protegidas (0,23 % de toda su superficie), la red actual está muy fragmentada. La mayoría de las zonas protegidas se concentran en la cuenca noroccidental, lo que da lugar a una conectividad deficiente de la red y a enormes desequilibrios territoriales.

La situación en la costa española, tanto mediterránea como atlántica, no difiere demasiado del diagnóstico global. Si bien en la teoría alcanza un alto porcentaje de protección marina (alrededor de un 23 %) y aspira a alcanzar el 25 % a finales de este año, muchos de los planes de gestión de estos espacios no son efectivos en la regulación real de actividades como pesca, turismo, etc. Así que, en la práctica, estas áreas funcionan como espacios sin protección real.

Por otra parte, menos del 1 % del área protegida de España está clasificada como altamente protegida o totalmente protegida. Por el contrario, más de 150 AMP, que comprenden el 40 % del área protegida del país, se consideran ligeramente protegidas o mínimamente protegidas. Asimismo, resulta alarmante que cerca del 45 % del área protegida se considera incompatible con los objetivos de conservación al permitir actividades como la pesca industrial, las prospecciones petrolíferas, la minería o las eólicas marinas.




Leer más:
Arranca la eólica marina en España: retos e incertidumbres de instalar 200 aerogeneradores flotantes en el mar


Además, con el fin de alcanzar “por la vía rápida” el objetivo 30 x 30, en los últimos años se está recurriendo a incluir en la Red Natura 2000 marina espacios muy grandes, de miles de kilómetros cuadrados que, por el momento, adolecen de falta de medidas efectivas de protección. Ejemplos destacados son el Corredor de migración de cetáceos del Mediterráneo o el Corredor migratorio galaico-cantábrico occidental.

Estas áreas se encuentran a menudo muy lejos de la costa, lo que impide afrontar la protección de la zona costera. Y es aquí donde se dan la mayor parte de las presiones antrópicas, así como las debidas al cambio climático y los conflictos entre usos.

Por su parte, las reservas marinas de interés pesquero, aun siendo de pequeño tamaño, presentan en general buenos resultados, pero actualmente se encuentran afectadas por un drástico recorte de la financiación proveniente del Ministerio de Agricultura, Pesca y Alimentación. Esta situación podría provocar una abrupta pérdida de los beneficios conseguidos durante los últimos 30 años, debido a una disminución de la vigilancia, sin la cual toda medida de gestión resulta inútil frente a la presión del furtivismo.

Por último, la gobernanza de las AMP españolas, ya sean de índole ambiental –como los espacios de la Red Natura 2000 marina– o de naturaleza pesquera –como las reservas marinas de interés pesquero–, no cuentan con participación efectiva de los diferentes actores locales. Esto dificulta la colaboración y el acuerdo con los sectores implicados, y con ello la creación de nuevas AMP o la ampliación de las ya existentes.




Leer más:
No podremos alcanzar un desarrollo sostenible con unos océanos enfermos


Claves para que España alcance la meta 30 x 30

Para alcanzar el objetivo 30 x 30 haría falta flexibilizar y descentralizar con urgencia los mecanismos administrativos para crear AMP, las cuales suelen depender de administraciones nacionales o regionales, generalmente con modelos de gobernanza verticales que limitan la participación y corresponsabilidad.

Permitir que municipios o comunidades costeras (por ejemplo, cofradías de pescadores u oenegés, mediante mecanismos como las concesiones administrativas, como una forma de custodia marina) declaren sus propias AMP agilizaría su creación y mejoraría tanto la eficiencia de la gestión como la equidad en la distribución de beneficios.

Para que este enfoque funcione es clave sensibilizar a los actores locales –pescadores, centros de buceo, hostelería, oenegés– sobre el valor de las AMP y formar a personas de la zona para diseñar y gestionar estos espacios de manera participativa y adaptativa, impulsando liderazgos locales que favorezcan la conservación marina.

Además, debe asegurarse que la protección sea real no solo manteniendo las acciones de vigilancia, el personal y los medios suficientes, sino también afianzando la participación pública en la gobernanza para garantizar el éxito de las medidas de protección.

Hoy en día, la mayor parte de las AMP dependen exclusivamente de inversiones públicas, lo cual limita las posibilidades de su expansión y funcionamiento. Incluso las pone en riesgo cuando las autoridades políticas no consideran que esta herramienta sea prioritaria. Una medida efectiva sería promover modelos mixtos de financiación que permitan, por ejemplo, que los beneficios locales obtenidos por la protección (pesca, turismo, hostelería, educación…) reviertan directamente en la gestión y el mantenimiento de las áreas protegidas.

Cuando las AMP incluyen áreas de protección estricta, están bien gestionadas y cuentan con apoyo local, consiguen restaurar la biodiversidad, aumentar las capturas pesqueras, reducir la vulnerabilidad climática y generar beneficios económicos claros.

Es urgente, por tanto, emprender investigaciones que ayuden a identificar las mejores áreas para entrar a formar parte de la red de AMP. También hace falta acometer reformas administrativas que permitan la financiación suficiente, alcanzar la legitimidad social adecuada y adoptar los esquemas de gobernanza participativa apropiados para acercarnos lo más posible al objetivo 30 x 30 de un modo realmente efectivo y equitativo. Una meta que, a día de hoy, parece demasiado lejana.

The Conversation

José Antonio García Charton ha recibido durante los últimos años fondos provenientes de convocatorias públicas competitivas de financiación de la investigación de la Fundación Biodiversidad (programa Pleamar con fondos del FEMPA), programa ThinkInAzul (PCCM), Fundación Séneca y PEICTI-MITECO, entre otras fuentes. Además, ha recibido contratos de investigación del Servicio de Pesca y Acuicultura de la CARM (con fondos del FEMPA), así como de otras empresas y administraciones.

ref. Por qué necesitamos más y mejores áreas marinas protegidas antes de 2030 – https://theconversation.com/por-que-necesitamos-mas-y-mejores-areas-marinas-protegidas-antes-de-2030-271123

La dieta deja huella: el impacto oculto de la alimentación en la fertilidad masculina

Source: The Conversation – (in Spanish) – By Marc Llavanera, Investigador posdoctoral en Biotecnología Reproductiva, Universitat de Girona

Según un estudio publicado por los autores del artículo, consumir habitualmente productos de origen vegetal ultraprocesado, como las patatas fritas, puede alterar el ADN de los espermatozoides. Pixel-Shot/Shutterstock

La infertilidad afecta a una de cada seis parejas, y la causa es de origen masculino en casi la mitad de ellas. Actualmente, sabemos con bastante certeza que el estilo de vida influye de manera importante en la salud reproductiva del hombre, y la alimentación es uno de los factores clave.

Pero no se trata solo de “comer sano”. El espermatozoide es una célula muy sensible a distintos componentes de la dieta. Algunos nutrientes pueden favorecer su funcionamiento, mientras que otros lo perjudican. Estas influencias afectan a su capacidad para cumplir su misión: entregar la mitad del material genético al óvulo para dar inicio a una nueva vida.

La fertilidad también se cocina con hábitos

Entonces, ¿qué hay que comer? La pregunta parece simple, pero la respuesta no lo es tanto. A menudo los hombres que desean ser padres buscan alimentos o suplementos para mejorar la calidad de su esperma. Y es cierto que estudios con alto grado de evidencia muestran que algunos componentes como los ácidos grasos omega-3, el zinc o la fibra dietética pueden favorecer la salud espermática, mientras que otros como las carnes procesadas, los azúcares simples o el café en exceso se asocian a un efecto negativo.

Sin embargo, la mirada ingrediente por ingrediente se queda corta para entender el impacto real de la alimentación en la fertilidad masculina. La ciencia apunta cada vez más hacia el concepto de “patrón dietético”, es decir, el conjunto de hábitos alimentarios y la combinación de alimentos que caracterizan la dieta global.

Dicho de otro modo, es la forma en que comemos cada día, y no un alimento específico, lo que realmente marca la diferencia en nuestra salud y fertilidad.

Los estudios muestran que los patrones dietéticos saludables, como la dieta mediterránea, se asocian con una mejor calidad seminal. En cambio, los patrones de estilo occidental, ricos en ultraprocesados, fritos, carnes procesadas y azúcares añadidos, se relacionan con peores resultados. El mensaje es claro: la fertilidad masculina no depende de un “superalimento”, sino de la coherencia del conjunto de hábitos alimentarios.

La dieta deja huella en el ADN

Hasta hace poco se pensaba que la dieta influía sobre todo en parámetros clásicos del semen, como su movilidad, concentración o morfología. Sin embargo, estudios recientes han mostrado un hallazgo más profundo: puede modificar la integridad molecular del espermatozoide.

En un estudio que publicamos recientemente en Reproductive BioMedicine Online, dentro del proyecto internacional Led‑Fertyl y en colaboración con la Universitat Rovira i Virgili (URV), el Instituto de Investigación Sanitaria Pere Virgili y la Universitat de Girona , observamos que la dieta también puede influir en el ADN del esperma.

En concreto, detectamos que los hombres que seguían un patrón alimentario basado en productos de origen vegetal pero con un alto nivel de procesamiento –como snacks, fritos, bollería o bebidas azucaradas– presentaban niveles más elevados de un marcador que refleja un empaquetamiento anómalo del ADN del espermatozoide. Este tipo de alteración se ha relacionado, en diferentes estudios, con una menor probabilidad de fecundación y con un peor desarrollo embrionario.

Y aún hay más que tener en cuenta. Buena parte de la evidencia actual en este campo procede de estudios con animales, donde se ha observado que dietas paternas muy ricas en grasas pueden modificar pequeñas moléculas del esperma llamadas sncRNA (siglas de small non coding RNAs). Los sncRNA actúan como “sensores metabólicos” y pueden transmitirse al embrión. En este tipo de modelos, la descendencia mostró un mayor riesgo de alteraciones metabólicas, aunque estos resultados no pueden extrapolarse de forma directa a humanos.

Y por si fuera poco, la literatura científica también señala la existencia de cambios epigenéticos inducidos por la dieta: modificaciones químicas que actúan como pequeños “interruptores” en el ADN, capaces de apagar o encender genes. La alimentación paterna podría modular estos “interruptores” del esperma sin alterar la secuencia de ADN, influyendo en las primeras etapas del desarrollo del embrión.

Aunque la magnitud de tales efectos aún se está investigando, todo ello refuerza la idea de que la dieta no solo afecta a la fertilidad masculina, sino también al material genético que transmite el espermatozoide.

La paternidad empieza mucho antes del embarazo

El espermatozoide responde a lo que come regularmente el padre y esa respuesta puede dejar una huella funcional e incluso heredable. Pero esto no significa que pequeños desajustes dietéticos tengan consecuencias inevitables: hablamos de modificaciones del riesgo, no de determinismo biológico. Por eso, más que buscar alimentos “milagro”, lo esencial es mantener un patrón dietético saludable y sostenido en el tiempo, basado en alimentos frescos, mínimamente procesados y ricos en nutrientes.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. La dieta deja huella: el impacto oculto de la alimentación en la fertilidad masculina – https://theconversation.com/la-dieta-deja-huella-el-impacto-oculto-de-la-alimentacion-en-la-fertilidad-masculina-271218

El nuevo impuesto europeo al carbono puede transformar el comercio global y nuestros hábitos de consumo

Source: The Conversation – (in Spanish) – By Simona Sagone, Visiting PhD Candidate, Ecological Transition, Lund University

Puerto de Barcelona, España. Elxeneize/Shutterstock

Para los ciudadanos de la UE, el precio de su próximo coche, la reforma de su vivienda e incluso los productos locales podrían verse pronto afectados por una política climática que muchos ni siquiera conocen. Esta nueva normativa, que entrará plenamente en vigor el día de Año Nuevo, no solo afecta a la industria pesada, sino también a los productos de uso cotidiano, que ahora se enfrentan a un coste adicional por las emisiones de carbono cuando entran en Europa.

El mecanismo de ajuste en frontera por emisiones de carbono (CBAM) impone un precio al carbono a muchos productos importados, lo que significa que los importadores con sede en la UE pagarán por los gases de efecto invernadero emitidos durante la producción de determinados materiales intensivos en carbono.

Si los productos proceden de países con normas climáticas menos estrictas, el cargo será más elevado. Para vender a la UE, las empresas tendrán que demostrar que sus productos no son demasiado intensivos en carbono.

El objetivo es evitar que las compañías trasladen su producción a lugares con normativas menos estrictas, garantizando una competencia leal entre las firmas de la UE y las de fuera de la UE, al tiempo que se incentiva la descarbonización global.

Tras una fase de prueba, las obligaciones de pago completas comenzarán el 1 de enero de 2026, cuando los importadores tendrán que comprar certificados CBAM para cubrir las emisiones incorporadas en productos como el hierro y el acero, el aluminio, el cemento, los fertilizantes, el hidrógeno y (eventualmente) la electricidad.

Aunque se trata de una política climática de la UE, el CBAM parece destinado a cambiar las reglas del juego en el comercio mundial. Los países que dependen de las exportaciones de la UE pueden verse obligados a realizar costosas inversiones en tecnologías más limpias y en un mejor seguimiento de las emisiones, o correr el riesgo de perder cuota de mercado.

gráfico del globo terráqueo, dos manos sosteniendo un barco, dinero
Cada vez más países están introduciendo sistemas de fijación de precios del carbono.
Buravleva stock/Shutterstock

Ya se está produciendo un cambio positivo: cada vez más empresas miden y comunican sus emisiones con precisión, respondiendo a la creciente demanda de datos fiables sobre el carbono. Al mismo tiempo, un número cada vez mayor de países está introduciendo sus propios sistemas de fijación de precios del carbono para mantenerse en consonancia con la UE y proteger la competitividad de sus exportaciones.

Marruecos es un ejemplo destacado: su ley de finanzas de 2025 introduce gradualmente un impuesto sobre el carbono a partir de enero de 2026. Dado que las empresas marroquíes ya pagarán un precio por el carbono a nivel nacional, es probable que sus exportaciones eviten los cargos adicionales del CBAM en la frontera de la UE, lo que les ayudará a seguir siendo competitivas.




Leer más:
¿Aceptaríamos en España un impuesto al carbono?


En muchos países, el CBAM también está acelerando el interés por las energías renovables y los procesos industriales más ecológicos. Algunos no lo ven como una amenaza, sino como una oportunidad para atraer inversiones y posicionarse como centros de fabricación con bajas emisiones de carbono.

Sin embargo, este mecanismo sigue siendo controvertido. Para las empresas, el CBAM es complejo y supone una gran carga administrativa. Las empresas necesitan sistemas sólidos para medir las emisiones incorporadas, recopilar datos de los proveedores y elaborar declaraciones medioambientales de los productos. Muchas también necesitarán nuevos contratos de energía renovable para reducir su huella de carbono.

En todo el mundo, el CBAM ha sido objeto de fuertes críticas. India y China la describen como “proteccionismo verde”, argumentando que ejerce una presión injusta sobre las economías en desarrollo. Al mismo tiempo, la UE aún no ha creado una financiación específica para ayudar a los exportadores de los países con ingresos más bajos a adaptarse. Sin este apoyo, es posible que el mecanismo no logre los resultados deseados.

¿Qué pasa con los consumidores?

Aunque el CBAM está dirigido principalmente a la industria, sus efectos secundarios llegarán a los consumidores de la UE. Es poco probable que los importadores absorban la totalidad del coste adicional, lo que significa que es probable que los precios aumenten, especialmente en el caso de los productos que dependen en gran medida del acero, el aluminio o el cemento. Esto podría significar que Europa se enfrente a un aumento de los costes de los automóviles, los electrodomésticos, los productos electrónicos, los materiales de construcción e, indirectamente, la producción de alimentos (a través de los fertilizantes).

Al mismo tiempo, el CBAM puede aportar más transparencia. Dado que los importadores deben informar de las emisiones incorporadas en sus productos, los consumidores pueden acabar disponiendo de información más clara sobre el impacto climático de lo que compran.

El mecanismo también generará ingresos para la UE procedentes de la venta de certificados. Se espera que estos ingresos sirvan para ayudar a los hogares vulnerables de muchos países europeos, así como para financiar tecnologías limpias y mejorar la eficiencia energética. La forma en que se utilicen los fondos será crucial para la aceptación pública del nuevo impuesto sobre el carbono de Europa.

Incluso antes de su plena aplicación, el CBAM ya está remodelando las cadenas de suministro e influyendo en las políticas gubernamentales mucho más allá de las fronteras de Europa. Puede desencadenar disputas comerciales, empujar a los exportadores a adoptar la fijación de precios del carbono y poner de relieve la necesidad de más financiación climática para apoyar a los países en desarrollo que están llevando a cabo transiciones industriales ecológicas.

Para muchos consumidores europeos, es probable que esto signifique un aumento gradual de los precios y, potencialmente, decisiones de compra más conscientes del clima. Entre bastidores, supone un cambio significativo en la forma en que el comercio mundial contabiliza el carbono y en cómo la política climática llega a la vida cotidiana de las personas.

The Conversation

Simona Sagone no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El nuevo impuesto europeo al carbono puede transformar el comercio global y nuestros hábitos de consumo – https://theconversation.com/el-nuevo-impuesto-europeo-al-carbono-puede-transformar-el-comercio-global-y-nuestros-habitos-de-consumo-272408

¿Es una buena idea dar de comer a los pájaros?

Source: The Conversation – (in Spanish) – By Juan Gabriel Martínez, Catedrático de Zoología, Universidad de Granada

Tres carboneros comunes (_Parus major_) se alimentan en un comedero. Bachkova Natalia/Shuttesrtock

Hace unos días me encontré en las redes sociales con una cuenta en la que se hablaba de la importancia de colocar comederos con alimento para las aves silvestres. Habitual en algunos países europeos y en Norteamérica, esta práctica se ha considerado durante mucho tiempo beneficiosa para las aves.

En la publicación se explicaba que puede haber algunos efectos negativos, pero que son compensados por los positivos, y que algunos informes muestran que a las poblaciones que acuden a los comederos les va tan bien o mejor que a las que no se les facilitan.

Si eso fuera cierto, tendríamos un problema, ya que beneficiaríamos a aquellas especies más proclives a acercarse a estructuras artificiales. Además, no está claro que proporcionar ese alimento “extra” sea siempre positivo para las aves. Algunos trabajos científicos muestran que, de hecho, puede ser perjudicial.

¿Y qué dice la ciencia al respecto?

Por ejemplo, en un trabajo realizado con herrerillos (Cyanistes caeruleus), los científicos evidenciaron que esa suplementación durante el invierno reducía el éxito de cría durante la siguiente primavera. Los pollos en una población suplementada eran más pequeños y sobrevivían peor que los de aquellos padres sin la comida extra. La hipótesis señala que, quizás, los adultos que se alimentaron mucho en comederos estaban en peores condiciones físicas porque la comida proporcionada es de peor calidad que su dieta natural (puede contener demasiada grasa, como era el caso).

De hecho, en otra investigación donde las aves comieron cacahuetes, no hubo tal efecto negativo. Los investigadores del primer estudio también discutían que el efecto global puede deberse a que la suplementación durante el invierno favorecía la supervivencia de individuos de peor calidad, que al reproducirse (y no contar en primavera con la ayuda de los comederos) obtenían peores resultados.

En otro trabajo que estudió a herrerillos y carboneros (Parus major), no se encontraron efectos claros de la alimentación suplementaria sobre la reproducción de los individuos, pero sí se detectó que el alimento facilitaba la supervivencia y la posterior reproducción de aves menos competitivas. Al entrar a formar parte de la población reproductora, aumentaba la competencia por los recursos.

Los autores sugerían que los comederos posiblemente facilitan que los pájaros críen en territorios marginales o la reproducción de individuos de menor calidad, ya que en su estudio los ejemplares juveniles usaban más la comida aportada que los individuos de mayor edad.




Leer más:
Los herrerillos de Sierra Nevada rompen una de las reglas conocidas de la evolución de las especies


Hay más expertos que defienden que la alimentación “extra” de aves silvestres es probablemente más perjudicial que beneficiosa. Así, un estudio del 2021 pone el foco en las consecuencias para aquellas especies que no son el objetivo de la alimentación extra. Entre ellas se destaca que se puede favorecer a especies más comunes y adaptables, que usan más los comederos, y que estos además pueden exponer a las destinatarias originales a mayores tasas de depredación y competencia.

Incluso, puede favorecer la transmisión de enfermedades entre especies que no suelen interactuar: en el Reino Unido se detectó cómo una especie de parásito protozoario del género Trichomonas saltó de las palomas a distintos fringílidos, pinzones y verderones que se alimentaban en comederos, provocando una epidemia de tricomoniasis, una gran amenaza para las aves.

Este trabajo también evidencia cómo las tendencias poblacionales de las especies que se alimentan en comederos frecuentemente son favorables, mientras que las de aquellas especies que no suelen acudir a ellos resultan en la mayoría de los casos negativas. Eso plantea si su uso está detrás de dichas diferencias: ¿podría el aprovisionamiento de comida a una escala enorme en los jardines del Reino Unido estar provocando que un conjunto de especies menos comunes, subordinadas y que no usan los comederos sean incapaces de competir con las especies abundantes, dominantes y que sí los utilizan?

El caso de las aves carroñeras

La alimentación suplementaria es una herramienta usada para intentar mejorar la situación de poblaciones amenazadas, especialmente cuando la falta de alimento natural es uno de los factores de amenaza. Pero esta práctica, frecuentemente exitosa, también nos ha enseñado que suplementar no tiene exclusivamente efectos positivos.

En España se han investigado las consecuencias potencialmente negativas de dicha práctica en aves carroñeras. La disminución de los tamaños poblacionales de buitres y otras especies en la península ibérica llevó a las administraciones a facilitarles comida en los llamados muladares, zonas donde tradicionalmente se han abandonado los cadáveres del ganado doméstico.




Leer más:
El reto de gestionar cadáveres de ganado para conservar a los carroñeros


Los muladares resultaron fundamentales para la recuperación de las poblaciones de buitres, pero al mirar con detalle se comprobó que la forma en que las administraciones gestionaban los puntos de alimentación podía tener efectos menos positivos. Los muladares se transformaron, en palabras de algunos de los investigadores, en “restaurantes para buitres”, con grandes cantidades de comida concentrada en unos pocos puntos y de forma predecible en el tiempo, modificando así el hábitat en lo que a los recursos alimenticios para las carroñeras respecta.

Si en los muladares la comida es facilitada en puntos predecibles en el tiempo y en el espacio, se favorece la monopolización de las carroñas por parte de unas pocas especies particularmente dominantes y agresivas, como el buitre leonado (Gyps fulvus).

En un estudio realizado en el norte de España se encontró que la diversidad de especies que utilizaban las carroñas dependía del número de buitres leonados que acudían a los muladares: cuantos más buitres, menor diversidad de especies alimentándose.

Cuando las carroñas aparecen en el medio de forma impredecible en el tiempo y el espacio, la cantidad de especies que las aprovechan es más alta, y son más utilizadas por aves de menor tamaño (como alimoches o milanos, algunas de ellas amenazadas

De estos trabajos se deduce que la gestión de los puntos de alimentación es importante. Los especialistas sugieren que la suplementación debe considerarse en casos en los que el mantenimiento de las poblaciones en base a carroñas provenientes de la fauna silvestre o de la ganadería extensiva (impredecibles en el tiempo y en el espacio) se vea comprometido.

En cualquier caso, los puntos de alimentación deberían crearse como una cadena de lugares a los que se aporte comida de forma esporádica para evitar la concentración de recursos y carroñeros.

Aunque es verdad que para ciertos casos los comederos y la alimentación suplementaria pueden ser beneficiosos, habría que plantear su uso solo en aquellos escenarios en los que las poblaciones estén atravesando problemas demográficos. Y, además, intentar que estén dirigidos a aquellas aves que los puedan necesitar, en vez de disponibles para la mayoría de especies proclives a usarlos.

Es decir: si realmente nos importa que la naturaleza mantenga su equilibrio, debemos evitar un uso masivo e indiscriminado de estas prácticas.

The Conversation

Juan Gabriel Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Es una buena idea dar de comer a los pájaros? – https://theconversation.com/es-una-buena-idea-dar-de-comer-a-los-pajaros-272390

Más allá del inglés: cómo potenciar la diversidad lingüística europea a través del Erasmus

Source: The Conversation – (in Spanish) – By Gloria Vázquez García, Profesora Titular del Área de Lingüística General de la Universitat de Lleida, Universitat de Lleida

DavideAngelini/Shutterstock

Cada año, más de un millón de estudiantes universitarios europeos aprovechan el programa de intercambio Erasmus para ir a estudiar a otro país. Creado en 1987, su objetivo ha sido desde el principio promover la movilidad de estudiantes y personal universitario y la cooperación entre instituciones de distintos países como medios para fortalecer la excelencia educativa y la identidad europea.

Uno de los objetivos específicos del programa es promover el aprendizaje de las lenguas y aumentar la conciencia de la diversidad lingüística en Europa. Sin embargo, y aunque la mayor parte de la movilidad académica en Europa tiene lugar entre países de habla no inglesa –Italia es, por ejemplo, el destino preferido de los universitarios españoles–, casi todos los estudiantes extranjeros progresan únicamente con el inglés tras hacer un intercambio.

Las lenguas europeas y la lengua franca europea

¿Qué ocurre con la lengua del país visitado? En un estudio reciente hemos observado que la gran mayoría afronta esta experiencia con ganas de mejorar el inglés, pero con poca motivación por aprender la lengua local, que o bien desconocen totalmente o dominan muy poco. Es decir, los universitarios se van “de Erasmus” a Italia sin saber italiano o a Alemania sin saber alemán. Esto no suele preocuparles, ya que suelen confiar en el inglés como lengua franca en el ámbito académico y social.




Leer más:
¿Podemos aprender igual de bien en un segundo idioma?


Así, la gran mayoría de los estudiantes, independientemente del país de destino, no ve la experiencia como una oportunidad de aprender o mejorar simultáneamente el inglés y la lengua del país visitado. Sin duda, “irse de Erasmus” debe ser motivador por lo que supone vivir en un país distinto, conocer otras culturas y sus gentes. Ahora bien, parece evidente que también debería aprovecharse para potenciar el aprendizaje lingüístico, una de las prioridades del programa europeo.

‘No me hace falta saber el idioma local’

En nuestro estudio preguntamos a los participantes en diversas ocasiones a lo largo de sus estancias en el extranjero si habían percibido necesidad de aprender la lengua del país, y casi la mitad respondieron negativamente. Esta escasa o nula necesidad de la lengua local la experimentaron tanto fuera como dentro del aula.

Por un lado, más de la mitad de los estudiantes recibieron la formación académica exclusivamente en inglés y solo un tercio exclusivamente en la lengua local.

Por otro lado, la mitad de los estudiantes nos dijeron que habían tenido muy poco contacto con la población del país. En estas circunstancias parece lógico que su idea inicial de que el desconocimiento de la lengua local no iba a ser un problema se viera corroborada una vez finalizada la estancia.

‘Al final sí que aprendí la lengua del país’

Aun sin tener esa intención, la mitad de los participantes de nuestro estudio acabaron la estancia habiendo mejorado el inglés y también habiendo adquirido suficientes conocimientos de la lengua del país visitado como para presentarse de manera oral y escrita.

En países donde se habla una lengua románica, como Italia o Portugal, es donde los estudiantes de nuestro estudio más aprendieron este idioma, ya que sus lenguas nativas –el español y el catalán– son también descendientes del latín. Pero incluso en países de habla no románica, como Alemania o Holanda, los estudiantes que acudían con nociones del idioma también mejoraron su nivel.

En el caso de los estudiantes que hacen poco o ningún uso de la lengua del país durante la estancia y prácticamente no interactúan con su gente, podemos suponer que usan el inglés de forma primordial en sus interacciones con otros estudiantes extranjeros, y cuando no usan el inglés es porque pueden recurrir a su lengua materna.

Proteger la riqueza lingüística

Para proteger la riqueza que supone la diversidad lingüística y cultural europea, este último escenario no es ideal. Cuando el inglés (u otra lengua dominante) se convierte en el filtro de acceso a las oportunidades académicas, sociales o económicas, las otras lenguas –y las culturas que representan– quedan marginadas.




Leer más:
¿Por qué elegimos aprender un idioma en concreto?


Esto no solo erosiona el patrimonio cultural, sino que también puede derivar de algún modo en una discriminación económica y social de quienes no son hablantes nativos del inglés, ya que a menudo el predominio de este idioma como lengua franca se enmarca en una ideología dominante sobre el aprendizaje de lenguas que considera el hablante nativo como el modelo ideal y la autoridad última sobre el uso lingüístico.

¿Qué pueden hacer las universidades?

A partir de los resultados obtenidos en nuestro estudio, vemos algunas posibles líneas de actuación. Por un lado, las universidades que acogen cada año a los estudiantes europeos a través del programa Erasmus tienen la capacidad de mejorar el conocimiento del idioma del país, por ejemplo, fomentando la colaboración de los estudiantes locales para aumentar las interacciones con los recién llegados y también promoviendo programas bilingües (en inglés y lengua local).

Por otro lado, las universidades de origen podrían concienciar a los estudiantes sobre las ventajas que supone aprender la lengua local, difundiendo experiencias positivas en las que se establecieron interacciones con la población del país y se disfrutó más plenamente de la experiencia.

En definitiva, dado que el multilingüismo es un valor en alza y que tanto la Unión Europea como las familias invierten cada vez más en subvencionar experiencias de movilidad a los estudiantes, es crucial reflexionar sobre cómo podemos conseguir que la experiencia Erasmus sea lo más provechosa posible también desde el punto de vista lingüístico.

The Conversation

Gloria Vázquez García participa en un proyecto financiado por el Ministerio de Ciencia, Innovación y Universidades (Ref. no. PID2022-141814NB-I00).

Josep M. Cots participa en un proyecto financiado por el Ministerio de Ciencia, Innovación y Universidades (Ref. no. PID2022-141814NB-I00).

ref. Más allá del inglés: cómo potenciar la diversidad lingüística europea a través del Erasmus – https://theconversation.com/mas-alla-del-ingles-como-potenciar-la-diversidad-linguistica-europea-a-traves-del-erasmus-268796

Por qué el estado de bienestar está fallando en España a quienes más lo necesitan y cómo solucionarlo

Source: The Conversation – (in Spanish) – By Andrei Quintiá Pastrana, Investigador Ramón y Cajal, Universidade de Santiago de Compostela

wut62/Shutterstock

Tener derecho a una prestación social en España no garantiza poder acceder a ella. Más de la mitad de los hogares que cumplen los requisitos para recibir ayudas como el Ingreso Mínimo Vital o el bono eléctrico no llegan a percibirlas. Miles de personas esperan años para que se les reconozca su discapacidad, dependencia o tarjetas de residencia. Conseguir una cita se ha convertido en un obstáculo en muchas administraciones. La distancia entre el reconocimiento de derechos sociales y su disfrute se convierte en un abismo.

Nuestra investigación muestra que no se trata de incidencias aisladas, sino de problemas estructurales: largos tiempos de resolución de procedimientos, cargas documentales y requisitos desproporcionados funcionan como barreras en el acceso a derechos que generan una nueva forma de vulnerabilidad.

Esta vulnerabilidad administrativa excluye, precisamente, a quienes más lo necesitan.

La covid-19, un acelerador de desigualdades

La pandemia no es el origen de los problemas sociales en España, pero sí amplificó los que ya existían. En apenas un año, la desigualdad aumentó con mayor rapidez que durante algunos de los peores momentos de la crisis financiera anterior. Muchas familias que ya vivían al límite perdieron repentinamente sus ingresos. Otras descubrieron por primera vez lo frágil que era su red de seguridad.

También aceleró la relación por medios electrónicos con las administraciones, así como la implantación de la cita previa y el teletrabajo en los servicios públicos que impactan directamente en la ciudadanía.

Para hacer frente a la emergencia, se activaron instrumentos cruciales, como el Ingreso Mínimo Vital (IMV). Este fue diseñado para garantizar un nivel mínimo de ingresos a los hogares con menos recursos. Gracias al IMV se evitó un colapso social mayor, pero también se puso en evidencia una debilidad estructural: no basta con tener derecho a una prestación si no se puede ejercer efectivamente.

Según los análisis más recientes de la Autoridad Independiente de Responsabilidad Fiscal, más del 55 % de los hogares que cumplían los requisitos legales en 2023 y 2024 no solicitaron la prestación. Una brecha de cobertura que se mantiene prácticamente inalterada desde su puesta en marcha.

Barreras administrativas

En la última década se han aprobado numerosas leyes que amplían el reconocimiento de derechos sociales. El derecho a la vivienda o nuevas medidas y programas sociales se han reforzado para proteger derechos esenciales en el contexto de reacción a la crisis económica.

Sin embargo, ese avance legal no siempre ha ido acompañado de cambios en la forma en que la Administración funciona en la práctica. Los cambios normativos no han dado paso a cambios organizativos y procedimentales.

Los procedimientos rígidos e hiperformalistas que dan acceso a esas prestaciones apenas se han adaptado. El resultado es que miles de personas quedan fuera del sistema. No tanto por incumplir los requisitos legales, sino por requisitos administrativos que funcionan como filtros excluyentes (largos períodos de empadronamiento, incompatibilidad entre ayudas de cuantías muy bajas…), cargas documentales desproporcionadas, trabas digitales o extensos períodos de respuesta.

Los datos de nuestra investigación muestran ese llamativo contraste. El análisis de las quejas presentadas a la Valedoría do Pobo (el ombudsman o defensor del pueblo gallego) indica que esa brecha atraviesa varias áreas del estado de bienestar.

Entre 2019 y 2023, el 77 % de las quejas en sanidad se relacionaron con retrasos en citas médicas y el 29 % con la acreditación de dependencia y discapacidad. También hemos documentado dificultades en la tramitación de la Renta de Inserción Social Gallega (RISGA), el embargo desproporcionado de ayudas a la vivienda por pequeñas deudas tributarias, atrasos en bonos de alquiler y problemas en la atención a víctimas de violencia de género. Estos problemas se reproducen en informes del Defensor del Pueblo (estatal) y otros defensores autonómicos en parecidos términos.

Las barreras administrativas no son neutrales: filtran, retrasan o directamente excluyen precisamente a quienes más dependen de las prestaciones sociales. Son las víctimas de la mencionada vulnerabilidad administrativa.

Un formulario incompleto o una cita tardía pueden traducirse en la pérdida total del derecho. Un escenario que deja fuera a hogares y personas que cumplen los criterios legales, pero no logran sortear el laberinto burocrático, como relata Sara Mesa en su libro Silencio administrativo. La pobreza ante el laberinto burocrático.

La digitalización como nueva frontera de exclusión

La digitalización, acelerada durante la pandemia, ha introducido una nueva forma de desigualdad. Por un lado, ofrece oportunidades: acceso más rápido y flexible para quienes pueden y saben usarlo. Pero no todas las personas tienen acceso a dispositivos o competencias digitales suficientes para aprovechar estos beneficios.

El informe FOESSA 2022 indica que el riesgo de perder oportunidades para recibir ayudas es cinco veces superior en los hogares en apagón tecnológico que entre aquellos que tienen conectividad plena.

Cada vez más trámites imponen identificación y notificaciones electrónicas, el manejo de plataformas digitales y automatizadas o, simplemente, descargar un formulario sólo accesible en una web. Para muchas personas mayores, hogares con escasos recursos tecnológicos o personas que no dominan el lenguaje digital, la administración electrónica es una barrera real. Una aplicación electrónica puede resultar tan inaccesible como una oficina cerrada.

La brecha digital no es solo una cuestión tecnológica. Es una brecha de derechos: determina quién accede a una prestación esencial y quién queda fuera del sistema.

Medidas para acercar el estado del bienestar a quienes más lo necesitan

Reducir esta brecha exige una revisión en profundidad del diseño administrativo (procedimientos, organización y cultura institucional) que vaya más allá de ajustes puntuales o soluciones tecnológicas aisladas. En el marco de nuestro último proyecto de investigación hemos identificado algunas medidas clave para conducir esa reforma:

  • Simplificar los procedimientos ligados a derechos sociales, eliminando cargas documentales innecesarias.

  • Incorporar la trayectoria vital de las personas usuarias al diseño de políticas y servicios. Esto implica la revisión de requisitos discriminatorios con especial atención a la igualdad, la dignidad y la privacidad.

  • Reducir las exigencias de identificación y seguridad digital a lo estrictamente imprescindible, especialmente cuando afectan a personas en situación de vulnerabilidad.

  • Avanzar hacia sistemas de concesión automática y proactiva de prestaciones. Se aprovecha así la información ya disponible en poder de la Administración, bajo una lógica de confianza inicial y controles posteriores proporcionados.

  • Reforzar la atención presencial y el acompañamiento administrativo, garantizando servicios de apoyo a la digitalización.

  • Evaluar de forma sistemática la efectividad real de los derechos sociales. Esto supone el desarrollo de indicadores sobre plazos, recursos y personal asignado que permitan identificar cuellos de botella y sesgos excluyentes.

En definitiva, el estado del bienestar no se mide solo por los derechos que reconoce, sino por su capacidad real para hacerlos efectivos para quienes más los necesitan. De poco sirve ampliar derechos si conseguir las prestaciones sociales reconocidas sigue siendo una carrera de obstáculos para quienes parten en desventaja.

The Conversation

Andrei Quintiá Pastrana recibe fondos de Agencia Estatal de Investigación, Xunta de Galicia.

Alba Nogueira López recibe fondos de Agencia Estatal de Investigación, Xunta de Galicia.

ref. Por qué el estado de bienestar está fallando en España a quienes más lo necesitan y cómo solucionarlo – https://theconversation.com/por-que-el-estado-de-bienestar-esta-fallando-en-espana-a-quienes-mas-lo-necesitan-y-como-solucionarlo-271058

Este Año Nuevo en Viena sonará Josephine Weinlich, creadora de la Primera Orquesta Europea de Mujeres

Source: The Conversation – (in Spanish) – By Virginia Sánchez Rodríguez, Profesora Titular de la UCLM. Doctora en Musicología. Galardonada por sus investigaciones sobre mujeres músicas de los siglos XIX y XX, Universidad de Castilla-La Mancha

Orquesta femenina de Josephine Weinlich, primera orquesta femenina europea 1868-1879. Über Land und Meer, grabado en madera de Vincenz Katzler/Wikimedia Commons

Cada 1 de enero, Europa se despierta a ritmo de valses y polkas procedentes del célebre Concierto de Año Nuevo de la Orquesta Filarmónica de Viena. La primera edición se celebró en diciembre de 1939 pero gracias a la retransmisión, desde hace décadas, estos sones traspasan los muros de la Sala Dorada del Musikverein y se cuelan en nuestros hogares.

A pesar de la tradición que impregna esta cita, en los últimos tiempos se han intentado introducir algunas novedades, acordes con la conciencia social y musical de la época. No fue hasta 1997 cuando una mujer formó parte de los intérpretes. Y todavía hubo que esperar hasta la 85ª edición para contar con obras compuestas por mujeres en el programa musical. Así, el 1 de enero de 2025, escuchamos, por primera vez, la obra de una compositora en el prestigioso evento. Se trató del Fernandus-Walzer, de la vienesa Constanze Geiger, quien, como otras muchas artistas, tuvo que abandonar su carrera profesional al contraer matrimonio.

En 2026 disfrutaremos no de una, sino de dos obras nacidas de la creatividad de sendas mujeres. El Rainbow Waltz está firmado por la estadounidense Florence Price, considerada la primera gran autora sinfónica de origen afroamericano y la primera que logró que su legado fuera interpretado por una orquesta.

La segunda autora es Josephine Weinlich (1848-1887), más desconocida. A pesar de que son muchas las agrupaciones que han compartido, a través de las redes sociales, sus propias interpretaciones de la polka Sirenen Lieder, hasta el día de hoy sus composiciones no han despertado el suficiente interés para ser recogidas en grabaciones comerciales, con alguna excepción puntual en recopilatorios. Y sin embargo, es una figura muy importante en la historia de la música.

Pianista, violinista, compositora y directora de orquesta

Josephine Weinlich nació en la ciudad de Dechtice (Eslovaquia). Recibió su primera educación de su padre, el empresario Franz Weinlich, que era un gran melómano. Más allá de este dato, su formación es, en realidad, un misterio: desconocemos los nombres de sus maestros y, aunque algunos trabajos mencionan que estudió con Clara Schumann, no existen fuentes que lo demuestren.

Además de pianista y violinista, Weinlich se interesó también por la composición. Escribió piezas pianísticas, una obra para violonchelo solista y un Lied, así como numerosas polkas y valses, tan propios de Viena, ciudad en la que creció. Y no solo escribió, sino que podemos imaginar que su obra gozó de cierta visibilidad, pues algunas de sus composiciones fueron publicadas desde 1869. Sin embargo, su principal labor musical estuvo vinculada a la interpretación y, especialmente, a la dirección musical.

Profesionales de los instrumentos de cuerda

En la Europa del siglo XIX, la mayor adscripción femenina a la música se limitaba a los entretenimientos de salón. En ese contexto, se esperaba que las mujeres burguesas se acercaran al arte musical desde el ocio, dedicándose al canto y al piano –frente a otros instrumentos poco apropiados–, pero sin grandes pretensiones intelectuales. Después de todo, sus mayores desvelos debían ir encaminados a su preparación como esposas y madres.

Como parte de las honrosas excepciones, podemos mencionar a la pianista polaca Maria Szymanowska, la pianista y compositora alemana Clara Wieck –posteriormente, Schumann– y la virtuosa del violín Wilma Norman Neruda, entre otras que desarrollaron una carrera profesional.

Josephine Weinlich también logró un espacio prioritario en la realidad musical del momento como fundadora, en 1868, de un cuarteto instrumental exclusivamente femenino en Viena: el Josephine Weinlich’s Damenkapelle. Su hermana Elise, siete años menor, participó como violonchelista y la propia Josephine se ocupó de la interpretación del piano y la dirección desde su instrumento.

La Primera Orquesta Europea de Mujeres

El cuarteto no era un fenómeno realmente novedoso. En el siglo XVIII, existían coros y orquestas femeninas en los conservatorios de Venecia. Sin embargo, se encontraban bajo el amparo de la Iglesia, por lo que su esencia y funcionamiento diferían de la agrupación fundada por Weinlich. También en París, a comienzos de la década de 1860, se habían fundado cuartetos de cuerda femeninos e incluso antes, en los años cuarenta, las hermanas italianas Teresa y María Milanollo llenaban salas de conciertos de toda Europa como prodigios del violín.

No obstante, la gran proeza de Weinlich tiene que ver con el hecho de que el número de componentes de su cuarteto se fue incrementando paulatinamente, hasta que se configuró la Primera Orquesta Europea de Mujeres (Das Erste Europäische Damenorchester), que, en algunos conciertos de los años setenta, superaba los cincuenta músicos.

Su repertorio solía incluir obras cultas, piezas de baile y algunas creaciones de la propia Weinlich, como Gruß an Graz (“Saludo a Graz”), Frühlingsluft (“Aire primaveral”), Josephinen-Polka (“Polca de Josefina”) y Gruß an die Neugablitzer (“Saludo a los habitantes de Neugablitz”), entre otros títulos. Hasta 1874 no incluyeron instrumentos de viento metal, ejecutados por hombres, por lo que en la mayor parte de las ocasiones la orquesta interpretaba arreglos. Precisamente esa ausencia de viento metal –y, salvo algunas flautas, también de viento madera– fue objeto de ciertas críticas, en las que se hablada de un sonido orquestal incompleto.

La actividad profesional de la Primera Orquesta Europea de Mujeres se extendió entre 1869 y 1879, con una buena acogida del público. Se convirtió así en un modelo para la creación de orquestas femeninas en otras ciudades. La agrupación causó un impacto significativo en el panorama cultural del momento, no solo como una rareza sino por sus logros musicales. Esto se constata en las críticas recibidas tras los numerosos recitales ofrecidos en Austria, Alemania, Estados Unidos, Francia, Italia, Letonia, Países Bajos, República Checa, Reino Unido y Suecia.

Y en julio de 1873, la Primera Orquesta Femenina Europea ofreció conciertos en el Musikverein de Viena.

Ojalá el 1 de enero de 2026, cuando disfrutemos del célebre Concierto de Año Nuevo, e independientemente de las piezas que se interpreten, recordemos la labor de tantas mujeres que, al igual que Josephine Weinlich, encabezaron importantes proyectos en favor de la igualdad y de la dignificación de las artistas a lo largo de la historia.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Virginia Sánchez Rodríguez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Este Año Nuevo en Viena sonará Josephine Weinlich, creadora de la Primera Orquesta Europea de Mujeres – https://theconversation.com/este-ano-nuevo-en-viena-sonara-josephine-weinlich-creadora-de-la-primera-orquesta-europea-de-mujeres-270030

El relato de la IA está roto… y así podemos arreglarlo

Source: The Conversation – (in Spanish) – By Pablo Sanguinetti, Profesor de IA y Pensamiento Crítico, IE University

¿Es la inteligencia artificial tan inteligente como nos dicen? Ariyana Ahmad & The Bigger Picture /, CC BY-NC-SA

La inteligencia artificial (IA) se compone de datos, chips o código, pero también de los relatos y las metáforas que empleamos para representarla. Las historias importan. El imaginario en torno a una tecnología determina el modo en que el público la entiende y, por lo tanto, guía su uso, su diseño y su impacto social.

Por eso preocupa que, según la mayoría de estudios, la representación dominante de la IA tenga poco que ver con su realidad. Las omnipresentes imágenes de robots humanoides y la narrativa antropomórfica de chatbots como “asistentes” y cerebros artificiales resultan atractivas a nivel comercial o periodístico, pero se basan en mitos que distorsionan la esencia, las capacidades y las limitaciones de los modelos de IA actuales.

Si el modo en que representamos la IA es engañoso, ¿cómo entenderemos de verdad esta tecnología? Y si no la entendemos, ¿cómo podremos usarla, regularla o alinearla con nuestros intereses?

El mito de la tecnología autónoma

La representación distorsionada de la IA se enmarca en una confusión extendida que el teórico Langdon Winner bautizó ya en 1977 como “tecnología autónoma”: la idea de que las máquinas han cobrado una suerte de vida propia y actúan por su cuenta sobre la sociedad de forma determinista y frecuentemente destructiva.

La IA ofrece ahora la encarnación perfecta de esa visión, porque coquetea con el mito de la creación de un ser inteligente y autónomo… y el castigo derivado por arrogarse esa función divina. Un patrón narrativo ancestral que va de Frankenstein a Terminator, de Prometeo a Ex Machina.

El mito de la tecnología autónoma se intuye ya en la ambiciosa denominación de “inteligencia artificial”, acuñada por el informático John McCarthy en 1955. El término resultó ser un éxito a pesar de que provoca numerosos malentendidos, o tal vez gracias a eso.

Como señala Kate Crawford en su libro Atlas de IA: “La IA no es artificial ni inteligente. Más bien existe de forma corpórea como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones”.

La mayoría de problemas con el relato dominante de la IA pueden atribuirse a esa tendencia a representarla como un ente independiente, casi alienígena, incomprensible y ya ajeno a nuestro control o nuestras decisiones.

Metáforas que nos confunden

El lenguaje usado por muchos medios, instituciones e, incluso, expertos para hablar sobre IA está plagado de antropomorfismo y animismo, imágenes de robots y cerebros, historias siempre falsas sobre máquinas rebelándose o actuando de forma inexplicable y debates sobre su supuesta conciencia, por no hablar de una sensación de urgencia e inevitabilidad.

Esa visión culmina en el relato que ha impulsado el desarrollo de la IA desde sus inicios: la promesa de la IA general (IAG), una supuesta inteligencia de nivel humano o sobrehumano que cambiará el mundo o incluso la especie. Empresas como Microsoft u Open AI y líderes tecnológicos como Elon Musk vienen pronosticando la IAG como un hito siempre inminente.

Sin embargo, lo cierto es que el camino a esa tecnología no está claro y ni siquiera hay consenso sobre si será posible desarrollarla alguna vez.

Relato, poder y burbuja

El problema no es solo teórico. La visión determinista y animista de la IA construye un futuro determinado. El mito de la tecnología autónoma sirve para inflar las expectativas sobre la IA y desviar la atención de los desafíos reales que plantea, obstaculizando así un debate público más informado y plural sobre la tecnología. En un informe de referencia, el Instituto AI Now se refiere por eso a la promesa de la IAG como “el argumento para acabar con todos los argumentos”, una forma de evitar cualquier cuestionamiento a la tecnología.

Además de una mezcla de expectativas y temores exagerados, estas narrativas son también responsables de haber inflado la posible burbuja económica de la IA sobre la que alertan diversos informes y líderes tecnológicos. Si existe esa burbuja y termina por estallar, interesará recordar que se alimentó no solo de logros técnicos, sino también de una representación tan impactante como engañosa.

Un cambio narrativo

Arreglar el relato roto de la IA requiere poner en primer plano su dimensión cultural, social y política. Es decir, dejar atrás el mito dualista de la tecnología autónoma y adoptar una perspectiva relacional que entienda la IA como fruto de un encuentro entre la tecnología y las personas.

En la práctica, este cambio narrativo consiste en desplazar el foco de la representación de varias maneras: de la tecnología a los humanos que la guían, del futuro tecnoutópico a un presente en construcción, de las visiones apocalípticas a los riesgos presentes, de la IA presentada como única e inevitable al énfasis en la autonomía, la capacidad de elección y la diversidad de las personas.

Diversas estrategias pueden impulsar esos desplazamientos. En mi libro Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial, propongo una serie de recomendaciones de estilo para escapar del relato de la IA autónoma. Por ejemplo, evitar su uso como sujeto de la oración, cuando le corresponde el rol de herramienta, o no atribuirle verbos antropomórficos.

Jugar con el término “IA” ayuda también a ver hasta qué punto las palabras pueden cambiar nuestra percepción de la tecnología. ¿Qué ocurre cuando lo reemplazamos en una frase, por ejemplo, por “procesamiento de tareas complejas”? Este es uno de los nombres menos ambiciosos pero más precisos que se barajaron para designar la disciplina en sus orígenes?

Los debates clave sobre la IA, desde su regulación a su impacto en la educación o el empleo, seguirán apoyándose en terreno pantanoso mientras no se corrija el modo en que la representamos. Diseñar un relato que visibilice la realidad sociotécnica de la IA es un reto ético urgente que beneficiará tanto a la tecnología como a la sociedad.

The Conversation

Pablo Sanguinetti no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El relato de la IA está roto… y así podemos arreglarlo – https://theconversation.com/el-relato-de-la-ia-esta-roto-y-asi-podemos-arreglarlo-267235

No, nuestro cerebro no se “desarrolla completamente” de golpe a los 25 años: esto es lo que dice la neurociencia

Source: The Conversation – (in Spanish) – By Taylor Snowden, Post-Doctoral Fellow, Neuroscience, Université de Montréal

Si navega por TikTok o Instagram durante el tiempo suficiente, inevitablemente se encontrará en algún momento con la frase: “Tu lóbulo frontal aún no está completamente desarrollado”. Se ha convertido en una explicación habitual de la neurociencia para las malas decisiones, como pedir una copa de más en el bar o enviar un mensaje de texto a ese ex al que juraste no volver a escribir nunca jamás.

Es cierto que el lóbulo frontal desempeña un papel fundamental en funciones de alto nivel como la planificación, la toma de decisiones y el juicio. Y es fácil encontrar consuelo en la idea de que existe una excusa biológica para explicar por qué a veces nos sentimos inestables, impulsivos o como un trabajo en progreso: la inmadurez del lóbulo frontal. La vida entre los 20 y los 30 años es impredecible, y aferrarse a que muchas cosas suceden porque el cerebro no ha terminado de desarrollarse puede resultar extrañamente tranquilizadora.

Pero la idea de que el cerebro, en particular el lóbulo frontal, deja de desarrollarse a los 25 años es un mito. Que como muchos mitos, tiene su origen en hallazgos científicos reales, pero simplificados en exceso. De hecho, las últimas investigaciones sugieren que el desarrollo del lóbulo frontal se prolonga hasta los 30 años.

¿De dónde viene el “mito de los 25 años”?

El número mágico proviene de estudios de imágenes cerebrales realizados a finales de la década de 1990 y principios de la de 2000. En un estudio de 1999, los investigadores realizaron un seguimiento de los cambios cerebrales mediante repetidas exploraciones en niños y adolescentes. Analizaron la materia gris, que puede considerarse como el componente “pensante” del cerebro.

Los investigadores descubrieron que, durante la adolescencia, la materia gris pasa por un proceso denominado “poda”. Es decir, en las primeras etapas de la vida, el cerebro establece una enorme cantidad de conexiones neuronales; pero a medida que envejecemos, va recortando gradualmente las que se utilizan con menos frecuencia y fortaleciendo las que permanecen.

El crecimiento y la posterior la pérdida de volumen de la materia gris son fundamentales para el desarrollo del cerebro.

El cerebro madura por fases

En una investigación dirigida por el neurocientífico Nitin Gogtay, se escaneó el cerebro de una serie de niños de tan solo cuatro años, iniciando un seguimiento de su evolución cada dos. Fue así como los científicos descubrieron que, dentro del lóbulo frontal, las regiones maduran de atrás hacia adelante.

Las regiones más primitivas, como las áreas responsables del movimiento muscular voluntario, se desarrollan primero, mientras que las regiones más avanzadas, importantes para la toma de decisiones, la regulación emocional y el comportamiento social, no habían madurado completamente cuando cumplieron 20 años y terminó el seguimiento.

Dado que la obtención de dato se interrumpió a los 20 años, los investigadores no pudieron determinar con precisión cuándo finalizó el desarrollo. La edad de 25 años se convirtió en la mejor estimación del supuesto punto final.

Lo que revelan las investigaciones más recientes

Desde aquellos primeros estudios, la neurociencia ha avanzado considerablemente. En lugar de examinar regiones individuales de forma aislada, los investigadores ahora estudian la eficiencia con la que las diferentes partes del cerebro se comunican entre sí.

Un importante estudio reciente evaluó la eficiencia de las redes cerebrales, esencialmente cómo está conectado el cerebro, a través de la topología de la materia blanca. La materia blanca está formada por largas fibras nerviosas que conectan diferentes partes del cerebro y la médula espinal, lo que permite que las señales eléctricas viajen en ambos sentidos.

Los investigadores analizaron escáneres de más de 4200 personas, desde la infancia hasta los 90 años, y encontraron varios periodos clave de desarrollo, incluido uno entre los 9 y los 32 años, al que denominaron “adolescencia”.

Para cualquier persona que haya alcanzado la edad adulta, puede resultar chocante que le digan que su cerebro sigue siendo “adolescente” a los 30. Pero este término solo implica que su cerebro se encuentra en una etapa de cambios clave.

Según este estudio, parece que, durante la adolescencia cerebral, el cerebro equilibra dos procesos clave: la segregación y la integración. La segregación consiste en construir “barrios” de pensamientos relacionados. La integración equivale a construir “autopistas” para conectar esos barrios. La investigación sugiere que esta construcción no se estabiliza en un patrón que podemos considerar “adulto” hasta cumplidos los treinta.

El estudio también descubrió que la “pequeña escala” –una medida de la eficiencia de la red– era el mayor predictor para identificar la edad cerebral en este grupo. Si lo comparamos con un sistema de transporte público, e imaginamos rutas que requieren paradas y transbordos, aumentar la «pequeña escala» es como añadir carriles rápidos. Básicamente, los pensamientos más complejos cuentan con rutas más eficientes a través del cerebro.

Sin embargo, esta infraestructura cerebral no dura para siempre. Después de los 32 años, hay un punto de inflexión en el que estas tendencias de desarrollo cambian de dirección. El cerebro deja de dar prioridad a las “autopistas” y vuelve a la segregación para fijar las vías que más utiliza.

En otras palabras, durante la adolescencia y los 20 años se el cerebro se conecta, y cumplidos los 30 se dedican a asentarse y mantener las rutas más utilizadas.

Aprovechar al máximo un cerebro en construcción

Si nuestro cerebro sigue en construcción durante toda la veintena, ¿cómo nos aseguramos de que estamos construyendo la mejor estructura posible? Una respuesta reside en potenciar la neuroplasticidad, la capacidad del cerebro para reconfigurarse.




Leer más:
What is brain plasticity and why is it so important?


Aunque el cerebro sigue siendo cambiante a lo largo de toda la vida, el periodo comprendido entre los 9 y los 32 años representa una oportunidad única para el crecimiento estructural. Las investigaciones sugieren que hay muchas formas de fomentar la neuroplasticidad.

El ejercicio aeróbico de alta intensidad, aprender nuevos idiomas y practicar aficiones que exigen un gran esfuerzo cognitivo, como el ajedrez pueden reforzar las capacidades neuroplásticas de tu cerebro, mientras que el estrés crónico puede obstaculizarlas.

Para quienes pretendan tener un cerebro de alto rendimiento a los 30 años, es útil desafiarlo a los 20, si bien nunca es demasiado tarde para empezar.

The Conversation

Taylor Snowden no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. No, nuestro cerebro no se “desarrolla completamente” de golpe a los 25 años: esto es lo que dice la neurociencia – https://theconversation.com/no-nuestro-cerebro-no-se-desarrolla-completamente-de-golpe-a-los-25-anos-esto-es-lo-que-dice-la-neurociencia-272593

33 años de los SMS: historia de un éxito accidental

Source: The Conversation – (in Spanish) – By Carlos Jesus Bernardos Cano, Profesor Titular del Departamento de Ingeniería Telemática de la Universidad Carlos III de Madrid, Universidad Carlos III

Un usuario escribe un SMS en un modelo antiguo de móvil. Desintegrator/Shutterstock

Hace poco, se cumplieron 33 años de un hito que marcaría toda una época. Un 3 de diciembre de 1992, el ingeniero Neil Papworth envió “Merry Christmas” (Feliz Navidad) desde un ordenador a un teléfono móvil. Se trataba del primer SMS, para el que Papworth no recibió respuesta. El motivo: los teléfonos móviles de entonces solo podían recibir mensajes, pero no enviarlos. Nadie podía imaginar entonces que alcanzarían tal éxito que cada Nochevieja las redes se colapsarían por los mensajes de felicitación de millones de usuarios.

También de forma inesperada los SMS sobreviven en la era del internet móvil, las redes sociales y WhatsApp. ¿Cómo logró una tecnología tan limitada convertirse en un fenómeno global? ¿Por qué, tres décadas después, sigue siendo fundamental en nuestra infraestructura digital?

Un ejemplo de ingeniería eficiente

Para entender el SMS hay que entender cómo funcionaban las redes móviles de los años 90. Cuando hablábamos por teléfono, la voz ocupaba el canal principal. Para que esto fuera posible las redes tenían canales secundarios de señalización. Estos se utilizaban para hacer que el teléfono sonara cuando llegaba una llamada, o decir que había cobertura.

Los creadores del estándar de telefonía móvil GSM (2G) se dieron cuenta de que ese canal de señalización no siempre se usaba. El SMS nació aprovechando este vacío, en un ejemplo paradigmático de ingeniería eficiente.

Esta naturaleza técnica definió su característica más famosa: el límite de 160 caracteres. De ahí el nombre tras las siglas: servicio de mensajes cortos (del inglés Short Message Service).

Un éxito inesperado

Una característica muy curiosa de la historia del SMS es que no fue diseñado para la comunicación entre personas. Aquellos 160 caracteres tenían un destino puramente profesional: la telemetría y el control de flotas.

El objetivo era la comunicación “máquina a máquina” (del inglés Machine to Machine, M2M). Por ejemplo, que un camión enviara su ubicación automáticamente o que una máquina de vending avisara al almacén central de que se había quedado sin existencias. Los SMS fueron el precursor del internet de las cosas.

En los primeros años, muchas compañías ni siquiera tenían un sistema para facturar los SMS a particulares. El éxito fue puramente accidental y vino impulsado por los usuarios. La clave estaba en que los SMS eran discretos, asíncronos y baratos (al menos al principio, cuando costaban menos dinero que llamar).

La limitación forzosa del tamaño de los mensajes cambió nuestro lenguaje. La necesidad de ahorrar caracteres y dinero dio lugar a la economía del lenguaje SMS: los “xq” en lugar de “porque”, los emoticonos hechos con signos de puntuación y la síntesis extrema de ideas.

Tal fue la magnitud del fenómeno de los SMS, que la infraestructura llegaba a su límite en algunos momentos. En España todavía se recuerda la odisea de intentar enviar una felicitación en Nochevieja. Durante años, las redes se colapsaban minutos después de las campanadas. Millones de usuarios intentaban ocupar simultáneamente esos pequeños huecos del canal de señalización, desbordando la capacidad de las redes pese a los esfuerzos de las operadoras por reconfigurar sus sistemas para absorber ese pico de tráfico.

Los SMS hoy

Con la llegada de los smartphones y las redes 3G y 4G, aplicaciones como WhatsApp, Telegram e iMessage canibalizaron el uso personal del SMS. Eran gratis, ilimitados y permitían el envío de archivos multimedia mediante MMS (del inglés, Multimedia Messaging Service, servicio de mensajería multimedia). Aquello podría haber significado el fin de los SMS, pero no fue así.

El SMS ha sobrevivido hasta hoy gracias a una mutación funcional. Ya no lo usamos para decir “te quiero mucho” (o, más bien, “tqm”), sino como una herramienta de seguridad (aunque no exenta de vulnerabilidades) y gestión.

La larga vida de los SMS es debida a dos motivos:

  1. Son una tecnología universal. Funciona en el 100 % de los teléfonos móviles del mundo, sean inteligentes o no, y no requiere conexión a internet (datos). Solo es necesario que exista cobertura de voz.

  2. Hoy la mayor parte del tráfico es generado por máquinas. Los SMS son el rey de la autenticación de doble factor, las alertas de paquetería y las citas médicas. También son la base de los avisos de emergencia gubernamentales, como el sistema ES-Alert en España. Un matiz técnico interesante: ES-Alert utiliza una tecnología hermana llamada “difusión de celda” (SMS-CB). A diferencia de los SMS clásicos, el mensaje no se envía a un número de teléfono concreto, sino que se radia desde las antenas a todos los dispositivos bajo su cobertura, lo que permite alertar a millones de personas al instante sin saturar la red.

El futuro de los mensajes cortos

Hoy el SMS clásico vive una extraña dualidad. Por un lado, es la única tecnología que funciona en el 100 % de los teléfonos del mundo, siendo el estándar de facto para que los bancos confirmen operaciones. Sin embargo, para la comunicación entre personas, se quedó obsoleto hace años.

Precisamente esa obsolescencia técnica lo convirtió en el arma de una guerra comercial entre Apple y Google: la polémica de las burbujas verdes contra las burbujas azules.

Durante años Apple diferenció visualmente en su aplicación iMessage los mensajes enviados entre iPhones (azules, con todas las funciones modernas) de los enviados desde Android (verdes, que recurrían al viejo protocolo SMS/MMS). Esto provocó cierta estigmatización social al usuario de la burbuja verde (especialmente en EE. UU.) como si fuera alguien tecnológicamente inferior.

La solución a este conflicto y el verdadero heredero del SMS es el RCS (siglas en inglés de Rich Communication Services, servicios de comunicación enriquecida). El RCS es la evolución natural del estándar: permite enviar fotos en alta calidad, ver cuándo el otro está escribiendo y confirmar la lectura, pero sin depender de una aplicación privada como WhatsApp. En su lugar, funciona de forma nativa en la red de las operadoras.

Los SMS han superado la treintena de edad en un envidiable estado de salud. Su historia nos deja una lección valiosa sobre la innovación: a veces, las mayores revoluciones no surgen de una planificación corporativa perfecta, sino de usos inesperados por parte de los usuarios.

The Conversation

Carlos Jesus Bernardos Cano no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. 33 años de los SMS: historia de un éxito accidental – https://theconversation.com/33-anos-de-los-sms-historia-de-un-exito-accidental-271698