La buena investigación no depende del número de publicaciones. ¿Por qué la medimos así?

Source: The Conversation – (in Spanish) – By Anna Peirats, Catedrática de Humanidades, Universidad Católica de Valencia

fizkes/Shutterstock

¿Cómo se mide la calidad de un investigador? Imaginemos la siguiente situación: dos investigadores presentan su candidatura a una promoción universitaria. El primero ha publicado doce artículos en tres años. La mayoría aparece en revistas indexadas en bases de datos internacionales que seleccionan publicaciones según criterios de calidad editorial. El segundo ha dedicado cinco años a un proyecto complejo y ha obtenido una estancia de investigación. Ha producido menos artículos, pero ha generado datos reutilizados por otros grupos y ha formado a varios doctorandos. Parte de su trabajo ha tenido una influencia directa en políticas públicas.

Cuando una comisión debe decidir quién tiene mejor trayectoria científica, ¿qué pesa más? En muchos sistemas universitarios la respuesta depende del número de publicaciones, el factor de impacto (índice que calcula cuántas veces se citan, de media, los artículos de una revista durante un periodo concreto), la posición de la firma del autor (en el orden de firmas de un artículo científico) o las citas acumuladas (el número de veces que se citan sus artículos).




Leer más:
¿Cuánto cuesta formar a un investigador en España? Demasiado como para perderlo


Estas métricas permiten ordenar candidatos con rapidez. Sin embargo, fueron concebidas para describir patrones agregados de producción científica, es decir, tendencias generales sobre cómo, cuánto y dónde publica la comunidad científica en su conjunto: volumen de artículos, ritmos de crecimiento, colaboración entre países o campos y circulación de citas.

No se diseñaron para sustituir el juicio cualitativo sobre trayectorias individuales, que exige valorar la originalidad, la solidez metodológica, la capacidad de liderazgo y la contribución real al avance del conocimiento.

Evaluar no es contar

Durante las últimas décadas, en la universidad se ha consolidado un principio: la calidad científica de un investigador depende del número de publicaciones en revistas consideradas de alto impacto y en el volumen de citas recibidas. Resumido en un principio que ha marcado generaciones de investigadores, “publicar o perecer”, este enfoque cuantitativo suponía que a mayor número de artículos o papers en poco tiempo, mayor posibilidad de conseguir reconocimiento académico en la universidad.

Al no ser tan fácilmente cuantificables, la trayectoria profesional a largo plazo, el impacto social del conocimiento y la integridad científica quedaban relegados, mientras que se fomentaron dinámicas encaminadas a maximizar la presencia “cuantificable” en revistas académicas, como la fragmentación de una misma investigación en varios artículos (salami slicing), la duplicación de contenidos o la traducción de un mismo trabajo con el objetivo de aumentar el número de publicaciones.




Leer más:
La trampa financiera de la ciencia en abierto


Desde la propia comunidad científica surgieron, desde comienzos de la década de 2010, críticas a este modelo de evaluación. En 2012 se publicó la San Francisco Declaration on Research Assessment (DORA), que cuestionó el uso del factor de impacto como criterio para evaluar investigadores. En 2015 se difundió el Leiden Manifesto, con diez principios para un uso responsable de los indicadores. Más tarde, en 2022, se creó la Coalition for Advancing Research Assessment, que promueve reformas estructurales en los sistemas de evaluación.

A estas iniciativas se suman los Hong Kong Principles y la Singapore Statement on Research Integrity. Todas han señalado las limitaciones de este sistema y la necesidad de prestar mayor atención al contenido, la integridad y la aportación cualitativa de la investigación.

La burocratización de la promoción universitaria

En España se ha avanzado por parte de los organismos oficiales de acreditación y evaluación, alineados con la normativa europea de reforma de la investigación. Sin embargo, a nivel interno, en muchas universidades a la hora de aspirar a una promoción, gana quien más puntos acumula, y los méritos se fragmentan en apartados independientes que no permiten evaluar una trayectoria de manera cualitativa. La calidad de la investigación tiende a identificarse con aquello que resulta más sencillo de contabilizar, y la evaluación se vuelve un proceso burocrático en el que, por ejemplo, el uso de plantillas fijas impide reconocer méritos relevantes porque no encajan en una casilla concreta.

Esto tiene un efecto en cómo los propios investigadores definen sus prioridades, condicionando los ritmos de trabajo y generando una presión estructural. También aumenta el riesgo de incurrir en malas prácticas. Algunos investigadores recurren a revistas depredadoras que prometen publicaciones rápidas a cambio de elevadas tarifas (APC), sin procesos reales de revisión externa.

Falta de transparencia

La falta de transparencia agrava este escenario. Los criterios no siempre se conocen con antelación ni se explicitan con claridad. La comunidad universitaria apenas participa en su definición o revisión. En términos de gobernanza interna no existen garantías suficientes frente a conflictos de interés, dinámicas endogámicas o evaluaciones difíciles de verificar.

Cuando se presentan reclamaciones,
es frecuente que aparezca el silencio administrativo con carácter negativo. También en casos de impugnaciones tras una resolución definitiva.
Esta situación genera indefensión jurídica y debilita la confianza en el sistema de evaluación.

Currículum narrativo y evaluación responsable

Una alternativa a este sistema cuantitativo es el currículum narrativo, una herramienta de evaluación más contextualizada.
Su finalidad es permitir una lectura cualitativa de la trayectoria investigadora y situar los méritos en su contexto real.

El currículum narrativo se articula a partir de perfiles académicos definidos y de un número limitado de aportaciones relevantes. Este formato permite valorar dimensiones que rara vez encajan en plantillas rígidas: liderazgo científico, formación de equipos, ciencia abierta, colaboración interdisciplinar, impacto social, responsabilidad en la gestión de datos o promoción de buenas prácticas.

La experiencia de los Países Bajos muestra que este enfoque puede aplicarse con coherencia cuando se definen los perfiles académicos, se limita el número de aportaciones evaluables y se invierte en la formación de las comisiones. Esta práctica, integrada de manera efectiva, previene los conflictos de interés y se refuerza con mecanismos de auditoría externa.

Cómo la evaluación define el modelo universitario

El sistema de evaluación influye en qué temas reciben atención, qué proyectos se consideran viables y qué riesgos intelectuales se asumen. Si se premia la productividad inmediata, se favorecen resultados rápidos y fragmentados. Si se reconoce la coherencia a largo plazo y la integridad científica, se incentivan investigaciones más sólidas y socialmente relevantes.

Muchas universidades europeas han asumido compromisos formales con la Comisión Europea a través del sello Human Resources Strategy for Researchers, que exige el cumplimiento de los principios del European Charter for Researchers: evaluación transparente, criterios claros, ausencia de conflictos de interés y procedimientos verificables. Además, requiere auditorías, planes de acción y seguimiento periódico.

Impacto en la calidad del conocimiento

La forma de evaluar a los investigadores no es un detalle administrativo. Cada criterio de evaluación envía un mensaje claro por parte de la institución: esto es lo que valoramos, esto es lo que cuenta.

En ese gesto se define qué tipo de universidad se quiere construir y qué modelo de ciencia se considera valioso. Y de esa elección depende, además de la credibilidad de una institución, la calidad del conocimiento que se transmite a la sociedad.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. La buena investigación no depende del número de publicaciones. ¿Por qué la medimos así? – https://theconversation.com/la-buena-investigacion-no-depende-del-numero-de-publicaciones-por-que-la-medimos-asi-275028

Pluma de calamar y cáscara de cangrejo para mejorar la salud femenina

Source: The Conversation – (in Spanish) – By Carlos Bengoechea Ruiz, Catedrático de Universidad del área de Ingeniería Química (Químico), Universidad de Sevilla

El cangrejo rojo americano, empleado por los investigadores en su estudio, tiene en su cáscara quitina. De ella se obtiene quitosano, un compuesto con propiedades muy interesantes para la conservación de sustancias que palían los síntomas de la menopausia o síntomas indeseables de la menstruación. Wikimedia Commons., CC BY

Durante mucho tiempo, no se ha prestado la suficiente atención a etapas esenciales en la vida de las mujeres que afectan de manera diversa a su salud. Los efectos de la menstruación o la menopausia han sido, en muchas ocasiones, acallados por motivos culturales o sociales, aun cuando afectan a la mitad de la población mundial. Por suerte, existe un interés creciente en paliar esta carencia y en apostar por recursos que faciliten el bienestar de la población femenina.

Las mujeres suelen experimentar la menstruación durante aproximadamente cuarenta años de su vida, observándose diversos efectos englobados en lo que se conoce como síndrome premenstrual. Además de cambios de humor y alteraciones emocionales, se presentan una serie de síntomas físicos, como hinchazón abdominal, aumento de peso transitorio, sensibilidad en los senos (mastalgia), cefaleas, dolor articular o muscular y acné, que podrían paliarse en cierta medida si se tratan de manera adecuada.

Asimismo, la perimenopausia (transición natural hacia la menopausia) y la menopausia provocan sofocos, sudores nocturnos, irregularidades menstruales, insomnio, sequedad vaginal, cambios de humor y/o disminución de la libido. Si nos centramos en los efectos sobre la piel, la drástica caída de estrógenos y colágeno asociada a la menopausia provoca un aumento de la sequedad, flacidez, la aparición de arrugas y una epidermis más fina.

Bioactivos para la salud de la mujer

En la naturaleza, existen sustancias bioactivas que han demostrado su eficacia en la formulación de productos destinados a combatir algunos de estos efectos.

Así, el ácido g-linolénico, un ácido omega-6 presente principalmente en aceites de semillas concentrados, como la borraja, posee propiedades antiinflamatorias y estrogénicas, con lo que contribuye al alivio de los sofocos, las alteraciones del sueño, la irritabilidad y la sequedad vaginal.

Por su parte, el bakuchiol es un compuesto extraído principalmente de las semillas y hojas de la planta asiática Psoralea corylifolia. Se conoce como la “alternativa vegana” al retinol, y presenta efectos similares a los estrógenos, además de propiedades antifúngicas, antibacterianas, antioxidantes, antiinflamatorias, antienvejecimiento, despigmentantes y anticancerígenas.

Otro candidato es la clorofilina, un derivado de la clorofila de las plantas con actividad antioxidante, antiinflamatoria, desodorante, aceleradora de la cicatrización de heridas, antimutagénica y anticancerígena.

Asimismo, hongos como el reishi (Ganoderma Lucidum) ayudan al organismo a gestionar el estrés físico, mental y emocional. Además, mejora los síntomas asociados a la fibromialgia, como la depresión y el dolor.

El problema de los bioactivos

Muchas de estas sustancias bioactivas tienen una estabilidad limitada, es decir, pierden propiedades a causa de su mala conservación. Por ello, el desarrollo de productos que permitan su encapsulación y protección resulta esencial para garantizar su aprovechamiento, tanto en cosméticos como en complementos alimentarios.

En la Universidad de Sevilla y la Universidad del País Vasco/Euskal Herriko Unibertsitatea (EHU) estamos trabajando precisamente en esto. Planteamos el uso de subproductos de la industria alimentaria para extraer polímeros que sirvan de vehículo para esos compuestos bioactivos y que ayuden a su conservación.

Cáscaras de cangrejo y plumas de calamar

En concreto, proponemos aprovechar las cáscaras de cangrejo procedentes de las marismas del Guadalquivir (Sevilla) y la pluma del calamar (País Vasco). Actualmente, el cangrejo rojo americano es la base de una industria relevante en Isla Mayor (Sevilla), con una facturación que ha llegado a los 20 millones de euros anuales. Solo una pequeña parte del cangrejo es comestible (entre el 10 y el 30 %); el resto se emplea actualmente como pienso animal debido a su valor nutritivo. Sin embargo, su elevado contenido en quitina abre la puerta a su uso en productos de mayor valor añadido.

Algo similar ocurre con los calamares, una de las especies comerciales más importantes de cefalópodos, con un alto valor de mercado. Las llamadas plumas de calamar (estructura de soporte, con forma de pluma, ubicada internamente en la línea media dorsal de los calamares), un subproducto de la industria de procesado de este cefalópodo, están compuestas principalmente por proteínas y quitina.

El empleo de esta quitina para promover el curado de heridas crónicas ha sido previamente analizado por investigadores e investigadoras de la EHU. Además, la transformación de la quitina en quitosano mediante modificación química controlada permite potenciar propiedades como su actividad antimicrobiana, biocompatibilidad y biodegradabilidad. Esto lo convierte en un candidato muy interesante para encapsular y proteger las sustancias bioactivas antes descritas.

Podemos emplear el quitosano en la formulación de emulsiones, tanto alimentarias como cosméticas, diseñadas para conservar el bioactivo de interés. En este sentido, hemos demostrado que el control del proceso de conversión de quitina a quitosano permite modular su papel en la estabilización.

Estos avances constituyen un primer paso no solo para el desarrollo de emulsiones, sino también para productos destinados a promover la salud femenina –como parches transdérmicos o snacks saludables– que empleen el quitosano en la encapsulación de bioactivos como el g-linolénico, el bakuchiol, la clorofilina o el hongo adaptógeno reishi.

The Conversation

Carlos Bengoechea Ruiz recibe fondos de Ministerio de Ciencia, Innovación y Universidades (PID2024-155507OB-C21).

Koro de la Caba Ciriza recibe fondos del Ministerio de Ciencia, Innovación y Universidades.

Nuria Calero Romero recibe fondos del Ministerio de Ciencia, Innovación y Universidades

ref. Pluma de calamar y cáscara de cangrejo para mejorar la salud femenina – https://theconversation.com/pluma-de-calamar-y-cascara-de-cangrejo-para-mejorar-la-salud-femenina-273829

Los ataques contra hospitales están aumentando en las zonas de guerra: ¿los protege lo suficiente la ley?

Source: The Conversation – (in Spanish) – By Shannon Bosch, Associate Professor (Law), Edith Cowan University

Afganistán afirma que al menos 400 personas han muerto en un ataque aéreo pakistaní contra un hospital de rehabilitación de drogadictos en Kabul el lunes por la noche, con posiblemente cientos más de heridos.

Pakistán ha negado haber atacado deliberadamente el centro sanitario. En un comunicado en la red social X, el Ministerio de Información y Radiodifusión de Pakistán afirmó que los ataques “se dirigieron específicamente contra instalaciones militares e infraestructuras de apoyo a los terroristas, incluidos los almacenes de equipo técnico y municiones de los talibanes afganos”.

Sea como fuere, los ataques contra centros sanitarios están aumentando en todo el mundo.

El 14 de marzo, un ataque aéreo israelí alcanzó un centro sanitario en el Líbano, matando a 12 médicos, enfermeros y paramédicos. El ataque elevó a 31 el número de trabajadores sanitarios muertos en el Líbano en los últimos días.

Veintisiete ataques contra centros sanitarios en menos de tres semanas

Desde principios de marzo, la Organización Mundial de la Salud (OMS) ha verificado 27 ataques contra centros sanitarios solo en el Líbano, a medida que los ataques israelíes en el Líbano y las operaciones conjuntas de EE. UU. e Israel en Irán se han intensificado.

La Oficina del Alto Comisionado para los Derechos Humanos (ACNUDH) y la OMS condenaron estos ataques como violaciones del derecho internacional.

Exactamente, ¿qué leyes protegen a las instalaciones médicas, al personal y a los pacientes durante los conflictos? ¿Y pierden esta protección si las instalaciones se utilizan para dar refugio a combatientes?

Lo que dicen las “leyes de la guerra” sobre la protección de los hospitales

El derecho internacional humanitario contiene normas detalladas para proteger al personal médico, las instalaciones sanitarias y a los enfermos y heridos durante los conflictos armados.

Según estas “leyes de la guerra”:

  • El personal médico, incluidos médicos, enfermeros y paramédicos, debe ser respetado y protegido mientras desempeña sus funciones

  • Existen protecciones especiales para las ambulancias y los medios de transporte utilizados exclusivamente con fines médicos

  • Estas protecciones se extienden a los heridos y enfermos a su cargo. Esto incluye a los combatientes enemigos que requieran tratamiento y ya no participen en las hostilidades

  • Se debe permitir a las organizaciones humanitarias imparciales prestar asistencia médica. No se puede denegar arbitrariamente el consentimiento para su labor

  • Las instalaciones médicas deben exhibir los emblemas distintivos de protección de la Cruz Roja, la Media Luna Roja o el Cristal Rojo. El personal médico debe llevar identificaciones y brazaletes que muestren estos emblemas

  • El uso indebido de estos símbolos para proteger operaciones militares está prohibido. Hacerlo puede constituir “perfidia”, un tipo de engaño deliberado que constituye un crimen de guerra según el derecho internacional

  • Atacar deliberadamente al personal médico o a las instalaciones que exhiban estos emblemas también puede constituir un crimen de guerra.

Vidrios rotos rodean una sala de hospital dañada.
Daños causados por los ataques estadounidenses e israelíes al Hospital Shahid Motahhari de Teherán.
Anadolu/Getty

¿De dónde provienen estas normas?

Las leyes que protegen los servicios médicos en la guerra surgieron como respuesta al enorme sufrimiento presenciado en los conflictos de los siglos XIX y XX. El primer tratado que protegía a los soldados heridos y al personal médico se remonta a 1864, cuando los Estados adoptaron el Convenio de Ginebra original.

Hoy en día, los Convenios de Ginebra de 1949 y sus Protocolos Adicionales, junto con un conjunto de normas de derecho internacional consuetudinario, conforman un marco jurídico casi universal que vincula a todas las partes en conflicto. Esto incluye a los grupos armados no estatales.

Estas normas exigen a las partes beligerantes que respeten y protejan al personal médico, las instalaciones sanitarias y los heridos y enfermos en todas las circunstancias.

¿Por qué están aumentando los ataques contra la asistencia sanitaria?

En enero, Médicos Sin Fronteras (MSF) informó de que los ataques contra instalaciones y personal médico habían alcanzado niveles sin precedentes en todo el mundo. Solo en 2025 se produjeron 1348 ataques contra instalaciones sanitarias, el doble de los registrados en 2024.

La ley en sí no ha cambiado, pero la guerra sí. Los recientes conflictos en Sudán del Sur, Ucrania, Gaza, Irán y el Líbano se están produciendo en entornos urbanos densamente poblados. Los grupos armados operan en entornos civiles complejos, a menudo cerca de hospitales y clínicas.

Esto ha cambiado el discurso utilizado por algunas de las partes beligerantes. Lo que antes se describía como “ataques erróneos” ahora se justifica con frecuencia por motivos de necesidad militar. Los Estados suelen alegar que los insurgentes están utilizando hospitales o ambulancias para obtener ventaja militar.

Israel, por ejemplo, ha acusado a Hezbolá y Hamás de utilizar la infraestructura médica con fines militares.

¿Pueden los hospitales perder su protección si hay combatientes escondidos en su interior?

En efecto, los hospitales pueden perder su protección especial si se utilizan, al margen de su función humanitaria, para causar daño al enemigo. Sin embargo, la ley establece un umbral muy alto para ello.

El personal médico puede llevar armas ligeras para su defensa propia. También puede haber guardias armados presentes para proteger las instalaciones. Y la presencia de combatientes heridos que reciben tratamiento no cambia esto: las protecciones siguen siendo aplicables.

La protección solo puede perderse si los hospitales se utilizan para actividades tales como:

  • Lanzar ataques.

  • Servir como puesto de observación.

  • Almacenar armas.

  • Actuar como centro de mando o de enlace.

  • Dar refugio a combatientes sanos.

Incluso en esas situaciones, en caso de duda, se debe presumir que los hospitales están protegidos.

Es importante destacar que el hecho de verificar que un hospital está siendo utilizado indebidamente no da carta blanca a las partes para atacar. Antes de lanzar un ataque contra un centro médico comprometido, el derecho internacional humanitario exige que se emita una advertencia y que se conceda un tiempo razonable para que cese el uso indebido.

Si se ignora la advertencia, la parte atacante debe seguir cumpliendo los principios fundamentales del derecho internacional humanitario:

  1. Proporcionalidad: La ventaja militar esperada debe sopesarse frente a las consecuencias humanitarias del ataque. Esto incluye los impactos a largo plazo en los servicios de atención sanitaria. Si el daño civil esperado fuera excesivo, el ataque debe cancelarse.

  2. Precaución: Deben tomarse todas las precauciones posibles para minimizar el daño a los pacientes y al personal médico. Esto puede incluir facilitar las evacuaciones, planificar ante la interrupción de los servicios médicos y ayudar a restablecer la capacidad sanitaria tras el ataque.

Incluso cuando un centro pierda su protección, los heridos y los enfermos deben seguir siendo respetados y protegidos.

¿Se están normalizando los ataques contra la asistencia sanitaria?

El Consejo de Seguridad de la ONU, la OMS, MSF y el ACNUDH han expresado su preocupación por el hecho de que los ataques contra el personal y las instalaciones médicas —y la falta de rendición de cuentas por ellos— se están normalizando de forma peligrosa.

El marco jurídico que protege a los hospitales y al personal sanitario ya existe. Los Estados y los grupos armados deben difundir la ley y formar a sus fuerzas militares.

Se espera que los sistemas jurídicos nacionales investiguen y enjuicien a quienes cometan crímenes de guerra contra heridos y enfermos, personal médico y sus instalaciones, o hagan un uso indebido de los emblemas de protección para obtener ventaja militar.

En la práctica, sin embargo, investigar los ataques durante un conflicto activo es extremadamente difícil. Los Estados territoriales a menudo no están dispuestos o no pueden llevar a cabo los enjuiciamientos.

¿Podemos revertir esta tendencia?

Grupos de investigación de código abierto como Forensic Architecture, Bellingcat, Mnemonics y Airwars desempeñan ahora un papel cada vez más importante en la conservación de imágenes satelitales, datos de geolocalización y vídeos subidos a las redes sociales. Esto permite que las misiones independientes de verificación de hechos lleven a cabo investigaciones fiables. Pueden exigir responsabilidades incluso cuando los Estados territoriales no están dispuestos a hacerlo o no pueden hacerlo.

Sin esa rendición de cuentas, los lugares destinados a salvar vidas durante los conflictos pueden convertirse en objetivos cada vez más.

The Conversation

Shannon Bosch no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Los ataques contra hospitales están aumentando en las zonas de guerra: ¿los protege lo suficiente la ley? – https://theconversation.com/los-ataques-contra-hospitales-estan-aumentando-en-las-zonas-de-guerra-los-protege-lo-suficiente-la-ley-278714

Bryce Echenique: un limeño entre París, Madrid y Perugia

Source: The Conversation – (in Spanish) – By Carmen Márquez Montes, Profesora Titular de Literatura española, Universidad de Las Palmas de Gran Canaria

Conferencia del escritor peruano Alfredo Bryce Echenique (a la izquierda), en 2007. Universidad Internacional de Andalucía, CC BY-NC

La muerte de Alfredo Bryce Echenique hace unos días ha devuelto a muchos lectores a una evidencia que nunca desapareció del todo: su literatura hizo de la memoria una forma de inteligencia sentimental. El autor fue uno de los narradores hispanoamericanos más reconocibles de su tiempo, no solo por su humor y su melancolía, sino por su capacidad para convertir la experiencia vivida en materia literaria. Su fallecimiento ha sido señalado como la pérdida de una de las grandes voces de la narrativa peruana e hispana contemporánea.

Leer a Bryce Echenique únicamente desde sus títulos más célebres sería insuficiente. Conviene atender también a las ciudades que modelaron su sensibilidad y que terminaron incorporándose a su obra no como decorados, sino como formas de vida recordada. Entre ellas destacan tres ciudades europeas a las que volvió una y otra vez, en su trayectoria y en su escritura: París, Madrid y Perugia. Son tres ciudades que ayudan a entender no solo dónde vivió sino cómo llegó a ser.

París o aprender a mirar desde lejos

París ocupa un lugar central en su geografía sentimental. Allí completó su formación universitaria y vivió una experiencia decisiva de distancia con respecto a Lima. La capital francesa no fue para él una simple escala académica ni un escenario prestigioso al que acogerse, sino un espacio de transformación vital.

Portada de Guía triste de París.

Agencia literaria Carmen Balcells

Ese matiz es importante. El París de Bryce no coincide con la imagen monumental que tantas veces ha circulado en la tradición literaria hispanoamericana. Es, más bien, una ciudad de aprendizaje duro, de lecturas, sí, pero también de amores contrariados, de fragilidad, de precariedad y de observación de uno mismo lejos del mundo de origen. Por eso reaparece con tanta densidad en títulos como Guía triste de París (1999), donde la propia formulación del título deshace cualquier tentación de mirada grandilocuente.

París fue, además, la ciudad de su amistad con Julio Ramón Ribeyro, un lugar de conversación entre escritores peruanos que compartían exilio, observación irónica del mundo y una relación compleja con el reconocimiento.

La distancia nunca implica ruptura total con Lima. París le permite mirar el origen desde fuera, entenderlo mejor y convertirlo en literatura. De ahí que su novela Un mundo para Julius (1970), aunque profundamente limeña en su materia, no pueda desligarse del todo de esa experiencia europea que enseñó al autor a recordar con mayor lucidez.

Madrid: la conversación como patria

Madrid parece haber representado para Bryce otra forma de arraigo: la de la amistad y la interlocución. En sus declaraciones públicas más tardías insistió en la importancia que la ciudad tuvo para él como espacio de convivencia, trato y continuidad afectiva. No se trata de una observación menor. Toda la obra de Bryce está atravesada por una fe muy particular en la conversación.

Madrid era un lugar especialmente propicio para esa sociabilidad. No solo por la lengua común, sino por la textura misma de su vida literaria y urbana. Frente a la extranjería más marcada de París, Madrid ofrecía un espacio de pertenencia menos desgarrado, más inmediato, donde el escritor podía sostener amistades, circular por el campo cultural y seguir alimentando esa oralidad tan característica de su estilo. La relevancia madrileña no fue únicamente privada, porque la ciudad fue también un lugar de consagración en el espacio cultural en español.

Ese Madrid dialoga muy bien con novelas como La vida exagerada de Martín Romaña (1981) y El hombre que hablaba de Octavia de Cádiz (1985), donde la experiencia europea aparece atravesada por la errancia, el humor, la afectividad y una continua necesidad de interlocutores. Las ciudades no se definen solo por lo que se ve de ellas, sino por las voces que contienen. Madrid pertenece, en ese sentido, a la gran tradición de sus lugares conversados, ciudades donde el yo no se afirma aislándose, sino hablando con los otros.

Perugia: el retiro donde nace una voz

Perugia suele quedar en un segundo plano cuando se resume la biografía de Bryce Echenique, pero su importancia es muy considerable. No se trata de una gran capital cultural ni de un enclave habitual en los relatos sobre la literatura hispanoamericana del siglo XX. En Perugia escribió, con apenas veintinueve años, los cuentos de Huerto cerrado (1968), el libro con el que inició su carrera y que obtuvo una mención en el Premio Casa de las Américas.

Portada del libro Huerto cerrado de Bryce Echenique.

Agencia literaria de Carmen Balcells

Ese dato cambia por completo la posición de la ciudad italiana en su itinerario. Perugia no es una simple ciudad evocada al pasar, sino el lugar donde empieza a consolidarse una voz narrativa propia. Si París había sido el aprendizaje de la distancia y Madrid llegaría a ser la ciudad de la amistad sostenida, Perugia aparece como el espacio de concentración, de comienzo y de decantación. Allí se perfila el primer Bryce Echenique, todavía no el novelista de consagración internacional, pero sí el narrador que descubre que puede transformar materiales dispersos de la vida en una prosa con cadencia propia.

Perugia permite, además, corregir una imagen demasiado lineal del escritor hispanoamericano en Europa. No se formó solo en grandes metrópolis ni en los espacios visibles del prestigio; necesitó también ciudades menos estridentes, lugares de retirada donde la experiencia pudiera asentarse y adquirir forma. Esa necesidad armoniza con algo muy profundo de su obra: la tensión constante entre el flujo oral de la memoria y el trabajo silencioso que lo convierte en literatura.

Tres ciudades para una autobiografía sentimental

París, Madrid y Perugia forman así una secuencia muy reveladora. Cada ciudad aporta una experiencia específica y todas juntas componen una auténtica autobiografía sentimental.

El centro, en último término, siguió siendo Lima. Las ciudades europeas no borraron su condición de escritor limeño y peruano. Más bien la hicieron más compleja y consciente. Tantas veces Pedro (1977), No me esperen en abril (1995) o sus antimemorias muestran hasta qué punto su mundo narrativo se construye en esa oscilación entre la cercanía del origen y la lejanía que permite releerlo.
Quizá por eso resulte adecuado pensarlo no como un escritor que acumuló ciudades en su currículo, sino que convirtió ciertos lugares en formas de conciencia.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Carmen Márquez Montes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Bryce Echenique: un limeño entre París, Madrid y Perugia – https://theconversation.com/bryce-echenique-un-limeno-entre-paris-madrid-y-perugia-278451

Con la gasolina disparada, correr sale mucho más caro de lo que parece

Source: The Conversation – (in Spanish) – By Juan Antonio Aguilar Saavedra, Investigador científico del CSIC en física teórica de partículas elementales, Consejo Superior de Investigaciones Científicas (CSIC)

Coches circulando por una carretera nocturna sinuosa en Malta Goinyk Production/Shutterstock

Intentar emular a Fernando Alonso en los desplazamientos diarios de casa al trabajo no es una buena idea. Porque aparte de generar más estrés y más situaciones de riesgo, afecta a nuestro bolsillo más de lo que podríamos pensar.

Es evidente que conduciendo más rápido se llega antes, aunque la diferencia puede ser pequeña cuando el tráfico está condicionado por atascos, semáforos, etc. Sin embargo, conduciendo más rápido visitamos la gasolinera más a menudo. Entonces, ¿cuánto tiempo se gana en realidad? ¿Cuánto sube el consumo? ¿Merece realmente la pena apostar por la velocidad?

Consumo frente a velocidad

El consumo de combustible depende de la velocidad de una forma bastante simple de entender. Por un lado, el funcionamiento de los motores de combustión, incluso con el coche completamente parado, consume. Así, si nos desplazamos a una velocidad muy baja, del orden de 20 km/h, el gasto será grande en relación al espacio recorrido.

Por otro lado, la fricción con el aire crece con el cuadrado de la velocidad, por lo que conducir por encima de los 100 km/h también implica un consumo considerable. Además, están las pérdidas por rodadura, prácticamente independientes de la velocidad y sujetas a la distancia recorrida.

Combinando todos los factores, el consumo óptimo se obtiene a una velocidad que, en función del coche, está entre los 60-90 km/h.

La Agencia Europea de Medio Ambiente usa el modelo matemático COPERT para calcular las curvas de consumo de coches típicos, tanto de gasolina como híbridos y otros combustibles. En nuestro estudio, realizado específicamente para este artículo, hemos hecho los cálculos para un coche híbrido de tamaño medio/grande.

Consumo en función de la velocidad para un coche híbrido medio/grande según COPERT.
J. A. Aguilar y Cristina Álvarez.

Cuestión de física

Los valores de referencia son representativos de una gran variedad de coches, tanto berlinas como SUV. En cualquier caso, aquí el dato de interés no es el valor absoluto del consumo, que para nuestro coche particular puede ser menor. El factor clave es cómo aumenta el consumo a grandes velocidades. Este es un comportamiento universal, basado en leyes físicas.

Por otro lado, está el sobreconsumo asociado a un estilo de conducción más agresivo, con aceleraciones y frenadas. Esta componente penaliza el consumo a mayor velocidad, sin disminuir significativamente el tiempo de desplazamiento. Por eso, ignoraremos en nuestros cálculos ese efecto, que por otra parte es imposible de modelar.

Estudiando trayectos reales

Queremos estudiar el impacto de la velocidad en situaciones como las de miles de personas que diariamente se desplazan en coche. Para ello, hemos tomado como ejemplo cinco trayectos reales desde casa hasta el trabajo en la Comunidad de Madrid. Los trayectos comprenden tramos urbanos –en Alcobendas, Madrid, Móstoles, Las Rozas, Tres Cantos y Vallecas– y tramos en las carreteras A3, A5, A6, M30, M40, y M607 de distinta consideración. Como ejemplo, la fracción de recorrido en carretera con límite de velocidad superior a 90 km/h varía entre el 73 % y el 43 %.

Trayectos considerados en este estudio.
Juan A. Aguilar y Cristina Álvarez.

Hemos calculado las rutas usando Google Maps y hemos obtenido información de los límites de velocidad a través de OpenStreetMap. Como resultado, para cada una de las cinco rutas, preparamos una tabla que agrupa tramos por límite máximo de velocidad.

Ejemplo de rutas consideradas.
J. A. Aguilar y Cristina Álvarez.

Estos límites nos proporcionarán valores de referencia para la velocidad en cada tramo. Así, conocida la longitud de cada tramo y su velocidad de referencia, un cálculo simple nos permite calcular el tiempo total empleado en el desplazamiento –suponiendo el caso ideal de ausencia de atascos y semáforos–.

Además, usando los datos de consumo típico, podemos calcular también el consumo de gasolina, suponiendo que existe una velocidad constante.

¿Más rápido es mejor?

A continuación, investigamos cuánto tiempo se ahorra desplazándose más rápido y cuánto más se consume. Aquí, hacemos una suposición razonable:

  • Para los tramos urbanos con límite hasta 50 km/h, siempre consideraremos velocidad igual al límite legalmente establecido. Esta simplificación es necesaria porque, al aumentar la velocidad, también aumentan las pérdidas por frenada (algo frecuente en entorno urbano) y, como se ha mencionado, es imposible modelar adecuadamente estas variaciones.

  • Para los tramos en carretera, consideraremos dos casos: velocidades 20 % mayores al límite y velocidades 40 % mayores. Es decir, si el límite está en 100 km/h, supondremos velocidades de 120 km/h y 140 km/h, respectivamente. Lo cual está bastante en línea con lo observado diariamente.

Ahorro de tiempo frente a consumo extra a mayor velocidad.
J. A. Aguilar y Cristina Álvarez.

Los resultados no dejan lugar a dudas: pisar el acelerador sale muy caro. Para ahorrar un 10 % de tiempo gastamos ¡30 % más de combustible! Y esto es similar para todos los trayectos. Con una velocidad 20 % mayor al límite, el gasto de combustible triplica al ahorro de tiempo en los trayectos 1, 2, 3 y 5 y casi lo quintuplica en el trayecto 4. Y, para una velocidad 40 % mayor, las cifras de consumo se disparan.

Por otro lado, si no apuramos el límite de velocidad, el ahorro relativo de combustible es bastante comparable al incremento relativo del tiempo de viaje. La gran disparidad entre ambos solo aparece a velocidades elevadas.


Rui Lourenco / Unsplash., CC BY-SA

Pisar el acelerador hace daño al bolsillo y al planeta

Naturalmente, los detalles de consumo varían de un modelo de automóvil a otro, dependiendo del motor, la aerodinámica, el combustible y otras características. No obstante, los resultados cualitativos obtenidos aquí son extrapolables a coches de gasolina o diésel de diversos tamaños. Como hemos señalado, el incremento de consumo a gran velocidad es exponencial y está basado en leyes físicas. Por tanto, la conclusión de que el gasto adicional excede con creces el ahorro de tiempo tiene un carácter bastante general.

Asimismo, pisar el acelerador también sale muy caro para el planeta. Las emisiones de CO₂ y otros gases son proporcionales al consumo. Por lo que ahorrar unos pocos minutos se traduce en una contaminación bastante mayor.

En términos generales, como sabemos, la huella de emisiones por viajero es inferior en transporte público que en coche privado, y más aún en áreas urbanas. Encima, cuando el vehículo viaja con un solo ocupante, este consumo y esas emisiones recaen íntegramente sobre un único viajero, empeorando aún más el balance.

Para esos casos en que el uso del coche es inevitable, no deberíamos olvidar que la velocidad no compensa, ni para el bolsillo ni para el planeta.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Con la gasolina disparada, correr sale mucho más caro de lo que parece – https://theconversation.com/con-la-gasolina-disparada-correr-sale-mucho-mas-caro-de-lo-que-parece-275334

Por qué un aula sin conflictos no siempre es mejor para el bienestar docente

Source: The Conversation – (in Spanish) – By Magdalena Holgado Herrero, Psicología Social, del Trabajo y de las Organizaciones, Universidad de Cádiz

Fotograma de la película _Mentes peligrosas_ (1995), donde Michelle Pfeiffer encarnaba a una profesora en una clase conflictiva. Filmafinnity

Trabajar en un entorno conflictivo es uno de los factores más frecuentemente citados como causante de estrés laboral o síndrome de estar quemado. En el caso de los docentes, que el entorno escolar no sea armonioso y existan tensiones supone, comprensiblemente, una dificultad añadida al desarrollo de la docencia.

Por eso es tan sorprendente el resultado de nuestro reciente estudio: el profesorado con una gran capacidad de resiliencia no solo consigue relegar la tensión interpersonal a un segundo plano, sino que la convierte en un catalizador de satisfacción al transformar los obstáculos en retos significativos.

Basándonos en una muestra de 220 profesionales de la enseñanza de la comarca del Campo de Gibraltar en diferentes etapas (de infantil a formación profesional) hemos podido determinar que, aunque el conflicto suele reducir el bienestar, la resiliencia actúa como un factor determinante que transforma esta relación.

La paradoja de la calma

Estos resultados indican que un lugar de trabajo sin conflictos no siempre es el paraíso para el bienestar de los docentes. Para una persona altamente resiliente, un entorno de conformidad total puede resultar desmotivador. No proporciona el debate saludable y el crecimiento a través de los retos que estos profesionales anhelan para sentirse verdaderamente comprometidos.

Sorprendentemente, los niveles más altos de felicidad se registraron entre el personal docente con alta resiliencia que desarrollaba su labor en contextos donde los conflictos iban en aumento. Para estos profesionales de la educación, la tensión actúa como combustible, activa su sentido de la autoeficacia y la competencia, demostrando que cuentan con las herramientas necesarias para navegar por aguas difíciles.




Leer más:
La competencia emocional docente: ¿moda, mito o necesidad?


Bienestar y resiliencia

Tener una resiliencia extraordinaria en un entorno sin retos significativos, en lugar de aumentar la felicidad puede hacer que el bienestar se estanque, pues la fortaleza permanece infrautilizada.

El hallazgo más relevante de nuestro estudio es que el camino hacia la felicidad no es una línea recta impulsada por la resiliencia. Al aplicar las teorías de “demasiado de algo bueno” (too much of a good thing: TMGT) y “muy poco de algo malo” (too little of a bad thing: TLBT), observamos fenómenos que matizan las premisas habituales sobre la gestión de centros educativos.

La primera de ellas sugiere que factores psicológicos positivos como la propia resiliencia pueden volverse contraproducentes o perder su eficacia cuando alcanzan niveles extremos. Por el contrario, la teoría TLBT plantea que ciertos elementos tradicionalmente negativos, como el conflicto funcional, pueden empezar a generar efectos perjudiciales precisamente cuando su nivel es demasiado bajo.

En ambos casos, esta correlación sigue una trayectoria en forma de ‘U’: existe un punto de inflexión donde el exceso de una virtud o la ausencia total de un desafío (como un entorno de conformidad absoluta) dejan de sumar bienestar para empezar a restarlo.

¿Cómo lo medimos?

Para descubrir estos patrones en el contexto de la labora docente, nuestro estudio utilizó una serie de evaluaciones psicológicas validadas, diseñadas para captar la realidad diaria del aula más allá de los planes de estudio. Nos centramos en tres pilares:

  • Conflicto relacional: utilizando la escala de Jehn, identificamos esos momentos específicos de fricción, los choques de personalidad y las tensiones emocionales que pueden hacer que el ambiente en la sala de profesores sea tenso.

  • Felicidad personal en el trabajo: no nos limitamos a preguntar si los profesores estaban contentos. Consideramos la felicidad como un motor multidimensional alimentado por cuatro componentes: disfrute genuino, compromiso profundo, estado de flujo durante las tareas y afecto positivo general dentro de la escuela.

  • Resiliencia: se midió como el factor de recuperación, la elasticidad psicológica que permite a un educador recuperarse de los reveses y adaptarse a los cambios repentinos.

Los datos revelaron una historia convincente: mientras que el conflicto en ausencia de resiliencia es innegablemente devastador, la fusión de una alta resiliencia y un entorno dinámico (incluso tenso) crea un estado de florecimiento. Esto sugiere que, para una mente preparada, un entorno desafiante no es una barrera para el crecimiento, sino el terreno en el que este echa raíces.




Leer más:
¿Podemos evitar que el profesorado se ‘queme’?


Eliminar conflicto o mejorar resiliencia

Así, el objetivo de responsables políticos y juntas escolares no debe ser eliminar cualquier atisbo de tensión de nuestras escuelas. Un entorno estéril y libre de conflictos podría, de hecho, frenar el crecimiento de nuestros educadores más capaces.

En cambio, la clave está en dotar a los profesores de las herramientas psicológicas que necesitan. Cuando la tormenta llegue inevitablemente, un profesor resiliente no solo sabrá cómo sobrevivir a las olas, sino que encontrará una profunda sensación de satisfacción y propósito al navegar con éxito a través de ellas.

Desarrollar la resiliencia

Estos hallazgos ponen de relieve la necesidad de estrategias matizadas, que permitan cultivar la resiliencia más allá de la gestión del estrés. Dado que es una habilidad adaptable y no un rasgo innato, las instituciones educativas deberían integrarla en el desarrollo profesional continuo de todo el personal docente.

Entender los conflictos interpersonales como “retos colaborativos” y crear entornos propicios para el diálogo constructivo puede ayudar a impulsar la innovación y la cohesión del equipo.

The Conversation

Magdalena Holgado Herrero recibe fondos de la Fundación Campus Tecnológico de Algeciras, cofinanciada mediante la subvención concedida por la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía.

Dara Hernández Roque recibe fondos de de Fundación Campus Tecnológico de Algeciras, como investigadora académica del Campus Universitario de la Bahía de Algeciras (Universidad de Cádiz).

María José Foncubierta Rodríguez ha recibido fondos de Fundación Campus Tecnológico de Algeciras, como investigadora académica del Campus Universitario de la Bahía de Algeciras (Universidad de Cádiz).

ref. Por qué un aula sin conflictos no siempre es mejor para el bienestar docente – https://theconversation.com/por-que-un-aula-sin-conflictos-no-siempre-es-mejor-para-el-bienestar-docente-273848

¿Podrá Europa llegar a frenar la desinformación? Estos son sus 5 retos más urgentes

Source: The Conversation – (in Spanish) – By Susana Sanz Caballero, Catedrática de Derecho Internacional Público y Cátedra Jean Monnet de la UE, Universidad CEU Cardenal Herrera

Alexander56891/Shutterstock

El fenómeno de las fake news en la era digital no es nuevo. La desinformación ha existido siempre, desde el Imperio romano y en etapas posteriores como forma de condicionar e influir en conflictos sociales, rivalidades políticas y tensiones por el poder. Sin embargo, desde la irrupción de internet y, más recientemente, de los sistemas de inteligencia artificial (IA), ha crecido exponencialmente.

El contexto geoestratégico actual constituye un caldo de cultivo perfecto para que la desinformación en el entorno digital se reproduzca con mayor facilidad e impacto, convirtiéndola en un arma de doble filo.

La libertad de expresión es un derecho fundamental en democracia, pero su uso indebido puede convertirse en una herramienta para desestabilizar sistemas políticos y sociedades democráticas, dificultando la existencia de un ecosistema informativo veraz y fiable.

La respuesta legislativa de la Unión Europea

La desinformación se ha convertido en uno de los principales problemas regulatorios para la Unión Europea en su labor de protección de las garantías democráticas. Hoy, la desinformación se considera un tipo de “amenaza híbrida”, un concepto de difícil definición que remite a la idea de un uso combinado de instrumentos de naturaleza diversa (políticos, económicos, informáticos, etc.) con el objetivo de desestabilizar un Estado empleando métodos que a menudo pasan desapercibidos.

Frente a este problema, la búsqueda del equilibrio entre libertad de expresión y lucha contra la desinformación es una necesidad cada vez más acuciante. La Unión ha desplegado su maquinaria legislativa para desarrollar un marco normativo amplio que permite abordar este escenario con estas tres leyes principales:

  • Ley de Servicios Digitales (DSA): establece criterios de selección de contenidos y obligaciones de transparencia para las plataformas digitales.

  • Ley de Mercados Digitales (DMA): busca garantizar un sector digital competitivo y justo, así como la seguridad de los usuarios en línea.

  • Ley de Medios (EMFA): establece el marco común comunitario para proteger la libertad, el pluralismo y la independencia editorial de los medios.

Contenidos manipulados o dependencia tecnológica

Aunque el esfuerzo de la Unión por regular esta cuestión es muy bien recibido, su aplicación práctica no está exenta de desafíos como estos cinco:

  1. Crecimiento masivo de contenidos manipulados: la facilidad para crear y difundir información ha degradado la integridad del ecosistema informativo, destacando el auge de deepfakes e información en zonas grises que requieren de la asistencia de verificadores para comprobar su veracidad.

  2. Falta de neutralidad y captura informativa: los algoritmos no son neutrales, priorizan el sensacionalismo para maximizar beneficios, generando una “captura informativa” donde las plataformas deciden qué contenidos llegan a los usuarios (la “prohibición en la sombra” o shadowbanning).

  3. Privatización de moderación de contenidos: actualmente, el 99 % de las decisiones de eliminación de contenidos las toman empresas privadas bajo sus propios términos, mientras que la intervención judicial es mínima (0,001 %).

  4. Desinformación como guerra híbrida: actores extranjeros utilizan la manipulación informativa como herramienta de desestabilización geopolítica y polarización social.

  5. Vulnerabilidad ciudadana y dependencia tecnológica: la exposición repetida a narrativas falsas aumenta la probabilidad de creer en ellas, especialmente ante la falta de infraestructuras digitales propias de la UE.

Una buena noticia: hay luz al final del túnel

Pero no todo son malas noticias. Aunque este fenómeno se ha instaurado con fuerza, existen vías de solución que invitan a cierto optimismo:

  • Trazabilidad de contenidos generados por IA. De conformidad con análisis especializados sobre ecosistema mediático híbrido, es vital fomentar contenidos basados en evidencias y mejorar técnicamente el etiquetado de contenidos generados por IA para proteger el discurso cívico.

  • Imposición de obligaciones estrictas de transparencia que exijan a las empresas explicar cómo funcionan sus sistemas de recomendaciones (feeds) y el diseño transparente de estructuras digitales.

  • Reforzar el derecho del usuario a la información sobre los motivos de restricciones de contenido y asegurar la independencia de los reguladores nacionales para evitar el riesgo de autocensura (chilling effect).

  • Aplicar sanciones contra entidades responsables, suspender licencias de medios de propaganda estatal, fortalecer la cooperación estratégica entre instituciones, actores privados y la ciudadanía. Las plataformas digitales, especialmente durante periodos electorales, deberían indicar expresamente si el contenido ha sido patrocinado por Estados terceros.

  • Implementar planes de alfabetización mediática en la formación reglada, siguiendo modelos de éxito (Finlandia, Estonia) e invertir en soberanía tecnológica europea con la creación de centros de datos a escala europea.

Combatir la desinformación no depende solo de contar con un marco normativo estable. Reforzar la transparencia, limitar las injerencias políticas y combatir la manipulación informativa requiere voluntad política y una estrecha coordinación entre actores estatales y no estatales: operadores económicos, plataformas digitales, medios de comunicación, organismos reguladores, la comunidad académica y la sociedad civil.

Restaurar la confianza e integridad de los sistemas de información es esencial para frenar la desinformación en Europa.

The Conversation

El equipo de investigación Rule of Law Crisis in the EU de la UCHCEU recibe financiación del Proyecto I+D+i Nacional del MICINN: PID2021-126765NB-I00 y el proyecto GVA: CIAICO/2024/191

Almudena Del Castillo Santamaría recibe fondos del Ministerio de Ciencia, Innovación y Universidades a través de la convocatoria FPU del año 2023 para la realización de su tesis doctoral que se inscribe en el proyecto I+D+i nacional del MICINN: PID2021-126765NB-I00 y el proyecto financiado por la GVA: CIAICO/2024/191

Enrique Roger Belloch y Zitan Peng Hao no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. ¿Podrá Europa llegar a frenar la desinformación? Estos son sus 5 retos más urgentes – https://theconversation.com/podra-europa-llegar-a-frenar-la-desinformacion-estos-son-sus-5-retos-mas-urgentes-277433

Crear empresas desde la universidad, la mejor manera de fomentar el emprendimiento

Source: The Conversation – (in Spanish) – By Guillermo José Navarro del Toro, Research Professor at the University of Guadalajara – Centro Universitario de Los Altos, Universidad de Guadalajara, Universidad de Guadalajara

Xavier Lorenzo/Shutterstock

Cada semestre recibo decenas de estudiantes en mi facultad con ideas que podrían transformarse en empresas reales. Cuatro años después, la mayoría gradúa con un título y esas mismas ideas archivadas en carpetas que nadie volverá a abrir.

Como profesor en la Universidad de Guadalajara, he visto esta paradoja repetirse durante años. No es falta de talento. Es que seguimos enseñando emprendimiento como si fuera historia medieval: datos para memorizar, teorías para el examen, cero aplicación real.

Mientras debatimos en academias si actualizar el temario, algunas instituciones llevan décadas logrando que sus estudiantes combinen la teoría y la práctica, creando empresas al tiempo que estudian cómo funcionan: los estadounidenses MIT (Massachussets Institute of Technology), cuyo ecosistema de emprendimiento académico se articula desde el Martin Trust Center for MIT Entrepreneurship; Babson College, líder global en educación emprendedora con su enfoque de Entrepreneurial Thought & Action; UC Berkeley, a través de Berkeley SkyDeck, donde los proyectos académicos se convierten en startups; y Harvard, mediante el Harvard Innovation Labs, que integra cursos, mentorías y creación de empresas. En Finlandia, la Aalto University es reconocida por su modelo universidad–startup y el ecosistema Aalto Ventures Program.

La diferencia no es, o no únicamente, presupuesto ni ubicación. Es arquitectura.

Cuando la teoría se encuentra con la realidad

El Centro Universitario de los Altos (CUAltos) de la Universidad de Guadalajara implementó desde 2021 algo que debería ser obvio pero resulta revolucionario: convertir cada asignatura en una herramienta para construir proyectos reales.

En lugar de estudiar contabilidad con ejercicios inventados, los estudiantes registran transacciones de sus propios emprendimientos. En vez de memorizar las 4 P del marketing (producto, precio, punto de venta y promoción), diseñan estrategias para adquirir sus primeros cien clientes reales. Cuando estudian derecho empresarial, redactan los contratos que necesitarán para constituir legalmente sus empresas.

El CUAltos creó un repositorio de difusión del emprendimiento que documenta estos proyectos. No son simulaciones académicas. Son empresas operando en mercados reales, con clientes pagando y estudiantes aprendiendo más en un semestre que en cuatro años de clases tradicionales.




Leer más:
¿Estamos enseñando suficiente emprendimiento digital?


Tres ingredientes que cambian todo

Después de observar casos exitosos en México, España y otros países, identifiqué tres elementos que separan el teatro académico de la transformación real:

  1. La integración curricular total. Cuando Juan de Antonio fundó Cabify mientras estudiaba un MBA en Stanford, cada asignatura contribuía directamente a su proyecto. Hoy Cabify opera en más de noventa ciudades y factura 800 millones de euros. No esperó a graduarse. Construyó desde el primer día.

    El Tecnológico de Monterrey lleva esto al extremo con su modelo Tec21, donde todo el programa se estructura alrededor de retos empresariales reales. Los estudiantes no estudian disciplinas aisladas, resuelven problemas complejos que exigen conocimiento de finanzas, marketing, operaciones y tecnología simultáneamente.

  2. Mentoría con cicatrices. Las mejores universidades no contratan solo profesores con doctorados. Buscan emprendedores que fracasaron y reconstruyeron. Alguien que perdió una empresa te enseña más en una conversación que diez papers académicos.

    Por ejemplo, Alicia Asín y David Gascón fundaron Libelium con apenas 3 000 euros nada más licenciarse en la Universidad de Zaragoza. Fracasaron repetidamente. Pivotaron tres veces. Casi se quedan sin dinero dos veces. Hoy lideran mercados globales del Internet de las Cosas en 120 países. David fue reconocido como Innovador del Año por la revista MIT Technology Review en 2012, y la Real Academia de Ingeniería lo distinguió como investigador destacado en 2018. Alicia fue la primera mujer en recibir el premio Joven Emprendedor Nacional de CEAJE en 2014. Su conocimiento sobre qué hacer cuando todo falla no viene de libros. Viene de sobrevivir.

  3. Consecuencias reales. El Tecnológico de Monterrey conecta estudiantes con capital genuino desde primer semestre mediante colaboraciones con fondos como FEMSA Ventures. Cuando uno presenta ante inversores que controlan dinero real, la investigación de mercado no puede ser superficial.

    ESADE estructura competiciones con financiamiento real que los equipos pueden usar inmediatamente. Esta inyección de consecuencias transforma comportamientos. Los estudiantes dejan de optimizar para aprobar exámenes y empiezan a optimizar para resultados reales.




Leer más:
La importancia del emprendimiento en las universidades de América Latina


Lo que realmente están aprendiendo

Incluso cuando los proyectos fracasan comercialmente, estos estudiantes desarrollan competencias que graduados tradicionales tardan años en adquirir.

Por ejemplo, Juan Urdiales y Felipe Navío fundaron Jobandtalen mientras estudiaban en la Universidad Politécnica de Madrid. La empresa creció hasta convertirse en líder de empleo temporal en Europa y Latinoamérica, recaudó más de 500 millones de dólares y alcanzó una valoración superior a 2 000 millones. Opera en más de diez países.

No tenían experiencia corporativa previa, tenían algo mejor: capacidad de tomar decisiones bajo incertidumbre, construir equipos funcionales, gestionar conflictos cuando los intereses no están alineados y pivotar rápidamente cuando los datos contradicen sus hipótesis.

El mercado laboral refleja esto. Las empresas tecnológicas priorizan candidatos con proyectos demostrables sobre aquellos con credenciales impecables pero sin experiencia ejecutiva real.

La oportunidad que estamos perdiendo

Cada año, miles de estudiantes talentosos entran a nuestras facultades en México. La mayoría los procesamos mediante el mismo sistema que lleva décadas produciendo resultados mediocres: clases magistrales, exámenes memorísticos, proyectos simulados.

Cuatro años después salen con títulos, deudas y sus ideas archivadas. Buscarán empleos en empresas creadas por gente que nunca perdió tiempo en aulas desconectadas de la realidad.

En el CUAltos estamos intentando cambiar esto. Los catorce programas académicos, que se imparten llevan contenidos de emprendimiento, de manera que cualquier médico, dentista o abogado que egresa sabe cómo comenzar un negocio, cuánto cobrar, cómo vender y cómo posicionarse en el mercado. No con más teoría sino con más práctica. No con simulaciones sino con consecuencias reales. No preparando empleados sino formando creadores.

Esta transformación no requiere presupuestos millonarios. Requiere valentía para demoler lo que “siempre hemos hecho así” y reconstruir desde cimientos completamente nuevos.

The Conversation

Guillermo José Navarro del Toro no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Crear empresas desde la universidad, la mejor manera de fomentar el emprendimiento – https://theconversation.com/crear-empresas-desde-la-universidad-la-mejor-manera-de-fomentar-el-emprendimiento-235024

¿Puede una imagen generada por IA ser ‘demasiado’ real?

Source: The Conversation – (in Spanish) – By Ricardo Fernández Rafael, Investigador Predoctoral en Ocio, Cultura y Comunicación, Universidad de Deusto

Imagen renderizada en 3D de una mujer joven. Aitor Serra Martín/Shutterstock

¿Por qué a veces una imagen o vídeo generado por inteligencia artificial nos desasosiega aunque parezca casi real? El fenómeno conocido como “valle inquietante” describe precisamente esa respuesta de extrañeza o rechazo que sentimos ante reproducciones casi humanas.

Originalmente formulado en 1970 por el roboticista Masahiro Mori, el valle inquietante plantea que cuanto más se parecen un robot o figura artificial a un ser humano, más positiva es la reacción… hasta que la similitud casi perfecta provoca repulsión.

En los últimos años, con IA generativa capaz de producir rostros e incluso vídeos realistas, esto ha cobrado nueva relevancia: ¿cómo percibimos los humanos estas creaciones sintéticas? ¿Somos capaces de notar que son artificiales? ¿Por qué a veces no logramos detectarlo?

¿Qué es el valle inquietante y por qué ocurre?

El valle inquietante es una hipótesis que describe la reacción emocional negativa ante entidades artificiales muy humanas, pero no del todo auténticas. Cuando una figura antropomórfica, un robot, un avatar digital, un rostro generado por IA, se acerca mucho a la apariencia humana pero muestra algo sutilmente “fuera de lugar”, suele provocarnos desasosiego. Nuestro cerebro percibe que “algo no encaja”, generando inquietud o simple rechazo.

Un robot que se intenta parecer a una mujer de carne y hueso vestido de uniforme.
Un robot recepcionista en un hotel en Tokio.
New Snowman/Shutterstock

Diversas teorías intentan explicar las causas de este efecto: desde razones evolutivas (nuestro cerebro asociaría las distorsiones faciales con enfermedad o peligro, activando una respuesta de aversión instintiva) hasta cognitivas (la incertidumbre de no poder clasificar algo como humano o no humano genera rechazo) y existenciales (un doble artificial casi idéntico a nosotros puede recordarnos nuestra propia mortalidad o reemplazabilidad).

Desde la neurociencia cognitiva, comienzan a hallarse mecanismos cerebrales detrás del valle inquietante. Investigadores de la Universidad de Cambridge mostraron imágenes de humanos reales, rostros virtuales y robots a voluntarios mientras medían su actividad cerebral por imagen por resonancia magnética funciona (fMRI). Encontraron que el cerebro funciona como una especie de “detector de humanidad”: la corteza prefrontal ventromedial aumentaba su actividad ante figuras más humanizadas pero caía abruptamente al rozar el límite de lo humano sin serlo, mientras que la amígdala se activaba con intensidad, sugiriendo una respuesta emocional de alarma.

El ojo humano ante las imágenes de IA: detectar lo artificial

Los seres humanos somos expertos en rostros y en descifrar señales sociales sutiles; desde bebés aprendemos a leer expresiones, seguir miradas y distinguir individuos. Esta maestría perceptiva explica por qué podemos notar detalles ínfimos fuera de lugar en una imagen de rostro humano. Ante fotografías o vídeos generados por IA, muchos usuarios reportan que “hay algo en la mirada” o “una sensación rara” que les delata que no son reales.

Una azafata saluda a un hombre en una imagen hecha con IA.
Antes era fácil diferenciar una imagen hecha con IA porque los seres humanos tenían más dedos de lo habitual en las manos.
Rhetos/Wikimedia Commons

Hasta hace poco, las imágenes sintéticas solían delatarse por fallos evidentes: manos con seis dedos, ojos asimétricos, texturas de piel irreales. Pero incluso sin errores obvios, nuestro cerebro capta algo: una mirada sin brillo, un gesto congelado, una falta de sincronía entre apariencia y “vida” interior.

Los datos recientes son elocuentes. Las imágenes faciales generadas con ChatGPT y DALL·E resultan virtualmente indistinguibles de fotografías auténticas para la mayoría de observadores. Los programas de IA alcanzan un 97 % de precisión detectando rostros sintéticos en fotos, pero los humanos no superamos el porcentaje atribuible al azar; curiosamente, con vídeos deepfake la situación se invertía y los humanos acertaban dos tercios de las veces. Incluso los “súper-reconocedores”, el 2 % superior en reconocimiento facial, apenas detectan el 41 % de los rostros falsos, una tasa inferior al azar.

Sin embargo, cinco minutos de entrenamiento sobre errores comunes de renderizado mejoró sustancialmente su precisión. Es decir, que nuestro sistema perceptivo no está calibrado para esta amenaza, pero puede entrenarse.

IA avanzadas: ¿se está superando el valle inquietante?

Dado el rápido progreso de la inteligencia artificial generativa, surge la pregunta: ¿podrán las máquinas cruzar el valle inquietante, eliminando esa inquietud por completo? Los avances recientes apuntan en esa dirección.

En el campo de las imágenes estáticas, los generadores basados en redes antagónicas generativas (GAN) y modelos de difusión han logrado crear rostros y cuerpos virtuales indistinguibles de fotografías reales. Las caras generadas por StyleGAN2 ya alcanzan un nivel de detalle anatómico y calidad fotográfica que engaña a la mayoría de observadores.

Lo estamos viendo también en ejemplos cotidianos. Los verificadores de contenido ahora hablan de una “perfección inquietante” como nueva señal: fotogramas con personas de belleza impecable, sin ninguna arruga fuera de lugar, con simetrías casi matemáticas.

Paradójicamente, la IA crea imágenes tan pulidas que producen otra forma de artificio: no por defectos grotescos, sino por ausencia de las pequeñas imperfecciones que dan autenticidad. Aun así, para la mayoría del público esas minucias pasan inadvertidas.

Las imágenes no se mueven, corren

El desafío mayor, sin embargo, está en el vídeo. No basta con un fotograma realista; hay que encadenar miles por segundo sin caer en gestos espasmódicos o inexpresivos. Hasta hace poco, los primeros sistemas de texto a vídeo producían resultados entre lo cómico y lo espeluznante: clips borrosos, figuras humanas inestables que parecían salidas de un sueño raro… Pero la velocidad con la que está cambiando esto resulta difícil de exagerar.

En los últimos meses se han sucedido lanzamientos que redefinen lo posible. Google DeepMind presentó Veo 3.1 en octubre de 2025, un modelo que trata el sonido como parte integral del vídeo: genera diálogos con labios sincronizados, efectos de sonido alineados con la acción y paisajes sonoros ambientales. No es un detalle menor: una de las pistas clásicas para detectar un vídeo falso era la desincronización entre labios y voz. Cuando eso desaparece, una barrera perceptiva cae con ello.

En febrero de 2026, la empresa china Kuaishou lanzó Kling 3.0, que permite generar hasta seis tomas distintas dentro de un mismo clip de 15 segundos manteniendo la coherencia de personajes y escenarios, con resolución 4K y sincronización labial en múltiples idiomas. Lo que importa para el valle inquietante es la consistencia temporal: cuando cada fotograma se genera teniendo en cuenta decenas de fotogramas adyacentes, las “mutaciones” faciales que antes delataban el origen artificial se reducen drásticamente.

Pero el modelo que más debate ha generado es Seedance 2.0, de ByteDance. Clips virales mostraron a Brad Pitt y Tom Cruise en una pelea coreografiada tan convincente que Disney envió una carta de cese y desistimiento y Paramount acusó a la compañía de infracción de propiedad intelectual.

¿Se ha cruzado entonces el valle? No del todo. Los modelos de 2026 todavía luchan con acciones cotidianas: comer, manipular cubiertos, interactuar con objetos pequeños. No tenemos referencia de cómo se mueve un dragón, pero hemos visto a miles de personas comer pasta, y cualquier desviación salta a la vista. A esto se suma que los modelos de imagen estática, como la familia Nano Banana de Google, ya sirven como fotogramas de referencia para los generadores de vídeo, minimizando las incoherencias entre cuadros que antes delataban el contenido sintético.

Un último dato que ayuda a enmarcar la velocidad del cambio: el número de deepfakes en internet pasó de unos 500 000 en 2023 a unos 8 millones en 2025, con un crecimiento anual cercano al 900 %. Un investigador de la Universidad de Buffalo especializado en medios sintéticos escribió en Fortune que la clonación de voz ha cruzado lo que él llama el “umbral de la indistinguibilidad”: unos pocos segundos de audio bastan para generar un clon convincente con entonación, ritmo, pausas y hasta ruido de respiración naturales.

Nuestros ojos ya no bastan

No parece que el valle inquietante se limite a lo visual: también se manifiesta en interacciones textuales con chatbots. Sin embargo, los usuarios siguen prefiriendo la naturalidad y las imperfecciones humanas: mientras que los defectos humanos aumentan la cercanía, las desviaciones que rompen la percepción de humanidad disparan el rechazo.

El sector tecnológico está respondiendo con soluciones de verificación que funcionan donde nuestros ojos ya no pueden. La lógica es sencilla: si no podemos ver la diferencia, al menos podemos marcar el contenido en el momento de su creación. Estas marcas sobreviven a compresiones, recortes y conversiones de formato habituales.

Desde mayo de 2025, un portal de verificación de Google DeepMind permite comprobar si un archivo contiene SynthID, una marca de agua imperceptible que se inserta durante la generación. En paralelo, la C2PA (Coalition for Content Provenance and Authenticity), impulsada por Adobe, Microsoft, Google, OpenAI y Meta, desarrolla un estándar abierto que adjunta al archivo información criptográfica verificable sobre su origen y ediciones. Mientras SynthID es la huella invisible que persiste cuando se pierde el metadato, C2PA ofrece la trazabilidad cuando las plataformas lo preservan.

La regulación también avanza, aunque fragmentada. El Reglamento de IA de la Unión Europea, en vigor desde agosto de 2024, exige que todo contenido generado por IA sea marcado en formato legible por máquinas, con pleno cumplimiento requerido para agosto de 2026. Pero el panorama industrial muestra a cada gran empresa desarrollando su propio sistema, sin un estándar universal de detección.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


Cambio de concepto

La percepción del valle inquietante es un fascinante cruce entre biología, mente y tecnología. Sentimos inquietud ante lo casi humano porque nuestros cerebros están calibrados finamente para reconocer a nuestros semejantes y detectar lo que se aparta de la norma. Esa misma agudeza se activa con las creaciones de IA que casi logran imitarnos.

A comienzos de 2026, el estado de la cuestión es claro: la frontera se desplaza a una velocidad vertiginosa. Lo que en enero de 2026 era limitación de un modelo, en febrero ya lo resolvía el siguiente. Quizás el cambio más profundo no sea visual sino conceptual: en lugar de detectar “algo extraño”, empezaremos a desconfiar de “algo demasiado perfecto”.

¿Desaparecerá por completo el valle inquietante? Probablemente no: seguiremos teniendo reparo ante un robot físico que intenta ser nuestro doble perfecto. Pero en el terreno visual digital, la distinción entre lo generado y lo real dependerá cada vez cada vez más de la tecnología que nos asiste. Cuando ya no podamos confiar en “lo noto en mi estómago, se ve falsa”, necesitaremos marcas de agua universales, credenciales de procedencia y, sobre todo, educación mediática para orientarnos en un mundo donde lo artificial se camufla con total naturalidad.

Una versión de este artículo se publicó en la revista Telos, de la Fundación Telefónica.

The Conversation

Ricardo Fernández Rafael no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Puede una imagen generada por IA ser ‘demasiado’ real? – https://theconversation.com/puede-una-imagen-generada-por-ia-ser-demasiado-real-272540

Podemos convertir la ropa que desechamos en combustible y otros recursos para evitar que acabe en vertederos

Source: The Conversation – (in Spanish) – By Inés Moreno García, Investigadora Titular Asociada, IMDEA ENERGÍA

Ernest Rose/Shutterstock

¿Sabías que la ropa que usamos nos la ponemos, de media, solo siete veces antes de desecharla? La industria textil es uno de los sectores con mayor impacto ambiental: genera alrededor del 10 % de las emisiones globales de CO₂, más que todos los vuelos transatlánticos juntos, y consume enormes cantidades de agua. Fabricar una camiseta de algodón requiere unos 2 700 litros, el equivalente al agua que bebe una persona en dos años y medio.

En los últimos años, estos problemas se han agravado con el fenómeno de la moda rápida o fast fashion, un modelo basado en producir grandes cantidades de ropa barata a gran velocidad, siguiendo tendencias casi inmediatas. Compramos más prendas, más baratas y con mayor frecuencia, pero a costa de un impacto ambiental creciente.

Reciclar más textiles sería parte de la solución, pero no es sencillo. En España, cada persona genera unos 20 kg de residuos textiles al año y solo se recicla el 1 %. El resto acaba en vertederos, formando auténticas montañas de ropa.

¿Cómo se recicla la ropa que desechamos?

La opción más extendida es el reciclado mecánico, que tritura y desfibra las prendas para obtener nuevas fibras. Sin embargo, este proceso las acorta y debilita, reduciendo su calidad y limitando su uso para fabricar ropa nueva. Además, es poco eficaz con tejidos mezclados, muy comunes hoy en día.

El reciclaje químico permite descomponer los tejidos hasta sus moléculas básicas para reconstruir las fibras originales; es como desmontar un puzle pieza a pieza y volver a montarlo. Así se recuperan materiales similares a los iniciales. Este método está más desarrollado para fibras sintéticas como el poliéster, utilizando disolventes, temperatura y presión para romper sus cadenas y obtener los componentes de partida, que luego se purifican y transforman en nuevas fibras. Aunque es prometedor, su impacto ambiental y sus limitaciones con tejidos mixtos o fibras naturales impiden que sea una solución universal.

En este contexto, la pirólisis surge como alternativa con gran potencial, ya que permite tratar prendas de tejidos complejos sin separar previamente las fibras.




Leer más:
El precio ambiental de la moda rápida


Cómo convertir los tejidos en combustibles

El proceso consiste en calentar el residuo textil a altas temperaturas en ausencia de oxígeno. En lugar de quemarse, el material se descompone en tres fracciones: un gas, un sólido y un líquido.

El gas puede utilizarse como combustible para aportar el calor que requiere el propio proceso. El sólido carbonoso tiene múltiples aplicaciones: como combustible sólido, mejorador del suelo o material filtrante para eliminar contaminantes en corrientes líquidas o gaseosas. Y el líquido, conocido como aceite pirolítico, es una mezcla compleja de compuestos orgánicos cuya composición depende del tejido original y que puede revalorizarse para obtener combustibles o productos químicos.

En la Unidad de Procesos Termoquímicos de IMDEA Energía trabajamos desde hace años en la pirólisis de distintos residuos –orgánicos, agrícolas, forestales, plásticos o neumáticos– con el objetivo de producir aceites transformables en combustibles líquidos o compuestos similares a los derivados del petróleo.

No obstante, el aceite pirolítico es muy complejo. Contiene numerosos compuestos y, a diferencia del crudo de petróleo, presenta cantidades significativas de oxígeno, nitrógeno, cloro o azufre. Estos elementos dificultan su uso directo como combustible y su integración en procesos industriales.

Para superar esta limitación, el proyecto HYPY-CAT explora una solución innovadora: la hidropirólisis catalítica a baja presión. Este proceso realiza la pirólisis en presencia de hidrógeno, que ayuda a eliminar elementos indeseados y mejora la calidad del aceite obtenido. Y al hacerlo a baja presión, reduce los costes de operación.

Nuevos catalizadores

Un elemento clave es el catalizador, que facilita la ruptura de las largas cadenas de los polímeros y favorece la eliminación de compuestos no deseados. En el proyecto se proponen un tipo especial de zeolitas. Se trata de sólidos porosos, similares a esponjas con pequeños canales por los que deben entrar las moléculas para reaccionar.

Las zeolitas son excelentes catalizadores, pero sus poros suelen ser tan pequeños que muchas moléculas procedentes de los residuos textiles no pueden acceder por su gran tamaño. Pensemos en un camión o un autobús intentando pasar por una calle muy estrecha. Nuestra propuesta consiste en crear “avenidas”, es decir, poros de mayor tamaño que permitan el acceso de moléculas voluminosas. Una vez dentro, pueden transformarse en otras más pequeñas capaces de penetrar en los poros más estrechos y completar las reacciones deseadas.

Con esta iniciativa, abrimos una nueva vía para reciclar residuos textiles, reducir su impacto ambiental y convertirlos en recursos útiles para la industria, avanzando hacia una verdadera economía circular en el sector textil

The Conversation

Inés Moreno García recibe fondos del proyecto PID2023-153368OB-I00, financiado por MICIU/AEI /10.13039/501100011033 y por FEDER, UE.

María del Mar Alonso Doncel recibe fondos de PID2023-147355OB-C21.

ref. Podemos convertir la ropa que desechamos en combustible y otros recursos para evitar que acabe en vertederos – https://theconversation.com/podemos-convertir-la-ropa-que-desechamos-en-combustible-y-otros-recursos-para-evitar-que-acabe-en-vertederos-277391