Source: The Conversation – (in Spanish) – By Carmen Esther Falcón-Pérez, Profesora Titular de Universidad de Economía Financiera y Contabilidad. Instituto Tides., Universidad de Las Palmas de Gran Canaria
Las ciudades son los principales focos de emisión de gases de efecto invernadero en todo el mundo y concentran a gran parte de la población. En este escenario, las soluciones basadas en la naturaleza (SbN) surgen como una estrategia clave para fortalecer la resiliencia urbana, mejorar la salud y el bienestar de las personas y proteger el medio ambiente.
Las SbN, como cubiertas y fachadas verdes, sirven para aislar térmicamente los edificios, gestionar el agua de lluvia, absorber el carbono de la atmósfera y mejorar la temperatura urbana, reduciendo el efecto isla de calor.
Tanto las Administraciones públicas, a nivel europeo y nacional, como las entidades financieras están impulsando proyectos concretos para financiar estas transformaciones. El mensaje principal no deja dudas: sin recursos suficientes, no es posible llevar a cabo la renaturalización de los barrios y ciudades.
Por ello, resulta imprescindible diseñar mecanismos que incentiven la incorporación de infraestructura verde en los entornos urbanos.
Poner valor a lo verde: un nuevo desafío urbano
En este contexto, hemos desarrollado un nuevo modelo de incentivos fiscales medioambientales basado en reducciones del Impuesto de Bienes Inmuebles (IBI) para aquellas comunidades de propietarios que instalen y mantengan infraestructuras verdes en edificios privados.
Nuestra propuesta necesita de la participación de la ciudadanía y de las Administraciones locales con el objetivo de impulsar políticas públicas urbanas más sostenibles.
La idea es clara pero eficaz: incentivar y premiar a vecinos y empresas para que incorporen soluciones basadas en la naturaleza en sus barrios y edificios.
Con este modelo se reconoce un aprovechamiento urbanístico jurídico y económico a la comunidad de propietarios que instalen cubiertas verdes o jardines verticales. Esto supone un incentivo proporcional a la superficie verde y a la inversión realizada por cada uno de los vecinos.
A modo de ejemplo, si se opta por incorporar infraestructura verde en el 50 % de las zonas comunes de los edificios, se podrá reducir en un 50 % el IBI correspondiente a cada vecino.
El sistema de incentivos no busca aumentar el índice de edificabilidad; esto es, permitir construir cuartos para bicicletas o patinetes en las zonas comunes de los edificios para compensar positivamente la instalación de SbN, como contempla el Ayuntamiento de Madrid. Creemos que en entornos urbanos densamente consolidados esta opción es poco viable.
Priorizamos la integración de infraestructura verde frente al modelo tradicional de infraestructura gris, común en muchas ciudades.
Una Administración local al servicio del verde urbano
Los Gobiernos locales tienen un papel clave para avanzar hacia modelos urbanos más sostenibles. El ámbito municipal es el más cercano a la ciudadanía. Por tanto, es el más eficaz para impulsar iniciativas cuyos efectos se perciben de forma directa y rápida en la vida cotidiana.
La Administración local es la responsable de implantar el modelo propuesto y actuar como garante. Llevaría a cabo las revisiones periódicas para comprobar que las instalaciones se mantienen correctamente y retiraría los beneficios fiscales cuando no sea así.
La comunidad de propietarios soporta el coste de la instalación verde, el mantenimiento y la conservación. No debemos ver esta inversión como un gasto sino como una mejora patrimonial para las comunidades vecinales, ya que genera un bien común: aire más puro, menor temperatura urbana y mayor bienestar colectivo.
Los tejados y fachadas verdes aportan beneficios ambientales a todo el barrio. Por eso, la ciudad devuelve parte de ese valor mediante reducciones en los impuestos. De este modo, la ciudad reconoce y recompensa a quienes contribuyen a un entorno urbano más saludable y sostenible.
Este modelo es sencillo de implementar para los ayuntamientos y reconoce la contribución de los propietarios que incorporan procesos de renaturalización en sus edificios, ayudando a construir ciudades más verdes, sostenibles y agradables para vivir.
Carmen Esther Falcón-Pérez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
No hace falta ser un genio informático para sabotear la inteligencia artificial de un sistema de apoyo a la salud. Bastaría con que alguien introdujera entre 100 y 500 imágenes manipuladas en una base de datos de millones.
Esa pequeña cantidad de “veneno digital” puede representar una cienmilésima parte de los datos de entrenamiento. Con esa pequeña parte, un sistema de IA diseñado para leer radiografías o asignar trasplantes puede aprender a fallar. Y no lo hará al azar. Puede hacerlo para un grupo específico de personas, mientras funciona con total precisión para el resto de la población.
Lo más alarmante no es la facilidad del ataque, sino nuestra ceguera actual. Estos sabotajes resultan estadísticamente invisibles para los controles de calidad estándar. Cuando estas anomalías se lleguen a detectar, el daño ya estará hecho.
El mito de la seguridad en los números
Existe la creencia popular de que la cantidad de datos necesarios para alimentar la IA son un escudo en sí mismo. Tendemos a pensar que, en un océano de millones de datos médicos, unas pocas gotas de información falsa se diluyen sin causar daño. La evidencia desmiente categóricamente esta asunción.
Dos equipos de investigación ,de Karolinska Institutet (SMAILE), Suecia, y de la Universidad Politécnica de Madrid (InnoTep), hemos evaluado 41 estudios clave sobre seguridad en IA médica publicados en los últimos años. Tras este proceso, podemos concluir que el éxito del ataque no depende del porcentaje de datos corruptos, sino del número absoluto de muestras.
Esto significa que lo que estamos observando es una vulnerabilidad estructural: los sistemas de IA, por sí solos, son sensibles a la manipulación concisa, disciplinada y dirigida.
La mecánica de la mentira repetida
¿Cómo logra un puñado de datos engañar a un sistema tan complejo? El mecanismo de ataque replica la vieja máxima de la propaganda autoritaria: “una mentira repetida mil veces se convierte en una verdad”.
En el aprendizaje de las máquinas ocurre un fenómeno de adoctrinamiento. Es decir, el sistema no ve los datos una sola vez, sino que los repasa en ciclos repetitivos. Si se inserta un conjunto reducido de muestras falsas, el sistema las procesará una y otra vez en estos ciclos. De esta manera, dichas muestras maliciosas multiplican su influencia en el resultado final.
En este punto, tenemos un sistema que ha internalizado una falsa realidad. Lo más perverso es que la IA “envenenada” funciona con normalidad para el mayor número de pacientes: solo se “equivoca” en los casos y circunstancias diseñados para fallar.
El resultado del ataque no es un modelo fallido, sino un modelo corrupto. Mantiene su utilidad general intacta pero ejecuta una purga selectiva contra, por ejemplo, un grupo objetivo. No es un error aleatorio; es una discriminación codificada matemáticamente que se camufla bajo una apariencia general de eficiencia.
La paradoja de la privacidad
Quizá el hallazgo más irónico de nuestro trabajo es que hay leyes diseñadas para protegernos que acentúan este peligro. Normativas fundamentales como el Reglamento general de protección de datos son esenciales para velar por la privacidad de los pacientes, aunque también pueden actuar inadvertidamente como un escudo para los atacantes.
Para detectar un sabotaje tan sutil como el explicado, se necesitarían cruzar información de miles de pacientes entre distintos centros de salud. Sin embargo, la ley restringe precisamente este tipo de vigilancia masiva y correlación de datos.
Esto crea una “paradoja de seguridad”. Blindamos la privacidad del paciente, al tiempo que vendamos los ojos al sistema que debería protegerle. El resultado es que estos ataques pueden permanecer ocultos largos periodos de tiempo.
Una defensa basada en la pluralidad
En este contexto, la ciberseguridad tradicional no basta. En nuestra investigación, proponemos una solución defensiva llamada MEDLEY (Medical Ensemble Diagnostic System with Leveraged DiversitY) para contextos de salud. Frente al pensamiento único del modelo optimizado, proponemos el valor del disenso.
Nuestra propuesta es crear “juntas médicas digitales” formadas por diferentes sistemas de IA, incluyendo sus propias versiones anteriores, además de diseños y proveedores distintos. Con esta diversidad, un atacante podría adoctrinar maliciosamente uno de ellos, pero sería muy complejo repetir ese proceso en el resto.
El proceso de consulta pasaría por estas “juntas médicas digitales”. Por supuesto, dada la diversidad de sistemas de IA implicados, podrían existir discrepancias radicales en el resultado. Pero, si esto ocurre, no debe imponerse una falsa unanimidad. En su lugar, debemos asumir que no hay consenso y activar una alerta para su revisión humana.
La era de la inocencia tecnológica respecto a la IA ha concluido. No debemos aceptar “cajas negras” que asimilen una verdad impuesta. Si queremos que el aprendizaje automático sea un elemento positivo en nuestra sanidad, es imperativo entender sus limitaciones y subsanarlas con el rigor de nuestros procedimientos y conocimiento humano.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Source: The Conversation – (in Spanish) – By Ignacio Díaz Martínez, Personal docente e investigador. Ciencias de la Tierra y Física de la Materia Condensada, Universidad de Cantabria
Huellas de una manada de dinosaurios saurópodos en el yacimiento de Soto 2, Soto de Cameros, La Rioja. Ignacio Díaz Martínez
Imagine que puede observar a un animal que vivió hace 120 millones de años en pleno movimiento: corriendo, nadando o, incluso, cojeando. En lo que hoy es la comunidad autónoma de La Rioja (España), un antiguo ecosistema de llanuras y lagunas del Cretácico Inferior actuó como una “libreta de apuntes” natural. Allí, el barro húmedo registró el paso de miles de dinosaurios, creando uno de los yacimientos de icnitas (huellas fósiles) más importantes del mundo.
Estas marcas no son solo impresiones en la piedra: son fragmentos de biografías congeladas que permiten a los paleontólogos reconstruir la vida privada de estos gigantes y revelan comportamientos que los esqueletos estáticos de los museos no pueden mostrar.
Del hueso a la acción: la magia de la icnología
Si bien los huesos fósiles nos revelan la anatomía –el tamaño, la forma de las extremidades o la edad–, las huellas registran el comportamiento. La icnología, el estudio de estos rastros, permite reconstruir escenas dinámicas que los fósiles rara vez cuentan.
Una huella no siempre nos dice la especie exacta, pero sí qué grupo de animales pasó por allí, a qué velocidad lo hizo y sobre qué tipo de terreno. Mientras los huesos nos hablan de biología, las huellas nos informan sobre la etología (comportamiento) y la ecología (entorno). La Rioja es un escenario excepcional para este análisis: su ambiente de ríos y lagunas generó vastas superficies de lodo que hoy nos regalan más de 10 000 huellas en un centenar de yacimientos protegidos.
Carreras a 40 kilómetros por hora
Cuando un dinosaurio acelera, su zancada se alarga y la forma en que el pie golpea el suelo cambia. En los yacimientos riojanos encontramos rastros con zancadas largas y alineadas de dinosaurios terópodos (carnívoros).
Estos indicios, que analizamos en un estudio publicado este mes en Scientific Reports, sugieren la presencia de animales que cruzaban rápidamente planicies anegadas, quizá persiguiendo una presa o huyendo de un peligro. Los cálculos biomecánicos realizados a partir de estas pistas sugieren velocidades de unos 40 km/h. Estas marcas se encuentran entre las más rápidas del registro mundial de dinosaurios. Ello desafía la imagen de animales lentos y pesados que tuvimos durante décadas.
¿Sabían nadar los dinosaurios?
Además, en ciertos niveles geológicos de La Rioja, en lugar de pisadas completas, aparecen marcas alargadas de garras y trazos discontinuos, indicio que entronca con uno de los debates más vivos en la paleontología actual: la capacidad acuática de ciertos grupos, como los espinosáuridos.
Huellas de un dinosaurio nadador en el yacimiento de Virgen del Campo. Enciso, La Rioja. Ignacio Díaz Martínez.
Dichas marcas son “rasguños” en el fondo de antiguos cauces. Indican que el dinosaurio avanzaba con el cuerpo flotando parcialmente, impulsándose con la punta de los dedos en el sedimento. Este registro es clave para entender la plasticidad de estos animales y cómo aprovechaban los recursos hídricos de su entorno. Demuestra, así, que no estaban limitados exclusivamente a la tierra firme.
La huella de la enfermedad: cojeras y lesiones
Por otro lado, la asimetría en los pasos delata problemas de salud que ocurrieron hace millones de años. En los yacimientos riojanos, observamos pistas donde un pie deja una marca más profunda que su par, o donde un paso es sistemáticamente más corto que el siguiente.
Nos hallamos ante señales claras de un animal que repartía el peso de forma desigual, probablemente por una lesión ósea, fatiga muscular o una malformación física. Estas “huellas patológicas” retratan a individuos que sobrevivieron a traumatismos y que, a pesar del dolor, continuaron desplazándose por su hábitat.
Huellas de un dinosaurio herbívoro con cojera en el yacimiento de La Canal, Munilla, La Rioja. Ignacio Díaz Martínez.
Vida en sociedad: el comportamiento gregario
¿Eran los dinosaurios seres solitarios? Las pistas paralelas de diferentes tamaños que avanzan en la misma dirección y a la misma velocidad sugieren lo contrario. En La Rioja, vemos grupos de herbívoros (ornitópodos) donde adultos y juveniles caminaban juntos.
Dinosaurios ornitópodos: de izquierda a derecha camptosaurio, iguanodón, shantungosaurio, centre foreground, corythosaurio, tenontosaurio; y el más pequeño en el centro, driosaurio. Wikimedia Commons., CC BY
Por otro lado, los grandes saurópodos de cuello largo parecen haberse movido en grupos de individuos de talla similar. No fue un encuentro fortuito en una charca; fue un desplazamiento coordinado.
Estas evidencias refuerzan la idea de que muchas especies poseían estructuras sociales complejas para proteger a sus crías o para migrar de forma eficiente.
Huellas de una manada de pequeños dinosaurios desplazándose junto a las de un gran herbívoro en el yacimiento del Barranco de Valdebrajés, Cervera del Río Alhama, La Rioja. Ignacio Díaz Martínez.
El futuro: inteligencia artificial y modelos 3D
Hoy, la tecnología nos permite ir más allá de la observación a simple vista. Mediante la fotogrametría –técnica que analiza las dimensiones de un objeto a través de mediciones en una foto– y la digitalización 3D, analizamos con precisión milimétrica cómo se apoyaban los dinosaurios en cada fase del paso.
Incluso, estamos utilizando métodos de inteligencia artificial para descifrar yacimientos complejos afectados por la “dinoturbación”. Este fenómeno ocurre cuando el paso masivo de manadas enmascara o borra rastros previos, creando un caos de marcas. Los algoritmos de aprendizaje profundo, entrenados con el amplio registro riojano, asisten ahora a los investigadores para identificar icnitas individuales dentro de ese desorden y nos permiten “limpiar” digitalmente el yacimiento.
Fotografía de huellas de dinosaurio de tipo saurópodas (forma subcircular) y terópodas (tridáctilas) digitalizadas en 3D y falso color a partir del mapa de alturas en centímetros desde la altura relativa inferior y superior de la superficie de roca. Adrián Páramo Blazquez.
Proteger el eco del pasado
La Rioja no solo atesora estas huellas como un registro científico, sino como un legado cultural de primer orden. Estos yacimientos forman parte de la Reserva de la Biosfera de La Rioja, reconocida por la UNESCO, y están declarados Bienes de Interés Cultural (BIC).
Sin embargo, el mismo proceso geológico que las creó –la exposición a la naturaleza– puede borrarlas. La erosión es un enemigo silencioso. Por ello, la digitalización y la divulgación son esenciales para que la sociedad comprenda que, bajo el suelo que pisamos, aún late el eco del movimiento de hace 120 millones de años.
Estas “biografías congeladas” en el barro riojano son la prueba definitiva de que los dinosaurios no son solo huesos en un estante, sino seres vivos cuya dinámica y comportamiento aún estamos terminando de descubrir.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Fotograma del filme _Pequeñas cosas como esta_.Cortesía de Lionsgate
En octubre de 2026 se cumplirán 30 años del cierre de la última Lavandería de la Magdalena en Irlanda. Cuando Our Lady of Charity clausuró su actividad, allí aún quedaban 40 mujeres, mayoritariamente ancianas, que habían pasado gran parte de su vida confinadas contra su voluntad en esta institución de disciplinamiento. Muchas no tenían a dónde volver porque habían perdido todo contacto con sus familiares.
Ante este escabroso hecho histórico, la sociedad irlandesa tuvo que enfrentarse a varias preguntas de gran calado ético.
El contexto de las lavanderías
Junto con los Asilos para Madres y sus Bebés y otros centros de internamiento, las lavanderías conformaban la denominada “arquitectura de contención de la nación”. En ambos tipos de instituciones, alrededor de 30 000 niñas, adolescentes y mujeres adultas fueron forzadas a trabajar en condiciones de semiesclavitud, violencia física e intimidación psicológica. Además, las embarazadas –en muchos casos como resultado de violaciones o relaciones incestuosas no consentidas– daban a luz a bebés que luego se entregaban en adopción, de nuevo contra su voluntad.
Todo ello bajo el mandato de varias órdenes religiosas, encargadas por el Estado de gestionar la red de centros y garantizar el cumplimiento de los principios católicos y conservadores que la nación irlandesa había defendido a ultranza desde inicios del siglo XX. Siguiendo el modelo bíblico de la prostituta arrepentida, se esperaba que bajo un régimen de control y penitencia las magdalenas redimieran conductas “indecentes”, fundamentalmente relacionadas con la sexualidad fuera del matrimonio.
Como en episodios de institucionalización forzada en otros contextos internacionales, el entramado era complejo, interdependiente y se extendía por toda la isla. Su éxito dependía de la complicidad de todos los agentes implicados, que se regían por la estricta norma del silencio. La doble moral, la desigualdad de género y la injusticia eran evidentes, pero nadie se atrevía a hablar de ello y mucho menos a cuestionarlo.
En 1993 en el asilo de High Park (Dublín) se descubrió una fosa común con cadáveres de mujeres sin identificación ni partida de defunción. La población entró en shock. A medida que las investigaciones aportaban más detalles y las supervivientes del sistema se aventuraban a contar sus historias, Irlanda tuvo que asimilar lo que había estado años ignorando deliberadamente.
¿Cómo era posible que durante tanto tiempo la respetabilidad social de la familia hubiese prevalecido sobre la obligación “moral y legal” de velar por el bienestar de las chicas jóvenes? ¿Qué medidas debían tomarse para reparar tal desafección e indiferencia hacia el sufrimiento continuado de estas mujeres vulnerables?
Porque no era una realidad desconocida. Para las niñas irlandesas, sobre todo las más díscolas, la amenaza de ser internadas en una lavandería era constante, una mezcla explosiva entre “que viene el coco” y “cuidado con el hombre del saco”. Rara era la familia que no tuviese una hija, hermana, sobrina, vecina o conocida que fuese o hubiese sido magdalena. Muchos establecimientos y organismos oficiales se beneficiaban de sus servicios de lavandería gratuitos o a muy bajo coste.
En definitiva, de una forma u otra todo el mundo lo sabía, pero nadie hacía nada.
Del horror a la acción
Hay acontecimientos que marcan el pulso de una era, y en Irlanda la exhumación de High Park fue un verdadero revulsivo. La unión de distintas fuerzas en favor de las supervivientes fue abriendo el camino de la opinión pública y del gobierno irlandés.
En 2013 el primer ministro irlandés pronunció en sede parlamentaria una disculpa por la participación directa del Estado en la red de lavanderías. En 2018 unas 230 supervivientes fueron recibidas oficialmente en las respectivas residencias del presidente de Irlanda y el alcalde de Dublín. Los actos estaban cargados de significado, pero era necesario ir más allá de lo simbólico y acometer un programa reparativo de lo que había sido un incumplimiento sostenido de los derechos humanos fundamentales. No sin dificultades –legales y administrativas– y con cuentagotas, las ayudas han ido llegando. Sin embargo, a las supervivientes se les sigue negando el acceso a la información y los documentos que les permitan reencontrarse con sus hijos e hijas.
Monumento conmemorativo en un banco a las víctimas de las Lavanderías de la Magdalena en Dublín, en el que se lee: ‘A las mujeres que trabajaron en las instituciones de lavandería de Magdalena y a los hijos de algunos miembros de esas comunidades: reflexionen aquí sobre sus vidas’. Osama Shukir Muhammed Amin FRCP/Wikimedia Commons, CC BY-SA
Una nueva era
En 2013, Catherine Corless, historiadora local autodidacta, descubrió que el antiguo asilo para madres de Tuam, al oeste del país, contenía una fosa séptica con restos de casi 800 bebés no identificados. El hallazgo confirmó la magnitud de la trama detrás de la red de instituciones, y la grave desatención del Estado ante tales atropellos.
Afortunadamente, también reflejó que iniciativas modestas nacidas de un interés genuino por la comunidad cercana pueden despertar conciencias y contribuir al avance social a gran escala.
Esta misma dialéctica entre lo grande y lo pequeño subyace al relato que la aclamada escritora Claire Keegan cuenta en Cosas pequeñas como esas (2021). La obra demuestra que una novela corta, localizada en una pequeña ciudad de Irlanda, puede contener en pocas páginas una historia inmensa y con un alcance que trasciende de lo local a lo universal. El texto, que narra la reacción de un humilde comerciante de carbón ante el sufrimiento de una joven magdalena, fue finalista del prestigioso Premio Booker en 2022. Recientemente ha sido adaptado al cine, en un filme producido por Matt Damon y Ben Affleck y protagonizado por Cillian Murphy y Emily Watson, entre otros.
Como expresión literaria con trasfondo histórico, la narración del dilema al que se enfrenta el protagonista interpela al público lector a un nivel que anteriores obras sobre las lavanderías no habían llegado. Keegan lanza nuevos interrogantes sobre qué renuncias seríamos capaces de hacer y cuál es el verdadero sentido de la felicidad.
Sin moralizaciones ni sentimentalismos, pone el foco en los afectos, como la bondad y la empatía. Porque al final, los pequeños gestos cuentan, y mucho.
María Auxiliadora Pérez Vides no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By José Luis Sancha Gonzalo, Profesor del Máster Universitario en Sector Eléctrico. Experto en Sistema Energético Español, Universidad Pontificia Comillas
Con la liberalización, los pequeños consumidores (aquellos cuya potencia contratada no supera los 10 kW) pudieron elegir entre las ofertas de mercado libre de las distintas comercializadoras o una comercialización regulada a través de una Tarifa de Último Recurso (TUR), que imputaba los costes del servicio eléctrico a través de los términos fijo (potencia contratada) y variable (energía consumida) de la factura.
En abril de 2014, el Precio Voluntario para el Pequeño Consumidor (PVPC) sustituye a la tarifa de último recurso y el coste de la energía pasa a tomarse directamente de los precios, por franjas horarias, que marque el mercado eléctrico.
La última modificación de calado acaba de producirse el 1 de enero de 2026 y es la fase final del proceso de aplicación de la reforma en la metodología de cálculo del PVPC que se aprobó en abril de 2023.
Con esa reforma, el precio de la energía del mercado diario para los clientes PVPC pasó a ajustarse teniendo en cuenta el precio de los mercados organizados a plazos: anual, trimestral y mensual. En 2024, el primer año de aplicación, el precio de la luz dependía en un 25 % de los mercados a plazos y el 75 % restante del precio diario. Al año siguiente, en 2025, el porcentaje del primer concepto aumentó hasta el 40 %. A partir de este año, el precio se calcula con una ponderación de 55 % para los mercados a plazos y 45 % para el mercado diario. De este modo se busca depender menos de los vaivenes de este último y dar más estabilidad a los precios para los pequeños consumidores del mercado regulado.
Por su parte, los precios para quienes acuden al mercado libre de la energía se ajustan en los contratos y tarifas que las comercializadoras ofrecen a sus clientes.
La factura PVPC en 2026
La factura PVPC consta de seis términos y su importe es la suma de:
El término fijo, que consta de tres componentes: el coste de la potencia contratada (la cantidad de kilovatios que se puede consumir en un momento concreto) en horario de alta demanda (0,0759 €/kW día) y de baja demanda (0,0020 €/kW día), y el coste de comercialización (compra de energía, facturación, atención al cliente), cuyo precio regulado es 0,0086 €/kW día.
El término variable: se calcula por franjas horarias y es el producto de multiplicar la energía consumida a una determinada hora por el precio de la energía en esa misma hora. El precio se determina ponderando el precio de la electricidad en el mercado que se celebra cada 15 minutos (45 %) y los precios de los mercados a plazos (55 %). Dentro de estos últimos, el peso del mercado anual es del 54 %, el del trimestral del 36 % y el mensual del 10 %. Además, el precio de la energía incorpora los costes de operación del sistema y la parte variable de los peajes y cargos.
El impuesto eléctrico: es del 5,11 % y se aplica a los tres términos previos (término fijo, término variable y la financiación del bono social).
Alquiler del contador eléctrico (0,0266 €/día).
El IVA (21 %), que se aplica a la suma de los cinco términos anteriores (término fijo, término variable, financiación del bono social, impuesto eléctrico, alquiler del contador).
En el caso de autoconsumo, aparece un término adicional que refleja la compensación económica por la energía excedentaria vertida a la red (energía vertida X el precio regulado horario).
Importancia de los términos
Los términos más importantes de la factura son los dos primeros (el fijo y el variable). Además, son los de mayor cuantía y los únicos que pueden ser gestionados por el consumidor. En 2025, el término de potencia (fijo) supuso el 20 % y el de energía (variable) el 56 % de la factura del consumidor medio PVPC (4 kW de potencia contratada y 200 kWh de consumo mensual).
Contratar la potencia punta que realmente se necesita puede suponer un ahorro importante en el gasto eléctrico anual.
Las facturas incluyen un gráfico con la potencia punta realmente utilizada en el último año. Este dato debe servir de guía para contratar la potencia adecuada. El cambio de potencia (que tiene un coste para los clientes eléctricos) se puede hacer en escalones de 0,1 kW.
Gasto eficiente de la energía eléctrica
Aprovechar la diferencia horaria del precio de la energía para trasladar, en la medida de lo posible, consumos de horas caras a horas más baratas dentro del día o de la semana es una buena manera de optimizar el gasto en electricidad.
En el día, la influencia de la generación fotovoltaica hace que las horas más baratas sean las comprendidas entre las 15.00 y las 18.00 horas, mientras que entre las 04.00 y las 06.00 son horas valle. Las horas más caras son las comprendidas entre las 19.00 y las 22.00 horas (horas punta domésticas).
Dentro de la semana, todas las horas de los sábados, domingos y festivos son valle y tienen precios inferiores a los de los días laborables.
En 2025, en el 20 % de los días la diferencia de precio entre la hora más cara y la más barata fue 20,62 €/kWh, un valor muy sustancial.
Un cliente informado
Es útil recordar que el consumidor PVPC puede conocer cada día el precio horario de la energía de la jornada siguiente utilizando plataformas como e·sios de Red Eléctrica (REE), o cualquier aplicación específica.
Finalmente es aconsejable revisar periódicamente el comparador de facturas de la CNMC, que establece un ranking ordenado con las ofertas de todas las comercializadoras eléctricas de precio libre y PVPC.
José Luis Sancha Gonzalo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By Antonio Figueras Huerta, Profesor de investigación del Consejo Superior de Investigaciones Científicas, Instituto de Investigaciones Marinas (IIM-CSIC)
En el siglo IV a.C., Aristóteles realizó las primeras observaciones científicas detalladas sobre mejillones mediterráneos en su Historia Animalium (Historia de los animales).
El filósofo griego los denominó μύες (myes) y describió con una precisión sorprendente una estructura que milenios después la ciencia identificaría como proteica: el biso, un conjunto de filamentos proteicos que segregan ciertos moluscos bivalvos para adherirse al sustrato y que históricamente se obtuvo de la nacra (Pinna nobilis) para producir tejidos conocidos como seda marina. En el pasaje IV, 5, 528b, escribió: «οἱ δὲ μύες προσπέφυκασι ταῖς πέτραις καὶ ἐκ τῶν μορίων ἔξω τινα ἔχουσιν, ἐξ ὧν ἀφίενται τὸν ἰσχὺν ὅσον προσκεῖσθαι ταῖς πέτραις». Es decir: «Los mejillones están adheridos a las rocas y poseen una parte del cuerpo que sobresale, de la cual producen un hilo con el que se aferran firmemente a ellas».
La precisión de Aristóteles al describir el biso, confirmada dos mil años después por investigaciones contemporáneas sobre proteínas adhesivas, demuestra que la observación rigurosa puede trascender las limitaciones tecnológicas de su época.
En la misma obra, también identificó correctamente que los mejillones se alimentan filtrando el agua, una observación que anticipa el concepto moderno de organismos filtradores marinos.
Bivalvos en la literatura clásica
Muchas de las categorías establecidas por Aristóteles coinciden notablemente con las clasificaciones actuales. Los μύες (myes) eran mejillones, que en el Mediterráneo son de la especie Mytilus galloprovincialis y forman densos bancos en áreas rocosas intermareales.
Roca cubierta de mejillones mediterráneos en la costa de Portugal. Wikimedia Commons., CC BY
Las ὄστρεα (ostreae) eran las ostras, incluida Ostrea edulis, especie nativa europea consumida tanto por griegos como por romanos. Aunque Aristóteles las situó principalmente “en el fondo”, esta especie se adhiere con frecuencia a sustratos duros, formando arrecifes.
Las πίνναι (pinnai) correspondían a la imponente Pinna nobilis o nacra, el bivalvo más grande del Mediterráneo, capaz de alcanzar hasta 120 cm. Muy apreciada en la antigüedad, esta especie se encuentra hoy en peligro de extinción debido al parásito protozoo Haplosporidium pinnae, que desde 2016 ha devastado sus poblaciones.
Las τελλίναι (tellinai) incluían almejas y berberechos como Ruditapes decussatus, un bivalvo infaunal que vive enterrado en sedimentos arenosos. Las κτείς (kteis) eran las vieiras, entre ellas Pecten jacobaeus. Precisamente, Aristófanes (ca. 446-386 a. C.) menciona este tipo de productos del mar en su comedia Los Caballeros, donde aparecen como manjares vendidos en el ágora ateniense.
Plinio el Viejo describió en su Naturalis Historia (s. I) la capacidad natatoria de las vieiras, un comportamiento confirmado por estudios modernos que han demostrado que los pectínidos nadan expulsando agua al cerrar rápidamente sus valvas.
Las καρδία (kardia) eran berberechos del género Acanthocardia, llamados así por su forma de corazón, y aparecen indirectamente en fragmentos de comedias griegas. Las σωλήν (solen) correspondían a las navajas como Solen marginatus, cuyo comportamiento excavador Aristóteles describió correctamente en su Historia Animalium.
Finalmente, las φωλάδες (pholades) eran dátiles de mar (Lithophaga lithophaga), moluscos perforadores de roca caliza. Su explotación fue tal que hoy están protegidos en el Mediterráneo por la Directiva de Hábitats.
Los textos antiguos contienen observaciones sorprendentes sobre la ecología marina, desde referencias a la necesidad de aguas limpias hasta la importancia de la oxigenación del agua.
Estas intuiciones coinciden con el conocimiento moderno: los mejillones del género Mytilusreducen su tasa metabólica cuando las concentraciones de oxígeno disuelto caen por debajo de 5-6 mg/L de oxígeno disuelto para mantener su metabolismo normal, y la agitación del agua garantiza tanto esa oxigenación como el aporte de fitoplancton, su principal alimento. Actualmente, los mejillones son bioindicadores reconocidos de la contaminación y se utilizan en programas internacionales de biomonitoreo, como el Mussel Watch Program.
Moluscos en la mesa
La gastronomía también desempeñó un papel central. Ateneo de Náucratis (s. II) recogió en su obra Deipnosophistae las tradiciones culinarias de toda Grecia, incluyendo referencias a la estacionalidad de los mariscos.
Los textos antiguos señalan que los mejillones eran de mejor calidad antes del verano, lo cual coincide con el ciclo reproductivo de Mytilus galloprovincialis, que presenta dos períodos de desove principales: primavera (marzo-mayo) y otoño (septiembre-octubre). Antes del desove primaveral, los mejillones acumulan reservas de glucógeno que aportan dulzor y firmeza, mientras que, tras el desove, la carne se vuelve más acuosa y menos sabrosa.
Los mejillones ya eran un plato muy apreciado en la antigua Grecia. Wikimedia Commons., CC BY
Por su parte, Arquéstrato de Gela (s. IV a. C.), el primer gastrónomo occidental, estableció en su obra Hedypatheia jerarquías geográficas de calidad para distintos mariscos, recomendando mejillones de Abdera y Mitilene y ostras del Helesponto –hoy Dardanelos–. Estas diferencias culinarias reflejan gradientes reales de salinidad, temperatura y productividad.
Los bivalvos formaban parte de la dieta cotidiana en la Grecia clásica. Ostras y almejas se consumían crudas con vinagre, aceite y hierbas aromáticas, mientras que los mejillones se cocinaban con frecuencia y podían acompañarse de garum, la popular salsa de pescado fermentado griega.
Vieiras y ostras también se asaban directamente sobre las brasas. A estos mariscos se les atribuían propiedades afrodisíacas, vinculadas a Afrodita y a la fertilidad marina.
A la lonja en ánforas
El comercio de bivalvos está documentado arqueológicamente. Ánforas con sellos comerciales y restos de mercados de pescado en Atenas y otras ciudades costeras evidencian un consumo amplio. Depósitos domésticos de conchas, incluso en viviendas no aristocráticas, confirman su presencia generalizada. En la época romana, las ostras podían conservarse en salmuera para facilitar su transporte, como documentaron Plinio y Columela.
Los romanos llevaron la relación con los bivalvos más lejos mediante el desarrollo de técnicas de ostricultura en el siglo I a.C. Plinio atribuye a Sergius Orata (s. I a. C.) la innovación de los primeros criaderos de ostras en el lago Lucrino, en la Campania, alrededor del 95 a.C. Estas técnicas son las precursoras de los métodos modernos de cultivo suspendido. No existe evidencia directa de acuicultura en Grecia.
Aunque no pertenecen a los bivalvos, los múrices merecen mención por su papel en la economía antigua. Estos gasterópodos eran la fuente de la púrpura de Tiro, el tinte más valioso del Mediterráneo. Se necesitaban entre 10 000 y 12 000 individuos para obtener apenas un gramo de pigmento, lo que convirtió la púrpura en un símbolo de poder imperial. La industria está documentada en Creta desde el II milenio a. C., lo que sugiere posibles orígenes minoicos.
La concha representaba el nacimiento y la renovación, la belleza oculta y la fertilidad, un simbolismo que se mantuvo durante siglos.
El nacimiento de Venus (1482-1485), óleo sobre lienzo. Sandro Botticelli.
Además, los bivalvos también tuvieron usos medicinales. Galeno (129-216) prescribía remedios que incluían polvo de concha de ostra y Dioscórides (40-90) menciona preparaciones similares en su obra De Materia Medica. Estas prácticas tenían una base empírica: las conchas están compuestas mayoritariamente por carbonato cálcico, una fuente eficaz de calcio.
… hasta nuestros días
Hoy, los bivalvos siguen siendo objeto de investigación y constituyen recursos económicos importantes. La producción mundial de mejillones supera los 2,2 millones de toneladas anuales, con China como principal productor y España como líder europeo, gracias a las Rías Gallegas.
Este patrimonio biológico se ve amenazado por muchas actividades humanas. Pinna nobilis está al borde de la extinción y Ostrea edulis ha sufrido declives superiores al 85 % desde el siglo XIX debido a la sobreexplotación, las enfermedades y la degradación del hábitat. El cambio climático y la acidificación oceánica afectan la calcificación de sus conchas, al reducir la disponibilidad de iones carbonato.
Las observaciones antiguas sobre la importancia de las aguas limpias adquieren hoy nueva relevancia en un Mediterráneo amenazado por la contaminación, la eutrofización y la sobrepesca. La herencia intelectual de los naturalistas griegos sigue vigente: comprender el mar con rigor, cuestionar con humildad y reconocer que hasta los habitantes más humildes del océano merecen estudio, respeto y protección.
Antonio Figueras Huerta no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Pirámide de Ball, en las islas Lord Howe, una de las pocas tierras emergidas de Zelandia, aparte de Nueva Zelanda.Wikimedia Commons., CC BY
Hace 80 millones de años, cuando los dinosaurios dominaban la Tierra, una masa continental equivalente a la mitad de Estados Unidos (o algo superior a toda la extensión de la Unión Europea) se separó de Australia y de la Antártida y permaneció separada del resto de continentes durante tantos millones de años que su flora y fauna evolucionaron de manera independiente, con miles de especies endémicas.
Así nació Zelandia, un continente de 4,9 millones de kilómetros cuadrados, protagonista de una larga historia de separación, rotación, elevación y hundimiento, hasta alcanzar su posición actual.
En la actualidad, se encuentra sumergida a miles de metros de profundidad en el océano Pacífico, y solo aflora por encima de las aguas un 6 % de su superficie, que corresponde a sus montañas más altas: las islas de Nueva Zelanda y Nueva Caledonia.
Una región crítica para los estudios climáticos
La historia climática de un continente queda grabada en sus rocas pero, en el caso de Zelandia, solo podemos ver las de sus montañas más altas, que asoman por encima del nivel del mar. El resto del continente está sumergido; por eso, para conseguir muestras de los fondos oceánicos, se necesitan tecnología y muchos recursos. Este es uno de los motivos por los que fue un continente prácticamente desconocido durante décadas.
Además, se trata de una región crítica donde los modelos climáticos presentan deficiencias en sus predicciones. Si no son capaces de reproducir el clima del pasado, que conocemos a través de estudios geológicos, ¿cómo van a predecir el clima del futuro?
El estudio del clima pretérito fue uno de los principales objetivos de una expedición internacional que exploró Zelandia en 2017.
Núcleos de sondeo extraídos del fondo oceánico durante la Expedición 371 (Integrated Ocean Discovery Program) a Zelandia. Laia Alegret
En ella, se perforó el fondo marino con cilindros huecos para extraer rocas a miles de metros de profundidad. Un material de valor incalculable, que está siendo estudiado por equipos científicos internacionales.
Las muestras recuperadas han permitido reconstruir la historia del continente desde que se separó de Australia y la Antártida hace 80 millones de años. Ahora sabemos que hubo momentos en los que Zelandia emergió de las aguas y hubo tierra firme, cubierta por vegetación. Y otros en los que se hundió a miles de metros de profundidad.
Como si fuera una montaña rusa, estos grandes movimientos verticales se han relacionado con la tectónica de placas. Las mismas fuerzas modelaron el anillo de fuego del Pacífico, sobre el que se sitúa Zelandia. Se trata de la zona del planeta con más volcanes y terremotos, y han afectado al clima global a largo plazo.
Las muestras de Zelandia siguen aportando, además, una gran cantidad de datos sobre el clima del pasado que permitirán mejorar los modelos climáticos.
Bibliotecas rocosas bajo el agua
Las rocas extraídas de los fondos oceánicos son una biblioteca de la historia climática de Zelandia a lo largo de millones de años: el clima existente en un momento concreto se puede deducir a partir del tipo de sedimento, su estructura, su composición y los fósiles que contiene.
Los isótopos de algunos elementos que forman las rocas y los fósiles, como el oxígeno, el carbono o el neodimio, también dan información sobre aspectos relacionados con el clima. Así se puede deducir, por ejemplo, la temperatura de las aguas, la productividad biológica o las corrientes oceánicas.
Finalmente, los cambios climáticos se estudian analizando los estratos que se han ido depositando de manera sucesiva a lo largo del tiempo. Además de transformaciones graduales, en Zelandia se observan varios ejemplos de calentamiento que se consideran rápidos desde el punto de vista geológico. Estos cambios más bruscos dejan huella, por ejemplo, en el tipo de sedimento que se deposita en los fondos marinos y también provocan cambios en los ecosistemas marinos.
La importancia científica de Zelandia
La investigación de Zelandia ha revelado que hace entre 41 y 53 millones de años, durante el Eoceno, se produjeron varios eventos de calentamiento de distinta rapidez y magnitud. La respuesta de los ecosistemas marinos fue diferente, en función del aumento de la temperatura. Estos datos permiten mejorar los modelos y predecir las consecuencias de los distintos escenarios de cambio climático previstos para un futuro cercano.
El calentamiento observado hace 52 millones de años resulta especialmente interesante porque revela cambios inesperados en las corrientes oceánicas. Por ejemplo, la llegada de una nueva masa de agua profunda erosionó los fondos oceánicos y favoreció a organismos marinos que se benefician de corrientes intensas. Así, la composición química de fósiles de peces revela que esta nueva masa de agua profunda se originó cerca de la Antártida.
Se trata de un hecho difícil de explicar en un “planeta invernadero”, sin hielo permanente, porque las aguas necesitan enfriarse en la superficie para volverse lo suficientemente densas como para hundirse. Este descubrimiento desafía nuestra comprensión de la circulación oceánica en un mundo invernadero, hacia el que nos dirigimos en la actualidad.
Entender estos mecanismos del pasado es crucial para anticipar y mitigar los efectos del cambio climático futuro, ya que el océano juega un papel fundamental en la distribución del calor en nuestro planeta.
La investigación de este continente hundido en el Pacífico abre nuevos interrogantes sobre cómo funcionaban los océanos en un mundo más cálido y nos invita a reconsiderar nuestros modelos climáticos actuales.
Laia Alegret recibe fondos de MICIU/AEI /10.13039/501100011033 y FEDER, UE (proyectos PID2023-149894OB-I00, PID2019-
105537RB-I00 y CGL2017-84693-R). Su participación en la Expedición International Ocean Discovery Program 371 y la investigación relacionada fueron también financiadas por ECORD (European Consortium for Ocean Research Drilling), y por una una Beca Leonardo a Investigadores y Creadores Culturales 2017, Fundación BBVA. Esta investigación utiliza muestras proporcionadas por International Ocean Discovery Program.
Laia Alegret es Académica Numeraria de la Real Academia de Ciencias Exactas, Físicas y Naturales de España.
Gabriela J. Arreguín-Rodríguez recibe fondos del proyecto de I+D+i PID2023-149894OB-I00, financiado por MICIU/AEI/10.13039/501100011033/ y FEDER/UE.
Guido Ernesto Mantilla Lucero recibe fondos del proyecto de I+D+i PID2023-149894OB-I00, financiado por MICIU/AEI/10.13039/501100011033/ y FEDER/UE bajo el contrato de Formación de Personal Investigador (FPI) PRE2024-UZ-01
Irene Peñalver Clavel recibe fondos del proyecto de I+D+i PID2023-149894OB-I00, financiado por MICIU/AEI/10.13039/501100011033/ y FEDER/UE bajo el contrato de Formación de Personal Investigador (FPI) PRE2020-092638.
Martina Caratelli recibe fondos del proyecto de I+D+i PID2023-149894OB-I00, financiado por MICIU/AEI/10.13039/501100011033/ y FEDER/UE; y ayuda Juan de la Cierva JDC2023-051289-I financiada por MICIU/AEI /10.13039/501100011033 y por el FSE+
El 17 de enero entró en vigor un acuerdo internacional que afecta a más de la mitad del planeta: el Tratado de Alta Mar, conocido también como el Acuerdo sobre la Biodiversidad más allá de la Jurisdicción Nacional. El manuscrito intenta regular quién puede pescar, los trayectos de los grandes buques, el tipo de proyectos que se pueden hacer en el océano profundo y quién se beneficia de los recursos marinos del futuro.
Territorio de nadie y de todos
La alta mar empieza más allá de las 200 millas náuticas de cada país, es decir, a 370,4 kilómetros de la costa. Ocupa alrededor del 64 % de la superficie oceánica, lo que la convierte en la mayor “zona sin dueño” de la Tierra. Cada año la cruzan decenas de miles de buques mercantes y militares. Solo la ruta Asia–Europa mueve millones de contenedores atravesando durante semanas aguas que no pertenecen a ningún Estado. Y buena parte de la pesca industrial a gran escala se hace también allí, lejos de cualquier costa y con un control muy limitado.
Durante décadas, la tecnología aplicada al mar ha corrido más rápido que las normas. Los barcos son hoy auténticas fábricas flotantes. Los arrastreros congelan y procesan el pescado a bordo. Algunos buques portacontenedores miden más de 400 metros y transportan más de 20 000 contenedores en un solo viaje. Y los científicos trabajan con robots a seis mil metros de profundidad. Pero las reglas para proteger esos espacios seguían siendo débiles y fragmentarias.
El Tratado de Alta Mar nace para cambiar eso. No crea un gobierno mundial del océano, pero sí un marco común para conservar y usar de forma sostenible los ecosistemas marinos fuera de las aguas nacionales. La medida más visible es la posibilidad de crear áreas marinas protegidas en alta mar. Hasta ahora, más del 90 % de las áreas protegidas estaban dentro de aguas nacionales y cada país protegía la suya propia. En alta mar apenas había ejemplos, porque nadie tenía autoridad clara para decidir.
Con el nuevo tratado, los países pueden proponer zonas basándose en criterios científicos. Si se aprueban, se fijarán normas de uso, lo que puede afectar a rutas marítimas, a la pesca o a actividades industriales. El objetivo político es proteger el 30 % del océano antes de 2030. Hoy, menos del 8 % del océano está protegido de alguna forma, y solo una pequeña parte de esa protección es realmente estricta.
Pongamos un ejemplo con una ruta típica entre Shanghái y Rotterdam, caracterizada por una travesía de más de 10 000 millas náuticas (18 520 kilómetros), la mayor parte de ella en alta mar. Si un tramo de ese trayecto atraviesa en el futuro una zona protegida sensible, la naviera podría tener que modificar ligeramente la ruta, reducir velocidad o demostrar que su paso no daña un ecosistema concreto. No es un cambio dramático, pero sí una nueva variable en la planificación, junto al combustible, el tiempo y los costes.
Como novedad, el tratado introduce la evaluación de impacto ambiental en alta mar. Hasta ahora, un proyecto podía ejecutarse en aguas internacionales con requisitos ambientales muy desiguales. Pero con el nuevo marco, cualquier actividad que pueda tener efectos significativos deberá estudiarse antes.
Un buen ejemplo de lo que supone este nuevo requisito se evidencia con los tendidos de los cables submarinos. Hoy existen más de 500 cables que cruzan los océanos y transportan más del 95 % del tráfico mundial de datos. Muchos pasan por zonas profundas poco estudiadas. Con el tratado, antes de colocar un nuevo cable habrá que analizar su impacto sobre fondos marinos, especies sensibles o áreas ecológicas relevantes y justificar las decisiones técnicas.
Lo mismo ocurrirá con campañas pesqueras intensivas o con investigaciones que alteren físicamente el entorno. Ya no bastará con que algo sea posible. Habrá que demostrar que se han considerado alternativas y que los daños se reducen al mínimo.
Este aspecto es de gran relevancia porque está directamente relacionado con los recursos genéticos marinos, de lo que existe muy poco conocimiento.
En el océano existen bacterias de fuentes hidrotermales, algas o organismos de profundidad con propiedades únicas. Algunos compuestos ya se usan en medicamentos contra el cáncer o en cosméticos. Una sola molécula descubierta en el mar puede generar millones de euros.
Hasta ahora, quienes tenía capacidad tecnológica para encontrar esos organismos podía explotarlos casi sin restricciones. Pero el tratado introduce la idea de reparto de beneficios: si esos recursos generan valor comercial, parte de los beneficios deberá compartirse, especialmente con países que no tienen medios para explorar el océano por sí mismos. Eso no frena la investigación, pero sí obliga a documentar mejor el origen de los datos y las muestras.
El tratado también apuesta por la transferencia de tecnología. Vigilar la alta mar no es barato: hacen faltan satélite, sensores, drones, buques patrulla y análisis masivo de datos. En la actualidad, pocos países concentran esa capacidad.
El fin del nuevo acuerdo es que, con cooperación y formación, más Estados puedan participar en la vigilancia y protección del océano, lo que tendrá un impacto directo sobre el transporte marítimo. El 90 % del comercio mundial se mueve por mar, por donde cada día navegan más de 50 000 buques mercantes. La alta mar es su gran autopista.
El tratado no quiere bloquearla, pero sí hacerla compatible con la protección ambiental. ¿Por qué? A medio plazo, algunas rutas podrían atravesar zonas protegidas con normas especiales, obligando a integrar criterios ambientales en la planificación de trayectos, en la velocidad, en el consumo y en las decisiones operativas. También aumentará la importancia de demostrar cumplimiento: no bastará con declarar que se cumplen las normas.
¿Hay algo que quede exento de regulación con el tratado? Sí: la minería de los fondos marinos, que seguirá siendo competencia de la Autoridad Internacional de los Fondos Marinos (ISA). Sin embargo, las evaluaciones de impacto y las áreas protegidas pueden limitar dónde y cómo se podrán hacer esas explotaciones. El mensaje implícito es que ya no todo vale en cualquier parte del océano.
Tras su entrada en vigor, ahora se deben crear órganos de gobierno, comités científicos y sistemas de control. La eficacia dependerá de si se destinan recursos reales a vigilar y hacer cumplir las normas. Sin barcos, satélites y datos, las reglas no trascenderán del papel.
No obstante, con este acuerdo histórico, la alta mar deja de ser el “Lejano Oeste” del planeta. No pasa a tener dueño, pero sí reglas claras para asegurarnos de que el océano sigue existiendo tal y como lo conocemos. Aunque el asunto parece ajeno a nuestro día a día, afecta a lo que comemos, a lo que compramos y a cómo se mueve el mundo. Más de la mitad de la Tierra empieza a tener normas pensadas para durar, no para agotarse. Y eso, aunque ocurra lejos de la costa, nos toca mucho más de cerca de lo que creemos.
Paula Lamo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Salón de plenos de la Real Academia Española.RAE, CC BY-NC-ND
El Diccionario de la lengua española es la obra insignia de la Real Academia Española. En 2026 verá la luz su 24.ª edición, coincidiendo con el 300 aniversario del Diccionario de autoridades, el primer diccionario académico, publicado entre 1726 y 1739 y precursor del actual.
Sin embargo, entre 2017 y 2025 se realizaron varias modificaciones en la vigesimotercera edición: enmiendas, adiciones de palabras y acepciones, además de algunas supresiones. Entonces, ¿qué diferencia hay entre las actualizaciones y una nueva edición?
Cómo se actualiza la 23.ª edición (en línea)
Una nueva edición de un diccionario general de lengua, como es el caso del diccionario académico (o DLE), implica una revisión profunda de lo que se conoce como macroestructura –la lista de palabras que se definen– y la microestructura –la información que se proporciona de una determinada palabra–. Podría decirse que la obra se revisa de arriba a abajo y de izquierda a derecha. En el caso de la RAE, este trabajo suele ocupar no menos de ocho o diez años.
Gracias a los avances tecnológicos y, en particular, el desarrollo de la informática e internet, es posible actualizar parcialmente los diccionarios. Es lo que hacen, por ejemplo, el Oxford English Dictionary, gestionado en Reino Unido, o el Merriam-Webster, editado en Estados Unidos.
La RAE, con el apoyo de la Asociación de Academias de la Lengua Española –que integra todas las academias que estudian y regulan el uso del español en distintos países hispanohablantes–, empezó a realizar estas actualizaciones en 2017. Desde entonces, entre noviembre y diciembre se han dado a conocer algunos de los principales cambios realizados sobre las versiones en línea del DLE, tanto en web como en aplicación para teléfonos inteligentes y tabletas.
Estos cambios afectan a las palabras (se añaden o se eliminan), las acepciones (aumentan o disminuyen) y las formas complejas, que es el nombre técnico que reciben estructuras del tipo mano izquierda o con la mano en el corazón, que encontraríamos en la entrada mano¹. Todas estas informaciones se amplían –lo que se conoce como adición–, modifican, –denominado en lexicografía como enmienda– o suprimen.
La mayor parte de las adiciones responde a nuevas realidades en la sociedad que se reflejan en el lenguaje y, en particular, en el léxico. Un caso claro es el de la tecnología, pues desde 2017 se han añadido al DLE palabras como clic, mensajear, videollamada, bitcóin, vapeador, cookie o gif, entre otras.
Todos los cambios que se producen en la obra académica están respaldados por datos lingüísticos de diversa procedencia. La documentación de una palabra o un uso concreto se analiza y estudia desde el punto de vista lexicográfico. Esto se hace no solo para describir su utilización, sino también para integrarla en la obra. Hay palabras que en un determinado sentido coinciden con otras, de manera que garantizar la coherencia es fundamental y, a la vez, complejo en una obra que contiene aproximadamente 95 000 entradas y cerca de 200 000 acepciones.
Cambios y novedades: hacia la 24.ª edición
Ese es el estado actual de la 23.ª edición, que se publicó en soporte físico y digital en 2014. Doce años después, la RAE y la ASALE publicarán la 24.ª edición en formato digital, si bien es posible que, con la demanda suficiente, se publique también en papel. Esto quiere decir que, a diferencia de la metodología tradicional, en la que se digitalizaba la obra física terminada, esta edición nace a partir de una base de datos y una estructura electrónica que se visualiza en una página web o en una aplicación. La razón de este cambio viene dada por la tendencia de los usuarios a consultar las versiones electrónicas de los diccionarios.
Portada de la última edición publicada del Diccionario de la Lengua Española. RAE, CC BY-NC-ND
Sin embargo, no solo en el plano técnico hay avances; también en el ámbito lexicográfico habrá cambios significativos. En lexicografía se emplean una serie de marcas para diferenciar palabras de distintos ámbitos, por ejemplo, la zona geográfica. Este tipo de marcas se denominan diatópicas.
Hasta ahora, en el DLE había una distinción entre aquellas palabras propias de los países hispanohablantes y aquellas características de España. En concreto, las primeras se marcaban con una abreviatura del país –Méx. por México, P. Rico por Puerto Rico o Am. para señalar que se usa en general en los países americanos–. Las palabras propias de España recibían marcas concretas por la comunidad autónoma, como And. por Andalucía, Sal. por Salamanca o Can. por Canarias, mientras que la marca Esp. indica que es un sentido general de España.
Esta distinción, fuertemente criticada durante décadas, es una herencia de la tradición en el trabajo lexicográfico de la Academia, que se remonta al siglo XVIII. Desde entonces han existido marcas específicas de regiones de España porque los primeros académicos eran todos españoles y los diccionarios de la RAE de este periodo se centraban en el español de España. No fue hasta el siglo XIX cuando empezó a estudiarse el léxico de los países americanos y las palabras se marcaron consecuentemente.
Banderas de los países hispanohablantes que integran la Asociación de Academias de la Lengua Española. ASALE
La próxima edición acabará con esta diferenciación por regiones españolas. La anterior directora del DLE, Paz Battaner, señaló que se revisará la marcación diatópica “como reflejo del espíritu de esta nueva edición: […] se garantizará un tratamiento en pie de igualdad de las palabras usadas en un país o en varios”. En este sentido, la incorporación de la lexicógrafa Dolores Corbella Díaz como académica en el año 2023 responde a la intención de la RAE de prestar más atención al léxico diferencial americano.
La Real Academia Española se fundó en 1713 con el objetivo fundamental de estudiar la lengua en todas sus dimensiones. Desde aquel Diccionario de autoridades han transcurrido tres siglos de avances metodológicos y tecnológicos. La 24.ª edición del Diccionario de la lengua española apunta a ser un hito para la lexicografía hispánica que redundará en el beneficio de todos los que hablamos la lengua española.
Iván Ramírez Sánchez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By Pino Caballero Gil, Catedrática de Universidad en Ciencias de la Computación e Inteligencia Artificial, Universidad de La Laguna
Donde hay petróleo, suele haber contaminación. También ocurre con lo que el matemático Clive Humby llamó el “nuevo petróleo”: los datos digitales.
El término inteligencia artificial (IA) actúa como un paraguas semántico que, intencionadamente, antropomorfiza la estadística para otorgarle una falsa cualidad orgánica. No estamos tratando con mentes digitales, sino con sistemas de probabilidad. Son matemáticas, no biología. Esa noción ambigua, en manos corporativas, diluye la responsabilidad, permitiendo a las empresas tecnológicas apropiarse del trabajo e información ajenos bajo la excusa de un progreso inevitable.
Al humanizar el software, olvidamos que los modelos de IA no aprenden ni crean. Simplemente ejercen una mímica probabilística de lo que ya hemos dicho nosotros. Además, al igual que una fábrica que vierte residuos, estos sistemas, al operar sin ética ni curaduría, están empezando a saturar su propio entorno con desechos digitales.
Esta foto real de un flamenco en el desierto de Aruba (2024) fue el tercer puesto y el voto popular en el apartado de IA de los 1849 Awards siendo luego descalificada al revelarse que no fue generada por IA. Miles Astray.
Fotocopias de fotocopias
El problema de tratar los datos como un recurso infinito es que ignoramos la contaminación, y no solo en el ecosistema analógico. Los modelos generativos actuales están inundando la red de spam sintético. Esto genera un bucle de retroalimentación negativo: los nuevos modelos se entrenan con textos e imágenes generados por modelos anteriores.
Es como hacer una fotocopia de una fotocopia mil veces. La señal original se pierde. Se llega, así, a lo que se llama colapso del modelo. La maquinaria extractivista es defectuosa por diseño al priorizar la cantidad sobre la calidad y el contexto, destruye el mismo recurso que necesita para funcionar.
Movimiento neo-ludita
Ser ludita nunca significó odiar la tecnología, sino exigir que las máquinas no degradaran la calidad de vida de quienes las operaban. Hoy, esa idea resurge no como una resistencia organizada, sino como una respuesta lógica ante la automatización depredadora.
No debemos temer a una supuesta “superinteligencia” de ciencia ficción que nos domine. El peligro real no es la consciencia de la máquina, sino la concentración de poder de quienes manejan el interruptor.
Ante esto, surgen iniciativas como Nightshade o Glaze, que proponen una defensa técnica de los artistas frente al uso no autorizado de sus obras por parte de modelos de IA generativa.
La idea consiste en aplicar técnicas de esteganografía –ocultación de un mensaje dentro de otro– y de ataques adversarios –entrada al modelo que, de manera intencional, ha sido ligeramente modificada y que es capaz hacer que este modelo genere una salida incorrecta–.
Esto permite que, a ojos humanos, la imagen protegida es idéntica a la original. Sin embargo, a nivel de píxeles, incluye perturbaciones numéricas que impiden su uso por herramientas de IA. Esas alteraciones atacan directamente la fase de entrenamiento en la que el modelo de IA aprende del conjunto de datos. Modifican la forma en que la red neuronal extrae las características de la imagen.
Al “envenenar” la matriz de aprendizaje, se fuerza al modelo a realizar asociaciones erróneas (por ejemplo, asociar la imagen de un perro al concepto de un gato). Esta estrategia constituye un sabotaje a la fiabilidad estadística del sistema, demostrando que, sin datos limpios y consentidos, la maquinaria se vuelve inútil.
¿Se puede entrenar un modelo de manera ética?
La respuesta es sí. La ética no es un freno al avance tecnológico, sino la única garantía de su sostenibilidad a largo plazo. Primero, hay que diferenciar los términos. No es lo mismo “pesos abiertos” (Open Weights) que “código abierto” (Open Source). Liberar los pesos de la red neuronal entrenada es como regalar un pastel ya horneado, pero ocultar la receta y los ingredientes. Permite usar el modelo, pero impide auditarlo o saber si es seguro. La verdadera ética exige transparencia total sobre el conjunto de datos usado: saber exactamente con qué se entrenó el sistema.
Esto no es una utopía teórica. Iniciativas como el modelo de lenguaje abierto Olmo han roto la opacidad de la industria, al publicar el registro completo de entrenamiento y su conjunto de datos. Ello permite una trazabilidad real para auditar qué consume el modelo.
Sin embargo, la transparencia es solo el primer paso. El objetivo final es el consentimiento. Proyectos como The Stack demuestran que es posible entrenar modelos de lenguaje de programación respetando escrupulosamente la opción de auto-exclusión (opt-out) de los desarrolladores que eligen que su material no sea empleado para entrenar inteligencia artificial.
De igual forma, certificaciones como Fairly Trained están empezando a distinguir a aquellos modelos que respetan los derechos de autor frente a los que operan mediante una recopilación indiscriminada.
El futuro de la IA apunta hacia modelos más pequeños y especializados, donde se prioriza la calidad de los datos sobre la cantidad. Al final, no se trata de renunciar a la automatización, sino de elegir: herramientas transparentes basadas en el consenso o cajas negras cimentadas en el saqueo. El futuro será colaborativo, ético y humano, o no nos gustará estar en él.
Pino Caballero Gil reciben fondos de MCIN/AEI/10.13039/501100011033, Unión Europea NextGenerationEU/PRTR y Fundación CajaCanarias-La Caixa.
Marcos Rodríguez Vega no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.