De los test vocacionales al análisis de datos: elegir estudios en la era de la IA

Source: The Conversation – (in Spanish) – By Luis Angel Tapia Aneas, Profesor UVA, Universidad de Valladolid

New Africa/Shutterstock

Elegir qué estudiar siempre ha sido una decisión complicada, pero hoy lo es todavía más: implica hacerlo en un mercado laboral que cambiará antes de que muchos estudiantes terminen su grado.

La digitalización, la automatización y la llegada de la inteligencia artificial están transformando el empleo a una velocidad asombrosa para estudiantes y docentes. Surgen nuevos perfiles profesionales, otros se redefinen y algunas competencias quedan obsoletas en pocos años.

En este contexto, ¿tiene sentido seguir orientando como hace veinte o treinta años?


¿Quiere recibir artículos como este? Suscríbase a La Conversación Docente y reciba los últimos análisis y tendencias en el sector educativo, seleccionados por nuestra editora de Educación Eva Catalán.


Un modelo para un mercado que ya no existe

A lo largo de décadas, las entrevistas individuales y los test de intereses vocacionales han sido la base de la orientación académica. Estos instrumentos han servido para ayudar a los alumnos a conocerse mejor y pensar en sus preferencias.

El inconveniente es que fueron creados para un mercado laboral relativamente estable, en el cual las carreras profesionales eran más predecibles y lineales.

La realidad actual es diferente. El Future of Jobs Report 2023 del Foro Económico Mundial alerta que en el futuro cercano una fracción importante de las habilidades presentes se transformará o desaparecerá. La OCDE ha enfatizado, además, que es necesario fortalecer los sistemas de orientación para ajustarlos a un entorno que está en constante cambio.




Leer más:
Cómo mejorar la orientación académica para limitar el abandono universitario y el paro juvenil


Sin embargo, en muchos centros educativos, la orientación sigue concentrándose en un momento puntual: elegir bachillerato, escoger un grado universitario o decidir una formación profesional específica. Como si optar por cada una de estas cosas supusiese algo inamovible, para toda la vida.

De elegir una profesión a aprender a decidir

Quizá el error esté en cómo entendemos la orientación. No se trata solo de ayudar a “elegir bien”, sino de enseñar a decidir en situaciones de incertidumbre. Lo más probable es que esa decisión deba revisarse varias veces a lo largo de la vida.

Las trayectorias profesionales hoy en día son mucho más dinámicas: hay cambios de sector, reciclajes formativos y especializaciones que se suceden. La orientación debería estar a la par con este proceso, en lugar de limitarse a un diagnóstico inicial.

Aquí es donde la tecnología comienza a desempeñar un papel relevante.

La inteligencia artificial como apoyo

La expansión de la inteligencia artificial en el ámbito educativo está creando nuevas oportunidades. Desde sistemas para personalizar el aprendizaje hasta herramientas de análisis predictivo, hoy esta herramienta forma parte del debate académico y social.

En el ámbito de la orientación académica, estas tecnologías permiten algo que antes era complicado: cruzar grandes volúmenes de información sobre empleo, competencias y formación.

Permiten, por ejemplo:

  • Analizar miles de ofertas de empleo para identificar competencias emergentes.

  • Identificar qué habilidades se repiten en ciertos sectores.

  • Comparar perfiles formativos con las demandas reales del mercado.

  • Actualizar recomendaciones cuando cambian las tendencias.

Esto no significa que una máquina deba decidir por el estudiante. Pero sí puede ofrecer información más precisa y actualizada para ayudar a tomar decisiones más fundamentadas.




Leer más:
Aprender a conocerse, clave para elegir qué estudiar


Ya existen modelos en marcha

Este cambio no es solo teórico. En distintos países ya se están implementando sistemas que combinan datos laborales y orientación profesional.

La red europea Europass ha evolucionado y ya no se limita solo a la creación de currículos. Ahora, gracias a su integración con la clasificación europea ESCO (siglas en inglés de European Skills, Competences, Qualifications and Occupations), ofrece la posibilidad de explorar ocupaciones y competencias que están realmente alineadas con las demandas del mercado laboral.

En Estados Unidos, la plataforma pública O*NET, respaldada por el Departamento de Trabajo, organiza miles de ocupaciones en función de habilidades y tareas. Y esto la convierte en una herramienta fundamental para la orientación educativa y laboral.

En algunos países nórdicos y bálticos, los servicios públicos de empleo han incorporado herramientas digitales que permiten visualizar tendencias en diferentes sectores y analizar la empleabilidad de ciertas formaciones.

Herramientas de orientación profesional

Pero la transformación no se limita al ámbito público. En los últimos años han surgido plataformas digitales que utilizan análisis de datos e inteligencia artificial para relacionar perfiles profesionales actuales con perfiles aspiracionales. Estas herramientas cruzan información sobre experiencia, competencias y tendencias del mercado para identificar brechas formativas y sugerir trayectorias de desarrollo profesional.

A diferencia de los enfoques tradicionales, estos sistemas no se centran solo en “qué me gusta”, sino en “qué me falta” para alcanzar determinados objetivos profesionales. La orientación pasa así de ser un ejercicio introspectivo a convertirse en un proceso basado en evidencia.

Todos estos modelos comparten un rasgo común: combinan autoconocimiento con datos objetivos sobre el entorno laboral.

En la práctica, estas herramientas incluyen tanto plataformas públicas y gratuitas (como Europass u O*NET) como soluciones digitales privadas basadas en análisis de datos. Entre ellas se encuentran sistemas de exploración de ocupaciones, analizadores de tendencias laborales y herramientas que permiten identificar brechas de competencias y recomendar itinerarios formativos o cursos específicos.

Algunas están pensadas para uso individual, pero muchas se podrían integrar en centros educativos o servicios de orientación. Su valor no está tanto en el acceso directo por parte del estudiante, sino en su capacidad para complementar el trabajo del orientador con información actualizada y recomendaciones basadas en datos.

Cómo debería ser el nuevo modelo

Si aceptamos que el mercado laboral es cambiante, el modelo de orientación académica también debe cambiar. Al menos en cuatro aspectos.

  1. Orientación como proceso continuo, es decir, no limitada a un momento específico, sino integrada en distintas etapas educativas. Por ejemplo, incorporar sesiones de orientación en distintos momentos del recorrido educativo (bachillerato, universidad), revisando decisiones en función de nuevas competencias adquiridas o cambios en el mercado laboral.

  2. Integración de datos reales, ofreciendo información actualizada sobre competencias y tendencias, no solo descripciones generales de profesiones. Una buena práctica sobre ello sería utilizar datos de portales de empleo o herramientas como ESCO u O*NET
    para identificar habilidades más demandadas en el mercado laboral en sectores concretos.

  3. Enfoque en las competencias. Analizar qué sabe hacer el estudiante y qué necesitaría desarrollar para distintas opciones formativas o profesionales. Por ejemplo, comparar el perfil de un estudiante (idiomas, habilidades digitales, capacidades analíticas) con los requisitos de un puesto concreto, identificando brechas formativas y proponiendo itinerarios de aprendizaje.

  4. Papel más fuerte del orientador, que puede interpretar datos y contextualizar recomendaciones. También es útil que ayude al estudiante a decidir entre varias opciones formativas con salidas similares, teniendo en cuenta no solo los datos del mercado, sino también su contexto personal, motivación y tolerancia al cambio.

La tecnología puede ofrecer diagnósticos y simulaciones. Pero el apoyo humano sigue siendo esencial para integrar esas recomendaciones en la vida del estudiante.

Orientar en tiempos de incertidumbre

La inteligencia artificial no resuelve por sí sola el reto de la orientación académica. Pero sí obliga a replantearlo.

En un mundo donde las profesiones evolucionan rápidamente, orientar ya no significa señalar un destino fijo, sino dar herramientas para navegar en entornos cambiantes.

La pregunta ya no es qué estudiar para toda la vida, sino cómo construir una trayectoria que pueda adaptarse a lo que aún no conocemos.


¿Quiere recibir artículos como este? Suscríbase a La Conversación Docente y reciba los últimos análisis y tendencias en el sector educativo, seleccionados por nuestra editora de Educación Eva Catalán.


The Conversation

Luis Angel Tapia Aneas no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. De los test vocacionales al análisis de datos: elegir estudios en la era de la IA – https://theconversation.com/de-los-test-vocacionales-al-analisis-de-datos-elegir-estudios-en-la-era-de-la-ia-276655

¿Podría un cantautor ganar el Premio Cervantes?

Source: The Conversation – (in Spanish) – By Javier Soto Zaragoza, Profesor de Literatura Española, Universidad de Almería

El Premio de Literatura en Lengua Castellana Miguel de Cervantes (popularmente, el “Premio Cervantes”) es el galardón literario más prestigioso que se entrega a escritores en lengua española. Concedido por primera vez en 1976, podría decirse que desde hace ya tiempo es el equivalente en español al Premio Nobel de Literatura.

Aunque plumas muy notables de nuestra lengua nunca lo recibieron, ganarlo conlleva un prestigio mayúsculo. Es a menudo percibido como un premio capaz de consagrar definitivamente a un escritor. Y sin duda emparenta a quienes lo reciben con un conjunto de autores ilustres, con todas las implicaciones que esta asociación comporta.

La trascendencia del premio explica la resonancia que suelen tener las propuestas públicas de candidatos, sobre todo cuando esos candidatos son, por así decirlo, poco ortodoxos. Este fenómeno se volvió a producir cuando el periodista Jon Sistiaga propuso que se concediera el Cervantes a Joaquín Sabina, que poco antes había ofrecido el último concierto de su carrera.

Con su propuesta, Sistiaga dejó servido un interesante debate: ¿podría Sabina –u otro cantautor– hacerse con el máximo reconocimiento de las letras españolas?

Cómo se concede el Premio

El Ministerio de Cultura de España convoca anualmente el Premio Cervantes para reconocer “la labor creadora de escritores españoles e hispanoamericanos cuya obra haya contribuido a enriquecer de forma notable el patrimonio literario en lengua española”. En sus bases reguladoras se especifica que no puede concederse a título póstumo y que no se otorga “por una obra específica”, sino “por la totalidad de la obra literaria de una autora o de un autor”, que deberá estar escrita, “totalmente o en su parte esencial”, en lengua española.

El rey Felipe y la reina Letizia durante la entrega del Premio Miguel de Cervantes a Álvaro Pombo en la Universidad de Alcalá.
El rey Felipe y la reina Letizia durante la entrega del Premio Miguel de Cervantes a Álvaro Pombo en la Universidad de Alcalá, el 23 de abril de 2025 en Madrid, España.
Oscar Fuentes/Shutterstock

En esas bases se indica también quiénes pueden proponer candidatos: los autores que hayan recibido anteriormente el premio, las Academias de la Lengua Española, “las instituciones que, por su naturaleza, fines o contenidos, estén vinculadas a la literatura en lengua castellana” (por ejemplo, universidades o fundaciones) y los miembros del Jurado. Y no basta con sugerir candidaturas a través de los medios de comunicación, como un brindis al sol; si se cumplen los requisitos para presentarlas, debe hacerse a través de la sede electrónica del Ministerio.

Una vez seleccionados los candidatos, el jurado se encarga de fallar el premio. Su composición es distinta cada año, y está integrado por los dos últimos ganadores del Cervantes, un miembro de la RAE, un miembro de una de las Academias Iberoamericanas de la lengua española, siete personalidades del mundo académico, universitario y literario de reconocido prestigio (propuestas respectivamente por siete instituciones distintas), dos representantes de suplementos culturales de periódicos, y un vocal de nacionalidad no española ni iberoamericana propuesto por la Asociación Internacional de Hispanistas.

Los letristas, ¿candidatos al Cervantes?

La posibilidad de que un cantautor reciba el Premio Cervantes es, en esencia, la de que lo haga un letrista. Dicho de otro modo, se premiaría una forma de escritura literaria, la letra de canción, diferente de la que suele ser habitual en este tipo de premios.

Frente a posibles escepticismos, existe un precedente imposible de ignorar: Bob Dylan fue galardonado con el Nobel de Literatura de 2016. Pero casi medio siglo antes, en 1967, otro cantautor, Georges Brassens, ya recibió por sus letras el Gran Premio de Poesía de la Academia Francesa, uno de los reconocimientos más prestigiosos para un poeta en la lengua de Molière. Y no han sido casos únicos, el Nobel de Literatura es un buen ejemplo de aceptación de formas menos convencionales de escritura literaria, como Theodor Mommsen y su obra historiográfica o Churchill y sus discursos.

Cuestionar, a estas alturas, que las letras de canción puedan considerarse literatura no parece tener demasiado sentido. La literatura no es otra cosa que el arte de la expresión verbal. Y la letra de una canción solo es otro vehículo más para elaborar esa expresión.

En un mundo donde incluso desde la academia se reclama ya la inclusión de la canción de autor en la historia literaria, donde los letristas están cada vez más dentro del canon y de las aulas de literatura, y, en definitiva, donde la literatura parece estar recordando su milenaria y germinal relación con la música, ¿con que lógica podría negarse que un buen escritor de letras de canción ganase el Premio Cervantes?

Dos nombres propios: Serrat y Sabina

La escritura de canciones ha contado a lo largo de su historia con autores de gran talento procedentes de numerosas latitudes del mundo hispanohablante. Atahualpa Yupanqui, Violeta Parra, Alfredo Le Pera, José Alfredo Jiménez, Chabuca Granda o Luis Eduardo Aute, entre otros muchos, habrían sido dignos candidatos para el Premio Cervantes. Pero la condición de no otorgarlo a título póstumo reduce cada vez más las opciones.

Así las cosas, aunque entre los autores vivos hay candidatos de mucho mérito en diversos géneros, la sensación es que actualmente los dos que más posibilidades tienen de ser propuestos para el galardón son Joan Manuel Serrat y Joaquín Sabina.

El cantautor Joan Manuel Serrat durante un homenaje de la Caja de las Letras en el Instituto Cervantes.
El cantautor Joan Manuel Serrat durante un homenaje de la Caja de las Letras en el Instituto Cervantes, el 10 de abril de 2025 en Madrid, España.
Óscar González Fuentes/Shutterstock

Ambos son letristas excelsos y su capacidad literaria está fuera de toda duda. Sus cancioneros cumplen sobradamente con el requisito de enriquecer de forma notable el patrimonio literario en lengua española. Y tanto uno como otro cuentan con el reconocimiento y la admiración de varias generaciones a uno y otro lado del Atlántico.

Junto con su habilidad poética, a favor de Serrat juega también su extraordinaria trascendencia, su condición de símbolo. Decano oficioso de la canción de autor española, acumula distinciones de enorme peso, que incluyen el Premio Princesa de Asturias de las Artes o casi una veintena de doctorados honoris causa.

La importancia de su obra (escrita también en catalán) la resumió bien el jurado del Princesa de Asturias: “aúna el arte de la poesía y la música al servicio de la tolerancia, los valores compartidos, la riqueza de la diversidad de lenguas y culturas, así como un necesario afán de libertad”. No sorprenderá, por tanto, que los periodistas Santi Carrillo y Ulises Fuente, el escritor y periodista Gastón García Marinozzi o hasta el propio Sabina hayan pedido o sugerido alguna vez el Cervantes para él.

Por su parte, Sabina es creador prolífico de una obra notablemente variada. En palabras de la Academia Latina de la Grabación, “elevó el arte de escribir canciones en español a alturas inesperadas” gracias a “su poesía excéntrica pero sencilla”, “sus agudas observaciones sociopolíticas”, “su complejo sentido del humor” y “una habilidad asombrosa para expresar sentimientos complejos en sus letras”.

Benjamín Prado, Luis García Montero y Joaquín Sabina sobre un escenario.
El día que Joaquín Sabina dejó su legado en el Instituto Cervantes, en 2021, la jornada se cerró con un acto con Benjamín Prado, Luis García Montero y el propio Sabina donde estos dos últimos leyeron el discurso que compusieron en 2019.
Instituto Cervantes / Víctor Rabanillo

El andaluz, que se ha confesado “alérgico a sermones y laureles”, ha obtenido menos distinciones que Serrat (no sería de extrañar que haya rechazado bastantes), aunque cuenta con varias en su haber. Por el contrario, ha recibido mucha más atención académica, y se trata en la actualidad del letrista en español más estudiado desde el punto de vista literario. Además de Sistiaga, a Sabina lo han postulado para el Cervantes el periodista y crítico musical Javier Menéndez Flores, el también periodista Bieito Rubido, o los escritores Benjamín Prado y Manuel Vilas.

Proponer oficialmente a uno u otro como candidato, e incluso acabar concediéndole el galardón, son decisiones reservadas para quienes pueden tomarlas. Lo que en cualquier caso debe quedar claro es que sí, un cantautor podría ganar el Premio Cervantes. ¿Debería? Seguramente también.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

Este artículo es resultado de M+PoeMAS, “Mucho más que poemas. Poesía para más gente y poéticas de la canción”, un Proyecto I+D de generación de conocimiento financiado por el Ministerio de Ciencia, Innovación y Universidades (PID2024-158927NB-I00) y dirigido por Clara I. Martínez Cantón y Rocío Badía Fumaz en la UNED entre 2025 y 2028.

ref. ¿Podría un cantautor ganar el Premio Cervantes? – https://theconversation.com/podria-un-cantautor-ganar-el-premio-cervantes-272543

Mi ‘crush’ me ha dejado ‘en visto’: ¿cuándo un neologismo deja de serlo?

Source: The Conversation – (in Spanish) – By Carmen Oliva Sanz, Contratada predoctoral FPU23, Universidad de Córdoba

Si nuestro crush nos ha dejado “en visto” y nuestros compañeros son unos NPCs 24/7, tenemos que “abrir un melón”. Nuestra lengua no es la misma que era el día que aprendimos a decir “mamá”. De hecho, si fuera igual tendríamos un problema. Porque una lengua que no evoluciona es una lengua muerta. Incluso el latín clásico, que suele considerarse una lengua muerta, sigue creando palabras nuevas.

A nadie le sorprende que no hablemos como en la Edad Media, pero tampoco hablamos como nuestras bisabuelas. Las lenguas están en constante evolución y el nivel léxico (es decir, el vocabulario, las palabras que usamos) es uno de los principales ejes del cambio lingüístico. Los neologismos son, precisamente, las palabras nuevas que surgen en un momento determinado.

¿Hay neologismos “de primera” y neologismos “de segunda”?

Los neologismos son imprescindibles porque la realidad cambia y tenemos que nombrarla. Hace 28 años no podíamos buscar en Google y hace 6 años no sabíamos lo que era una mascarilla FFP2. Lo mismo nos pasará cuando se comercialicen los CMCSP y tengamos que hablar de estos plásticos que se degradan en el agua sin dejar microplásticos, o cuando podamos ir al zoo a ver una nueva especie “desextinta”. Tendremos que nombrar nuevas realidades.

Cuando los neologismos son necesarios parece que los asumimos con total tranquilidad. Sin embargo, parece que molestan cuando son más bien expresivos. Es decir, cuando escuchamos “estoy en mi prime” en lugar de “estoy en mi mejor momento”.

La realidad es que esta distinción no es útil ni en la investigación ni en nuestro día a día. Todos los elementos lingüísticos cumplen una función comunicativa. No deberíamos considerar que los neologismos que no crean realidades (porque las realidades a la que se refieren ya tienen una palabra o expresión en nuestra lengua) son “neologismos de segunda”. De hecho, poner en segundo plano estos neologismos “expresivos” nos abriría las puertas de otro debate lingüístico en torno a los prejuicios entre lenguas.

¿Dónde nacen los neologismos?

Cómo surgen los neologismos es una pregunta controvertida. Lo mismo ocurre con quién los crea o cuándo aparecen. Pueden surgir por moda, por la necesidad de nombrar una nueva realidad o por mera casualidad. Solo a veces es posible encontrar a la primera persona que utilizó un neologismo. Aunque claro, ¿quién fue el primero en hacerse un selfie o, más bien, una autofoto (palabra que nadie usa pero que la Fundéu propone como sustituta de selfie)?

Desde la investigación en este campo optamos por analizar cómo se forman. Es decir, podemos analizar que las protes que nos recomienda tomar el nutricionista son un acortamiento de proteínas. También podemos analizar que los gym bros que nos encontramos entrenando son un préstamo del inglés, o lo que es lo mismo: un anglicismo.

No obstante, hay que recordar que no solo surgen neologismos del inglés o de otras lenguas, sino que nuestra lengua tiene toda una serie de procedimientos para la creación de nuevas palabras. Entre otros, la derivación (“covidiano”), la composición (“teledermatología”) o la acronimia, la formación de palabras a partir de fragmentos de otras, como ocurre en “restobar” (establecimiento que ofrece tanto platos preparados como bebidas y cócteles).

El DNI de un neologismo

Por otro lado, no es neologismo todo lo que reluce y no todas las expresiones nuevas han venido para quedarse. Los centros especializados en neología usan una serie de criterios para determinar si una palabra nueva es realmente un neologismo. Se trata de una serie de pruebas que llamamos “criterios de neologicidad”. Aunque se han hecho distintas propuestas, nos vamos a centrar en los tres criterios más habituales.




Leer más:
¿Cómo se inventan las palabras?


El primer criterio para que una palabra novedosa pueda ser un neologismo es que no esté recogida en un diccionario general como el Diccionario de la Lengua Española de la RAE. Lo denominamos criterio lexicográfico y nos permite comprobar, por ejemplo, que los seguidores del Real Betis Balompié, los verdiblancos, son un neologismo.

En segundo lugar, un neologismo debe ser actual: tiene que haber aparecido recientemente en la lengua. Nos basamos, por tanto, en un criterio temporal o diacrónico. Así, no podríamos considerar neológico el ratón del ordenador porque lleva mucho tiempo en la lengua, pero sí podemos considerar que woke, tal y como se emplea actualmente, es un neologismo.

Llamar la atención

La unidad no solo tiene que ser nueva, sino que nos debe parecer nueva: se debe cumplir el criterio psicológico porque la palabra nos tiene que llamar la atención. Por eso la publicidad usa tantos neologismos.

Por ejemplo, si nos presentan un yogur en un anuncio probablemente no le prestemos atención. Sin embargo, si nos venden un lateado, habrán captado nuestro interés porque no tenemos almacenado en nuestro cerebro a qué se refiere esa palabra.

En cambio, si alguien “cuelga” una foto en Instagram, no nos vamos a sorprender de que no utilice una cuerda. Aunque el verbo “colgar” no tuviera originalmente el significado actual relacionado con la informática, no nos sorprende ni nos llama la atención. Ha dejado de ser un neologismo.




Leer más:
¿Es usted ‘spornosexual’ o le excita más la ‘anortografofilia’? La irrealidad de las palabras nuevas


Aunque solo hemos presentado tres criterios, conviene apuntar que por sí solos no determinan si una palabra es un neologismo, sino que deben darse combinados al menos dos de ellos. Es decir, que un neologismo aparezca en el diccionario no le quita automáticamente la etiqueta de novedoso (como la palabra “COVID”, que se incorporó durante la pandemia al diccionario de la Lengua Española pero seguía siendo una unidad nueva porque era actual y seguía llamando la atención).

Lo mismo ocurre con random. Es tan frecuente que no nos sorprende al escucharla. Sin embargo, no aparece en el diccionario y es relativamente reciente, así que cumple con el criterio temporal y lexicográfico y sigue siendo un neologismo.




Leer más:
Palabras y palabros que nos ha traído el coronavirus


¿Cuándo se deja de ser neologismo?

Uno de los aspectos más curiosos de los neologismos es que, en el momento en el que se reconocen, comienzan a desvanecerse. Son como pequeños gusanos de seda: cuando crean su crisálida y comienzan a cristalizarse en la lengua, se convierten en mariposas, palabras reconocidas y aceptadas, y ya no pueden volver a ser novedosos.

Es lo que le ocurrió, por ejemplo, a los “virus informáticos” que surgieron en los años 70 y hoy no sorprenden a nadie. Quizá dentro de unos años a nadie le sorprenda que su crush le deje “en visto”.

The Conversation

Carmen Oliva Sanz recibe fondos del Ministerio de Ciencia, Innovación y Universidades al ser contratada FPU23/01543

Sergio Rodríguez-Tapia no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Mi ‘crush’ me ha dejado ‘en visto’: ¿cuándo un neologismo deja de serlo? – https://theconversation.com/mi-crush-me-ha-dejado-en-visto-cuando-un-neologismo-deja-de-serlo-278755

Primeros auxilios dentales: cómo salvar un diente tras un golpe

Source: The Conversation – (in Spanish) – By Olga Cortés Lillo, Profesor Contratada Doctor Odontopediatría., Universidad de Murcia

EkaterinaSklyarova/Shutterstock

Un golpe en los dientes no es solo un problema estético: puede tener consecuencias funcionales, emocionales y económicas a largo plazo. De hecho, los traumatismos dentales son una de las causas más frecuentes de visita al dentista, sobre todo en niños y adolescentes. Saber cómo actuar en los primeros minutos puede marcar la diferencia entre salvar o perder un diente.

¿Quiénes tienen más riesgo?

Las lesiones dentales son especialmente frecuentes entre los 6 y los 12 años, con un pico alrededor de los 9. En esta etapa, los juegos y los deportes de contacto explican buena parte de los accidentes. Algunos niños presentan además un mayor riesgo, como aquellos con los dientes superiores muy adelantados o con hábitos como chuparse el dedo, que dejan los incisivos más expuestos a los golpes.

En los más pequeños, la mayoría de los golpes en los dientes de leche ocurren entre los 2 y los 4 años. La razón es muy sencilla: es la etapa en la que pasan de estar siempre en brazos o en el carrito a querer explorar el mundo por su cuenta.

En los dientes de leche suelen producirse desplazamientos –se aflojan y se mueven–, mientras que en los definitivos resultan más frecuentes las fracturas de la coronas. En ambos casos, las piezas dentales más afectadas son los incisivos centrales.




Leer más:
La importancia de cuidar los dientes de leche (hasta que se los lleve el ratoncito Pérez)


Mucho más que un problema dental

La boca y la sonrisa tienen un papel clave en la imagen personal y en las relaciones sociales. Por eso, un traumatismo dental puede afectar de forma importante a la autoestima del niño o del adolescente. Evitar sonreír, tener dificultades para comer o hablar o sentir vergüenza al relacionarse con los demás son consecuencias habituales.

A este impacto emocional se suma la preocupación de las familias, que a menudo deben afrontar tratamientos largos y costosos. Un trauma dental no es solo una herida física; es una experiencia que puede aislar al niño socialmente si no se trata con empatía y rapidez.

Qué hay que tener en cuenta

Tras un traumatismo en la boca conviene hacerse tres preguntas básicas: cuándo, cómo y dónde sucedió.

En primer lugar, un golpe en la cara no solo puede dañar los dientes y los labios: en algunos casos también puede afectar al cerebro. Si el niño ha perdido el conocimiento, vomita o presenta síntomas neurológicos, es imprescindible acudir de inmediato a un centro médico.

También es importante saber si el golpe se produjo con un objeto o superficie sucia, ya que podría ser necesario revisar la protección frente al tétanos.

Si lo que se fractura es un trozo de la corona de un diente definitivo, conviene buscar el fragmento y conservarlo en un medio húmedo (leche, suero o saliva), ya que en muchos casos el dentista puede volver a colocarlo. Si sólo se ha desplazado, mantener una buena higiene oral y seguir las indicaciones profesionales resulta clave para evitar complicaciones.

En el caso de los dientes de leche, la prudencia es fundamental y el control y seguimiento del dentista es necesario: un tratamiento inadecuado puede dañar a la pieza definitiva que se está formando debajo. Por eso, las familias deben recibir información clara sobre la evolución del traumatismo y sobre las posibles señales de alarma.

En cualquier caso, nunca se debe reimplantar un diente de leche, ya que puede dañar al definitivo.

La avulsión dental: una auténtica urgencia

La situación más grave se produce cuando un diente permanente sale completamente de su sitio tras un golpe.

Esto se llama avulsión y constituye una verdadera emergencia. El pronóstico depende casi por completo de lo que se haga en los primeros minutos. Estos son los siguientes pasos a seguir en caso de que ocurra:

  1. Mantener la calma.

  2. Localizar el diente y cogerlo solo por la corona, nunca por la raíz.

  3. Si está sucio, enjuagarlo suavemente con leche, suero o saliva.

  4. Intentar recolocarlo (familiar o persona responsable) inmediatamente en su sitio, si es posible.

  5. Si no se puede reimplantar, colocarlo cuanto antes en un recipiente con leche, suero o saliva en un bote (nunca en la propia boca).

  6. Acudir de inmediato al dentista o a un servicio de urgencias.

Y aunque no todos los dientes reimplantados sobreviven a largo plazo, siempre es mejor intentarlo, ya que no hacerlo es una decisión irreversible.

No obstante, existen situaciones en las que la reimplantación no está indicada, como infecciones en la boca, cuando no hay cooperación de un paciente o si este presenta enfermedades médicas graves, entre otras que deben valorarse profesionalmente.




Leer más:
¿Se considera una patología el cambio de color de los dientes?


El seguimiento también importa

Después de un traumatismo dental, los problemas no siempre aparecen de inmediato. Por eso, el seguimiento por parte del dentista es fundamental. Cambios de color, movilidad, dolor o signos de infección deben revisarse cuanto antes.

Durante la recuperación conviene seguir una dieta blanda durante varios días para evitar fuerzas intensas, y así conseguir la estabilización del diente. También se recomienda evitar deportes de contacto y extremar la higiene oral. Es aconsejable el uso de antisépticos como enjuagues de clorhexidina al 0.2 %. Como el niño preescolar podría ingerir el colutorio, se recomienda su aplicación tópica con ayuda de un bastoncillo de algodón, después de cada comida y durante 7 días.

En cuanto a la prevención, el uso de protectores bucales en deportes de contacto reduce de forma significativa el riesgo de traumatismos dentales. Sin embargo, su utilización sigue siendo baja.

Informar a familias, entrenadores y profesores es una medida sencilla y eficaz para evitar lesiones que pueden acompañar al niño durante toda su vida.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Primeros auxilios dentales: cómo salvar un diente tras un golpe – https://theconversation.com/primeros-auxilios-dentales-como-salvar-un-diente-tras-un-golpe-275354

La pérdida auditiva, una condición común presente en muchas enfermedades raras

Source: The Conversation – (in Spanish) – By Silvia Murillo Cuesta, Investigadora, Instituto de Investigaciones Biomédicas Alberto Sols (IIBM – UAM – CSIC)

La hipoacusia (del griego hypo- (ὑπο‑), deficiencia; y akousis (ἀκοῦσις), que significa oír, escuchar) se define como la disminución de la sensibilidad auditiva y dificultad para detectar el sonido. La pérdida de nuestra capacidad para oír tiene un gran impacto en la calidad de vida. Y dependiendo de la edad de aparición y de su gravedad, puede dificultar la adquisición del lenguaje y la comunicación oral, el aprendizaje, el desarrollo profesional y las relaciones sociales.

Películas como The Silent Child o Sound of metal, reflejan con crudeza el aislamiento que experimentan las personas cuando pierden la capacidad auditiva y la posibilidad de comunicarse. Además de visibilizar esta condición, estas obras nos permiten ponernos en la piel de una persona con pérdida auditiva.

Según la Organización Mundial de la Salud, el 6 % de la población mundial (unos 480 millones de personas) tiene discapacidad auditiva cifra que aumentará al 10 % en 2050. Paradójicamente, muchas formas de hipoacusia hereditaria son consideradas enfermedades raras debido su baja frecuencia en la población. ¿Cómo es esto posible?

Un mismo problema, diferentes orígenes

La razón es que la pérdida auditiva es una condición de origen multifactorial, incluyendo causas genéticas (mutaciones en genes relevantes para la audición) y una gran variedad de factores ambientales (exposición a ruido, tóxicos, agentes infecciosos…), así como de estilo de vida (deficiencias nutricionales, tabaquismo), que pueden dañar el oído. Es esta interacción entre nuestro genoma y el ambiente al que estamos expuestos (llamado exposoma) la que determina el deterioro de la función auditiva, como demuestran estudios realizados en gemelos homocigóticos.




Leer más:
Nutrición y oído: comer bien para escuchar bien


Cada día nace en España un niño con pérdida auditiva y en el 6 0% de los casos, la hipoacusia es de origen genético. Generalmente suelen ser sorderas aisladas, sin otros síntomas (no sindrómica) y están producidas por mutaciones en un solo gen (monogénicas), con herencia autosómica recesiva. Es decir, que los padres son portadores no sordos y los hijos que reciben la mutación de ambos progenitores son los que manifestarán la hipoacusia.

A día de hoy se conocen numerosas mutaciones en unos 120 genes distintos causantes de hipoacusias no sindrómicas. A excepción de la producida por mutaciones en el gen GJB2 (que codifica la conexina 26), la prevalencia de cada una de ellas en la población es muy baja y, por ello, se consideran enfermedades raras.

En ocasiones, la hipoacusia congénita va acompañada de otros síntomas como déficit visual, insuficiencia renal o alteraciones en la pigmentación. Estas hipoacusias sindrómicas son generalmente también monogénicas y, aunque no existen datos precisos, se sabe que existen varios centenares de síndromes raros con pérdida auditiva, destacando los síndromes de Usher, Waanderburg, Alport, Pendred y Branquio-Oto-Renal (BOR), entre otros.

En estos casos, la sordera puede pasar desapercibida o estar desatendida en favor de otros síntomas más graves que ponen en riesgo la vida de la persona. Por eso el diagnóstico genético resulta crucial para determinar la causa de la pérdida auditiva y poder proporcionar el adecuado asesoramiento a las familias. Además, es importante instaurar un tratamiento precoz con el objetivo facilitar la adquisición del lenguaje durante los primeros dos años de vida.

¿Existe un tratamiento para la hipoacusia?

Por desgracia, a día de hoy no contamos con terapias curativas que restauren la estructura y la función normal del oído. La razón fundamental es que las células ciliadas –esto es, las encargadas de transformar el sonido en una señal nerviosa– no tienen capacidad regenerativa y se pierden de manera irreversible tras el daño.

Las terapias en investigación incluyen pequeñas moléculas para bloquear los procesos que conducen a la pérdida de las células ciliadas, como el estrés oxidativo, la inflamación o la muerte celular programada. También se exploran terapias regenerativas y con células madre que tratan de renovar las células ciliadas perdidas estimulando procesos similares a los que se producen durante el desarrollo embrionario. La terapia génica, dirigida a silenciar genes con mutaciones para que no den lugar a una proteína errónea, así como a corregir dichas mutaciones causantes de hipoacusia, han experimentado un auge en la última década gracias al desarrollo de la tecnología del ARN de interferencia y de edición CRISPR, y ya se han conseguido algunos éxitos. El más reciente se produjo 2024, en niños con hipoacusia profunda por mutaciones en el gen de la Otoferlina.

Aunque algunos de estos tratamientos están siendo evaluados en ensayos clínicos, todavía no han sido autorizados para su uso extendido. La única opción disponible actualmente para las personas con pérdida auditiva moderada o grave pasa por el uso de dispositivos electrónicos como las prótesis auditivas (audífonos) y los implantes cocleares. De ahí la importancia del cuidado de la audición a lo largo de toda la vida, desde el periodo prenatal hasta la edad avanzada.

Implementar medidas de salud pública como la inmunización y las buenas prácticas de atención materno-infantil, el cribado universal de hipoacusias, el diagnóstico y asesoramiento genético, los programas de protección frente al ruido en el ámbito laboral y en entornos recreativos o el uso racional de medicamentos para prevenir la ototoxicidad son imprescindibles para reducir el impacto de la pérdida auditiva.

The Conversation

Los contenidos de esta publicación y las opiniones expresadas son exclusivamente las del autor.
Silvia Murillo es investigadora contratada del CIBER de enfermedades raras (CIBERER-ISCIII) y recibe fondos del CIBERER y del Ministerio de Ciencia, Innovación y Universidades que ayudan a financiar sus investigaciones sobre este tema.

ref. La pérdida auditiva, una condición común presente en muchas enfermedades raras – https://theconversation.com/la-perdida-auditiva-una-condicion-comun-presente-en-muchas-enfermedades-raras-277164

La proteína del guisante y el último misterio de Mendel: ciencia para comer mejor

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

Peredniankina/Shutterstock

En algún momento de la década de 1860, en el huerto de un monasterio, un fraile agustino llamado Gregor Mendel se dedicó a hacer algo que hoy suena casi imposible: cruzar plantas una y otra vez, anotar resultados y contar. No buscaba el “ADN” (ese concepto ni existía), pero sí intentaba encontrar la respuesta a un interrogante enorme: ¿cómo se transmiten los rasgos de una generación a la siguiente?

Su modelo de trabajo fue el guisante de jardín. Observó siete rasgos (como son la forma y color de semillas y vainas) y, tras cruzar unas 28 000 plantas, propuso que las características heredadas dependían de factores discretos que se combinaban de manera predecible. Aquella idea, que hoy resumimos como herencia mendeliana (dominante/recesiva), se convirtió en uno de los relatos fundacionales de la biología moderna.

Lo curioso es que, pese a que la genética ha avanzado a pasos agigantados, la historia de Mendel guardaba una ironía: durante más de 160 años, la ciencia seguía sin poder señalar con total precisión qué genes explicaban tres de esos siete rasgos clásicos en el guisante.

Un alimento humilde que se volvió estratégico

¿Por qué debería importarnos hoy un “misterio” de guisantes? Porque este vegetal no vive solo en los libros de texto. Vive, sobre todo, en la despensa.

En términos de nutrición, las legumbres (incluido el guisante) tienen una presencia estable en muchas culturas por una razón sencilla: aportan proteína vegetal y suelen acompañarse de fibra, lo que las vuelve útiles en dietas que buscan saciedad, variedad y un perfil más equilibrado. Además, en un mundo que intenta reducir el impacto ambiental de lo que come, las proteínas vegetales han ganado protagonismo como complemento –no necesariamente sustituto total– de la proteína animal.

El guisante ha pasado de ser “actor secundario” a ocupar un lugar central. Su proteína se ha convertido en un ingrediente habitual en productos enriquecidos y en alternativas vegetales.

Cuando un cultivo se vuelve estratégico para la alimentación, una pregunta se vuelve inevitable: ¿podemos perfeccionarlo más rápido y mejor? Mejorarlo, aquí, significa aumentar rendimiento, resistir enfermedades, adaptarse a climas cambiantes, mantener calidad… y, potencialmente, optimizar características relacionadas con su valor alimentario.

Y es precisamente ahí donde la historia de Mendel vuelve a entrar por la puerta grande.

El salto del siglo XXI: de contar vainas a leer genomas

El “cierre” del misterio no llegó con más cruces a mano alzada, sino con una revolución tecnológica: la genómica. Un hito clave fue la publicación, en 2019, de un genoma de referencia del guisante, es decir, una especie de “texto base” del ADN contra el que se comparan otros genomas. Con ese mapa, un equipo de investigadores decidió en 2025 retomar la pregunta que llevaba más de un siglo y medio sin respuesta completa.

La investigación plantea, explícitamente, que puede abrir una “nueva era” en los estudios genómicos del guisante. El equipo pensó que la secuenciación y las herramientas computacionales habían avanzado lo suficiente como para abordar “los tres genes finales”.




Leer más:
Proteína de origen animal o vegetal: ¿cuál es mejor?


Los científicos apostaron por lo que define a la ciencia actual: muchos datos y mucha diversidad. Usando una colección que alberga más de 3 500 variantes de guisante, el grupo secuenció en profundidad casi 700 genomas. En genética, cuantas más variantes comparas, más fácil es encontrar patrones sólidos.

155 millones de “letras” distintas como pistas

Para entender por qué este enfoque funciona, basta una idea sencilla. Entre un guisante y otro puede cambiar una letra del ADN. A esos cambios mínimos se les llama SNP (variantes de una sola letra). En el estudio aparecieron alrededor de 155 millones de SNP al comparar los genomas con el de referencia.

Teniendo esa cantidad de diferencias, se puede aplicar una estrategia estadística muy útil: los estudios de asociación del genoma completo (GWAS). Es como pasar un “escáner” por el ADN para ver qué cambios aparecen una y otra vez en plantas que comparten un mismo rasgo. El equipo combinó GWAS con métodos de mejora selectiva para llegar a los genes responsables.

Y ahí llegó el momento que conecta el huerto de Mendel con el laboratorio moderno: por fin se identificaron los genes detrás de los tres rasgos que faltaban.

Los tres rasgos “perdidos” de Mendel, por fin explicados

Los resultados son un ejemplo perfecto de cómo una característica visible puede explicarse con un mecanismo biológico concreto:

  • Color de la vaina (verde o amarilla). Se relaciona con un gen que interrumpe la biosíntesis de clorofila, lo que conduce a vainas verdes o amarillas.

  • Forma de la vaina. Identificaron dos genes que probablemente influyen en la forma al alterar el engrosamiento de la pared celular de la planta.

  • Disposición de las flores (ramificadas o en racimos). Detectaron una deleción (un fragmento ausente) en otro gen, capaz de cambiar la ramificación o el agrupamiento floral mediante un proceso llamado fasciación.

Son detalles botánicos, sí, pero tienen una lectura más amplia, ya que cuando entiendes el mecanismo, no solo “nombras” un gen: también ganas una herramienta para la mejora vegetal.

¿Qué tiene que ver esto con la nutrición del futuro?

El estudio no se limita a resolver una curiosidad histórica. Además de los tres rasgos de Mendel, el equipo analizó 72 rasgos agrícolas y dejó los datos disponibles públicamente, con la idea de que otros investigadores los usen para crear guisantes más productivos y útiles. Los expertos tienen interés por genes asociados con el tamaño de vaina, el rendimiento de la planta y el contenido proteico de la semilla, además de genes vinculados con resistencia a enfermedades, algo crucial para la estabilidad de cualquier cultivo.

Entender el contenido proteico ayuda a seleccionar variedades mejor adaptadas a usos alimentarios, ya que una mayor resistencia reduce pérdidas y vulnerabilidad del sistema que nos abastece. Y cuando un ingrediente como la proteína de guisante está creciendo tan rápido, ese conocimiento deja de ser académico para convertirse en infraestructura: la que sostiene, por ejemplo, nuevos productos, cambios de hábitos y estrategias de salud pública.

El detalle humano: seis años para cerrar un capítulo de 160 años

Por último, hay que recordar que este tipo de avances no suelen ser un “golpe de suerte”. Integrar métodos, datos y confirmaciones llevó seis años, y el equipo subraya que solo fue posible por su carácter interdisciplinar y colaborativo.

Al final, la escena es bonita por contraste: Mendel, con su cuaderno y su huerto; y, 160 años después, un grupo que cruza botánica, estadística y computación para poner nombre a los genes que faltaban.

A veces, los alimentos más modestos, como el guisante, son los que mejor conectan historia, salud y futuro. Y nos recuerdan que la innovación, muchas veces, consiste en mirar con herramientas nuevas aquello que creíamos ya conocido.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La proteína del guisante y el último misterio de Mendel: ciencia para comer mejor – https://theconversation.com/la-proteina-del-guisante-y-el-ultimo-misterio-de-mendel-ciencia-para-comer-mejor-280605

Las derechas y las izquierdas: todos quieren a Darwin en sus filas

Source: The Conversation – (in Spanish) – By A. Victoria de Andrés Fernández, Profesora Titular en el Departamento de Biología Animal, Universidad de Málaga

Dennis van de Water/Shutterstock

Todas las civilizaciones tienen una cosmovisión característica. Los pueblos se desarrollan en un conjunto de creencias, supuestos y formas de interpretar la realidad que les sirven de referencias para entender la vida. Esto incluye tanto la forma de contemplar la naturaleza humana como la manera de concebir el orden social, los valores morales o las propias concepciones sobre qué es la verdad.

A veces todo da un vuelco y aparecen personas que revolucionan esta manera específica de concebir el mundo. Normalmente son filósofos, religiosos o políticos. En 1859 fue un científico el que puso patas arriba la cosmovisión de Occidente. Se llamaba Charles Darwin.

¿Por qué El Origen de las Especies levantó tantas ampollas?

La propuesta de que la selección natural era el mecanismo que explicaba la evolución fue una idea brillante. Dado que aún no se conocía la existencia de los genes, la intuición de Darwin fue muy meritoria. Aunque lo realmente rompedor no fue la hipótesis en sí sino lo que implicaba: que el ser humano dejaba de ser algo único y excepcional. Tumbaba de un plumazo nuestro ego con una idea revolucionaria: los sapiens ya no nos situábamos en el último peldaño de la escalera hacia una supuesta perfección.

Desde esta nueva perspectiva, los humanos éramos, tan sólo, una ramita del frondosísimo árbol de la vida, un animal más de la esplendorosa naturaleza donde todos compartíamos un mismo origen.

Con los años, esta osada apuesta pasó de ser la intuición de Darwin a una realidad constatada en el laboratorio. El descubrimiento del ADN demostró que todos los seres vivos estamos emparentados genéticamente. La vida estaba escrita con el mismo código para todos.

Genial para unos. Demoledor para otros.

Descendientes de LUCA

Aunque hoy día está claro y cristalino que todos los seres descendemos de LUCA, nuestro último antecesor común (Last universal common ancestor), las cosas sonaban de forma muy diferentes a mitad del siglo XIX. Asegurarle a muchos que estaban emparentados con un rábano o un alcornoque no era tarea fácil. Como tampoco lo era asumir que los narigudos monos de Borneo eran primos cercanos.

Por otra parte, quitarle al ser humano su estatus diferencial tenía unas connotaciones filosóficas muy difíciles de asumir porque trascendían lo puramente material de nuestra presencia en el planeta. Con la hipótesis de Darwin sobre la mesa, la moral, los valores éticos y las capacidades reflexivas consideradas netamente humanas dejaban de constituir algo eterno e inmutable. Pasaban a ser el resultado de un proceso adaptativo equiparable al que conformó la forma de nuestras orejas o al que seleccionó el funcionamiento de nuestro hígado.

Es más, nuestra propia existencia tampoco tendría por qué obedecer a una finalidad premeditada. Podría ser explicada, tan solo, como el fruto de un camino azaroso lleno de casualidades evolutivas.

Esta representación gráfica de la evolución humana es tan conocida como inexacta, tanto por dar una visión finalista y determinista del proceso evolutivo como por considerar que el origen de los diferentes homínidos ha sido anagenética (unidireccional) en vez de cladogenética (ramificada)
seaonweb/Shutterstock

No sabría decir cuál fue el pilar que más se tambaleó con las ideas de Darwin, si la biología, la filosofía o la teología. Pero ni las reticencias a asumirlas ni las encolerizadas críticas pudieron frenar lo que resultó ser una evidencia científica.

Superviviente de las más iracundas batallas, Darwin empezó a considerarse como uno de los grandes talentos de todos los tiempos.

Arrimando el ascua a su sardina: las diferentes apropiaciones del darwinismo

El potencial de las ideas encerradas en El Origen de las Especies no pasó inadvertido a sociólogos y políticos.

Darwin era un filón: el argumento aséptico y neutro que todos buscaban para dar a sus postulados un barniz científico. Y por eso todos se aprovecharon de la objetividad de la ciencia para justificar la subjetividad de sus ideologías. Curiosamente, y desde posturas claramente antagónicas, todos cometieron el mismo error metodológico: mezclar churras con merinas.

Por una parte, y si empezamos por la versión más despiadada del liberalismo capitalista, apareció lo que vino en llamarse el darwinismo social. Conceptos puramente biológicos como “selección natural” o “supervivencia del más apto” supusieron una perita en dulce para, una vez aplicados a la sociología, la economía y la política, justificar el desmedido abuso de poder de los “más fuertes” en detrimento de “los más débiles”. El “todo vale” en la lucha competitiva en los mercados era, para pensadores como Herbert Spencer, una simple manifestación en lo social de la “supervivencia del más apto” en lo natural.

Este uso manipulado del darwinismo tuvo una orientación distinta cuando el escenario de los diferentes estamentos sociales de la aterradora Inglaterra de la Revolución Industrial se sustituyó por grupos nacionales o raciales. En estos contextos, un perverso uso del darwinismo se utilizó para justificar ideas tan execrables como la eugenesia o el racismo.

Pero las izquierdas no se quedaron atrás. Marx sutituyó la lucha por la supervivencia por la lucha de clases, simplemente cambiando el marco natural por el histórico. Tanto es así que Engels, en el entierro de su colega, afirmó que “Marx descubrió la ley de la evolución de la historia humana”, sin mencionar el hecho de que Darwin renunció explícitamente a defender el ateísmo. En una carta dirigida al activista Edward Aveling, fechada el 13 de octubre de 1880 y preservada en el Darwin Correspondence Project, se conserva la renuncia de nuestro científico a respaldar los argumentos que contra el cristianismo hacía el materialismo histórico. Muy sabiamente, Darwin, aludiendo a su falta de competencia en estos menesteres, manifestó su claro y directo deseo de quedarse exclusivamente confinado en el campo de la ciencia.

A la ciencia lo que es de la ciencia

Esta separación clara del darwinismo científico del darwinismo ideológico, curiosamente, no la presentan muchos científicos actuales. A diferencia de grandes biólogos evolutivos como Theodosius Dobzhansky, Francisco José Ayala, Stephen Jay Gould o Francis Collins, otros se empeñan en tratar de fundamentar una serie de dogmas intangibles en los textos de Darwin. Son los llamados darwinistas ortodoxos, que se empecinan hoy, al igual que los ateístas científicos del siglo XIX, en considerar que es lo mismo poder explicar la evolución de las especies por selección natural que poseer una prueba para negar la presunta existencia algo parecido a Dios.

Da un poco de pereza intelectual pero es que esta obsoleta y superada pugna ciencia-religión continúa siendo periódicamente resucitada. Parece ser que muchos no terminan de admitir que se trata de un falso dilema, un [reducionismo] que, en realidad, no es más que una trampa metodológica.

Darwin lo tuvo muy claro: a la ciencia, exclusivamente lo que es de la ciencia. Y no es que la política y/o la religión no tengan sus verdades y/o falsedades. Es que, simplemente, implican subjetividades que, ni pertenecen al campo del conocimiento científico, ni funcionan metodológicamente de la misma manera.

The Conversation

A. Victoria de Andrés Fernández no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Las derechas y las izquierdas: todos quieren a Darwin en sus filas – https://theconversation.com/las-derechas-y-las-izquierdas-todos-quieren-a-darwin-en-sus-filas-278725

Adolescentes e inglés: ¿merece la pena reforzar con clases extraescolares?

Source: The Conversation – (in Spanish) – By Roberto Arias-Hermoso, Investigador (predoctoral) en educación multilingüe, Mondragon Unibertsitatea

JESUS DE FUENSANTA/Shutterstock

Uno de los principales objetivos de los sistemas educativos actuales es desarrollar la competencia lingüística de los estudiantes en todas sus lenguas. El inglés como lengua extranjera en el colegio (y fuera de él) es la elección más frecuente. España se coloca en un nivel medio en Europa en cuanto al nivel en inglés, en la posición 26 de 37. ¿Cómo podríamos mejorar? ¿Es beneficioso reforzar el aprendizaje en la etapa de secundaria con clases extraescolares?

Muchas familias piensan que cuanto antes empiecen los niños o niñas a aprender inglés, mejor, aunque esto no siempre es así. Pero aparte de la edad de comienzo o de la cantidad de horas semanales, hay otros factores que influyen en el aprendizaje. Uno de ellos es la interacción entre la madurez mental del estudiante y el tipo de exposición al idioma.

El inglés dentro y fuera de clase

En primer lugar, los niños y adolescentes ya no aprenden inglés únicamente en un aula. La música, películas o videojuegos en inglés son cada vez más comunes. Esto es a lo que los investigadores han llamado exposición extramural o fuera del aula.

A este tipo de exposición más informal donde el aprendizaje ocurre de manera más accidental, por lo general, se le suman la exposición fuera del aula más formal (clases en academias, donde el aprendizaje es más estructurado y guiado) y la instrucción dentro del aula. En teoría, cuanta más exposición, mejor, pero en la práctica no todas las formas de exposición funcionan igual ni en todas las edades.




Leer más:
Cómo prepararse para estudiar un grado o un máster en otro idioma


Un estudio con más de 500 adolescentes

Para entender mejor esta cuestión, hemos analizado la calidad de la escritura en inglés de más de 500 estudiantes de entre 12 y 16 años en el País Vasco, procedentes de 5 centros públicos. Todos ellos eran bilingües (euskera y español) y aprendían inglés como tercera lengua extranjera en el instituto. El alumnado recibía entre 3–4 horas de inglés semanales en el aula. Aproximadamente la mitad iba a una academia de inglés fuera del colegio.

Especialmente, nos interesaba una pregunta: ¿Cómo influyen la edad y los diferentes tipos de exposición al inglés (academias e informal) en su rendimiento escrito? Los resultados fueron claros, pero también sorprendentes.


¿Quiere recibir artículos como este? Suscríbase a La Conversación Docente y reciba los últimos análisis y tendencias en el sector educativo, seleccionados por nuestra editora de Educación Eva Catalán.


La edad, el factor más importante

El principal hallazgo fue que la edad es el factor que más influye en la calidad del inglés del alumnado: los estudiantes mayores obtenían mejores resultados en escritura que los más jóvenes. Las variables de exposición fuera del aula también tuvieron un efecto positivo, pero menor en comparación a la edad.

La importancia de la edad puede parecer obvia, pero tiene implicaciones muy importantes. No se trata solo de acumular horas de aprendizaje, sino de desarrollo cognitivo y madurez. A medida que los estudiantes crecen, mejora su capacidad de expresarse por escrito, tanto de los que van a academia como los que no.




Leer más:
Los mejores recursos en línea y gratis para los exámenes oficiales de idiomas


Ir o no ir a la academia

Uno de los resultados más interesantes del estudio es que no todos los tipos de exposición afectan igual en todas las edades.

Nuestros resultados muestran que las academias (el aprendizaje extraescolar más estructurado) sí marcan la diferencia en los primeros cursos de secundaria. Los alumnos más jóvenes que asisten a academias obtiene mejores resultados que los que no. Sin embargo, este efecto se va reduciendo a lo largo de la ESO hasta desaparecer: en 4º de la ESO, ir a la academia ya no supone una ventaja frente a no ir. De hecho, el efecto de las horas acumuladas en academia se va reduciendo con la edad, de modo que la ventaja desaparece a finales de la ESO.

Por otro lado, ocurre lo contrario con la exposición informal. En los primeros años de la ESO, ver series en inglés o escuchar música no parece tener un impacto significativo en el rendimiento de los alumnos. Pero a medida que los estudiantes crecen, esto empieza a marcar la diferencia: en 3º y 4º de la ESO, estas actividades (en especial: ver programas o películas, escuchar música y usar redes sociales en inglés) se asocian con mejores resultados en escritura. Este efecto positivo está relacionado, seguramente, con la importancia de una base más sólida para poder sacar partido de estos contenidos más informales.

En resumen, el mismo tipo de exposición no funciona igual a los 12 que a los 16 años.

Varias claves prácticas

Estos resultados tienen implicaciones claras para familias, profesorado y responsables educativos. Más que apostar por una única fórmula, parece más eficaz adaptar las estrategias a la edad del alumnado.

  1. En edades tempranas, mejor aprendizaje guiado. En los primeros años de la ESO, el alumnado se beneficia más de contextos estructurados (como una academia). Sin embargo, aquí entran factores sociales y económicos, ya que las academias suelen tener un coste elevado y no están al alcance de todos. Por ello, sería interesante que los institutos pudieran adoptar metodologías más cercanas a las academias, con una enseñanza más estructurada y adaptada por niveles dentro del propio sistema educativo.

  2. En edades más avanzadas, hay que aprovechar más el inglés fuera del aula. A partir de cierta edad, el contacto con el inglés en contextos reales (series, música, etc.) se vuelve muy valioso. Profesorado y familias deberían fomentar este uso informal para aprovechar estas ventajas.

  3. No se trata de cantidad de horas, sino del momento y el tipo de exposición. Muchas veces pensamos que “más es mejor”, pero la clave es combinar distintos tipos de exposición que se ajusten a la edad del alumnado.

En conclusión, es importante tener en cuenta la edad y madurez del alumnado para que puedan sacar provecho de los diferentes contextos para aprender inglés. En ese sentido, proponemos un enfoque flexible en el que esos contextos van evolucionado con el alumnado: contextos más formales y estructurados van dejando paso a oportunidades de uso real del idioma fuera del aula. No se trata de sustituir, sino de combinar estratégicamente estos tipos de exposición.

The Conversation

Roberto Arias-Hermoso ha recibido fondos del Gobierno Vasco para desarrollar esta investigación, PRE_2021_1_0001 & IT1664-22.

ref. Adolescentes e inglés: ¿merece la pena reforzar con clases extraescolares? – https://theconversation.com/adolescentes-e-ingles-merece-la-pena-reforzar-con-clases-extraescolares-279359

¿Es mejor trabajar sentado o de pie?

Source: The Conversation – (in Spanish) – By Alejandro J. Almenar Arasanz, Profesor área de Fisioterapia, Universidad San Jorge

Chay_Tee/Shutterstock

Durante años hemos escuchado que “sentarse es el nuevo tabaco”. La frase tiene gancho, se recuerda bien y parece resumir un problema real, pero también simplifica demasiado.

Porque si sentarse fuera siempre lo peor, bastaría con levantarse. Y no es así.

Para millones de personas, trabajar de pie no es una alternativa saludable, sino una exigencia diaria: sanitarios, docentes, personal de comercio, camareros, operarios de industria o peluqueros pasan muchas horas sobre sus pies. Y eso también pasa factura.

Los trastornos musculoesqueléticos siguen siendo el problema de salud laboral más frecuente en Europa. Afectan a la espalda, al cuello, a los hombros, a las piernas y a los pies. En España, según el Instituto Nacional de Seguridad y Salud en el Trabajo, el 29 % de los accidentes laborales con baja en 2024 se debió a sobreesfuerzos físicos, y los trastornos musculoesqueléticos representaron el 78 % de las enfermedades profesionales.

El cuerpo no está hecho para quedarse quieto

Entonces, teniendo esto en cuenta, ¿es mejor trabajar sentado o de pie? Quizá estamos formulando mal la pregunta, porque, en realidad, lo importante es cuánto tiempo pasamos en cada postura y cuántas veces nos movemos durante la jornada.

El cuerpo humano tolera mal las posturas mantenidas: mientras que pasar largas horas sentado suele favorecer molestias en la zona lumbar, el cuello y los hombros, permanecer muchas horas de pie se asocia más con fatiga, dolor lumbar y sobrecarga en piernas y pies. En otras palabras, estar sentado y de pie no duele igual. Pero, desde luego, ninguna de las dos posturas resulta inocua si se prolonga demasiado.

El pie: el gran olvidado

Por otra parte, cuando hablamos de dolor laboral casi siempre pensamos en la espalda, pero el cuerpo empieza a soportar la jornada desde abajo.

El pie es la base mecánica sobre la que se apoya todo lo demás: contacta con el suelo, reparte presiones y transmite fuerzas hacia tobillo, rodilla, cadera y columna. Si esa base pasa horas trabajando sin apenas descanso, el resto de la cadena también puede resentirse.

De hecho, en un estudio reciente realizado con trabajadores de línea de montaje, una jornada completa de trabajo de pie se asoció a cambios medibles en la postura del mismo y en la distribución de las presiones plantares, además de molestias frecuentes en la zona lumbar, las rodillas y los propios pies.

En otras palabras, no todos los pies responden igual a las mismas exigencias laborales, y esa diferencia biomecánica puede influir en la aparición de molestias.

Entonces, ¿qué es mejor?

Como insiste la Agencia Europea para la Seguridad y la Salud en el Trabajo (EU-OSHA, lo más saludable suele ser alternar posturas, introducir movimiento y reducir el tiempo continuo en posiciones estáticas.

A veces buscamos soluciones llamativas: mesas elevables, “sillas milagro”, plantillas o dispositivos de moda, como correctores posturales, cojines ergonómicos o soportes lumbares prefabricados. Algunas herramientas pueden ayudar, pero ninguna compensa por sí sola una jornada mal diseñada.

La prevención real suele ser menos vistosa y más eficaz: pausas breves, rotación de tareas, ajuste del puesto, calzado adecuado, ejercicio físico y organización del trabajo que permita moverse.

En definitiva, no hace falta demonizar la silla ni idealizar estar de pie. Necesitamos entender que el organismo está hecho para cambiar, adaptarse y moverse. Cuando el trabajo nos obliga a permanecer demasiado tiempo en la misma posición, entonces es cuando empiezan los problemas.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. ¿Es mejor trabajar sentado o de pie? – https://theconversation.com/es-mejor-trabajar-sentado-o-de-pie-278680

De la Casa Blanca a Jerusalén: el peso del nacionalismo religioso en la estrategia de Trump

Source: The Conversation – (in Spanish) – By David Alvarado, Associate professor, Universidade de Vigo

Benjamín Netanyahu y Donald Trump. Joshua Sukoff/Shutterstock

Altos cargos que marcan la deriva internacional de la administración Trump son la expresión más visible de la alianza entre poder ejecutivo y teología. Pete Hegseth, el secretario de Guerra, lleva tatuado en el brazo el lema Deus Vult –grito de las cruzadas medievales–. En su libro American Crusade afirma que el islam no es una religión de paz y que quien ame los valores americanos debe amar a Israel.

Mike Huckabee, embajador estadounidense en Jerusalén, niega la existencia del pueblo palestino y sostiene que las santas escrituras otorgan ese territorio a los israelíes. Preguntado por el comentarista político conservador Tucker Carlson sobre los límites bíblicos de Israel, que el Génesis extiende del Nilo al Éufrates, Huckabee respondió que estaría bien que Israel lo tomara todo.

La republicana Elise Stefanik, representante ante la ONU, confirmó en el Senado que Israel tiene un “derecho bíblico” sobre Judea y Samaria, y rechazó reconocer la autodeterminación palestina.

El sionismo cristiano tiene una base electoral que le otorga un peso político específico. Los evangélicos blancos, que representan alrededor del 25 % del electorado, votaron por Trump en un porcentaje del 81 % en 2024.

Su respaldo a Israel no responde a consideraciones geopolíticas. Esta corriente religiosa sostiene que el control hebreo de toda Palestina, incluidos los territorios ocupados, es condición necesaria para la Segunda Venida de Cristo. Un acuerdo nuclear con Teherán no equivaldría para esa base a una mera cesión diplomática, sino a una traición a un mandato sagrado.

Órdenes bíblicas a soldados estadounidenses

La Military Religious Freedom Foundation ha recibido desde el inicio de las operaciones en Irán denuncias de oficiales y soldados a los que se le dieron órdenes redactadas con lenguaje del “fin de los tiempos bíblicos”, un hito sin precedentes en el ejército estadounidense.

Este fenómeno supera lo que John Mearsheimer y Stephen Walt, referentes de la corriente neorrealista de las relaciones internacionales, describieron en su ya clásico The Israel Lobby and U.S. Foreign Policy (“El lobby israelí y la política exterior estadounidense”), donde se destaca la distorsión del interés nacional estadounidense por parte de grupos de presión israelíes con acceso privilegiado a la administración.

En Money, Lies, and God (“Dinero, mentiras y Dios”), la periodista de investigación Katherine Stewart documenta cómo el nacionalismo cristiano ha construido a lo largo de décadas toda una red de think tanks (laboratorios de ideas), fundaciones y megaiglesias orientada a ir más allá de la influencia externa y ocupar paulatinamente el aparato del Estado.

La lógica de juegos de dos niveles de Robert Putnam, considerado uno de los politólogos más influyentes de Estados Unidos, permite comprender las implicaciones diplomáticas. Según esta teoría, cualquier negociación entre países tiene una dimensión exterior, la del acuerdo entre gobiernos, y una dimensión interior, que es la viabilidad política de ese acuerdo dentro de cada país. Cuando la dimensión doméstica está bloqueada por imperativos religiosos que imposibilitan cualquier concesión, el arreglo resulta imposible.

Qué significa la seguridad de Israel para Estados Unidos

La Estrategia de Seguridad Nacional firmada por Trump en noviembre de 2025 da cuenta de ese bloqueo. El documento advierte contra quienes busquen “arrastrar a Estados Unidos a conflictos ajenos” y, al mismo tiempo, destaca la seguridad de Israel como “interés nacional central”, presentando los ataques del 21 de junio de ese año contra Irán como un “logro presidencial”.

Por su parte, la república islámica iraní se rige desde 1979 por el principio del velayat-e faqih, que establece que la autoridad política suprema corresponde a los jurisconsultos islámicos. En la práctica, el poder efectivo lo ejercen los Guardianes de la Revolución, también conocidos como Pasdarán, una estructura militar-industrial de unos 190 000 efectivos que controla el arsenal balístico y el programa nuclear con funciones disuasorias concretas.

La Guardia mantiene en jaque las más de cien bases militares estadounidenses del golfo Pérsico, Irak y Siria, elevando el coste de cualquier ataque. El propio Ali Jameneí emitió una fatua que declara las armas atómicas contrarias al islam. El iranólogo Bernard Hourcade define este programa como la “clave de bóveda de toda la política nacional”, no un mandato religioso, sino un símbolo de soberanía que los Pasdarán no pueden abandonar.

Siempre se ha interpretado el régimen iraní desde una lógica teológica, pero el funcionamiento del poder en Teherán sigue un interés de Estado, articulado sobre poderes mundanos y no sobre cálculos religiosos. Algo que no parece ocurrir en un Estado liberal moderno como es EE.UU..

François Mabille, director del Observatorio geopolítico y religioso en el Instituto de Relaciones Internacionales y Estratégicas (IRIS) en París considera que en los regímenes de fuerte legitimación religiosa como el de Teherán, el conflicto prolongado refuerza los aparatos de seguridad sin suprimir la función legitimadora del clero.

Desde abril de 2025, Irán y Estados Unidos mantuvieron varias rondas de negociaciones a través de la mediación de Omán, en Mascate primero y en Ginebra después. El 26 de febrero de 2026, al término de la tercera ronda en la capital suiza, el mediador Badr Al Busaidi habló de “progreso significativo” y anunció que las conversaciones continuarían en Viena.

Netanyahu visitó la Casa Blanca el 11 de febrero para intentar que Washington no firmase ningún acuerdo nuclear con Teherán. Dos días después de esa sesión ginebrina más avanzada comenzaron los ataques. El senador Mark Warner, número dos del Comité de Inteligencia del Senado, expresó una convicción que circulaba en sectores de la elite política al afirmar que la guerra había sido dictada por los objetivos y el calendario de Israel.

Las fracturas en el seno del trumpismo

La contienda con Irán ha provocado las primeras fracturas serias en el seno del trumpismo. Tucker Carlson, expresentador de Fox News convertido en el podcaster más influyente de la ultraderecha, calificó la retórica presidencial de “moralmente corrupta” y “malvada”.

Ann Coulter, columnista conservadora y autora de In Trump We Trust, acusó a Trump de crímenes de guerra.

Marjorie Taylor Greene, excongresista y hasta hace poco leal aliada del presidente, y otros destacados perfiles de la galaxia MAGA (siglas de Make America Great Again) exigieron su destitución en aplicación de la 25.ª enmienda al sentirse “traicionados”. Es el caso de Alex Jones, animador estrella del portal conspiracionista infoWars

Joe Kent, director del Centro Nacional de Contraterrorismo, dimitió alegando razones de conciencia, afirmando que “Irán no suponía ninguna amenaza inminente” y que la guerra se inició “por presión de Israel y su poderoso lobby americano”.

Las corrientes principales del movimiento MAGA comprenden populistas nacionalistas, realistas conservadores, libertarios no intervencionistas, antiglobalistas, neoconservadores y nacionalistas religiosos. Solo estas dos últimas respaldan la guerra incondicionalmente, unos por convicción estratégica y otros por motivaciones puramente escatológicas.

El 8 de abril, Trump anunció un alto el fuego de dos semanas para proclamar su “victoria total y completa”. Horas después, Israel lanzó 160 bombas sobre el Líbano provocando más de 250 muertos, apresurándose Netanyahu a precisar que el acuerdo no incluía este frente.

Una guerra sin objetivo claro

Trump demuestra su fuerza haciendo del combate un fin en sí mismo a través de una guerra sin metas definidas ni criterios de éxito compartidos. El régimen iraní está herido, pero se mantiene funcional y conserva los fundamentos de su arsenal y su programa nuclear. En modo alguno Washington puede ofrecer concesiones que su base electoral interprete como apostasía.

El primer ministro israelí, que arrastró a Estados Unidos al conflicto, sigue su propia agenda al margen de cualquier tregua. Cuando la guerra responde a imperativos teológicos, ningún resultado puede proclamarse un triunfo. No existe logro estratégico o material que satisfaga un mandato divino.

The Conversation

David Alvarado no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. De la Casa Blanca a Jerusalén: el peso del nacionalismo religioso en la estrategia de Trump – https://theconversation.com/de-la-casa-blanca-a-jerusalen-el-peso-del-nacionalismo-religioso-en-la-estrategia-de-trump-280539