Source: The Conversation – (in Spanish) – By Anna Peirats, Catedrática de Humanidades, Universidad Católica de Valencia
¿Cómo se mide la calidad de un investigador? Imaginemos la siguiente situación: dos investigadores presentan su candidatura a una promoción universitaria. El primero ha publicado doce artículos en tres años. La mayoría aparece en revistas indexadas en bases de datos internacionales que seleccionan publicaciones según criterios de calidad editorial. El segundo ha dedicado cinco años a un proyecto complejo y ha obtenido una estancia de investigación. Ha producido menos artículos, pero ha generado datos reutilizados por otros grupos y ha formado a varios doctorandos. Parte de su trabajo ha tenido una influencia directa en políticas públicas.
Cuando una comisión debe decidir quién tiene mejor trayectoria científica, ¿qué pesa más? En muchos sistemas universitarios la respuesta depende del número de publicaciones, el factor de impacto (índice que calcula cuántas veces se citan, de media, los artículos de una revista durante un periodo concreto), la posición de la firma del autor (en el orden de firmas de un artículo científico) o las citas acumuladas (el número de veces que se citan sus artículos).
Leer más:
¿Cuánto cuesta formar a un investigador en España? Demasiado como para perderlo
Estas métricas permiten ordenar candidatos con rapidez. Sin embargo, fueron concebidas para describir patrones agregados de producción científica, es decir, tendencias generales sobre cómo, cuánto y dónde publica la comunidad científica en su conjunto: volumen de artículos, ritmos de crecimiento, colaboración entre países o campos y circulación de citas.
No se diseñaron para sustituir el juicio cualitativo sobre trayectorias individuales, que exige valorar la originalidad, la solidez metodológica, la capacidad de liderazgo y la contribución real al avance del conocimiento.
Evaluar no es contar
Durante las últimas décadas, en la universidad se ha consolidado un principio: la calidad científica de un investigador depende del número de publicaciones en revistas consideradas de alto impacto y en el volumen de citas recibidas. Resumido en un principio que ha marcado generaciones de investigadores, “publicar o perecer”, este enfoque cuantitativo suponía que a mayor número de artículos o papers en poco tiempo, mayor posibilidad de conseguir reconocimiento académico en la universidad.
Al no ser tan fácilmente cuantificables, la trayectoria profesional a largo plazo, el impacto social del conocimiento y la integridad científica quedaban relegados, mientras que se fomentaron dinámicas encaminadas a maximizar la presencia “cuantificable” en revistas académicas, como la fragmentación de una misma investigación en varios artículos (salami slicing), la duplicación de contenidos o la traducción de un mismo trabajo con el objetivo de aumentar el número de publicaciones.
Leer más:
La trampa financiera de la ciencia en abierto
Desde la propia comunidad científica surgieron, desde comienzos de la década de 2010, críticas a este modelo de evaluación. En 2012 se publicó la San Francisco Declaration on Research Assessment (DORA), que cuestionó el uso del factor de impacto como criterio para evaluar investigadores. En 2015 se difundió el Leiden Manifesto, con diez principios para un uso responsable de los indicadores. Más tarde, en 2022, se creó la Coalition for Advancing Research Assessment, que promueve reformas estructurales en los sistemas de evaluación.
A estas iniciativas se suman los Hong Kong Principles y la Singapore Statement on Research Integrity. Todas han señalado las limitaciones de este sistema y la necesidad de prestar mayor atención al contenido, la integridad y la aportación cualitativa de la investigación.
La burocratización de la promoción universitaria
En España se ha avanzado por parte de los organismos oficiales de acreditación y evaluación, alineados con la normativa europea de reforma de la investigación. Sin embargo, a nivel interno, en muchas universidades a la hora de aspirar a una promoción, gana quien más puntos acumula, y los méritos se fragmentan en apartados independientes que no permiten evaluar una trayectoria de manera cualitativa. La calidad de la investigación tiende a identificarse con aquello que resulta más sencillo de contabilizar, y la evaluación se vuelve un proceso burocrático en el que, por ejemplo, el uso de plantillas fijas impide reconocer méritos relevantes porque no encajan en una casilla concreta.
Esto tiene un efecto en cómo los propios investigadores definen sus prioridades, condicionando los ritmos de trabajo y generando una presión estructural. También aumenta el riesgo de incurrir en malas prácticas. Algunos investigadores recurren a revistas depredadoras que prometen publicaciones rápidas a cambio de elevadas tarifas (APC), sin procesos reales de revisión externa.
Falta de transparencia
La falta de transparencia agrava este escenario. Los criterios no siempre se conocen con antelación ni se explicitan con claridad. La comunidad universitaria apenas participa en su definición o revisión. En términos de gobernanza interna no existen garantías suficientes frente a conflictos de interés, dinámicas endogámicas o evaluaciones difíciles de verificar.
Cuando se presentan reclamaciones,
es frecuente que aparezca el silencio administrativo con carácter negativo. También en casos de impugnaciones tras una resolución definitiva.
Esta situación genera indefensión jurídica y debilita la confianza en el sistema de evaluación.
Currículum narrativo y evaluación responsable
Una alternativa a este sistema cuantitativo es el currículum narrativo, una herramienta de evaluación más contextualizada.
Su finalidad es permitir una lectura cualitativa de la trayectoria investigadora y situar los méritos en su contexto real.
El currículum narrativo se articula a partir de perfiles académicos definidos y de un número limitado de aportaciones relevantes. Este formato permite valorar dimensiones que rara vez encajan en plantillas rígidas: liderazgo científico, formación de equipos, ciencia abierta, colaboración interdisciplinar, impacto social, responsabilidad en la gestión de datos o promoción de buenas prácticas.
La experiencia de los Países Bajos muestra que este enfoque puede aplicarse con coherencia cuando se definen los perfiles académicos, se limita el número de aportaciones evaluables y se invierte en la formación de las comisiones. Esta práctica, integrada de manera efectiva, previene los conflictos de interés y se refuerza con mecanismos de auditoría externa.
Cómo la evaluación define el modelo universitario
El sistema de evaluación influye en qué temas reciben atención, qué proyectos se consideran viables y qué riesgos intelectuales se asumen. Si se premia la productividad inmediata, se favorecen resultados rápidos y fragmentados. Si se reconoce la coherencia a largo plazo y la integridad científica, se incentivan investigaciones más sólidas y socialmente relevantes.
Muchas universidades europeas han asumido compromisos formales con la Comisión Europea a través del sello Human Resources Strategy for Researchers, que exige el cumplimiento de los principios del European Charter for Researchers: evaluación transparente, criterios claros, ausencia de conflictos de interés y procedimientos verificables. Además, requiere auditorías, planes de acción y seguimiento periódico.
Impacto en la calidad del conocimiento
La forma de evaluar a los investigadores no es un detalle administrativo. Cada criterio de evaluación envía un mensaje claro por parte de la institución: esto es lo que valoramos, esto es lo que cuenta.
En ese gesto se define qué tipo de universidad se quiere construir y qué modelo de ciencia se considera valioso. Y de esa elección depende, además de la credibilidad de una institución, la calidad del conocimiento que se transmite a la sociedad.
![]()
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
– ref. La buena investigación no depende del número de publicaciones. ¿Por qué la medimos así? – https://theconversation.com/la-buena-investigacion-no-depende-del-numero-de-publicaciones-por-que-la-medimos-asi-275028

