Entrevista

«Hay que garantizar que las inversiones en investigación den el fruto que realmente necesitamos»

James Wilsdon, profesor de políticas de investigación en la Universidad de Sheffield;

James Wilsdon, profesor de políticas de investigación en la Universidad de Sheffield, ha dirigido estudios tanto en el Reino Unido como en otros países para analizar el uso y los efectos de las métricas o indicadores numéricos en la evaluación y gestión de la investigación. Es vicepresidente de la International Network for Government Science Advice (INGSA), una plataforma en la que colaboran distintas organizaciones científicas consultivas que promueven la implementación de políticas basadas en pruebas empíricas.

¿Cómo pueden los entes que financian la investigación (gobiernos, organismos, fundaciones...) utilizar las métricas para evaluar la excelencia y el impacto de la actividad investigadora? ¿Estamos de acuerdo en el significado de excelencia y en qué impactos son deseables?

Esta es una parte importante del debate. Y déjeme poner la palabra «excelencia» entre comillas porque a veces es un término problemático. Cuando hacemos valoraciones en el sistema, unas veces es esclarecedor, pero en otras ocasiones resulta confuso. El equilibrio entre los criterios convencionales de excelencia en investigación (evaluados ante todo mediante citas, patentes, etc.), junto con un énfasis creciente en que la investigación tenga impactos más amplios en la sociedad y en la economía, crea la necesidad de hacer un uso más responsable de las métricas. Ampliar el alcance de los indicadores que usamos y acompañarlos con una revisión científica razonable y cualitativa resulta de gran utilidad. Algunas altmetrics [métricas o indicadores alternativos], por ejemplo, pueden reconocer las citas de organismos no académicos. Si consideramos estas altmetrics como una parte importante del proceso de evaluación, animaremos a los académicos a interactuar con otras audiencias más allá de la comunidad académica.

Estamos en una etapa muy temprana del desarrollo de indicadores eficaces para medir qué efectos causa la investigación en la sociedad

¿Las métricas alternativas cambiarán la forma de evaluar los resultados de la investigación?

Las altmetrics o métricas alternativas han concitado mucha atención a causa de su visibilidad en las redes sociales. Eso es interesante, pero es un sucedáneo más bien superficial para entender realmente si la investigación tiene un impacto en problemas sociales importantes, como, por ejemplo, cambiar la práctica del sistema judicial penal. Lo que sucede en las redes sociales nos proporciona algunas informaciones útiles, pero creo que sería peligroso vincular la financiación a estos indicadores.

En general, estamos en una etapa muy temprana del desarrollo de indicadores eficaces para medir qué efectos causa la investigación en la sociedad. Tenemos que darnos tiempo para elaborar nuevas métricas de impacto que sean más útiles.
 

¿Qué es the Metric Tide?

The Metric Tide [La marea métrica] era el informe final de un estudio independiente sobre el papel de las métricas y los indicadores cuantitativos en la gestión y evaluación de la investigación realizada en el Reino Unido. Era un encargo del Gobierno británico; presidí una comisión de 12 expertos –científicos, científicos sociales, especialistas en bibliometría, responsables de financiación en investigación– que trabajó un año y medio aproximadamente. El informe se publicó en el verano de 2015. En aquel entonces había un animado debate en la comunidad investigadora global sobre el empleo de las métricas. Dos iniciativas que habían impulsado dicho debate fueron el manifiesto de Leiden y la Declaración de San Francisco sobre la Evaluación de la Investigación (DORA).
 

¿Por qué encargó el Gobierno británico este estudio?

La idea surgió a partir del Marco de Excelencia en Investigación (REF). Cada cinco o seis años, el REF evalúa el sistema de investigación nacional del Reino Unido basándose en grupos temáticos de evaluación de expertos y asigna aproximadamente un tercio del presupuesto de investigación entre universidades y disciplinas. En 2014 el Gobierno quería examinar si se podía mejorar la eficiencia de esta evaluación usando únicamente indicadores numéricos, de modo que se iniciaron los trabajos del Metric Tide.

Comprobamos que, en general, se otorgaba mayor importancia a los indicadores cuantitativos y a los distintos tipos de métricas en la gestión de la investigación, la asignación de fondos y la evaluación de individuos y grupos de investigación en las universidades. Queríamos fijarnos en este fenómeno de una forma más amplia y global y ver qué significa esta creciente «marea métrica» para el entorno y la práctica de la investigación, así como para la gestión de nuestro sistema científico y de investigación. El informe también despertó interés fuera del Reino Unido.
 

Una de las conclusiones del informe es que no solo hacen falta más indicadores métricos, sino que deben ser responsables. ¿Qué significa esto?

Propusimos este término, «métricas responsables», con la idea de recoger tanto las posibilidades como las dificultades del uso de estos indicadores. Todos somos conscientes de los múltiples casos en los que ciertos indicadores se utilizan inapropiadamente en los procesos de gestión y evaluación de la investigación. El ejemplo más obvio y notorio es el empleo incorrecto de los factores de impacto de las revistas. A partir de una gran cantidad de trabajos empíricos sabemos que la correlación entre la calidad de un artículo en particular y el factor de impacto de la revista en la que se publicó no es buena. Y aun así vemos a cada momento que los factores de impacto se utilizan inadecuadamente.

Las métricas responsables se emplean con firmeza y prudencia a la vez, de modo que pueden ser una parte valiosa de la gestión del sistema de investigación. Pero hay que estar muy alerta y atender al contexto en el que se utilizan.
 

¿Cómo son las métricas responsables?

Los datos tienen que ser todo lo sólidos que sea posible. Queremos asegurarnos de que haya una cobertura suficiente de las distintas disciplinas y de que los diferentes resultados de las investigaciones tengan su explicación. Y necesitamos humildad al utilizar las métricas: deben apoyar la revisión científica, pero no sustituirla. La investigación académica es un esfuerzo de naturaleza compleja; puede conseguirse una evaluación más matizada de la investigación si se combinan estos indicadores con la revisión científica.

Además, hay otros factores como la transparencia, es decir, que los que son evaluados comprendan la naturaleza de las mediciones y los indicadores que se emplean para evaluar su trabajo. Asimismo se necesita diversidad: un conjunto variado de indicadores y resultados de investigación –desde artículos a exposiciones, pasando por bases de datos–, pero también de distintas trayectorias profesionales.
 

¿Cuáles podrían ser buenos ejemplos de métricas no responsables en comparación con las responsables?

Un ejemplo de mala práctica podría ser la puntuación de ResearchGate. Numerosos académicos utilizan el portal ResearchGate como una manera práctica de compartir su trabajo con otros colegas. Esta web también te da una puntuación, pero no está nada claro a partir de qué algoritmo se calcula esta puntuación. Por lo tanto, no es una métrica responsable. Otro ejemplo obvio serían muchas de las clasificaciones internacionales de universidades y centros de investigación, que no son muy fiables tanto desde un punto de vista metodológico como estadístico. 

En cambio, un ejemplo de una buena práctica al contratar o evaluar a personas (por ejemplo, para una promoción) sería pedir a los investigadores que destacaran por escrito las dos o tres contribuciones a la investigación que consideran más importantes hasta ahora en su trayectoria académica y por qué. Entonces el comité de evaluación puede leer este resumen y hacerse una idea más completa. No importa en qué revistas se publicaron los artículos; con este método se añade una dimensión más cualitativa y evaluativa al proceso.
 

¿Y qué opina de la revisión por pares? Hay quien está preocupado porque considera que es muy vulnerable a sesgos intrínsecos y sistémicos.

Idealmente, se necesita una mezcla de indicadores cuantitativos y la opinión cualitativa de los expertos. La revisión por pares no es perfecta; todos somos conscientes de sus puntos débiles. Pero al mismo tiempo es un poco como la democracia: es el sistema menos malo que hemos desarrollado para gobernarnos en la comunidad académica.

La revisión por pares, cuando se hace bien, es formativa y aditiva, es decir, no solo intentamos evaluar sino también mejorar la calidad del trabajo que realizamos unos y otros, mientras que las métricas suelen ser meramente aditivas.

No obstante, es cierto que dichos indicadores también pueden actuar como un contrapeso positivo y objetivo en lugares donde se dan casos de nepotismo, clientelismo o sexismo. De hecho, este sería un empleo responsable de las métricas.
 

¿Observa cambios rápidos a raíz del Metric Tide y otras iniciativas relacionadas?

Definitivamente, ha habido un debate muy visible e interesante sobre esta cuestión en los últimos cinco o seis años, de modo que ahora somos más conscientes de ella. Y esto es positivo. Pero seríamos ingenuos si pensáramos que se ha producido un giro copernicano en la materia. Estamos en un período de transición, de controversia y debate. Supongo que llevará algún tiempo antes de que los distintos actores se pongan de acuerdo y pasen a la acción. Y en ningún caso podemos tener la certidumbre de que todo se resolverá de una manera óptima.

El mundo académico sigue centrando la atención en publicar trabajos que leerán una decena de especialistas y que no tendrán ningún impacto

 

¿Está de acuerdo con algunas de las críticas que afirman que al evaluar los impactos a veces se confunden las necesidades de la sociedad con las de la industria?

En cualquier evaluación del impacto de la investigación siempre hay que tener en cuenta las repercusiones comerciales y empresariales. Trabajar con una empresa puede ser tan importante como trabajar con una administración o con una comunidad. En lo esencial, la gestión y evaluación de la investigación debe ser neutral. Aspiramos a un sistema de investigación que permita mejoras generales, que tenga numerosos impactos en lugares y sectores distintos.

Creo que la tensión no afecta tanto al compromiso de la investigación con el mundo empresarial como al compromiso con otras partes de la sociedad. Pienso que el principal escollo sigue siendo el compromiso con la sociedad. El mundo académico sigue centrando la atención en publicar trabajos que leerán una decena de especialistas y que no tendrán ningún impacto. Este es el meollo de la cuestión.
 

Algunos científicos se quejan de un sistema que intenta «microgestionarlos». ¿El nuevo sistema de evaluación que se está promoviendo será más útil que el antiguo?

No queremos que todos los académicos escriban solo para el mundo académico, aunque esto seguirá siendo una parte importante de su trabajo. Y apostamos por una ciencia impulsada por los descubrimientos. Pero al mismo tiempo hemos de intentar hallar un equilibrio. 

En Europa, en los Estados Unidos y en muchos otros países, observamos que se ha producido un cambio hacia una investigación más aplicada y más orientada a los impactos. Si inclinamos la balanza hasta el extremo de que la ciencia deja de estar impulsada por los descubrimientos, vamos por mal camino. Cómo mantener este equilibrio es una pregunta permanente cuando hablamos de políticas de investigación. No hay una sola respuesta correcta.
 

¿Qué pautas daría para mantener este equilibrio?

Si damos un paso atrás y tenemos en cuenta el volumen de las iniciativas científicas, hasta qué punto se han multiplicado en los últimos treinta años, creo que sería pertinente preguntarnos: ¿observamos también un aumento en la contribución de estas actividades a la hora de satisfacer las necesidades apremiantes de nuestra economía y nuestra sociedad? Esta es la pregunta clave de las políticas de financiación. Está claro que algunos se pondrán nerviosos y opondrán resistencia a cambiar el sistema de incentivos, pero hay que redoblar los esfuerzos para garantizar que las inversiones que los países hacemos en ciencia e investigación den el fruto que realmente necesitamos.
 

¿Cuáles son, pues, los conocimientos, las herramientas y la experiencia que los responsables políticos necesitan para ponerse manos a la obra?

Esto nos lleva una vez más a la investigación sobre la evaluación y las métricas. Un buen sistema propondrá hacer reformas, intentará comprender las diferentes vías que tiene a su alcance, y cómo esto afecta a distintos sectores y marcos temporales. En mi opinión, el Marco de Excelencia en Investigación al que nos referíamos antes es una buena aproximación. Puede mejorarse, pero es un buen intento para poner en práctica lo que estamos comentando. 

La investigación en investigación, o la ciencia de la ciencia, es un campo en expansión que pretende abordar algunos de estos desafíos. No se trata tan solo de la evaluación. También nos preocupan las prácticas científicas, la reproductibilidad, la integridad, los incentivos perversos y la cultura de la investigación en un sentido más amplio. Se trata de cuestiones actualmente más candentes, si las comparamos con los debates de cinco o diez años atrás.

El cambio hacia una investigación que tenga más en cuenta las necesidades de nuestra sociedad no tiene por qué perjudicar los fundamentos del sistema tradicional de investigación. Tenemos que entender mejor cómo funciona el sistema, los impactos que causa, y encontrar un equilibrio entre los métodos de financiación. Los diversos sistemas deberían debatir estas cuestiones para intentar hallar las respuestas adecuadas. No hay ninguna receta mágica, pero sí mucho trabajo por hacer.


Entrevista por Silvia Bravo Gallart

Clasificación

Etiquetas

Temáticas

Contenidos relacionados

Artículo

Evolución de la ciencia y la tecnología en España y Portugal

La Unión Europea se fijó el objetivo de que el sector empresarial invierta en I+D el 2 % del PIB. ¿Cómo está siendo la convergencia de España y Portugal hacia esta meta?

Actividad

Coloquio “Investigación e innovación en España y Portugal"

¿Cuáles son los factores decisivos en los sistemas de investigación e innovación de un país? ¿Y los vínculos entre ciencia y empresa? Puedes ver aquí el vídeo del coloquio que organizamos para debatir sobre el tema.

Buenas prácticas

Los instrumentos de participación ciudadana en el marco de la innovación tecnológica

¿Qué opina la sociedad acerca de los posibles impactos de la ciencia y la tecnología? Establecer mecanismos de participación ciudadana es necesario para generar confianza y detectar puntos de mejora.

Infodato

Gasto en I+D por sectores

En el 2019, el porcentaje de presupuesto público total destinado a I+D fue de un 1,24 % en España y un 0,82 % en Portugal, ambos por debajo de la media de la EU-27.

Infodato

Empresas innovadoras y cooperación empresarial en actividades de I+D

En España y Portugal, la proporción de empresas innovadoras, así como el grado en el que estas colaboran con otras empresas y organizaciones, es inferior a la media de la EU-27.

También te puede interesar

Usos, habilidades y actitud en materia de tecnología digital. ¿Existe una brecha de género?

Artículo

Usos, habilidades y actitud en materia de tecnología digital. ¿Existe una brecha de género?


Ciencia

Los chicos consideran que son más hábiles que las chicas en materia de tecnología y comunicación digital, mientras que estas se sienten más preparadas en los aspectos éticos y de seguridad.

La España desertificada

Artículo

La España desertificada


Ciencia

Un 17,5 % del territorio rural está expuesto simultáneamente a altas tasas de despoblación y de aridez. Este estudio analiza cómo algunos factores de mitigación de la despoblación pueden acarrear efectos no deseados, tanto de tipo social como ambiental.

Desigualdades en la investigación sobre las desigualdades de la covid-19: ¿quién tenía la capacidad de respuesta?

Artículo

Desigualdades en la investigación sobre las desigualdades de la covid-19: ¿quién tenía la capacidad de respuesta?


Ciencia

¿Existió desigualdad en la investigación sobre las desigualdades de la covid-19?Lo analizamos en este estudio comparativo centrado en la producción y distribución de investigaciones y las colaboraciones entre países.