Convengamos y asumamos una realidad incómoda, la frase cliché “la investigación y desarrollo es el motor que mueve un país”, es sólo eso, una propaganda política que no llega más allá pues no se traduce en votos, a menos que cambie la percepción de la Sra. Juanita y vea que es relevante con hechos, no con simple comunicación.

Recientemente, se ha generado una gran polémica a raíz de opiniones del presidente José Antonio Kast. El mandatario cuestiona que existen algunas investigaciones en universidades chilenas que terminan en libros y no generan empleo.

La comunidad científica y de divulgadores salió a defender la necesidad de la investigación científica y criticaron fuertemente las declaraciones y la postura del presidente. Si fue sacado de contexto y/o quiso decir otra cosa, se lo dejo a los opinólogos y comentaristas, pues creo que este hecho amerita ir mucho más al fondo del problema.

He trabajado en la academia por casi 34 años, he sido profesor full-time en tres universidades importantes del país, he publicado artículos científicos, he guiado estudiantes de postgrado, he ganado proyectos científicos, he liderado proyectos internacionales, he producido propiedad intelectual, he escrito libros y he ayudado a crear y analizar políticas públicas, además de haber trabajado como investigador fuera del país. Pero por sobre todo, he vivido las dos caras de la moneda: como investigador donde he debido competir por fondos de investigación y como evaluador, siendo parte de comités de evaluación nacionales e internacionales para quienes postulan a los fondos.

Luego, sea la razón que sea por la que el presidente realizó dicho cuestionamiento, “supongamos” por un momento que eso fuera verdad. Más aun, despersonalicemos la crítica y generalicemos a la visión que podría tener “La Sra. Juanita que vende mermeladas”. Claramente, esta ciudadana tiene dos visiones en su mente:

• “No veo la utilidad de la ciencia y tecnología (C & T) del país”.
• “Y al parecer, la calidad de la C &T no es buena en algunos casos”.

Luego, ¿Cómo le explicamos a la Sra. Juanita que no se habría podido vacunar si no fuera por la investigación básica, o que no tendría su celular si no fuera por la investigación aplicada? Esto evidencia uno de muchos problemas en C&T: comunicacional y de medición.

Problema comunicacional

El primer problema (comunicacional) posee tres dimensiones:

1) Comunicación de resultados de la investigación a través de artículos científicos (papers), libros, etc.

2) Divulgación: la comunicación científica previa es muy limitada a una comunidad científica especializada, por lo que necesitamos divulgar la C&T de forma que llegué a las personas corrientes de forma de explicar cómo funcionan la naturaleza, los fenómenos, y las cosas en general.

3) Comunicación del impacto: las anteriores dimensiones no consideran la vinculación con el mundo real, aquel donde la Sra. Juanita ve el real impacto. El problema es que para eso, necesitamos generar dicho impacto, donde casos existen, pero en ningún caso son generalizables ni sistemáticos: vacunas que salvan vidas en Chile, avances en material antisísmico, descubrimiento de galaxias, etc.

Sin embargo, una primera polémica surge del aspecto anterior: el hecho de que el impacto directo o indirecto depende del tipo y naturaleza de la investigación que se realiza, de ahí que existen investigación (o ciencia) básica e investigación aplicada.

Pero ¿cómo entendería esto la Sra. Juanita?. Quizás, deberíamos explicársela como a un niño: “La investigación básica es como cuando un niño siente curiosidad y quiere entender cómo funciona el mundo, por ejemplo, preguntarse por qué brillan las estrellas o cómo recuerdan las cosas las personas. Su objetivo es aprender y descubrir cosas nuevas, aunque no sirvan de inmediato para fabricar algo. En cambio, la investigación aplicada utiliza esos conocimientos para resolver problemas concretos, como crear una vacuna, mejorar un celular o construir autos más seguros. La básica busca entender; la aplicada busca usar ese entendimiento para hacer algo útil”.

Por diversas razones incluida la edad de nuestro país, y lo reciente que se formalizó la actividad de investigación (creación de organismo de C&T tales como CONICYT en 1967 y el Ministerio de Ciencias en 2018), no sólo no tenemos una política clara al respeto, sino tampoco una visión que nos proyecte al largo plazo. Más aún, varios países desarrollados tales como EEUU que tienen una actividad fuerte de investigación en C&T con fuerte inversión del PIB, no poseen ministerios de ciencia sino una visión y políticas claras al respecto.

Quizás por falta de voluntad política en más de 50 años, no ha habido ninguna definición clara al respecto, por lo que existe aún mucha improvisación y poca claridad, que, como consecuencia, trae cada cierto tiempo polémicas por la rebaja en la asignación de recursos para la investigación en C&T.

Lo anterior, no es una definición de un gobierno de turno sino parte de la visión del estado de hacía donde quiere dirigirse en los próximos 10-20 o más años. Por ejemplo, existen países como Japón que poseen una (relativamente) baja inversión en investigación básica comparado con los incentivos que otorgan para la investigación aplicada. Por otro lado, EEUU tradicionalmente ha invertido muchos recursos en ambas actividades, mientras que Europa lo ha hecho principalmente en investigación básica a veces en desmedro de la aplicada, y que ha contribuido a avances mundiales importantes en matemáticas, física, química, entre otros.

En este contexto, nuestro país no tiene una definición clara hacia donde apunta. Más aún, en los fondos de investigación actuales (ANID – ex CONICT) prácticamente no existe diferencia entre “indicadores” que se usan para áreas básicas y las aplicadas (aka. “Grupos de Estudio”), lo que varía esencialmente son los criterios o los “cortes” usados en los indicadores.

Existe otro aspecto muy relevante en la actividad de investigación de varios países desarrollados que tenemos como referencia, la mayor parte de los recursos de investigación no provienen del “papá estado” sino de los privados y la industria. Por supuesto que el estado provee fondos competitivos para investigación básica, pero son más limitados cuando se compara con otros (ej. National Science Foundation en EEUU).

Pero, existe otro ingrediente igual o más importante: de acuerdo con estándares de la OCDE y el Banco Mundial, existen diferentes tipos de universidades (dejando de lados los centros de investigación), siendo la más sofisticada la “universidad compleja” que se define como una institución de educación superior cuya misión principal es “la generación de nuevo conocimiento, la innovación y la transferencia tecnológica, no solo la transmisión de saberes existentes”.

Y es acá donde estamos al “debe” no sólo en Chile sino en el resto de Latam: En Chile no existe ninguna universidad compleja que tenga esa misión, por lo que su foco desde el inicio es totalmente diferente y no se pensó en aportar del punto de vista del nuevo conocimiento al país, sino desde la formación y entrenamiento de personal calificado. Otra historia muy diferente es que a pesar de dicho origen, existan universidades que están realizando y potenciando sus actividades de investigación y de buen nivel.

Incluso el sistema nacional de acreditación (de calidad) para las universidades ya considera hace años la dimensión “investigación” como una de sus actividades a rendir. Como efecto colateral, lo más probable es que aquellas que no se acrediten en la dimensión “investigación”, en el mediano plazo no puedan recibir fondos de investigación de C&T del estado. Sin embargo, que sus resultados impacten ya sea en investigación básica o aplicada depende de otros factores que discuto más adelante.

Problema de medición

El segundo problema (medición) es quizás uno de los que origina la mayor parte de las “desviaciones” del sistema de investigación ya sea básica o aplicada. Dada la “juventud” de nuestro país, se asumieron por defecto algunos indicadores clásicos de “calidad” los que a medida que pasó el tiempo se han ido tergiversando, incluso produciendo círculos viciosos. Los indicadores clásicos de resultados científicos incluyen:

• Número de artículos científicos publicados (papers): esto mide el número de artículos que un investigador publica ya sea en revistas o conferencias internacionales. Dado que esto es un “numero”, el sistema fácilmente se desvía a premiar sólo “números altos” como signo de calidad que afecta tanto en el rendimiento del investigador como de las chances de ganarse algún proyecto de investigación.

• Impacto (científico) de los papers: esto usualmente mide un factor o proporción relacionados a otros que “citan” el trabajo del investigador.

• Obtención de proyectos de investigación: esto mide la capacidad del investigador para adjudicarse/ganarse proyectos de investigación, que mayoritariamente provienen de fondos competitivos del estado a través de la ANID. Interesantemente, en varios países desarrollados, el rendimiento de un investigador en este indicador, no incrementa su relevancia según el número de proyectos ganados, sino de los montos que fue capaz de adjudicarse, sean con fondos privados o del estado (research grants).

Luego, cuando la Sra. Juanita piensa que existe investigación de baja calidad o que la investigación “no impacta”, tiene algo de razón pues ningún indicador está midiendo impacto real sino resultados científicos, por lo que la responsabilidad desde hace décadas es del propio estado.

Pero la situación es más compleja pues todo el sistema nacional de C&T está basado en dichos indicadores, sin variación ni mucha flexibilidad. Por ejemplo, si una universidad desea acreditar la calidad de algún programa de postgrado, los indicadores son esencialmente los mismos, si un grupo de investigadores desea liderar un centro importante de C&T, los indicadores son casi los mismos, y así. El sentido común dice que dada la diferencia en su naturaleza, la investigación básica y aplicada nacional se debería medir de forma diferente, pero la realidad es bien diferente.

Sin embargo, y lamentablemente, en muchas áreas (y con responsabilidad directa del estado en sus indicadores) los papers científicos se han convertido en un fin y no en un medio de comunicación científica, desviando la atención a lo realmente importante.

Estudios internacionales no solo avalan los problemas de seguir con esta postura, sino su estancamiento. En una investigación reciente publicada por la prestigiosa revista Nature1 se analizó los efectos de las publicaciones científicas y patentes generadas en el mundo, con una conclusión bastante clara sintetizada en su título “Papers and patents are becoming less disruptive over time” (papers y patentes están siendo menos disruptivas a medida que pasa el tiempo). Los resultados sugieren que la desaceleración en el ritmo de la disrupción podría reflejar un cambio fundamental en la naturaleza de la ciencia y la tecnología.

Sin desmedro que la investigación básica y aplicada por sus objetivos, se debe medir diferente, la evaluación como un todo (independiente quién investigue qué) debería considerar el impacto real como una forma medible de establecer no sólo un uso eficiente de los recursos del estado sino de asegurarse que la sociedad como un todo se beneficie de ello. Muchos podrán aludir que se ha impactado en el desarrollo de vacunas u otros avances locales. Sin embargo, ello es más bien casuístico y no debido a una política de estado. Más aún, en muchas pruebas clínicas de vacunas en Chile, en el pasado fallaron por la falta de recursos.

Naturalmente, si la investigación es de naturaleza aplicada y además está financiada por la industria, como ocurre en otros países, la medición de impacto y “retorno” será mucho más exhaustiva.

Lee también...

En este aspecto, ya existen países desarrollados que se dieron cuenta de la necesidad de medir dicho impacto. Uno de ellos es Reino Unido que en el 2013 cambió su sistema de medición de la calidad de investigación RAE (Research Assessment Excercise) que estaba basado solamente en indicadores clásicos de resultados científicos. El nuevo indicador, ahora llamado REF2 (Research Excellence Framework) ahora mide ambos, resultados científicos (hasta un 60% aproximadamente) e impacto de la investigación (hasta el 70% aprox). En general, el impacto, principalmente traducido en casos de éxito más que meros números se mide en cinco dimensiones: Políticas Públicas y Servicios, Economía y Comercio, Sociedad y Cultura, Salud y Bienestar, Medio Ambiente y Calidad de Vida.

El mensaje de fondo de los británicos salta a la vista cuando uno lee la misión de esta evaluación: “Securing a world-class, dynamic and responsive research base across the full academic spectrum within UK higher education”.
Pero en Chile, aún estamos entrampados en una discusión de años sobre la que nadie ha puesto el “cascabel al gato” y continuamos con actitudes reactivas y no proactivas como país, siendo espectadores de lo que acontece fuera de nuestras fronteras, pero no protagonistas.

Luego de todo esto, convengamos y asumamos una realidad incómoda, la frase cliché “la investigación y desarrollo es el motor que mueve un país”, es sólo eso, una propaganda política que no llega más allá pues no se traduce en votos, a menos que cambie la percepción de la Sra. Juanita y vea que es relevante con hechos, no con simple comunicación.

Como consecuencia, es evidente que necesitamos mayor inversión en Investigación y Desarrollo que sobrepase el 0.4 del PIB (una de las cifras más baja en los países de la OCDE), pero depende con qué fin y dónde.

Mientras eso no ocurra, continuarán las paradojas:

• Tenemos varios investigadores más citados del mundo, pero después de Gabriela Mistral y Pablo Neruda no tenemos ningún ganador de premios Nobel.
• Nunca se podría haber producido ChatGPT en Chile porque “publicar” es más importante que los impactos.
• Tenemos investigadores con investigaciones y teorías reconocidas mundialmente (Autopoiesis de Humberto Maturana y Francisco Varela) que nunca se adjudicaron fondos nacionales de investigación por sus indicadores.

“Si buscas resultados distintos no hagas siempre lo mismo”, Albert Einstein.