Editorial
Algunos comentarios sobre los métodos alternativos métricos
Some comments on the metric alternative methods
Ing. Jorge A. Fundora-Mirabal1, Dr.C. Alberto J. Dorta-Contreras1.
- Universidad de Ciencias Médicas de La Habana. Cuba.
RESUMEN
Una parte importante e imprescindible de la actividad de los científicos y docentes de universidades e institutos de investigación es la divulgación de sus resultados a través de la publicación en revistas especializadas y sobre la base de estas descansa su evaluación.
En Cuba la medición de los resultados científicos se realiza por el conteo simple de los artículos que publican los profesionales: Un científico tiene un mayor mérito si publica más artículos, un docente para pasar de una categoría a otra superior tiene que tener en su aval un número determinado de publicaciones; o sea, esta es la etapa cuantitativa por la que aun transitan muchos países.
Luego surgieron los métodos para combinar la cantidad con la calidad y entonces se pasa una escala superior que ocurre cuando los trabajos publicados son leídos y son citados en otros artículos, esto ya es una métrica que mide calidad porque significa que la ciencia se ha “consumido.”
DeCS: PUBLICACIONES CIENTÍFICAS Y TÉCNICAS; INDICADORES BIBLIOMÉTRICOS; INDICADORES DE IMPACTO SOCIAL; MEDIOS DE COMUNICACIÓN SOCIALES.
Palabras clave: Publicaciones científicas y técnicas; indicadores bibliométricos; indicadores de impacto social; medios de comunicación sociales.
ABSTRACT
An important and indispensable part of the activity of the scientists and teachers of universities and investigation institutes it is the popularization of their results through the publication in specialized magazines and on the base of these rests their evaluation.
In Cuba the mensuration of the scientific results is carried out by the simple count of the articles that professionals publish: A scientist has a bigger merit if he publishes more articles, a teacher one to pass from a category to another superior has to have in his reference a certain number of publishing; that is to say, this is the quantitative stage to which still traffic many countries.
Then the methods arose to combine the quantity with the quality and then to pass to a superior scale that happens when the published works are read and quoted in other articles, this is already a metric that measures quality because it means that the science has been "consumed."
MeSH: SCIENTIFIC AND TECHNICAL PUBLICATIONS; BIBLIOMETRIC INDICATORS; SOCIAL IMPACT INDICATORS; SOCIAL MEDIA.
Keywords: Scientific and technical publications; bibliometric indicators; social impact indicators; social media.
EDITORIAL
Una parte importante e imprescindible de la actividad de los científicos y docentes de universidades e institutos de investigación es la divulgación de sus resultados a través de la publicación en revistas especializadas y sobre la base de estas descansa su evaluación.
En Cuba la medición de los resultados científicos se realiza por el conteo simple de los artículos que publican los profesionales: Un científico tiene un mayor mérito si publica más artículos, un docente para pasar de una categoría a otra superior tiene que tener en su aval un número determinado de publicaciones; o sea, esta es la etapa cuantitativa por la que aun transitan muchos países.
Luego surgieron los métodos para combinar la cantidad con la calidad y entonces se pasa una escala superior que ocurre cuando los trabajos publicados son leídos y son citados en otros artículos, esto ya es una métrica que mide calidad porque significa que la ciencia se ha “consumido.”
Recientemente, además de estos dos enfoques, han ido surgiendo otros intentos métricos que se basan en la forma en que se obtiene la información a través de opiniones, el conocimiento de estos artículos por la prensa no especializada, en un ambiente sedimentado en las redes sociales.
En pleno siglo XXI, las redes sociales y los medios alternativos para obtener información, intentan ocupar espacios cada vez mayores en los medios de comunicación y en otras esferas de la vida lo que incluye la vida académica. El conjunto de estas formas no convencionales de medir la actividad científica es lo que se conoce como métodos alternativos métricos o almetría.
Es necesario conocer algunos comentarios sobre los métodos alternativos para medir la ciencia, o almetrías de las ciencias que emplean recursos de las redes sociales.
Los métodos alternativos a las métricas tradicionales se han ido imponiendo en los últimos años. Lo que parecía casi definitivo en 2005, con la llegada del índice H 1, se ha revitalizado ante el auge de las redes sociales y su aplicación a los estudios que evalúan el impacto de la producción científica. Sin embargo, aún no se puede afirmar que los métodos almétricos sustituyen a los tradicionales porque se han observado formas de manipular las redes sociales; investigadores fraudulentos pueden hacer crecer de forma asombrosa las veces que un artículo se descarga de las bases de datos y las alternativas de aceptación también pueden y son objeto de alteraciones.
Esto se suma a los escándalos de ciertas editoriales que habían logrado manipular el proceso de revisión externa por pares para lucrar y a la corriente creciente de autores que se ven obligados a retractarse de artículos publicados que permitieron engrosar la entrada de fondos para sus investigaciones. Muchos investigadores han terminado en la cárcel y han tenido que devolver los fondos obtenidos de sus acciones delictivas. Esto puede llegar a desvalorizar la producción científica porque establece dudas en cuanto a la veracidad de los artículos y entonces darle mayor importancia a otras fuentes de nuevos conocimientos.
Por estas y otras muchas razones debemos ser un tanto conservadores a la hora de dar crédito a las métricas alternativas porque son muy vulnerables y manipulables por elementos inescrupulosos. Basta entrar muchas veces a un sitio, bajar el artículo y comentar en la red que te gusta; o que salga una nota de prensa en un diario influyente con un comentario favorable al artículo científico, incluso sin cuestionar la calificación del periodista, se traduce en acciones tales como que muchas personas, incluyendo los propios hombres de ciencia intenten hacer lo mismo: el artículo es más leído y comentado y todas estas acciones dan un valor numérico que puede lanzar al autor a la fama. Hasta tanto no surjan formas novedosas de controlar la calidad de estos procesos, las métricas alternativas quedarían como lo que son: formas de hacer más visible el trabajo del investigador. Existen redes sociales de profesionales y científicos que logran una interacción entre iguales que favorecen la visibilidad y la trasmisión de conocimientos científicos.
El manifiesto de Leyden 2 se basa en diez principios que buscan, de manera general, alertar a los investigadores sobre los riesgos que implican una incorrecta aplicación en términos absolutos de cualquier intento de medir el impacto científico. De esta manera, este manifiesto apoya la importancia de las métricas sin supeditar las evaluaciones a simples ejercicios numéricos. El trabajo del investigador debe ser evaluado de acuerdo con las características propias de la ciencia que hace y en las condiciones en que esta emerge. También se trata de proteger la producción nacional de cada país y que se valoren las publicaciones divulgadas en revistas nacionales, independientemente de su factor de impacto; esto por supuesto resulta difícil de allanar porque uno de los criterios más sólidos es considerar que la ciencia vale tanto como el lugar donde esta se divulgue.
Tal vez en el futuro se le pida al autor que entregue libremente los datos primarios de su trabajo para que puedan ser perfectamente verificables aunque esto implica también riesgos en cuanto a derechos de autor entre los diferentes países.
Lo más apropiado para evaluar con certeza el avance de una ciencia en particular es tener a mano un grupo de indicadores para diferenciar las prácticas de publicación y el ritmo de citaciones, ambas pueden ser diferentes en los diversos campos científicos; tanto la labor del investigador como la relativa al centro donde se realiza la ciencia en específico tienen que además contar con evaluadores de calidad.
Como la ciencia avanza, también avanzan los indicadores métricos por lo cual debemos una y otra vez evaluar críticamente la forma en que medimos la ciencia, siempre combinando indicadores cuantitativos con cualitativos.
EDITORIAL
An important and indispensable part of the activity of the scientists and teachers of universities and investigation institutes it is the popularization of their results through the publication in specialized magazines and on the base of these rests their evaluation.
In Cuba the mensuration of the scientific results is carried out by the simple count of the articles that professionals publish: A scientist has a bigger merit if he publishes more articles, a teacher one to pass from a category to another superior has to have in his reference a certain number of publishing; that is to say, this is the quantitative stage to which still traffic many countries.
Then the methods arose to combine the quantity with the quality and then to pass to a superior scale that happens when the published works are read and quoted in other articles, this is already a metric that measures quality because it means that the science has been "consumed."
Recently, besides these two approaches, it has gone arising other metric intents that are based on the form in that the information is obtained through opinions, the knowledge of these articles for the non-specialized press, in an atmosphere deposited in the social media.
In the middle of XXI century, the social media and the alternative means to obtain information, try to occupy bigger spaces every time in the communication media and in other spheres of life which includes the academic life. The group in these non-conventional ways of measuring the scientific activity is what is known as metric alternative methods or almetry.
It is necessary to know some comments on the alternative methods to measure the science, or almetry of the sciences that use resources of the social media.
The alternative methods to the traditional metric have been imposing itself in the last years. What seemed almost definitive in 2005, with the arrival of the index H 1, it has been revitalized before the peak of the social media and their application to the studies that evaluate the impact of the scientific production. However, it cannot still affirm that the almetric methods substitute to the traditional ones because it have been observed ways of manipulating the social medias; fraudulent investigators can make grow in an astonishing way the times that an article is discharged of the databases and the alternatives of acceptance also can and are object of alterations.
This is added to the scandals of certain editorials that had been able to manipulate the process of external revision for couples to enrich and current growing of authors that are forced to retract of published articles that allowed augmenting the entrance of funds for their investigations. Many investigators have finished in jail and have had to return the obtained funds of their criminal actions.
This can end up devaluating the scientific production because it establishes doubts as for the truthfulness of the articles and then to give bigger importance to other sources of new knowledge.
For these and other many reasons we should be a so much conservatives when giving credit to the metric alternative because they are very vulnerable and manipulable for unscrupulous elements. It´s enough to enter many times to a place, to download the article and to comment in the media that you like it; or that a press note goes out in an influential newspaper with a favorable comment to the scientific article, even without questioning the journalist's qualification, it is translated in such actions as many people, including the own science men tries to make the same thing: the article is read and commented and all these actions give a numeric value that can throw to the author to the fame. Until novel forms of controlling the quality of these processes don’t arise, the metric alternatives would be as what they are: forms of making more visible the investigator's work. Professionals' social media exist and scientific that achieves an interaction among equals that favor the visibility and the transmission of scientific knowledge.
The manifesto of Leyden 2 are based on ten principles that look for, in a general way, to alert the investigators about the risks that imply an incorrect application in absolute terms of any intent of measuring the scientific impact. This way, this manifesto supports the importance of the metric without subordinating the evaluations to simple numeric exercises. The investigator's work should be evaluated in agreement with the characteristics of the science that makes and under the conditions in that it emerges. It is also to protect the national production of each country and that the publications are valued disclosed in national magazines, independently of their impact factor; this of course is difficult to level because one of the most solid approaches is to consider that the science is worth as much as the place where it is disclosed.
Perhaps in the future it is requested to the author that gives the primary data of their work freely so that they can be perfectly verifiable although this also implies risks as for author´s right among the different countries.
The most appropriate thing to evaluate with certainty the advance of a science in particular is to have a group of indicators in hand to differentiate the publication practices and the rhythm of citations, both can be different in the diverse scientific fields; so as the investigator's work as the relative to the center where it is carried out the science in specific they have also to have quality evaluators.
As the science advances, the metric indicators also advance reason why we owe one and another time to evaluate the form in what we measure the science, critically always combining quantitative indicators with qualitative ones.
REFERENCIAS BIBLIOGRÁFICAS
- Hirsch JE. An index to quantify an individual’s scientific research output. Proc Natl Acad Sci USA [Internet]. 2005 Nov [cited: 2016/ jul/07];102(46):16569-72. Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1283832/
- Hicks D, Wouters P, Waltman L, de Rijcke S, Rafols I. Bibliometrics: The Leiden Manifesto for research metrics. Nature [Internet]. 2015 Apr [cited: 2016/ jul/07];520(7548):429-31. Available from: http://www.nature.com/news/bibliometrics-the-leiden-manifesto-for-research-metrics-1.17351
Recibido: 2016-05-09
Aprobado: 2016-06-27
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial 4.0 Internacional.