Sección: Editorial
Publicado: 2018-10-04

Editorial

  • Comité Editorial Docente Titular adscrito al Programa de Historia. Facultad de Ciencias Humanas. Universidad del Atlántico
Editorial Vol. XIV No. 34
Cómo citar
Editorial, C. (2018). Editorial. Historia Caribe, 14(34), 9-16. https://doi.org/10.15648/hc.34.2019.0

Visitas al artículo

520

Métricas Dimensions

Métricas PlumX

Descargas

La descarga de datos todavía no está disponible.
editorial

Editorial

DOI: http://dx.doi.org/10.15648/hc.34.2019.0

El pasado 18 de septiembre de 2018, el periódico El País de España dio a conocer una noticia en la que se hacía referencia al fallo proferido por el Tribunal Supremo, el cual le dio la razón a la profesora Amparo Sánchez de la Universidad de Extremadura, a quien le habían sido evaluados con nota baja dos trabajos presentados en la valoración de sus méritos como investigadora, conocido como sexenio, razón por la cual interpuso acciones legales que llevaron a la máxima instancia judicial española a conceptuar que “Las investigaciones, las aportaciones presentadas por los interesados, no pueden dejar de examinarse solo por el hecho de que no se publicaran en las revistas o medios incluidos en los índices o listados identificados […]. Ni tampoco están excluidos por esa sola razón de la máxima valoración permitida […]. Dependerá de su contenido la evaluación que merezcan”1.

Este fallo puso de manifiesto una situación que aqueja la producción científica en muchos países, incluida Colombia, pues por lo general, tal como ocurre con el sistema de asignación de puntos salariales por productividad regulado por el Decreto 1279 de 2002, al momento de evaluar los artículos, se impone el prestigio que tiene la revista en relación a los sistemas de indexación como Publindex para el caso de nuestro país, lo cual significa que no se tiene en cuenta la calidad del texto en sí mismo y sus aportes, sino la categoría de la revista en la que fue publicado, categorización que para el caso colombiano depende de un modelo impuesto que no considera las dinámicas y las realidades propias de nuestro desarrollo científico, el mismo que somete a un desgaste y a un vaivén oprobioso.

Ante esta situación, a la que están sometidos tanto investigadores como revistas, el equipo editorial de Historia Caribe considera oportunas manifestaciones como la de San Francisco Declaration on Research Assessment, también conocida por sus siglas como DORA, a la que nos adherimos totalmente, pues situaciones como la anteriormente señalada no pueden seguir ocurriendo. En efecto, el trabajo científico no puede quedar preso en los sistemas que se lucran con la labor de los investigadores, como ocurre con las llamadas revistas depredadoras o índices que limitan el acceso abierto. De igual manera, las revistas serias no pueden seguir al vaivén de modelos que a la larga terminan por sacrificar la gestión editora de años y que al final terminan por desconocer lo novedoso del aporte científico en disciplinas como las Ciencias Humanas y Sociales.

Por ello insistimos, tal como lo hemos hecho en varios editoriales, que la valía del aporte o del nuevo saber no puede ser consecuencia del dónde se publica, sino qué se publica y en algunos casos ese interés de impactar termina por limitar qué textos se reciben y cuáles no, lo cual termina creando un perfil o lista de temas que no dependen del avance mismo de la ciencia en su conjunto, sino del interés que termina imponiendo el deseo de poder lograr un mejor posicionamiento en estos sistemas.

Este tipo de prácticas y modelos, a la larga resultan ser una amenza contra proyectos como Historia Caribe, la cual a pesar de muchas visicitudes, resulta atrayente para muchos historiadores, quienes encuentran en estas páginas la oportunidad para publicar los resultados de sus investigaciones, las mismas a las que han dedicado cientos de horas de trabajo.

Ciertamente situaciones como las que nos ocupan en este editorial no son las más indicadas para nuestra realidad científica y social, dado que este tipo de prácticas y modelos traen como consecuencia que a un tema novedoso y ciertamente innovador no se le pueda dar paso, sino se encuentra en ese listado de temas que garantizarán una cita, para lograr un mejor impacto. Por lo tanto, investigación y autor se verán inevitablemente perdidos, sin recursos y en el total anonimato, no importando las horas de trabajo, la escasez de financiación y la evaluación constante a que son sometidos, cuando todo al final se reduce al impacto, y no a lo que dice o aporta una investigación, sino por los números que suma, a las citas que produce.

Igualmente, como ya lo hemos manifestado, pasa con las revistas, en donde la cantidad de citaciones, no mide lo riguroso y dedicado del proceso de evaluación editorial y de la importancia del saber histórico que se divulga. Por esta razón, y en consonancia al espíritu de la política editorial de Historia Caribe, asumimos y signamos la antes mencionada declaración.

Declaración de San Francisco sobre la evaluación de la investigación2

“Existe una necesidad apremiante de mejorar la forma en que las agencias de financiación, las instituciones académicas y otros grupos evalúan la investigación científica. Para abordar este tema, un grupo de editores de revistas académicas se congregó durante la Reunión anual de la American Society for Cell Biology (ASCB) en San Francisco, California, el ١٦ de diciembre de ٢٠١٢. Este grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco sobre la Evaluación de la Investigación. Invitamos a los grupos interesados de todas las disciplinas científicas a mostrar su apoyo añadiendo sus nombres a esta declaración.

Los productos de la investigación científica son muchos y variados, e incluyen: artículos de investigación que informan sobre nuevos conocimientos, datos, reactivos y software; propiedad intelectual y jóvenes científicos capacitados. Las agencias financiadoras, las instituciones que emplean científicos y los propios científicos, tienen el deseo y la necesidad de evaluar la calidad y el impacto de los resultados científicos. Por lo tanto, es imperativo que la producción científica se mida con precisión y se evalúe con prudencia.

El factor de impacto se utiliza con frecuencia como parámetro principal con el qué comparar la producción científica de individuos e instituciones. El factor de impacto, calculado por Thomson Reuters*, se creó originalmente como una herramienta para ayudar a los bibliotecarios a identificar revistas para comprar, no como una medida de la calidad científica de la investigación en un artículo. Teniendo esto en cuenta, es fundamental comprender que el factor de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación.

Estas limitaciones incluyen:

1.Las distribuciones de citas dentro de las revistas son muy sesgadas [1-3],

2.Las propiedades del factor de impacto son específicas de cada campo: es un compuesto de múltiples tipos de artículos altamente diversos, incluyendo trabajos de investigación primaria y revisiones [1, 4],

3.Los factores de impacto pueden ser manipulados (o evaluados) por la política editorial [5], y

4.Los datos utilizados para calcular el factor de impacto no son transparentes ni están abiertamente disponibles para el público [4, 6, 7].

A continuación, hacemos una serie de recomendaciones para mejorar la forma en que se evalúa la calidad de la producción científica. Los productos que no sean artículos de investigación crecerán en importancia a la hora de evaluar la eficacia de la investigación en el futuro, pero el documento de investigación revisado por pares seguirá siendo primordial para la evaluación de la investigación. Por lo tanto, nuestras recomendaciones se centran en las prácticas relacionadas con los artículos de investigación publicados en revistas revisadas por pares, pero pueden y deben ampliarse reconociendo productos adicionales, como los conjuntos de datos, ya que son productos de investigación importantes. Estas recomendaciones están dirigidas a agencias financiadoras, instituciones académicas, revistas, organizaciones que proporcionan métricas e investigadores individuales.

Estas recomendaciones cubren una serie de temas:

La necesidad de eliminar el uso de métricas basadas en revistas, tales como el factor de impacto, en consideraciones de financiamiento, nombramiento y promoción,

La necesidad de evaluar la investigación por sus propios méritos en lugar de basarse en la revista en la que se publica la investigación, y

La necesidad de capitalizar las oportunidades que ofrece la publicación en línea (como flexibilizar los límites innecesarios en el número de palabras, figuras y referencias en los artículos, y explorar nuevos indicadores de importancia e impacto).

Reconocemos que múltiples agencias financiadoras, instituciones, editores e investigadores ya están fomentando mejores prácticas en la evaluación de la investigación. Dichos pasos están comenzando a aumentar el impulso hacia enfoques más sofisticados y significativos para la evaluación de la investigación que ahora pueden ser desarrollados y adoptados por todas las partes clave involucradas.

Los signatarios de la Declaración de San Francisco sobre la Evaluación de la Investigación apoyan la adopción de las siguientes prácticas en la evaluación de la investigación.

Recomendación general

1.No utilice métricas basadas en revistas, como el factor de impacto, como una medida sustituta de la calidad de los artículos de investigación individuales, para evaluar las contribuciones de un científico individual, o en las decisiones de contratación, promoción o financiación.

Para las agencias de financiación

2.Sea explícito sobre los criterios utilizados para evaluar la productividad científica de los solicitantes de fondos de investigación, especialmente para los investigadores que están iniciando su carrera investigadora, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

3.Con el fin de evaluar la investigación, considere el valor y el impacto de todos los resultados de la investigación (incluidos los conjuntos de datos y el software) además de las publicaciones de investigación, y considere una amplia gama de medidas de impacto que incluyan indicadores cualitativos, como la influencia sobre la política y prácticas científicas.

Para las instituciones

4.Sea explícito sobre los criterios utilizados para realizar decisiones de contratación, permanencia y promoción, destacando, especialmente para los investigadores que están iniciando su carrera investigadora, que el contenido científico de un trabajo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

5.Con el fin de evaluar la investigación, considere el valor y el impacto de todos resultados de la investigación (incluidos los conjuntos de datos y el software) además de las publicaciones de investigación, y considere una amplia gama de medidas de impacto, incluidos los indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y prácticas científicas.

Para las editoriales

6.Reduzca profundamente el énfasis en el factor de impacto como herramienta promocional, idealmente dejando de promover su uso o presentando la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, factor de impacto de 5 años, EigenFactor [8], SCImago [9], h-index, tiempo editorial y de publicación, etc.) que proporcionan una visión más amplia del rendimiento de la revista.

7.Ponga a disposición una variedad de métricas a nivel de artículo para alentar un cambio hacia la evaluación basada en el contenido científico de un artículo en lugar de las métricas de publicación de la revista en la que se publicó.

8.Fomente las prácticas de la autoría responsable y la provisión de información sobre las contribuciones específicas de cada autor.

9.Independientemente de que una revista sea de acceso abierto o basada en suscripciones, elimine todas las limitaciones de reutilización de las listas de referencias en los artículos de investigación y haga que estén disponibles bajo la dedicación de dominio público de Creative Commons [10].

10.Elimine o reduzca las restricciones sobre el número de referencias en los artículos de investigación y, cuando corresponda, ordene la citación de la literatura primaria a favor de las revisiones para dar crédito al grupo o los grupos que primero informaron de un hallazgo.

Para las organizaciones que proporcionan métricas

11.Sea abierto y transparente al proporcionar datos y métodos utilizados para calcular las métricas.

12.Proporcione los datos bajo una licencia que permita la reutilización sin restricciones y proporcione acceso computacional a los datos, cuando sea posible.

13.Especifique que no se tolerará la manipulación inapropiada de las métricas; sea explícito sobre lo que constituye una manipulación inapropiada y qué medidas se tomarán para combatirla.

14.Tenga en cuenta la variación en los tipos de artículos (por ejemplo, revisiones frente a artículos de investigación) y en las diferentes áreas temáticas al utilizar, agregar o comparar métricas.

Para los investigadores

15.Cuando participe en comités que toman decisiones sobre financiación, contratación, permanencia o promoción, realice evaluaciones basadas en el contenido científico en lugar de en métricas de publicación.

16.Cuando sea apropiado, cite literatura primaria en que las observaciones son referidas primero, en lugar de revisiones para dar crédito donde debe darse.

17.Utilice una gama de métricas e indicadores basadas en declaraciones personales y de apoyo, como evidencia del impacto de artículos individuales publicados y otros resultados de investigación [11].

18.Impugne las prácticas de evaluación que dependen indebidamente del factor de impacto y promueva y enseñe prácticas que se centren en el valor y la influencia de los resultados de investigación específicos”.


1 Véase: J. A. Aunión, “La justicia obliga a leer los trabajos para acreditar los méritos de investigación en la universidad”, El País, Madrid, 18 de septiembre de 2018, https://elpais.com/sociedad/2018/09/18/actualidad/1537270842_896963.html (consultado 10 de octubre de 2018).

2 Véase: Declaración de San Francisco sobre la evaluación de la investigación,

https://sfdora.org/read/es/ (Consultado el 10 de octubre de 2018)