Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro

Autores
Rucci, Enzo; Villarreal, Gonzalo Luján
Año de publicación
2023
Idioma
español castellano
Tipo de recurso
informe técnico
Estado
versión publicada
Descripción
La rapidez con la que la cantidad y disponibilidad de información aumenta ha tenido fuerte impacto en el modo en que los investigadores la utilizan. Es habitual que un investigador lea, acceda y utilice información extraída de artículos de otros colegas. Hasta hace algunas décadas atrás, el requisito de originalidad y el proceso de revisión por pares eran elementos suficientes para certificar la calidad del material con el que se trabajaba. Sin embargo, esto cambió de manera radical con el surgimiento de la Internet y de sistemas con mayor grado de automatización para la publicación y evaluación de documentos científicos. Un estudio realizado a finales del 2018 sugiere que al menos 3 millones de artículos fueron publicados en ese año, en aproximadamente 33100 revistas científicas. La necesidad de determinar calidad e impacto de recursos científicos se traduce en lo que hoy vemos como sistemas de evaluación, indicadores y métricas de revistas y artículos. Si bien no son una herramienta automatizada en su totalidad, ni mucho menos estandarizada, estos elementos permiten tener valores concretos o numéricos que pueden dar (o aproximar) respuestas a preguntas como: este recurso ¿es de buena calidad?, ¿es de alto impacto?, ¿es útil?, ¿es válido? Lamentablemente, los sistemas, métricas e indicadores mencionados anteriormente no están exentos de subjetividad ni de sesgos. En consecuencia, actualmente los miembros de la comunidad académica y científica se enfrentan a una tarea ardua y engorrosa cuando deben determinar la calidad y el impacto de una publicación científica. Esta situación se debe a dos factores. En primer lugar, al crecimiento exponencial en la disponibilidad de recursos que tuvo el área debido al desarrollo tecnológico. En segundo lugar, la ausencia de estándares y la consecuente existencia de múltiples métricas y sistemas de evaluación que, aunque comparten objetivos, no siempre lo llevan a cabo de la misma manera. Es en este contexto donde surge la Herramienta para Evaluación de Recursos Académicos (HERA), una herramienta web que apunta a simplificar, agilizar y apoyar el proceso de determinar la calidad y el impacto de un recurso académico. Para ello, recopila información proveniente de diferentes bases de datos académicas (principalmente indicadores/métricas de calidad e impacto) en forma rápida, para luego ser exhibidas de forma integrada y amigable al usuario.
Informe técnico realizado en el contexto del Proyecto N° 1/22, EX-2022-137624407-APN-DDYGD#MCT: Cartografía de la evaluación académica en Argentina. Estado del arte y agenda de cambio institucional para una ciencia más abierta, inclusiva y socialmente relevante (UNCuyo).
Instituto de Investigación en Informática
Dirección PREBI-SEDICI
Materia
Informática
Ciencia de la ciencia
evaluación científica
indicadores científicos
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/162037

id SEDICI_89983580acf588cbf8c3378c1df172d3
oai_identifier_str oai:sedici.unlp.edu.ar:10915/162037
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuroRucci, EnzoVillarreal, Gonzalo LujánInformáticaCiencia de la cienciaevaluación científicaindicadores científicosLa rapidez con la que la cantidad y disponibilidad de información aumenta ha tenido fuerte impacto en el modo en que los investigadores la utilizan. Es habitual que un investigador lea, acceda y utilice información extraída de artículos de otros colegas. Hasta hace algunas décadas atrás, el requisito de originalidad y el proceso de revisión por pares eran elementos suficientes para certificar la calidad del material con el que se trabajaba. Sin embargo, esto cambió de manera radical con el surgimiento de la Internet y de sistemas con mayor grado de automatización para la publicación y evaluación de documentos científicos. Un estudio realizado a finales del 2018 sugiere que al menos 3 millones de artículos fueron publicados en ese año, en aproximadamente 33100 revistas científicas. La necesidad de determinar calidad e impacto de recursos científicos se traduce en lo que hoy vemos como sistemas de evaluación, indicadores y métricas de revistas y artículos. Si bien no son una herramienta automatizada en su totalidad, ni mucho menos estandarizada, estos elementos permiten tener valores concretos o numéricos que pueden dar (o aproximar) respuestas a preguntas como: este recurso ¿es de buena calidad?, ¿es de alto impacto?, ¿es útil?, ¿es válido? Lamentablemente, los sistemas, métricas e indicadores mencionados anteriormente no están exentos de subjetividad ni de sesgos. En consecuencia, actualmente los miembros de la comunidad académica y científica se enfrentan a una tarea ardua y engorrosa cuando deben determinar la calidad y el impacto de una publicación científica. Esta situación se debe a dos factores. En primer lugar, al crecimiento exponencial en la disponibilidad de recursos que tuvo el área debido al desarrollo tecnológico. En segundo lugar, la ausencia de estándares y la consecuente existencia de múltiples métricas y sistemas de evaluación que, aunque comparten objetivos, no siempre lo llevan a cabo de la misma manera. Es en este contexto donde surge la Herramienta para Evaluación de Recursos Académicos (HERA), una herramienta web que apunta a simplificar, agilizar y apoyar el proceso de determinar la calidad y el impacto de un recurso académico. Para ello, recopila información proveniente de diferentes bases de datos académicas (principalmente indicadores/métricas de calidad e impacto) en forma rápida, para luego ser exhibidas de forma integrada y amigable al usuario.Informe técnico realizado en el contexto del Proyecto N° 1/22, EX-2022-137624407-APN-DDYGD#MCT: Cartografía de la evaluación académica en Argentina. Estado del arte y agenda de cambio institucional para una ciencia más abierta, inclusiva y socialmente relevante (UNCuyo).Instituto de Investigación en InformáticaDirección PREBI-SEDICI2023-11-01info:eu-repo/semantics/reportinfo:eu-repo/semantics/publishedVersionReporte tecnicohttp://purl.org/coar/resource_type/c_18ghinfo:ar-repo/semantics/informeTecnicoapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/162037spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-10-22T17:23:28Zoai:sedici.unlp.edu.ar:10915/162037Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-10-22 17:23:28.785SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
title Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
spellingShingle Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
Rucci, Enzo
Informática
Ciencia de la ciencia
evaluación científica
indicadores científicos
title_short Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
title_full Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
title_fullStr Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
title_full_unstemmed Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
title_sort Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro
dc.creator.none.fl_str_mv Rucci, Enzo
Villarreal, Gonzalo Luján
author Rucci, Enzo
author_facet Rucci, Enzo
Villarreal, Gonzalo Luján
author_role author
author2 Villarreal, Gonzalo Luján
author2_role author
dc.subject.none.fl_str_mv Informática
Ciencia de la ciencia
evaluación científica
indicadores científicos
topic Informática
Ciencia de la ciencia
evaluación científica
indicadores científicos
dc.description.none.fl_txt_mv La rapidez con la que la cantidad y disponibilidad de información aumenta ha tenido fuerte impacto en el modo en que los investigadores la utilizan. Es habitual que un investigador lea, acceda y utilice información extraída de artículos de otros colegas. Hasta hace algunas décadas atrás, el requisito de originalidad y el proceso de revisión por pares eran elementos suficientes para certificar la calidad del material con el que se trabajaba. Sin embargo, esto cambió de manera radical con el surgimiento de la Internet y de sistemas con mayor grado de automatización para la publicación y evaluación de documentos científicos. Un estudio realizado a finales del 2018 sugiere que al menos 3 millones de artículos fueron publicados en ese año, en aproximadamente 33100 revistas científicas. La necesidad de determinar calidad e impacto de recursos científicos se traduce en lo que hoy vemos como sistemas de evaluación, indicadores y métricas de revistas y artículos. Si bien no son una herramienta automatizada en su totalidad, ni mucho menos estandarizada, estos elementos permiten tener valores concretos o numéricos que pueden dar (o aproximar) respuestas a preguntas como: este recurso ¿es de buena calidad?, ¿es de alto impacto?, ¿es útil?, ¿es válido? Lamentablemente, los sistemas, métricas e indicadores mencionados anteriormente no están exentos de subjetividad ni de sesgos. En consecuencia, actualmente los miembros de la comunidad académica y científica se enfrentan a una tarea ardua y engorrosa cuando deben determinar la calidad y el impacto de una publicación científica. Esta situación se debe a dos factores. En primer lugar, al crecimiento exponencial en la disponibilidad de recursos que tuvo el área debido al desarrollo tecnológico. En segundo lugar, la ausencia de estándares y la consecuente existencia de múltiples métricas y sistemas de evaluación que, aunque comparten objetivos, no siempre lo llevan a cabo de la misma manera. Es en este contexto donde surge la Herramienta para Evaluación de Recursos Académicos (HERA), una herramienta web que apunta a simplificar, agilizar y apoyar el proceso de determinar la calidad y el impacto de un recurso académico. Para ello, recopila información proveniente de diferentes bases de datos académicas (principalmente indicadores/métricas de calidad e impacto) en forma rápida, para luego ser exhibidas de forma integrada y amigable al usuario.
Informe técnico realizado en el contexto del Proyecto N° 1/22, EX-2022-137624407-APN-DDYGD#MCT: Cartografía de la evaluación académica en Argentina. Estado del arte y agenda de cambio institucional para una ciencia más abierta, inclusiva y socialmente relevante (UNCuyo).
Instituto de Investigación en Informática
Dirección PREBI-SEDICI
description La rapidez con la que la cantidad y disponibilidad de información aumenta ha tenido fuerte impacto en el modo en que los investigadores la utilizan. Es habitual que un investigador lea, acceda y utilice información extraída de artículos de otros colegas. Hasta hace algunas décadas atrás, el requisito de originalidad y el proceso de revisión por pares eran elementos suficientes para certificar la calidad del material con el que se trabajaba. Sin embargo, esto cambió de manera radical con el surgimiento de la Internet y de sistemas con mayor grado de automatización para la publicación y evaluación de documentos científicos. Un estudio realizado a finales del 2018 sugiere que al menos 3 millones de artículos fueron publicados en ese año, en aproximadamente 33100 revistas científicas. La necesidad de determinar calidad e impacto de recursos científicos se traduce en lo que hoy vemos como sistemas de evaluación, indicadores y métricas de revistas y artículos. Si bien no son una herramienta automatizada en su totalidad, ni mucho menos estandarizada, estos elementos permiten tener valores concretos o numéricos que pueden dar (o aproximar) respuestas a preguntas como: este recurso ¿es de buena calidad?, ¿es de alto impacto?, ¿es útil?, ¿es válido? Lamentablemente, los sistemas, métricas e indicadores mencionados anteriormente no están exentos de subjetividad ni de sesgos. En consecuencia, actualmente los miembros de la comunidad académica y científica se enfrentan a una tarea ardua y engorrosa cuando deben determinar la calidad y el impacto de una publicación científica. Esta situación se debe a dos factores. En primer lugar, al crecimiento exponencial en la disponibilidad de recursos que tuvo el área debido al desarrollo tecnológico. En segundo lugar, la ausencia de estándares y la consecuente existencia de múltiples métricas y sistemas de evaluación que, aunque comparten objetivos, no siempre lo llevan a cabo de la misma manera. Es en este contexto donde surge la Herramienta para Evaluación de Recursos Académicos (HERA), una herramienta web que apunta a simplificar, agilizar y apoyar el proceso de determinar la calidad y el impacto de un recurso académico. Para ello, recopila información proveniente de diferentes bases de datos académicas (principalmente indicadores/métricas de calidad e impacto) en forma rápida, para luego ser exhibidas de forma integrada y amigable al usuario.
publishDate 2023
dc.date.none.fl_str_mv 2023-11-01
dc.type.none.fl_str_mv info:eu-repo/semantics/report
info:eu-repo/semantics/publishedVersion
Reporte tecnico
http://purl.org/coar/resource_type/c_18gh
info:ar-repo/semantics/informeTecnico
format report
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/162037
url http://sedici.unlp.edu.ar/handle/10915/162037
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1846783681587314688
score 12.982451