SciELO - Scientific Electronic Library Online

 
 número22ELABORACIÓN DE UN MARCO COMÚN DE ESTÁNDARES DIGITALES PARA EL PROFESORADO DEL SISTEMA ESCOLARLA HERRAMIENTA INTERACTIVA LIVEWORKSHEET COMO RECURSO DIDÁCTICO EN EL PROCESO DE ENSEÑANZA-APRENDIZAJE DE QUÍMICA índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista Chakiñan de Ciencias Sociales y Humanidades

versión On-line ISSN 2550-6722

Revista Chakiñan  no.22 Riobamba ene./abr. 2024

https://doi.org/10.37135/chk.002.22.04 

Artículo de Investigación

INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES DE ESTUDIANTES UNIVERSITARIOS

ASSESSMENT TOOLS IN THE FORMATION OF PROFESSIONAL COMPETENCIES AMONG UNIVERSITY STUDENTS

1Universidad Cesar Vallejo, Escuela de postgrado, Trujillo, Perú, email: mbazanli@ucvvirtual.edu.pe

2 Universidad Cesar Vallejo, Escuela de postgrado, Trujillo, Perú, email: lperaltaro@ucvvirtual.edu.pe

3Universidad Cesar Vallejo, Escuela de postgrado, Trujillo, PerúUniversidad Cesar Vallejo, Escuela de postgrado, Trujillo, Perú, email: gportalm@ucvvirtual.edu.pe

4 Universidad Cesar Vallejo, Escuela de postgrado, Trujillo, Perú, email: mlunaa@ucvvirtual.edu.pe


RESUMEN

La evaluación formativa se concibe como un factor esencial para mejorar el proceso de enseñanza-aprendizaje; el éxito de su implementación en las aulas universitarias radica en las herramientas para lograrlo. El objetivo de la presente investigación se relaciona con analizar los beneficios de la aplicación de instrumentos de evaluación en la formación de competencias profesionales de estudiantes universitarios, con base en artículos indexados en Scopus y Scielo. Además, se propuso revisar la percepción de los alumnos universitarios sobre la rúbrica y otros instrumentos de evaluación. Para ello, la metodología utilizada se basó en una revisión de literatura con la finalidad de analizar y sintetizar los resultados de las publicaciones seleccionadas. Los resultados evidencian que los instrumentos de evaluación mejoran el proceso evaluativo, el rendimiento académico y la adquisición de competencias profesionales. Asimismo, los universitarios se sintieron satisfechos hacia esta nueva modalidad de evaluación, y destacaron sus beneficios para la formación y posterior ejercicio profesional.

PALABRAS CLAVE: Desarrollo de competencias; educación superior; evaluación formativa; técnica de evaluación

ABSTRACT

Formative assessment is conceived as an essential factor to improve the teaching and learning process. The success of its implementation in university classrooms lies in its assessment tools. In this context, this research aims to analyze the benefits of the application of assessment instruments in the formation of professional competencies among university students. To this end, a consultation of articles indexed in Scopus and Scielo was executed. The perception of university students on the rubric and other assessment instruments was also explored. The used methodology was based on a literature review so as to analyze and synthesize the results of the selected publications. The results show that the assessment instruments improve the evaluation process, academic performance, and the acquisition of professional competencies. Likewise, the university students were satisfied with this new assessment modality, highlighting the benefits thereof for both their training and subsequent professional practice.

KEYWORDS: Development of competencies; higher education; formative evaluation; assessment techniques

INTRODUCCIÓN

La evaluación, considerada actualmente un factor clave en el proceso de enseñanza-aprendizaje (Asiú et al., 2021), en muchas ocasiones se le asocia con “calificación” en lugar de “aprendizaje”. En el primer caso se entiende como la acción de ofrecer una nota numérica “

al finalizar un proceso y sobre la que no se ha constatado intencionadamente el aprendizaje adquirido

” (Hortigüela et al., 2019, p. 14). En el segundo, contribuye a la formación integral de los estudiantes (Asiú et al., 2021). Por ello, resulta crucial que los docentes abandonen el modelo tradicional de evaluación para implementar la evaluación formativa, centrada en mejorar los aprendizajes de los estudiantes (Bizarro et al., 2021).

La evaluación formativa incrementa la motivación del estudiante, quien desarrolla autonomía y responsabilidad para adquirir estrategias, aprender de forma permanente y optimizar su rendimiento académico; además, mejora la calidad de enseñanza del docente. Mediante la retroalimentación oportuna el estudiante conoce el progreso en el desarrollo de sus competencias durante su proceso de aprendizaje y no solo al final (Vallés et al., 2018; Gutiérrez et al., 2021). De este modo, en caso de ser necesario, el docente propone intervenciones pedagógicas que buscan mejorar el aprendizaje del alumno (Borjas et al., 2022).

Para ello, se requiere adoptar un estilo reflexivo que forme un pensamiento crítico en el estudiante y que le permita involucrarse en su proceso de enseñanza (Silva & Lázaro-Cantabrana, 2020). En esta línea, la evaluación formativa busca la innovación de estrategias que desarrollen competencias a través de herramientas de evaluación, sesiones de aprendizaje y participación continua de los estudiantes, posibilitando “el desarrollo de habilidades por parte del estudiante que lo convierten en un ser humano inserto y activo en la sociedad” (Hidalgo, 2021, p. 193).

Por su parte, las técnicas de evaluación se emplean para recopilar datos que muestren las necesidades educativas, los resultados del proceso de aprendizaje, la adquisición de competencias y desarrollan los aprendizajes en el mayor grado posible (Kiliç & Taptik, 2020). Por lo tanto, la evaluación no debe enfocarse en la memorización de contenidos, sino en actitudes, habilidades o valores esenciales para la adquisición de conocimientos, habilidades y destrezas. En este contexto, la autoevaluación y la evaluación entre iguales favorecen el aprendizaje significativo del alumno para su desarrollo académico y profesional, incluidas las competencias de juicio crítico y reflexivo (Adachi et al., 2018; Cañadas et al., 2021).

La rúbrica, otra herramienta utilizada para mejorar la evaluación del aprendizaje, consiste en un cuadro de doble entrada con variables y dimensiones, niveles de calidad que pueden alcanzarse e indicadores que demuestran el rendimiento. Su propósito es alcanzar niveles óptimos de entendimiento, como también buenos resultados en el proceso de enseñanza-aprendizaje (Kweksilber & Trías, 2020). A través de ella, los docentes establecen criterios que evalúan el progreso del estudiante y definen los niveles del logro en forma cualitativa. Además, el estudiante puede revisar los criterios con los que fue evaluado, ya que son fáciles de usar y ayudan a alcanzar los objetivos propuestos (Artiles et al., 2022).

En tanto, el portafolio del estudiante recolecta textos, narraciones, diarios o videos (Orbea-Aizpitarte et al., 2019), se basa en la reflexión (Franco et al., 2020) y muestra evidencias de las competencias y aprendizajes adquiridos, lo que implica más que una acumulación de trabajos. A través de esta herramienta el estudiante debe sustentar los materiales incluidos y argumentar la importancia para su formación (Orbea-Aizpitarte et al., 2019).

Mientras, el portafolio electrónico emplea las TIC y enfatiza en el desarrollo de competencias comunicativas, tecnológicas, de desarrollo profesional y de reflexión (Álvarez, 2020). Por otro lado, la guía de evaluación define criterios uniformes para evaluar el desempeño de los estudiantes con el fin de minimizar la subjetividad en las calificaciones. Esta herramienta contribuye a la mejora del proceso evaluativo, así como al desarrollo y evaluación de competencias requeridas según la asignatura a evaluar (Martín et al., 2019).

Las investigaciones sobre instrumentos de evaluación demuestran los beneficios y ventajas que su implementación en la educación superior conlleva, principalmente los relacionados con el desarrollo de competencias profesionales (Herrán et al., 2019). Las competencias se refieren a la capacidad de los estudiantes para adquirir habilidades, conocimientos y actitudes para resolver y afrontar problemas o desafíos. Entre las más utilizadas se encuentran las genéricas o transversales relacionadas con el perfil profesional y formativo de la mayoría de profesiones, incluyendo habilidades como la creatividad, adaptabilidad a nuevas situaciones y el trabajo en equipo, requeridas cada vez más en el actual mercado laboral.

Las competencias específicas o profesionales se refieren a los conocimientos imprescindibles para ejercer una profesión específica de manera amplia y segura (Cañadas et al., 2021; Vallés et al., 2018). Ante lo expuesto, no es suficiente que los docentes solo enseñen a los estudiantes, sino que además se aseguren de que hayan logrado los aprendizajes de los temas propuestos. Para ello, es necesario utilizar herramientas de evaluación que complementen la implementación de la evaluación formativa en las aulas universitarias.

El objetivo planteado fue analizar los beneficios de la aplicación de instrumentos de evaluación en la formación de competencias profesionales de estudiantes universitarios, con base en artículos indexados en Scopus y Scielo. Además, se constató la percepción de los alumnos universitarios sobre la rúbrica y otros instrumentos de evaluación.

METODOLOGÍA

La presente investigación asumió un enfoque mixto y diseño descriptivo (Hernández et al., 2014). Se optó por este enfoque porque se abordó de manera integral el problema mediante la recopilación de datos cuantitativos y cualitativos al mismo tiempo con el objetivo de maximizar sus ventajas inherentes y minimizar sus desventajas (Dawadi et al., 2019).

Por tal motivo, se analizó la literatura existente sobre instrumentos de evaluación en la etapa universitaria siguiendo el proceso analítico de literatura de Spelt et al. (2009). Esta secuencia permite la recopilación de datos a través de diversos métodos estructurados para sintetizar y evaluar los resultados de un conjunto de investigaciones (Borba et al., 2021). El proceso sigue cuatro etapas (Figura 1) y asegura que puedan ser replicadas y reproducidas en la búsqueda de otras temáticas (Komba & Lwoga, 2020).

Fuente: Adaptado de Spelt et al. (2009)

Figura 1 Etapas de búsqueda sistemática de literatura 

Siguiendo este proceso, se calculó el tamaño de la muestra a analizar, calculada a través de un muestreo no probabilístico intencional con la definición de criterios de inclusión y exclusión (Tabla 1). Estos criterios aseguraron la calidad y pertinencia de los artículos de investigación que conformaron la muestra.

Tabla 1 Criterios de inclusión y exclusión 

Una vez definidos los criterios se eligieron dos bases de datos para iniciar con la búsqueda: (a) Scopus, mediante su buscador ScienceDirect, por ser una base de datos confiable, multidisciplinaria y con altos estándares de calidad (Pranckutė, 2021), y (b) Scielo, base de datos electrónica dedicada a publicar investigación de Latinoamérica y El Caribe (Beigel et al., 2022).

Posteriormente, se empleó la herramienta ERIC Online Thesaurus [ERICOT] (Haas et al., 2020) para definir las palabras clave: evaluación formativa, rúbrica, instrumentos de evaluación, educación superior y sus correspondientes en inglés. Los términos fueron ingresados en los motores de búsqueda de las bases de datos seleccionadas empleando los operadores booleanos AND y OR en combinaciones como (rubric AND evaluation) o (“assessment instruments” AND (evaluation OR formative assessment)) en su versión en inglés y español.

La tercera etapa correspondió a la identificación de investigaciones relevantes que se adecuaran a los criterios establecidos en la primera etapa. El proceso de selección se basó en la declaración PRISMA (Preferred Reporting Items for Systematic reviews and Meta-Analyses), metodología diseñada para mostrar de forma transparente cómo se identificaron, seleccionaron, evaluaron y sintetizaron los estudios sobre la temática a investigar (Figura 2).

Fuente: Adaptado de Page et al. (2021)

Figura 2 Diagrama de flujo PRISMA 

Luego de completadas las tres etapas, se estableció el tamaño de la muestra en un total de 47 artículos de investigación, los cuales se clasificaron e ingresaron en una base de datos en MS Excel. En dicha base de datos se sistematizó información crucial como los objetivos, la metodología y los resultados de cada artículo de investigación. Además de ello, se clasificaron los artículos por la base de datos de procedencia.

La cuarta etapa definida por Spelt et al. (2009) implicó la exploración y análisis de estas investigaciones. Estos procesos fueron realizados y se exponen en el siguiente apartado. Para el análisis del contenido de las publicaciones, se utilizó el software VOSviewer a partir de las palabras clave tanto en español como en inglés y con los términos más relevantes se generó la red bibliométrica. Asimismo, se usó el software Excel en la elaboración de los gráficos estadísticos.

RESULTADOS Y DISCUSIÓN

A continuación, se presentan los resultados de la revisión sistemática de los 47 artículos seleccionados para este estudio.

DESCRIPCIÓN DE LOS ESTUDIOS

La exploración inicial de los artículos seleccionados permitió identificar sus características. Esta primera clasificación determinó que el mayor número de publicaciones corresponde a la base de datos Scopus (66 %); mientras que de Scielo solo se seleccionaron 16 publicaciones (34 %). La predominancia se debió a que Scopus es una base de datos de amplia cobertura, en la cual los investigadores desean publicar sus manuscritos por su prestigio y riguroso proceso de selección (Aksnes & Sivertsen, 2019).

Posteriormente, los artículos seleccionados se clasificaron por el año de publicación (Figura 3) respetando los criterios de inclusión propuestos en la sección metodológica.

Figura 3 Distribución por año de publicación de los artículos seleccionados 

Se evidencia que la cantidad de publicaciones fue incrementándose con el paso de los años, probablemente debido al interés de aplicar instrumentos de evaluación en la formación de los futuros profesionales, mostrando un aumento considerable luego de la pandemia. De esta manera, de los artículos seleccionados, 4 fueron publicados en 2018 (9 %); mientras que de 2019 y 2020 se contabilizaron 9 artículos en cada año (19 %). Luego, el mayor número de publicaciones seleccionadas correspondieron al 2021 (28 %) y las publicaciones de 2022 fueron 12 en total (26 %).

Posteriormente, se distribuyeron las publicaciones seleccionadas por el idioma en el cual fueron publicadas (Figura 4).

Figura 4 Distribución por idioma de publicación de los artículos seleccionados 

La distribución por idioma de publicación no reveló una lengua predominante; por lo contrario, se identificaron cantidades similares de publicaciones en ambos idiomas, diferenciándose solo por una publicación. De los artículos seleccionados, 24 se publicaron en inglés (51 %); mientras que 23 en español (49 %). Esta mínima diferencia se debe a que, según Céspedes (2021), el español es un idioma predominante en Scopus, por la presencia de revistas latinoamericanas y españolas; además de una correspondencia con los países en los cuales se desarrollaron las investigaciones. Esto última distribución se explica en la Figura 5.

Figura 5 Distribución por países de los artículos seleccionados 

De acuerdo con esta distribución, se observa una predominancia de las investigaciones realizadas en España, puesto que el número de publicaciones fue de 16 (34 %). A este país le siguen Chile, con 8 publicaciones (17 %); Brasil, con 4 publicaciones (9 %), y Perú y México con 3 publicaciones cada uno (6 %). Por su parte, se registraron 2 publicaciones en Alemania y Cuba (4 %); mientras que en el resto de países (Malasia, Colombia, Suecia, Taiwán, EE. UU., Inglaterra, Sudáfrica, Australia y Ecuador), solo se registró una de las publicaciones seleccionadas (2 %).

La predominancia de las investigaciones realizadas en España se debió a que en este país se está implementando la Convergencia UE en el sistema universitario, que requiere cambios en los modelos de evaluación y enseñanza (Sánchez et al., 2022).

CO-OCURRENCIA DE PALABRAS CLAVE

Se realizó un análisis bibliométrico de palabras clave siguiendo las recomendaciones del software VOSViewer (Figura 6). Se observó la existencia de seis clústeres dispersos, lo cual evidencia que no se relacionan entre sí.

Figura 6 Red bibliométrica de palabras clave 

El clúster rojo representa a aquellos estudios enfocados en la educación superior; su centralidad y su conexión con otros clústeres evidencia que, aunque distante, este clúster se relaciona con los otros cinco, ya que las investigaciones se realizaron en esta etapa de formación. Por otro lado, los nodos de este clúster se encuentran alejados, por lo que la relación entre los nodos de este clúster con los otros clústeres es relativamente débil.

El clúster verde y el clúster amarillo con su nodo, ubicados muy cercanos al clúster central rojo, poseen una relación entre ellos, ya que se encuentran en una posición cercana. Sin embargo, el nodo del clúster verde no se relaciona con estos por su lejanía en la red. Esto permite afirmar que la formación y las competencias específicas (como las históricas o clínicas) fueron temas relevantes en los artículos seleccionados, como, por ejemplo, los de Martín et al. (2019) y Álvarez (2020).

El clúster celeste está muy próximo al morado, lo que evidencia una fuerte relación entre ellos. Asimismo, los nodos de este clúster no se encuentran alejados entre sí, por lo que la relación entre estos es cercana. De esta manera, se afirma que las competencias digitales y la validación de instrumentos fueron dos campos de interés en las publicaciones bajo examen, donde destaca la de Wild & Schulze (2021).

Por su parte, el clúster morado, de autoevaluación, alejado también de los demás clústeres, pero próximo al celeste, evidencia una relación débil con los clústeres y una relación cercana con el clúster celeste. Los nodos de este clúster poseen una relación positiva, debido a su posición en la red bibliométrica. Destacan las investigaciones en las que los instrumentos fomentaron la autoevaluación (Pérez-Guillén et al., 2022; Tipán, 2021).

El clúster azul se encuentra más alejado de la red bibliométrica y posee menos conexiones. Asimismo, la cercanía de los nodos azules evidencia una relación fuerte entre ellos. Destacan investigaciones en las que se identificaron las competencias a ser evaluadas para refuerzo (Gallardo-Fuentes et al., 2020b).

EFECTOS DE LOS INSTRUMENTOS DE EVALUACIÓN

Posteriormente, se consideró detalladamente el contenido de las investigaciones seleccionadas con base en sus objetivos, alcance y metodología. Por ello, en primer lugar, se identificaron las especialidades de los estudiantes que fungieron como objeto de investigación. De esta manera, algunas investigaciones fueron realizadas con estudiantes de Ciencias de la Salud (Almalkawi et al., 2021; Cervantes-Sánchez et al., 2022; Díaz-Veliz et al., 2021; Martín et al., 2019; Mora-Luco et al., 2021; Tsai et al., 2022); mientras que otras se realizaron con estudiantes de Ingenierías (Arribas et al., 2019; Cantera et al., 2021; Flores & Alcalá, 2019; Pui et al., 2021; Tobajas et al., 2019) o de ciencias puras (Tipán, 2021).

Los estudios que trataron sobre la formación de futuros docentes fueron predominantes (Adachi et al., 2018; Cañadas et al., 2021; Felipa & Páez, 2021; Gallardo-Fuentes et al., 2020a; González et al., 2018; Gray et al., 2019; Vallés et al., 2018). Gracias al uso de los instrumentos como la rúbrica o la guía de evaluación, los futuros docentes aprendieron a diseñar insumos adecuados que les ayudó a desarrollar aprendizajes de segundo orden. Además, proporcionaron información valiosa para identificar competencias en las que necesitaban alcanzar un mayor nivel de perfeccionamiento, las cuales son de utilidad en su futuro desempeño profesional, como las lingüísticas, por ejemplo. Los resultados más relevantes se muestran en la Tabla 2.

Tabla 2 Principales beneficios de los instrumentos en la evaluación de los estudiantes universitarios 

Además de estos instrumentos, se incorporaron las TIC para complementarlos (Mendoza et al., 2021; Souza et al., 2022; Teodoro et al., 2022; Wild & Schulze, 2021). Los resultados de la versión digital fueron similares e inclusive superan el formato físico, ya que la virtualidad permite que los estudiantes se relacionen entre sí y verifiquen su propio progreso; además “

la aplicación de instrumentos de evaluación en línea, está permitiendo que tanto docentes como estudiantes logren desarrollar competencias, las cuales permiten adecuar a las necesidades educativas y sirvan de apoyo en el proceso de enseñanza-aprendizaje

” (Quincho et al., 2022, p. 428). Asimismo, las TIC facilitaron la retroalimentación y la autoevaluación (Pérez-Guillén et al., 2022).

Las publicaciones seleccionadas se propusieron indagar el papel de los instrumentos de evaluación en la formación por competencias de los estudiantes universitarios. De esta manera, se observa un consenso al afirmar que los instrumentos aplicados beneficiaron la adquisición de competencias (Cañadas et al., 2021; Díaz-Mohedo et al., 2021; Díaz-Veliz et al., 2021; Oseda et al., 2020; Panadero et al., 2022; Prediger et al., 2020; Quincho et al., 2022; Suárez & Castro, 2022; Tsai et al., 2022; Vallés et al., 2018). También, otros estudios indagaron en competencias específicas como las históricas (Álvarez, 2020), clínicas (Martín et al., 2019), lingüísticas (Cantera et al., 2021; Gutiérrez et al., 2021) y digitales (Wild & Schulze, 2021); todos con resultados positivos.

La retroalimentación ayudó a que los estudiantes universitarios alcanzaran niveles óptimos en su escritura y su habilidad comunicativa, ambos asociados con la competencia lingüística (Felipa & Páez, 2021; Gutiérrez et al., 2021). En relación con las competencias digitales, el instrumento digital facilitó la creación de contenidos digitales y la resolución de problemas propios de los entornos digitales (Wild & Schulze, 2021). Por su parte, la guía de evaluación estableció criterios uniformes en la evaluación de competencias clínicas, logrando que las estudiantes de enfermería mejoraran su desempeño profesional (Martín et al., 2019). El e-portafolio fue útil para adquirir conocimientos sólidos y actualizados sobre la disciplina histórica y su enseñabilidad (Álvarez, 2020).

Asimismo, otros beneficios de utilizar los instrumentos de evaluación fueron: el refuerzo de conocimientos previamente adquiridos (Álvarez, 2020; Arbea et al., 2020) y eliminar la subjetividad de los procesos evaluativos y de las notas puestas por los docentes (Martín et al., 2019). Además de ello, también se demostró que, mediante los instrumentos de evaluación fue posible alcanzar objetivos de enseñanza (Díaz-Veliz et al., 2021; Franco et al., 2020). Esto último porque los instrumentos de evaluación permiten identificar aquellas competencias que necesitan refuerzo y desarrollo (Matshedisho, 2020; Tobajas et al., 2019).

PERCEPCIÓN DE LOS ESTUDIANTES

El análisis de los artículos demostró que los estudiantes universitarios se sintieron satisfechos con los instrumentos de evaluación (Díaz-Veliz et al., 2021; Gallardo-Fuentes et al., 2020b; González et al., 2018; Granberg et al., 2021; Gutiérrez et al., 2021; Mora-Luco et al., 2021). Asimismo, los estudiantes afirmaron que los instrumentos traen ventajas para su formación profesional como la autoevaluación y la coevaluación, y promueve un aprendizaje transformador que posibilita los niveles más altos de reflexión (Adachi et al., 2018; Gallardo-Fuentes et al., 2020a; Isusi-Fagoaga & García-Aracil, 2020; Pui et al., 2021).

Los estudiantes consideraron que la evaluación formativa es de apoyo para su carrera; además de que logra medir habilidades aprendidas con anterioridad, por lo que consideran a la evaluación formativa como ventajosa en comparación con la evaluación tradicional (Gallardo-Fuentes et al., 2020b). No obstante, hubo consenso en la necesidad de que los docentes generen en los estudiantes interés hacia los instrumentos, ya que, de no ser así, se puede evidenciar una respuesta negativa ante la aplicación de estos instrumentos (Arribas et al., 2019; Matshedisho, 2020).

Con base en estos resultados, las investigaciones recomiendan el uso de instrumentos de evaluación, teniendo en cuenta que los docentes los consideran métodos novedosos y objetivos (Almalkawi et al., 2021; Artiles et al., 2022; Mendoza et al., 2021; Tipán, 2021). Los instrumentos elaborados con estándares de calidad (Franco et al., 2020; Gray et al., 2019; Pancorbo et al., 2020; Silva-Quiroz et al., 2022) eliminan posibles inconvenientes durante su uso y traen beneficios tanto para estudiantes como docentes (Cantera et al., 2021; Martiáñez-Ramírez et al., 2022; Pérez-Guillén et al., 2022). Por ello, se recomienda diseñar instrumentos de evaluación en conjunto con programas de intervención para implementar acertadamente la evaluación formativa en las instituciones universitarias (Arbea et al., 2020; Flores & Alcalá, 2019; Regino et al., 2019).

CONCLUSIONES

Los instrumentos de evaluación en el contexto universitario revelan resultados beneficiosos para los estudiantes universitarios. De acuerdo con los artículos analizados, el desempeño académico de los estudiantes fue mejorado, al obtenerse buenos resultados en la adquisición de competencias profesionales. En específico, la rúbrica fue el instrumento que se aplicó en la mayoría de las investigaciones analizadas, eliminando la subjetividad al momento de colocar las notas e identificando aquellas competencias que necesitaron de reforzamiento. Así, los estudiantes universitarios alcanzaran niveles óptimos en su escritura y habilidad comunicativa, crearon contenidos digitales de forma más sencilla y adquirieron conocimientos sólidos y actualizados sobre su disciplina.

En relación con la percepción de los universitarios hacia los instrumentos de evaluación, las investigaciones revelaron que se sintieron satisfechos hacia esta nueva modalidad de evaluación, ya que afirmaron que traían grandes beneficios para su formación y posterior ejercicio profesional. Además, consideraron que estos instrumentos fueron de apoyo para su carrera y medían habilidades aprendidas con anterioridad. En el caso de los futuros docentes, los instrumentos de evaluación proporcionaron información valiosa para identificar competencias en las que necesitaban alcanzar un mayor nivel de perfeccionamiento.

Aunque en el estudio la aplicación de los instrumentos de evaluación en la enseñanza universitaria fue positiva, se debe ejecutar más investigaciones sobre el desarrollo de competencias profesionales en distintas carreras universitarias. Investigaciones futuras de este tipo deben abordar otros niveles de formación y abarcar un periodo más amplio. Asimismo, el uso de las TIC en los ámbitos educativos ha evolucionado la forma de estos instrumentos de evaluación, por lo que una investigación posterior debe evaluar en concreto la utilización de instrumentos de evaluación digitales.

REFERENCIAS BIBLIOGRÁFICAS

Adachi, C., Tai, J. H.-M., & Dawson, P. (2018). Academics’ perceptions of the benefits and challenges of self and peer assessment in higher education. Assessment & Evaluation in Higher Education, 43(2), 294-306. https://doi.org/10.1080/02602938.2017.1339775 [ Links ]

Aksnes, D. W., & Sivertsen, G. (2019). A Criteria-based Assessment of the Coverage of Scopus and Web of Science. Journal of Data and Information Science, 4(1), 1-21. https://doi.org/10.2478/jdis-2019-0001 [ Links ]

Almalkawi, I., Jester, R., & Terry, L. (2021). Developing a consensus-based scoring rubric to enhance practice-based assessment of student nurses’ clinical competence: A Delphi study. Nurse Education Today, 100, 104859. https://doi.org/10.1016/j.nedt.2021.104859 [ Links ]

Álvarez, H. A. (2020). Evaluación de un e-portafolio de recursos pedagógicos para el desarrollo de competencias históricas. Estudio de caso. Sophia Austral, (26), 131-155. https://doi.org/10.4067/S0719-56052020000200131 [ Links ]

Arbea, L., Díaz-González, J. A., Centeno, C., del Pozo, J. L., Martínez, M., Salvador, J., Pueyo, J. C., & Soteras, M. (2020). Diseño e implantación de un proyecto docente para la formación de la identidad médica en estudiantes de Medicina. Educación Médica, 21(3), 207-211. https://doi.org/10.1016/j.edumed.2019.07.002 [ Links ]

Arribas, E., Ramirez-Vazquez, R., Escobar, I., Gonzalez-Rubio, J., Belendez, A., & Barrera, J. (2019). Development of a laboratory practice for physics introductory courses using a rubric for evaluation by competences. Journal of Physics: Conference Series, 1287(1), 1-9. https://doi.org/10.1088/1742-6596/1287/1/012025 [ Links ]

Artiles, L. A., González, G., & Quirós, O. L. (2022). La implementación de rúbricas para evaluar las competencias socio económico geográficas en la práctica de campo. Revista Educación, 46(2), 341-354. https://doi.org/10.15517/revedu.v46i2.49890 [ Links ]

Asiú, L. E., Asiú, A. M., & Barboza, Ó. A. (2021). Evaluación formativa en la práctica pedagógica: una revisión bibliográfica. Conrado, 17(78), 134-139. https://conrado.ucf.edu.cu/index.php/conrado/article/view/1654Links ]

Beigel, F., Packer, A. L., Gallardo, O., & Salatino, M. (2022). OLIVA: The scientific production indexed in Latin America and the Caribbean. Disciplinary diversity, institutional collaboration, and multilingualism in SciELO and Redalyc (1995-2018). SciELO Preprints, e20210134. https://doi.org/10.1590/SciELOPreprints.4637 [ Links ]

Bizarro, W. H., Paucar, P. J., & Chambi-Mescco, E. (2021). Evaluación formativa: una revisión sistemática de estudios en aula. Horizontes. Revista de Investigación en Ciencias de la Educación, 5(19), 872-891. https://doi.org/10.33996/revistahorizontes.v5i19.244 [ Links ]

Borba, H. H., Tonin, F. S., Pontarolo, R., & Fernandez-Llimos, F. (2021). Challenges in Evidence-Based Practice Education. In I. Vitória & A. Cavaco (Eds.), Pedagogies for Pharmacy Curricula (pp. 69-89). IGI Global. https://doi.org/10.4018/978-1-7998-4486-0.ch004 [ Links ]

Borjas, M., Aparicio, J. A., Lafaurie, A., Franco, J., & de Alba, M. (2022). Drawing as an Opportunity to Assess Meaningful Learning in College Students. In J. Gómez & I. Gómez-Barreto (Eds.), Design and Measurement Strategies for Meaningful Learning (pp. 171-191). IGI Global. https://doi.org/10.4018/978-1-7998-9128-4.ch009 [ Links ]

Cañadas, L., Santos-Pastor, M. L., & Ruiz, P. (2021). Percepción del impacto de la evaluación formativa en las competencias profesionales durante la formación inicial del profesorado. Revista Electrónica de Investigación Educativa, 23, 1-13. https://doi.org/10.24320/redie.2021.23.e07.2982 [ Links ]

Cantera, M. A., Arevalo, M.-J., García-Marina, V., & Alves-Castro, M. (2021). A Rubric to Assess and Improve Technical Writing in Undergraduate Engineering Courses. Education Sciences, 11(4), 146. https://doi.org/10.3390/educsci11040146 [ Links ]

Cervantes-Sánchez, C. R., Parra-Acosta, H., & Cantú-Reyes, J. C. (2022). Diseño de un instrumento para evaluar las actividades profesionales confiables en cirugía general. Cirugía y Cirujanos, 90(6), 813-821. https://doi.org/10.24875/CIRU.22000038 [ Links ]

Céspedes, L. (2021). Revistas latinoamericanas y lenguajes hegemónicos para publicación académica en SCOPUS y Web of Science. Trabajos en Lingüística Aplicada, 60(1), 141-154. https://periodicos.sbu.unicamp.br/ojs/index.php/tla/article/view/8660022Links ]

Dawadi, S., Shrestha, S., & Giri, R. A. (2021). Mixed-Methods Research: A Discussion on its Types, Challenges, and Criticisms. Journal of Practical Studies in Education, 2(2), 25-36. https://doi.org/10.46809/jpse.v2i2.20 [ Links ]

Díaz-Mohedo, E., Romero-Galisteo, R., Suárez-Serrano, C., Medrano-Sánchez, E., & Martín-Valero, R. (2021). Rubric for the evaluation of competencies in traumatology in the Degree of Physiotherapy: Delphi approach. BMC Medical Education, 21(1), 474. https://doi.org/10.1186/s12909-021-02904-4 [ Links ]

Díaz-Veliz, G., Figueroa, C., Gutiérrez, S., Castillo, D., & Maya, J. D. (2021). Efecto de la retroalimentación obtenida con tecleras o Immediate Feedback Assessment Technique en un curso de farmacología en 2 carreras de la salud en las que se empleó el aprendizaje basado en equipos. Educación Médica , 22(3), 173-178. https://doi.org/10.1016/j.edumed.2019.02.008 [ Links ]

Felipa, R. F., & Páez, M. (2021). El podcast como herramienta de retroalimentación en la evaluación de actividades virtuales. MENDIVE, 19(1), 16-29. https://mendive.upr.edu.cu/index.php/MendiveUPR/article/view/2107Links ]

Flores, V. G., & Alcalá, N. B. (2019). Resultados de la evaluación del modelo educativo para la formación por competencias laborales en los alumnos de la División de Ingenierías de la Universidad de Guanajuato. RIDE Revista Iberoamericana para la Investigación y el Desarrollo Educativo, 9(18), 582-612. https://doi.org/10.23913/ride.v9i18.437 [ Links ]

Franco, R., Ament, C., de Carvalho, M. A., Severo, M., & Amelia, M. (2020). Use of portfolios in teaching communication skills and professionalism for Portuguese-speaking medical students. International Journal of Medical Education, 11, 37-46. https://doi.org/10.5116/ijme.5e2a.fa68 [ Links ]

Gallardo-Fuentes, F. J., López-Pastor, V. M., & Carter-Thuillier, B. I. (2020a). Ventajas e Inconvenientes de la Evaluación Formativa, y su Influencia en la Autopercepción de Competencias en alumnado de Formación Inicial del Profesorado en Educación Física. Retos, 38, 417-424. https://doi.org/10.47197/retos.v38i38.75540 [ Links ]

Gallardo-Fuentes, F., López-Pastor, V., Martínez-Angulo, C., & Carter-Thuillier, B. (2020b). Evaluación formativa en educación física y atención a la diversidad. Magis, Revista Internacional de Investigación en Educación, 12(25), 169-186. https://doi.org/10.11144/Javeriana.m12-25.efef [ Links ]

González, V., Román, M., & Prendes, M. P. (2018). Formación en competencias digitales para estudiantes universitarios basada en el modelo DigComp. Edutec. Revista Electrónica de Tecnología Educativa, (65), 1-15. https://doi.org/10.21556/edutec.2018.65.1119 [ Links ]

Granberg, C., Palm, T., & Palmberg, B. (2021). A case study of a formative assessment practice and the effects on students’ self-regulated learning. Studies in Educational Evaluation, 68, 100955. https://doi.org/10.1016/j.stueduc.2020.100955 [ Links ]

Gray, J. S., Connolly, J. P., & Brown, M. A. (2019). Measuring intercultural knowledge and competence in college essays: Does a performance-based rubric have construct validity? Studies in Educational Evaluation , 62, 142-148. https://doi.org/10.1016/j.stueduc.2019.05.007 [ Links ]

Gutiérrez, A., Bustos, C., Santibáñez, X., Arancibia, C., Mora, F., & Flores, M. (2021). Students’ perceptions of oral corrective feedback given by teachers in communicative approach english courses from an efl pedagogy program at a private university. Lenguas Modernas, (56), 9-26. https://lenguasmodernas.uchile.cl/index.php/LM/article/view/61507Links ]

Haas, A., Vannest, K., Thompson, J. L., Fuller, M. C., & Wattanawongwan, S. (2020). Peer-Mediated Instruction and Academic Outcomes for Students with Autism Spectrum Disorders: A Comparison of Quality Indicators. Mentoring & Tutoring: Partnership in Learning, 28(5), 625-642. https://doi.org/10.1080/13611267.2020.1859330 [ Links ]

Hernández, R., Fernández, C., & Baptista, M. (2014). Metodología de la investigación, 6ta. edición. MacGraw Hill Education. [ Links ]

Herrán, I., Heras, C., & Pérez-Pueyo, Á. (2019). La evaluación formativa. El mito de las rúbricas. Alternativas en la elaboración de instrumentos de evaluación en Secundaria. Revista Infancia, Educación y Aprendizaje, 5(2), 601-609. https://doi.org/10.22370/ieya.2019.5.2.1784 [ Links ]

Hidalgo, M. E. (2021). Reflexiones acerca de la evaluación formativa en el contexto universitario. Revista Internacional de Pedagogía e Innovación Educativa, 1(1), 189-210. https://doi.org/10.51660/ripie.v1i1.32 [ Links ]

Hortigüela, D., Pérez-Pueyo, Á., & González-Calvo, G. (2019). Pero… ¿A qué nos Referimos Realmente con la Evaluación Formativa y Compartida?: Confusiones Habituales y Reflexiones Prácticas. Revista Iberoamericana de Evaluación Educativa, 12(1), 11-26. https://doi.org/10.15366/riee2019.12.1.001 [ Links ]

Isusi-Fagoaga, R., & García-Aracil, A. (2020). Assessing Master Students’ Competencies Using Rubrics: Lessons Learned from Future Secondary Education Teachers. Sustainability, 12(23), 9826. https://doi.org/10.3390/su12239826 [ Links ]

Kiliç, A., & Taptik, Ì. Y. (2020). Outcome-Based Curriculum Design for New-Generation Engineers. In Ş. SerdarAsan & E. Işıklı (Eds.), Engineering Education Trends in the Digital Era (pp. 1-25). IGI Global. https://doi.org/10.4018/978-1-7998-2562-3.ch001 [ Links ]

Komba, M. M., & Lwoga, E. T. (2020). Systematic Review as a Research Method in Library and Information Science. In P. Ngulube (Ed.), Handbook of Research on Connecting Research Methods for Information Science Research (pp. 80-94). IGI Global. https://doi.org/10.4018/978-1-7998-1471-9.ch005 [ Links ]

Kweksilber, C., & Trías, D. (2020). Rúbrica de evaluación. Usos y aprendizajes en un grupo de docentes universitarios. Páginas de Educación, 13(2), 100-124. https://doi.org/10.22235/pe.v13i2.2234 [ Links ]

Martiáñez-Ramírez, N. L., Pineda-Galán, C., Rodríguez-Bailón, M., & Romero-Galisteo, R.-P. (2022). Competence assessment rubric in the Physiotherapy Practicum. PLOS ONE, 17(2), 1-11. https://doi.org/10.1371/journal.pone.0264120 [ Links ]

Martín, O., Fernández, N., García, L., & Bravo, O. (2019). Guía de evaluación de competencias clínicas en cuarto año de Estomatología. Humanidades Médicas, 19(3), 562-576. https://humanidadesmedicas.sld.cu/index.php/hm/article/view/1465/html_101Links ]

Matshedisho, K. R. (2020). Straddling rows and columns: Students’ (mis)conceptions of an assessment rubric. Assessment & Evaluation in Higher Education , 45(2), 169-179. https://doi.org/10.1080/02602938.2019.1616671 [ Links ]

Mendoza, H. H., Burbano, V. M., & Valdivieso, M. A. (2021). Prácticas evaluativas de profesores universitarios colombianos en entornos virtuales. Revista de Ciencias Sociales, 27(4), 379-395. https://doi.org/10.31876/rcs.v27i.37014 [ Links ]

Mora-Luco, C. P., Díaz-Vásquez, C. A., Santa María-Madera, J. L., Ferri-Sánchez, G., & Baltera-Zuloaga, C. (2021). Percepción del estudiante de Odontología respecto al examen clínico objetivo estructurado como método de evaluación. Revista de la Fundación Educación Médica , 24(2), 77-83. https://doi.org/10.33588/fem.242.1114 [ Links ]

Orbea-Aizpitarte, G., Cruz-Iglesias, E., & Rekalde-Rodríguez, I. (2019). ¿Cómo puede el portafolios del alumnado ayudar a mejorar las prácticas docentes? RIDU Revista Digital de Investigación en Docencia Universitaria, 13(1), 17-37. https://doi.org/10.19083/ridu.2019.769 [ Links ]

Oseda, D., Mendivel, R. K., & Angoma, M. (2020). Estrategias didácticas para el desarrollo de competencias y pensamiento complejo en estudiantes universitarios. Sophia, (29), 235-259. https://doi.org/10.17163/soph.n29.2020.08 [ Links ]

Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou, R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A., Lalu, M. M., Li, T., Loder, E. W., Mayo-Wilson, E., McDonald, S., … Moher, D. (2021). The PRISMA 2020 statement: An updated guideline for reporting systematic reviews. Journal of Clinical Epidemiology, 134, 178-189. https://doi.org/10.1016/j.jclinepi.2021.03.001 [ Links ]

Panadero, E., Pérez, D. G., Ruiz, J. F., Fraile, J., Sánchez-Iglesias, I., & Brown, G. T. L. (2022). University students’ strategies and criteria during self-assessment: instructor’s feedback, rubrics, and year level effects. European Journal of Psychology of Education, 38, 1031-1051 https://doi.org/10.1007/s10212-022-00639-4 [ Links ]

Pancorbo, G., Primi, R., John, O. P., Santos, D., Abrahams, L., & de Fruyt, F. (2020). Development and psychometric properties of rubrics for assessing social-emotional skills in youth. Studies in Educational Evaluation , 67, 100938. https://doi.org/10.1016/j.stueduc.2020.100938 [ Links ]

Pérez-Guillén, S., Carrasco-Uribarren, A., Celis, C. L., González-Rueda, V., Rodríguez-Rubio, P. R., & Cabanillas-Barea, S. (2022). Students’ perceptions, engagement and satisfaction with the use of an e-rubric for the assessment of manual skills in physiotherapy. BMC Medical Education , 22(1), 1-9. https://doi.org/10.1186/s12909-022-03651-w [ Links ]

Pranckutė, R. (2021). Web of Science (WoS) and Scopus: The Titans of Bibliographic Information in Today’s Academic World. Publications, 9(1), 1-59. https://doi.org/10.3390/publications9010012 [ Links ]

Prediger, S., Schick, K., Fincke, F., Fürstenberg, S., Oubaid, V., Kadmon, M., Berberat, P. O., & Harendza, S. (2020). Validation of a competence-based assessment of medical students’ performance in the physician’s role. BMC Medical Education , 20(1), 1-12. https://doi.org/10.1186/s12909-019-1919-x [ Links ]

Pui, P., Yuen, B., & Goh, H. (2021). Using a criterion-referenced rubric to enhance student learning: a case study in a critical thinking and writing module. Higher Education Research & Development, 40(5), 1056-1069. https://doi.org/10.1080/07294360.2020.1795811 [ Links ]

Quincho, R., Cárdenas, J. C., Quispe, C., Flores, I. G., & Inga, V. (2022). Formularios de Google y elaboración de instrumentos de evaluación por competencias. Conrado , 18(85), 424-428. https://conrado.ucf.edu.cu/index.php/conrado/article/view/2308Links ]

Regino, D. da S. G., Nascimento, J. da S. G., Parada, C. M. G. de L., Duarte, M. T. C., & Tonete, V. L. P. (2019). Training and evaluation of professional competency in pediatric nursing: perspective of university professors. Revista da Escola de Enfermagem da USP, 53, 1-12. https://doi.org/10.1590/s1980-220x2018002703454 [ Links ]

Sánchez, J. M., Íñigo, V., Marcano, B., & Romero-García, C. (2022). Design and validation of an assessment rubric of relevant competencies for employability. Journal of Technology and Science Education, 12(2), 426. https://doi.org/10.3926/jotse.1397 [ Links ]

Silva, J. E., & Lázaro-Cantabrana, J. L. (2020). La competencia digital de la ciudadanía, una necesidad creciente en una sociedad digitalizada. Edutec. Revista Electrónica de Tecnología Educativa , (73), 37-50. https://doi.org/10.21556/edutec.2020.73.1743 [ Links ]

Silva-Quiroz, J.-E., Abricot-Marchant, N., Aranda-Faúndez, G., & Rioseco-País, M. (2022). Diseño y Validación de un instrumento para evaluar competencia digital en estudiantes de primer año de las carreras de educación de tres universidades públicas de Chile. Edutec. Revista Electrónica de Tecnología Educativa , (79), 319-335. https://doi.org/10.21556/edutec.2022.79.2333 [ Links ]

Souza, M., Margalho, É., Lima, R. M., Mesquita, D., & Costa, M. J. (2022). Rubric’s Development Process for Assessment of Project Management Competences. Education Sciences , 12(12), 902. https://doi.org/10.3390/educsci12120902 [ Links ]

Spelt, E. J. H., Biemans, H. J. A., Tobi, H., Luning, P. A., & Mulder, M. (2009). Teaching and Learning in Interdisciplinary Higher Education: A Systematic Review. Educational Psychology Review, 21(4), 365-378. https://doi.org/10.1007/s10648-009-9113-z [ Links ]

Suárez, X., & Castro, N. (2022). Efectividad de un programa de estimulación de habilidades socioemocionales en estudiantes universitarios de primer año. Revista Cubana de Educación Superior, 41(2), 1-18. http://scielo.sld.cu/scielo.php?pid=S0257-43142022000200021&script=sci_arttext&tlng=enLinks ]

Teodoro, J., Bernadó, E., Bratzke, F., Zehrer, A., & van Bockhaven, W. (2022). Online Support for Education in Entrepreneurial and Intrapreneurial Competences: A Proposal for an Assessment Tool and Support for Tailor-Made Training. Education Sciences , 12(11), 805. https://doi.org/10.3390/educsci12110805 [ Links ]

Tipán, D. M. (2021). El portafolio digital síncrono interactivo. Revista Andina de Educación, 4(1), 83-89. https://doi.org/10.32719/26312816.2020.4.1.10 [ Links ]

Tobajas, M., Molina, C. B., Quintanilla, A., Alonso-Morales, N., & Casas, J. A. (2019). Development and application of scoring rubrics for evaluating students’ competencies and learning outcomes in Chemical Engineering experimental courses. Education for Chemical Engineers, 26, 80-88. https://doi.org/10.1016/j.ece.2018.11.006 [ Links ]

Tsai, S.T. Ho , Y.-C., Tsai, C.-L., Yang, S.-F., Lai, Y.-L., & Lee, S.-Y. (2022). Evaluation of students’ self-assessment performance in preclinical endodontic training by means of rubrics and a 3D printed model. Journal of the Formosan Medical Association, 121(11), 2203-2210. https://doi.org/10.1016/j.jfma.2022.03.021 [ Links ]

Urias, C. M., Rodríguez, C. L., & Zárate, N. E. (2019). Rúbrica para evaluar presentaciones de casos clínicos: instrumento que orienta la calidad en el desempeño. Acta Universitaria, 28(6), 93-100. https://doi.org/10.15174/au.2018.1689 [ Links ]

Vallés, C., Martínez, L., & Romero, M. R. (2018). Instrumentos de evaluación: uso y competencia del profesorado universitario en su aplicación. Estudios Pedagógicos (Valdivia), 44(2), 149-169. https://doi.org/10.4067/S0718-07052018000200149 [ Links ]

Wild, S., & Schulze, L. (2021). Re-evaluation of the D21-digital-index assessment instrument for measuring higher-level digital competences. Studies in Educational Evaluation , 68, 100981. https://doi.org/10.1016/j.stueduc.2021.100981 [ Links ]

Recibido: 07 de Junio de 2023; Aprobado: 13 de Septiembre de 2023

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons