SciELO - Scientific Electronic Library Online

 
vol.43 número2Hombres y mujeres en las pruebas de lectura del Sistema de Medición de la Calidad de la Educación: Análisis de género, procedencia geográfica, grupo socioeconómico y pertenencia étnica en la región de la AraucaníaDinamización tecnológica de la escuela a través del liderazgo del coordinador TIC índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Estudios pedagógicos (Valdivia)

versión On-line ISSN 0718-0705

Estud. pedagóg. vol.43 no.2 Valdivia  2017

http://dx.doi.org/10.4067/S0718-07052017000200005 

INVESTIGACIONES

 

Opinión del alumnado sobre el empleo de rúbricas en la universidad

Student opinion on the use of rubrics at university

 

María García Sanz,a María Belmonte Almagro,ab Begoña Galián Nicolásac

a Facultad de Educación, Universidad de Murcia Telf.: (34) 629432555. Correo electrónico: maripaz@um.es
b Telf.: (34) 626604876. Correo electrónico: marialuisa.belmonte@um.es
c
Telf.: (34) 626604876. Correo electrónico: begona.g.b@um.es


RESUMEN

El actual modelo educativo de formación en competencias requiere que todos los elementos del currículo giren en torno al desarrollo de las mismas por parte del alumnado. También la evaluación debe encaminarse a comprobar el nivel de logro de las competencias requeridas. Para ello se necesita variedad de instrumentos de recogida de información que pongan de manifiesto la diversidad de competencias a adquirir. Una de las herramientas más utilizadas en la actualidad para este fin son las denominadas rúbricas. Por ello, en esta investigación nos propusimos analizar el grado de adecuación de dichas herramientas de evaluación desde la percepción del alumnado universitario. Mediante la aplicación del método descriptivo no experimental, se aplicó un cuestionario de elaboración propia a 440 estudiantes de Pedagogía. Los resultados indican buena validez y fiabilidad de dicho instrumento, así como que las rúbricas poseen altas ventajas frente a los inconvenientes que pueden conllevar.

Palabras clave: evaluación de competencias, rúbricas, educación superior.


ABSTRACT

The current educational model of training requires that all elements of the curriculum revolve around students' development of competences. Also, the assessment should be directed to check the level of achievement of the required competences. For this purpose, a variety of data collection instruments are necessary in order to reveal the diversity of competences to acquire. Rubrics are one of the main tools used for this purpose. So in this investigation we decided to analyze the grade of adequacy of these assessment tools from the perception of university students. By applying a non-experimental descriptive method, we applied a self-development questionnaire to 440 students of Pedagogy. The results indicate good validity and reliability of the instrument and stablish the rubrics have high advantages over the possible disadvantages associated.

Key words: competences assessment, rubrics, higher education.


 

1. INTRODUCCIÓN

1.1. MODELO DE FORMACIÓN EN COMPETENCIAS

La entrada al Espacio Común de Educación Superior de las universidades españolas tuvo como consecuencia una adaptación importante de las mismas a los cambios acontecidos de tipo estructural, organizativo y metodológico. Una de las aportaciones más relevantes fue la instauración de las llamadas competencias, con lo cual surge el denominado modelo de formación en competencias, con el que se produce una transformación de la formación, que pasa de estar basada en la enseñanza a centrarse en el aprendizaje de los estudiantes (Lorenzana, 2012). El esqueleto básico curricular y organizativo de este nuevo modelo formativo queda definido en relación con las competencias que debe adquirir el alumnado (Biggs, 2004; Colás, Jiménez & Villaciervos 2005; López Ruiz, 2011; Martín & Wolff, 2011; Martín et al., 2013; Zabalza, 2006).

El modelo de formación en competencias sustituye a la enseñanza que tradicionalmente se centraba en la transmisión de conocimientos, lo cual conlleva que el profesor ocupe una posición de facilitador del aprendizaje, mientras que anteriormente asumía un rol de instructor (Ion & Cano, 2011). Por otro lado, el estudiante pasa de ser un asimilador de contenidos, a un elemento activo de su proceso de aprendizaje, formando parte del desarrollo de su propio currículo (Pérez Pueyo et al., 2008).

Este complejo proceso de renovación ha traído consigo la necesidad de nuevas metodologías activas y participativas que ponen la atención en el aprendizaje del estudiante y el desarrollo de competencias de acción profesional encaminadas a la empleabilidad (Vázquez, 2008). Para poder adaptarse a este nuevo paradigma educativo, la metodología docente ha tenido que experimentar una serie de cambios para actualizar los modelos educativos más tradicionales (Bartram & Roe, 2005; Le Boterf, 2001; Perrenoud, 1997; Villa & Poblete, 2007; Whiddett & Hollyforde, 2003), lo cual ha requerido un esfuerzo más significativo que la simple asimilación de conocimientos, que pueden incluso dejar de tener utilidad una vez abandonada la universidad.

El aprendizaje de una competencia supone la integración de una serie de elementos (conocimientos, procedimientos, actitudes) que el estudiante demuestra en una situación problemática concreta, manifestando así que es capaz de resolverla (Villa & Poblete, 2011). Es por esto que, para hacer frente al modelo competencial, no es suficiente con tener conocimientos (aunque, sin duda, es imprescindible), sino que es necesario aplicar dichos saberes reflexionando sobre el proceso que marcan. Esto implica una formación en metodologías docentes que trasciendan el marco de la materia, donde el alumnado deba buscar qué información necesita, la convierta en datos, los aplique y llegue, de modo reflexivo, a una decisión (Ion & Cano, 2011).

1.2. LA EVALUACIÓN DE COMPETENCIAS

Asumiendo que el fin último de la educación es fomentar que todos los alumnos aprendan más y mejor (Jonsson, 2010), en los últimos años se han expuesto numerosas técnicas evaluativas de carácter mayoritariamente formativo, así como las dificultades que pueden presentarse para desarrollarlas en contextos de aprendizaje en los que únicamente se practica una evaluación sumativa final y puntual (Bonsón & Benito, 2005; Brown & Glasner, 2003; Capllonch & Busca, 2006; López Pastor, 2006; López, Fernando & Julián, 2007; Zabalza, 2002).

La evaluación de las competencias se propone como un proceso continuo, planificado de forma paralela y simultáneo a las actividades de aprendizaje (Tobón, Pimienta & García, 2010). Por tanto, es evidente la necesidad de dejar a un lado los convencionalismos y no abusar de las tradicionales pruebas objetivas, escritas u orales, para dar paso a una evaluación actualizada, acorde con los cambios que se están produciendo en la universidad. De acuerdo con Inda, Álvarez y Álvarez (2008) y Calvo y Mingorance (2010), se ha de modificar el sistema institucional que fomenta un procedimiento de evaluación puntual que favorece la pasividad del estudiante y produce ventajas y comodidades para el docente, en el que el alumno se limita a recibir información para asimilarla y poco después poderla reproducir teóricamente.

Se trata de hacer hincapié en una evaluación formativa, en la que, además de una evaluación del aprendizaje, también se produzca una evaluación para el aprendizaje (López Pastor, 2006), es decir, aquella en la que el discente aprende de la propia realización de la evaluación. Para ello, el profesorado necesita nuevos instrumentos para evaluar el rendimiento de los estudiantes (Vandenberg et al., 2010) y, puesto que la evaluación es un elemento que determina el proceso de enseñanza aprendizaje, debe ser diseñada en base a criterios que garanticen su calidad (Martínez et al., 2012).

1.3. LAS RÚBRICAS

Actualmente, en muchas instituciones, al establecer las tareas de evaluación, se elaboran para los estudiantes unas guías prácticas, denominadas rúbricas, que recogen información acerca de los criterios que se utilizarán para la clasificación de sus respuestas y ayudan al alumnado en el desarrollo de su trabajo (Laurian & Fitzgerald, 2013). Una rúbrica puede definirse como el conjunto de criterios de calidad relacionados con la competencia o competencias a evaluar, determinados por descriptores que suponen distintos niveles de logro o desempeño de los mismos. Las rúbricas pueden ser entendidas y aplicadas con facilidad por profesores y estudiantes, incluso por evaluadores externos (De la Cruz, Díaz-Barriga & Abreo, 2010). Son herramientas útiles tanto para el diseño de una actividad evaluativa, como para valorar previamente dicha actividad e identificar formas de mejora (Martínez et al., 2012).

En los últimos años, el uso de rúbricas para fines formativos ha ido tomando protagonismo (Hack, 2015; Panadero & Jonsson, 2013), al tiempo que proporciona un método fiable (Huerta et al., 2014) y objetivo para evaluar el trabajo del estudiante (Mok & Toh, 2015) y facilitar la valoración de las competencias a desarrollar por este (Knight, 2006; Martiañez et al., 2015; O'Brien, Franks & Stowe, 2008). Asimismo, las rúbricas aportan transparencia a la evaluación (Contreras et al., 2016), permiten mejorar las calificaciones del alumnado (Laurian & Fitzgerald, 2013; McGoldrick & Peterson, 2013), así como la calidad de sus aprendizajes (Sundeen, 2014).

Son numerosos los estudios que reflejan los beneficios del uso de las rúbricas en educación Entre ellos, destacamos los hallazgos que obtuvieron Timmerman, Strickland, Johnson y Payne (2011), quienes llegaron a la conclusión de que estas herramientas aportan tres ventajas importantes en la educación superior: aumentar la objetividad de las calificaciones, asegurar la validez en la evaluación del rendimiento del estudiante y, cuando se utiliza en múltiples cursos, proporcionar una medida común para evaluar en qué grado el plan de estudios está cumpliendo sus objetivos; asimismo, Espinosa (2013) demostró que las rúbricas facilitan una evaluación formativa con retroalimentación, que mejoran las calificaciones del grupo y que permiten una evaluación imparcial y objetiva; también Rekalde y Buján (2014) concluyeron en su estudio que las rúbricas permiten valorar lo que se ha conseguido y lo que falta por conseguir, dotar de sentido global a los conocimientos, habilidades y actitudes, contrastar procesos y resultados, aportar evidencias a partir de criterios conocidos, disponer de feed-back inmediato y convertir el uso de dichas herramientas en una actividad habitual con sentido ético; por último, Martiañez et al. (2015) hallaron que las rúbricas permiten una valoración más objetiva, evaluar de forma integral y conocer el nivel de competencia de los estudiantes.

Este instrumento, es útil para la reflexión (Ruys, Keer & Aelterman, 2012; Thorsen & DeVore, 2013), estimulando el autocontrol cognitivo a lo largo de la formación durante el periodo de estudio o profesionalización (Laurian & Fitzgerald, 2013). Para McGoldrick y Peterson (2013) la rúbrica es capaz de correlacionar mejor las actividades de clase y los objetivos de aprendizaje, reduciendo considerablemente el tiempo empleado en la evaluación y aportando objetividad a la calificación del alumno.

Una rúbrica bien construida proporciona un mecanismo para evaluar el desempeño de los estudiantes y permitir la interpretación numérica del rendimiento (Ashcraft et al., 2013). Así, las rúbricas constituyen tanto una ayuda al profesor como al estudiante, pues se confecciona en un lenguaje común donde ambos roles pueden intercambiar información bilateralmente. Por ello, es muy importante su carácter preestablecido, acordado con los estudiantes, antes de llevar a cabo la evaluación (Manríquez, 2012).

Siguiendo a Maxwell (2010), las rúbricas no sólo son útiles para facilitar las calificaciones, sino también para la retroalimentación del alumno y la mejora de sus expectativas de evaluación. Estas herramientas hacen que el estudiante se plantee preguntas para ayudar a asegurar el logro de los objetivos establecidos (Vandenberg et al., 2010). El uso de las rúbricas en las aulas universitarias ofrece a los estudiantes una guía que les ayuda a descomponer los objetivos en tareas más pequeñas, lo que les permite comprobar si sus resultados coinciden con las expectativas del profesorado, para evitar una posible decepción o frustración que puede producir que el resultado del trabajo realizado no sea exactamente el esperado.

Las rúbricas permiten realizar un seguimiento del alumnado al fomentar que comparta su aprendizaje mediante la autoevaluación, la cual se valora como un medio para ayudar a los alumnos a reflexionar sobre sus tareas (Jonsson, 2014; Mansilla et al., 2009). Según Bahri, Azli y Samah (2012), las rúbricas son de gran influencia en la determinación del rendimiento de los estudiantes y, por tanto, siempre es bueno hacer una revisión de los criterios contenidos en las mismas o del instrumento en general (Butvilofsky & Sparrow, 2012).

Pese a todos los beneficios que conllevan las rúbricas, también se encuentran percepciones negativas en torno a las mismas. Algunos estudios hablan del peligro de valorarlas en exceso (Bailey, 2014), otros de conducir a enfoques superficiales de los estudiantes (Kohn, 2006) y otros aluden a la necesidad de perfeccionarlas y definirlas mejor (Ortiz et al., 2013). En algunos casos también se han registrado actitudes negativas de algunos docentes reticentes al cambio de metodología y por tanto no conformes con el uso de rúbricas (Kutlu, Yildirim & Bilican, 2010). A todo ello, se unen percepciones de alumnos que encuentran estos métodos generadores de estrés y de mayor exigencia de trabajo (Panadero & Romero, 2014); pero, sobre todo, los expertos en la materia coinciden en que cuestiones como la interpretación de múltiples criterios y estándares, constituyen las dificultades más relevantes (O'Donovan, Price & Rust, 2001). Además, su puesta en práctica es compleja y puede resultar muy complicada para principiantes (Sadler, 2009), sin olvidar que el uso de rúbricas no puede mejorar la fiabilidad o validez de la evaluación si los evaluadores no están bien entrenados sobre cómo diseñarlas y aplicarlas de manera efectiva (Rezaei & Lovorn, 2010). De acuerdo con Cano (2015), hacer una buena rúbrica es difícil y hacerla para una actividad pequeña es un coste excesivo en términos de tiempo, por lo que deberían realizarse para tareas más amplias.

2. PLANTEAMIENTO DEL PROBLEMA Y OBJETIVOS

Mediante la aplicación del modelo de formación en competencias, durante los años académicos de 2010-2011 a 2014-2015, se utilizaron rúbricas (García Sanz, 2014) para evaluar las prácticas realizadas en la asignatura Evaluación de Programas Educativos y Formativos, por el alumnado de segundo curso del Grado en Pedagogía de la Universidad de Murcia. Los estudiantes realizan las prácticas de dicha asignatura mediante aprendizaje cooperativo de tres o cuatro alumnos, por lo que, en aras de mantener la coherencia, la cumplimentación de las rúbricas también se realizó a través del consenso utilizando esta estrategia metodológica.

Para asegurar la adecuación de la rúbrica como instrumento para la evaluación y mejora del aprendizaje de los estudiantes, de acuerdo con el modelo educativo actual, se quiso contar con la participación de los mismos como usuarios de dichas herramientas y protagonistas de su propio proceso formativo. Por otra parte, puesto que el instrumento utilizado para la recogida de información fue de elaboración propia, también era necesario demostrar su validez y fiabilidad.

Así pues, el estudio que aquí se muestra partió de las siguientes preguntas de investigación:

1. ¿Es válido y fiable el cuestionario utilizado para evaluar la rúbrica utilizada?

2. ¿Qué ventajas y limitaciones otorgan los estudiantes a las rúbricas?

3. ¿Existen diferencias significativas y relevantes entre los factores obtenidos en el cuestionario?

Estas tres preguntas se corresponden, respectivamente, con los siguientes objetivos de investigación:

1. Obtener las características psicométricas del cuestionario.

2. Analizar el grado de adecuación de las rúbricas desde la percepción de los estudiantes universitarios.

3. Conocer la posible existencia de diferencias significativas entre los factores obtenidos en el cuestionario, así como la magnitud de dichas diferencias.

3. METODOLOGÍA DE LA INVESTIGACIÓN

3.1. PARTICIPANTES

De una población de 665 estudiantes de 2° curso del Grado en Pedagogía de la Universidad de Murcia, matriculados en la asignatura Evaluación de Programas Educativos y Formativos durante los años académicos de 2010-2011 a 2014-2015, en la investigación participaron 440, lo que supone el 66,16% del total.

La estrategia de muestreo fue no probabilística de voluntarios, ya que participaron anónimamente en el estudio los estudiantes que así lo desearon, a través del aula virtual de la Universidad.

El tamaño muestral supera el mínimo establecido, ya que para un nivel de confianza de 95% y un intervalo de confianza de .05, la muestra aceptada habría podido ser de 244 estudiantes (The Survey Sistem, s.f.).

3.2. INSTRUMENTO DE RECOGIDA DE INFORMACIÓN

Como ya se ha comentado, el instrumento utilizado en la investigación fue un cuestionario de elaboración propia. Consta de 15 ítems, 13 cerrados con una escala numérica de 5 grados (de totalmente en desacuerdo ‒1‒ a totalmente de acuerdo ‒5‒) y dos abiertos. El contenido de dichos ítems se explicita en la Tabla 1.

 

Tabla 1. Contenido de los ítems del cuestionario

 

3.3. MÉTODO Y PROCEDIMIENTO

La investigación realizada se ubica dentro de los métodos cuantitativos no experimentales. Concretamente, se trata de un estudio descriptivo tipo encuesta, de carácter exploratorio.

Respecto al procedimiento, el cuestionario fue depositado en el aula virtual de la Universidad de Murcia, en el "sitio" correspondiente a la asignatura de Evaluación de Programas Educativos y Formativos. Para garantizar la confidencialidad, tras una breve explicación por parte del profesorado acerca de la finalidad del mismo, de cómo responder las preguntas y de la importancia de que todos los estudiantes participaran en el estudio, una vez que estos cumplimentaron el cuestionario, los enviaron por e-mail a los delegados de los respectivos cursos y fueron estos quienes depositaron todos los instrumentos anónimamente en el aula virtual. Finalmente, los cuestionarios fueron recogidos por los docentes para ser analizados.

3.4. TÉCNICAS DE ANÁLISIS DE DATOS

Los análisis cuantitativos se realizaron a través del paquete estadístico SPSS, versión 19, excepto el cálculo del índice "d" de Cohen, para el cual se recurrió a una calculadora del tamaño del efecto (NCalculators, 2013).

Para verificar la validez de constructo del cuestionario se llevó a cabo un análisis factorial exploratorio de componentes principales y para obtener la fiabilidad del instrumento se utilizó el coeficiente Alfa de Cronbach.

Para los cálculos descriptivos se emplearon los siguientes estadísticos: frecuencias, porcentajes y medias, mientras que para obtener la magnitud de las diferencias entre los factores encontrados se recurrió a la "d" estandarizada de Cohen (1988).

Los cálculos inferenciales, al no cumplirse las condiciones para poder aplicar la estadística paramétrica (Siegel, 1991), se realizaron mediante la aplicación de las pruebas de Friedman y Wilcoxon (α= .05).

El análisis cualitativo de los dos ítems abiertos se efectuó siguiendo las fases de: reducción, descripción, comparación e interpretación (García Sanz, 2012).

4. RESULTADOS

4.1. VALIDEZ Y FIABILIDAD DEL CUESTIONARIO

Una vez obtenida la medida de adecuación muestral de Kaiser-Meyer-Olkin (.885) y realizada la prueba de esfericidad de Bartlett que confirmó la adecuación de la aplicación del análisis factorial de las variables estudiadas (.000), se obtuvieron 3 factores con valores Eigen mayores que 1, con el 54,95% de varianza explicada.

En la Tabla 2 se muestra la matriz de componentes rotados mediante el método Varimax.

 

Tabla 2. Matriz de componentes rotados

Fuente: elaboración propia.

 

Los tres factores o componentes obtenidos a partir de los 13 ítems cerrados del cuestionario, los denominamos del siguiente modo:

- Factor 1. Características de la evaluación. Este factor integra los ítems que indican que la rúbrica permite realizar una evaluación más objetiva, transparente, participativa, fácil de usar, sistemática y justa.

- Factor 2. Aportaciones para el estudiante. Esta denominación se debe a que, a pesar de que todas las posibles ventajas de la rúbrica afectarían positivamente al estudiante, el contenido de los ítems que componen este factor repercutiría directamente en un beneficio para el mismo.

- Factor 3. Evidencias para el docente. Los ítems que integran este factor indican al profesorado qué ha aprendido el alumno, qué le falta por aprender y establecer la relación entre expectativas y resultados alcanzados.

En relación con la fiabilidad del cuestionario, los resultados pusieron de manifiesto una alta consistencia interna del instrumento (DeVellis, 2003), ya que se obtuvo un coeficiente Alfa de Cronbach de α= .864. Asimismo, en ningún caso, dicho coeficiente resultó mayor si se hubiera eliminado alguno de los ítems, lo que indica la pertinencia de todos ellos.

4.2. ADECUACIÓN DE LAS RÚBRICAS DESDE LA PERCEPCIÓN DE LOS ESTUDIANTES UNIVERSITARIOS

Globalmente, los estudiantes valoraron las rúbricas para ser utilizadas en el contexto universitario con una puntuación más que alta (Med=4.30), lo que pone de manifiesto la adecuación de las mismas.

En la Tabla 3 se muestran los estadísticos descriptivos relativos a las características de la evaluación que conlleva la utilización de rúbricas (factor 1 del cuestionario).

 

Tabla 3. Estadísticos descriptivos del factor 1

Fuente: elaborada en base a las tablas exportadas de SPSS, versión 19.

 

Como se aprecia en la Tabla 3, los estudiantes opinan que la mejor cualidad de las rúbricas es que las mismas hacen de la evaluación un proceso altamente participativo (ítem 12), ya que les permiten implicarse en gran medida en el desarrollo de su propia evaluación (Med=4.48). De hecho, más de la mitad de los estudiantes (56,8%) están totalmente de acuerdo con esta afirmación.

Por el contrario, dentro de la alta valoración otorgada a este primer factor, el ítem con una media más baja (Med=4.23) ha sido el que hace referencia a la facilidad de uso de las rúbricas en función de la utilidad que aportan (ítem 13). Los porcentajes de respuesta de este ítem han quedado prácticamente distribuidos entre las opciones 4 (de acuerdo con la proposición) y 5 (totalmente de acuerdo) de la escala.

Respecto al factor 2, en la Tabla 4 se presentan los estadísticos descriptivos que hacen referencia a las aportaciones directas de las rúbricas a los estudiantes.

 

Tabla 4. Estadísticos descriptivos del factor 2

Fuente: elaborada en base a las tablas exportadas de SPSS, versión 19.

 

La Tabla 4 muestra que, desde el punto de vista de los estudiantes, la mayor aportación de las rúbricas a los mismos (Med=4.48) es que les permite realizar una revisión de su trabajo antes de su entrega (ítem 10). Como se observa, el porcentaje de estudiantes que están totalmente de acuerdo con ello es bastante alto (58,3%). Contrariamente, lo que menos les aporta las rúbricas a los estudiantes universitarios (Med=4.17), aun teniendo en cuenta la alta valoración del factor, es clarificarles en qué forma y grado pueden adquirir las competencias (ítem 5). De hecho, solo algo más de la tercera parte de los estudiantes (36,6%) ha escogido la opción 5 de la escala del cuestionario.

Finalmente, en relación con las evidencias añadidas para el docente que la rúbrica incorpora a la evaluación, la Tabla 5 indica los estadísticos correspondientes a este tercer factor obtenido en la investigación.

 

Tabla 5. Estadísticos descriptivos del factor 3

Fuente: elaborada en base a las tablas exportadas de SPSS, versión 19.

 

La Tabla 5 pone de manifiesto que la mayor evidencia para el profesorado que proporcionan las rúbricas es que le ayuda a saber lo que el estudiante ha sido capaz de hacer (Med=4.26) (ítem 7). Como se aprecia, el porcentaje más alto (44,5%) se acumula en la opción 5 de la escala. El ítem con una valoración media más baja (Med=4.15) es el que señala que la rúbrica ayuda a promover la consistencia entre expectativas y resultados (ítem 6). La Tabla 5 muestra que más de la mitad de los estudiantes (52,5%) están de acuerdo con esta afirmación, pero totalmente de acuerdo con la misma, no llega a la tercera parte (31,6%).

En relación con el ítem cualitativo del cuestionario referido a las ventajas de las rúbricas destacables por los estudiantes, tan solo 33 estudiantes (7,5%) cumplimentaron el mismo. De ellos, la Tabla 6 explicita cuáles son dichas ventajas, así como el número y porcentaje de alumnado que las consideró como tales.

 

Tabla 6. Ventajas de las rúbricas. Frecuencias y porcentajes de respuesta

Fuente: elaboración propia.

 

Para terminar con los resultados referidos al segundo objetivo de la investigación, en la Tabla 7 se muestran los inconvenientes que los estudiantes han encontrado utilizando las rúbricas. En este caso, 39 estudiantes han respondido el último ítem del cuestionario, relativo a dichos inconvenientes, lo que supone el 8,86% del total.

 

Tabla 7. Inconvenientes de las rúbricas. Frecuencias y porcentajes de respuesta

Fuente: elaboración propia.

 

4.3. DIFERENCIAS SIGNIFICATIVAS ENTRE FACTORES Y MAGNITUD DE LAS MISMAS

La Tabla 8 muestra los resultados de la prueba de Friedman. Dichos resultados indican la existencia de diferencias significativas entre las medias de los tres factores obtenidos en los resultados del objetivo 1 de esta investigación ("características de la evaluación", "aportaciones para el estudiante" y "evidencias para el docente").

 

Tabla 8. Prueba de Friedman

Fuente: elaborada en base a las tablas exportadas de SPSS, versión 19.

 

Asimismo, en la Tabla 9 se aprecian los resultados de la prueba de Wilcoxon al contrastar los factores dos a dos.

 

Tabla 9. Prueba de Wilcoxon

Fuente: elaborada en base a las tablas exportadas de SPSS, versión 19.

 

La Tabla 9 pone de manifiesto que no existen diferencias significativas entre los factores que hacen referencia a las "características de la evaluación" y a las "aportaciones para el estudiante", pero sí entre los factores "características de la evaluación" y "evidencias para el docente", así como entre "aportaciones para el estudiante" y "evidencias para el docente".

A pesar de haber encontrado diferencias significativas entre los factores 1 y 3 y entre el 2 y el 3, este hecho solo indica que es poco probable que dichas diferencias sean debidas al azar y, por tanto, las mismas sean aceptadas como reales. Sin embargo, la significación estadística no aporta información sobre la fuerza de tales diferencias. Por ello, consideramos necesario obtener la magnitud de las diferencias entre factores mediante el cálculo de la diferencia estandarizada.

En la Tabla 10 se puede apreciar el valor de la d estandarizada de Cohen (1988) tras contrastar dos a dos los tres factores obtenidos.

 

Tabla 10. Valor de la diferencia estandarizada para
cada par de factores

Fuente: elaborada en base a los resultados obtenidos
en NCalculators (2013).

 

De acuerdo con la interpretación actualizada de la magnitud de las diferencias establecida por Iraurgi (2009), basándose en la indicada por Cohen (1988), la Tabla 10 muestra que entre los factores "características de la evaluación" y "aportaciones para el estudiante" la magnitud de las diferencias entre ambos puede considerarse nula. Asimismo, entre los factores "características de la evaluación" y "evidencias para el docente", al igual que entre los factores "aportaciones para el estudiante" y "evidencias para el docente", dicha magnitud se interpreta como más pequeña que la típica.

Por lo tanto, si bien sí se encontraron diferencias estadísticamente significativas entre los factores 1 y 3, así como entre el 2 y el 3, la magnitud de dichas diferencias ha puesto de manifiesto la poca relevancia de las mismas.

5. DISCUSIÓN Y CONCLUSIONES

En esta investigación se ha evaluado la pertinencia de las rúbricas como herramientas de evaluación y aprendizaje en la universidad, desde la perspectiva de los estudiantes. De esta forma, con la misma se ha contribuido a recoger información directa y pormenorizada del colectivo más importante de la universidad y efectuar los cambios pertinentes para mejorar su utilidad. Asimismo, el cuestionario empleado alcanzó una fiabilidad y validez apropiada, a partir de las cuales se obtienen tres componentes principales o factores del mismo, en torno a los cuales se estructura este apartado: Características de la evaluación, Aportaciones para el estudiante y Evidencias para el docente.

Coincidiendo con Gallego y Raposo (2014) de forma global, los estudiantes evaluaron las rúbricas en el ámbito de la universidad con una valoración más que alta. Dentro de las características de la evaluación, el alumnado destaca como mejor cualidad de estas herramientas el fomento de la participación del alumnado en su proceso evaluativo, al dejar de ser agentes pasivos y convertirse en parte de su propia evaluación (Cano, 2015; Ibarra, Rodríguez & Gómez, 2012; Valverde & Ciudad, 2014). En este sentido, autores como Bordas y Cabrera (2001) consideran fundamental la participación del estudiante en la evaluación de sus aprendizajes, aspecto, por otra parte, muy demandado por los discentes.

Algunos alumnos corroboraron esta opinión señalando como una de las ventajas de las rúbricas que las mismas permiten la autoevaluación a lo largo del curso. En esta línea, Lee (2014) indica que, gracias a las rúbricas, el alumnado puede participar en la evaluación de forma activa, mediante la autoevaluación, y realizar así una retroalimentación constructiva. En el estudio realizado por Atkinson y Lim (2013), los estudiantes afirmaron que con las rúbricas eran capaces de ver claramente lo que tenían que hacer, lo que habían logrado y lo que les faltaba para mejorar, y se mostraban satisfechos con la retroalimentación obtenida. Asimismo, los discentes explicitaron que la utilización de rúbricas favorece el trabajo en equipo, ya que incorporaron en sus opiniones la forma en la que se cumplimentaron las rúbricas (aprendizaje cooperativo, aprendiendo de la propia evaluación). De este modo, el uso de dicha herramienta, acompañada de una evaluación cooperativa, puede ayudar a que los estudiantes adquieran un aprendizaje exitoso (Arteaga et al., 2013). Esta opinión coincide con los hallazgos de Eshun y Osei-Poku (2013), quienes demostraron que la mayoría de los estudiantes están de acuerdo con que el uso de rúbricas les permite interactuar mejor socialmente. No obstante, en nuestro estudio otros alumnos apuntaron que es difícil llegar a un acuerdo y que la evaluación grupal puede ocasionar conflicto.

Otra ventaja de las rúbricas relativa a las características de la evaluación hace referencia a que las mismas fomentan una evaluación completa, con visión global y parcial. Esta afirmación está en la línea de los resultados hallados por Rekalde y Buján (2014), quienes llegaron a la conclusión de que las rúbricas "dotan de sentido global a los contenidos respecto a conocimientos, habilidades y actitudes" (p. 370). Por último, los estudiantes también concretan como ventaja de estas herramientas que las mismas potencian la objetividad, la justicia y la igualdad en los procesos evaluativos (Martiañez et al., 2015).

Aunque los estudiantes valoraron altamente las rubricas en lo que respecta a las características que las mismas confieren a la evaluación, estimaron en menor grado la facilidad para su empleo en función de la utilidad que aportan. En este sentido, el alumnado suele rechazar todo lo que suponga un grado de esfuerzo mayor a las tareas que ya tiene que realizar, aunque reconozca la utilidad de la herramienta. De hecho, un grupo de estudiantes concretó que uno de los inconvenientes de la rúbrica es que requiere mucho tiempo y esfuerzo. Autores como Blommel y Abate (2007) admiten la complejidad de las rúbricas, pero señalan que el trabajo invertido compensa.

Contrariamente a esta opinión, coincidiendo con McGoldrick y Peterson (2013), un grupo reducido de estudiantes explicita que una de las ventajas de la rúbrica es que esta conlleva una evaluación fácil, rápida y efectiva. En esta línea, según Andrade y Du (2005) y Espinosa (2013), el uso de rúbricas ayuda a los estudiantes a concentrar sus esfuerzos en realizar tareas de mayor calidad, obtener una calificación mayor y sentirse menos ansiosos en su trabajo.

Un porcentaje bajo de alumnos explicitó que algunos de los inconvenientes de las rúbricas referidos a las características que las mismas confieren a la evaluación son las siguientes: están orientadas solo a los resultados; no son completas, puesto que quedan aspectos sin valorar; son complicadas de entender y cumplimentar; y si nos limitamos solo a ellas, son insuficientes para la evaluación. La primera opinión demuestra que los estudiantes únicamente han utilizado la rúbrica al final del trabajo, a pesar de haberla entregado al principio del mismo y explicado su finalidad formativa y sumativa. Respecto a la segunda limitación, tal y como señala Cano (2015), algunos aspectos como los actitudinales resultan difíciles de incorporar en las rúbricas y, por otra parte, estas se alargarían mucho si se consideraran todos los detalles que deberían tenerse en cuenta en la evaluación, por lo que siempre queda algo de margen para la subjetividad. En cuanto a su complejidad, la opinión del alumnado coincide con la de O'Donovan, Price y Rust (2001), quienes indican que la interpretación de múltiples criterios y estándares son las carencias más relevantes de las rúbricas. Los estudiantes demandan la autoevaluación, pero no están acostumbrados a realizarla sistemáticamente. En relación con el último inconveniente de las rúbricas explicitado por los discentes, no cabe duda de que, como hemos expresado en el marco teórico de esta aportación, la herramienta, como cualquier otra, debe combinarse con otros procedimientos de evaluación, especialmente de proceso.

Los estudiantes también otorgan una alta valoración a lo que les aportan las rúbricas de forma general, considerando que la mejor contribución de las mismas, tal y como indican Steffens y Underwood (2008), es poder revisar el trabajo antes de entregarlo. Con ello, el alumnado se asegura una calificación positiva, lo que potencia el enfoque superficial de este dada la importancia extrema que otorgan a la calificación final (Andrade & Du, 2005) por encima de una adecuada comprensión de los aprendizajes. De hecho, coincidiendo con Espinosa (2013) y McGoldrick y Peterson (2013), entre las ventajas de las rúbricas, un grupo de estudiantes insiste en que, a través de ellas, se puede saber con bastante exactitud la calificación a obtener y se evitan sorpresas.

Otras ventajas de las rúbricas resaltadas por los estudiantes en relación con lo que las mismas les aportan son, por un lado, el hecho de que las mismas acotan el trabajo, destacando lo importante. En esta línea, O'Donovan et al. (2001) explicitan la claridad que poseen estas herramientas en relación con los requisitos evaluativos y Blommel y Abate (2007) hacen hincapié en que las rúbricas evitan perder el tiempo en tareas innecesarias.

Por otro lado, para el alumnado, otra ventaja de las rúbricas es que las mismas permiten repasar y corregir con antelación el trabajo, ayudan a ver los fallos, ser críticos y aprender de ellos. En relación con esta cualidad, variedad de autores (Atkinson & Lim, 2013; Gleason et al., 2013; Huber & Hutchings, 2004; Martínez et al., 2012; Walvoord & Johnson, 1998) indican que las rúbricas permiten a los discentes juzgar la calidad de su trabajo, así como conocer qué han logrado, identificando la forma de mejorar en un futuro. De acuerdo con Panadero y Jonsson (2013), Nordrum, Evans y Gustafsson (2013) y Smit y Birri (2014), una de las principales aportaciones de las rúbricas, en comparación con otras herramientas de evaluación, es su finalidad formativa, ya que proporcionan mecanismos de retroalimentación durante todo el proceso, y ayudan al aprendizaje autorregulado (Roffé, 2014). Tal y como dictan Shipman, Roa, Hooten y Wang (2012), una rúbrica que evalúa constantemente el desempeño del alumno y proporciona buena retroalimentación, es esencial para su proceso de aprendizaje. Cuando un estudiante no recibe la adecuada respuesta, consistente o significativa, puede sentir que sus calificaciones no son válidas, y percibe, por lo tanto, mensajes contradictorios.

A pesar de que variedad de autores estudiosos del tema (Espinosa, 2013; Martiañez et al., 2008; Rau, 2009; Smit & Birri, 2014) considera que una de las utilidades más relevantes de las rúbricas es su adecuación para la evaluación de competencias, y que algunos alumnos expliciten que las mismas les ayuda a entender dichas competencias, así como los criterios de evaluación, en general, los estudiantes dan menos importancia a que dichas herramientas les clarifiquen en qué forma y grado pueden adquirir las competencias planificadas, lo que demuestra que aún no está consolidada la relevancia del desarrollo de las competencias entre el alumnado universitario.

Un pequeño grupo de estudiantes expone como limitaciones de las rúbricas, en relación con lo que las mismas les aportan, la dificultad para conseguir un trabajo excelente y la limitación de la imaginación y la creatividad del alumno. Respecto a esto último, Stobart (2010) y Atkinson y Lim (2013) insisten en la necesidad de reflexionar sobre el grado de explicitación de los criterios, de modo que no anulen la autonomía y la creatividad del estudiante y Bolívar (2008) incita a hacerlo sobre el encorsetamiento al que nos dirigimos con estas herramientas.

Respecto a las evidencias que aportan las rúbricas al docente para realizar la evaluación, el aspecto mejor valorado de este componente es que las mismas permiten saber lo que el estudiante ha sido capaz de hacer, pero sin referencia explícita al desarrollo de competencias. En esta línea, también Rekalde y Buján (2014) llegaron a la conclusión de que las rúbricas permiten valorar lo que el alumnado ha conseguido y lo que le falta por conseguir. Asimismo, los estudiantes concretan como ventaja del instrumento que el mismo permite ocupar el lugar del docente, en tanto que, facilita anotar muestras de trabajo de una manera sistemática (Saxton, Belanger & Becker, 2012).

Gezie y otros (2012) afirman que las rúbricas proporcionan claridad a las expectativas del alumnado y Blommel y Abate (2007) demostraron que la rúbrica que utilizaron proporcionó a los estudiantes una guía para el rendimiento deseado en función de sus expectativas. En nuestro estudio, aun dentro de una valoración alta, el alumnado considera que lo que menos aportan las rúbricas al docente es que ayuden a promover la consistencia entre las expectativas y los resultados obtenidos por los estudiantes. Las expectativas se pueden entender como el nivel de desarrollo esperado de las competencias, lo que confirma la falta de comprensión de los estudiantes de la importancia de la relación entre competencias y resultados.

Algunas limitaciones señaladas por el alumnado en relación con las evidencias que las mismas proporcionan al docente para la evaluación hacen referencia a que son inapropiadas para estudiantes con discapacidad y que no se aprecia el trabajo realizado por cada miembro del grupo. Respecto a este último aspecto, los alumnos olvidaron mencionar que la evaluación global de la carpeta de prácticas debía completarse con una evaluación individual en función de la aportación actitudinal de cada miembro del grupo a partir de criterios previamente establecidos.

Respecto a las diferencias halladas entre los tres factores analizados, si bien se encontró significación estadística entre los factores "características de la evaluación" y "evidencias para el docente", así como entre "aportaciones para el estudiante" y "evidencias para el docente", la magnitud de dichas diferencias no fue suficientemente amplia como para tener en cuenta la relevancia de las mismas en ninguna de las combinaciones posibles.

Como conclusión afirmamos que las rúbricas son herramientas para la evaluación de competencias con más ventajas que limitaciones. No obstante, como prospectiva de esta investigación, se debe continuar trabajando en la mejora de su calidad, insistiendo en los procedimientos para su diseño, la formación del profesor en este campo, la capacidad de este para explicar al alumnado su finalidad y el modo de cumplimentación, la posibilidad de realizar e-rúbricas, así como en la ampliación de utilización de las mismas en otros cursos y otras titulaciones universitarias para la obtención de resultados de evaluación de las mismas ampliando perspectivas.

 

REFERENCIAS BIBLIOGRÁFICAS

Andrade, H., & Du, Y. (2005). Student perspectives on rubric-referenced assessment. Practical Assessment, Research & Evaluation, 10(5), 1-11.         [ Links ]

Arteaga, J.F., Díaz, M.J., Toscano, C., & Martín, J.E. (2013). Implementation of a cooperative methodology to develop organic chemical engineering skills. European Journal of Engineering Education, 38(4), 370-384. doi: 10.1080/03043797.2013.767779

Ashcraft, A.S., Opton, L., Bridges, R.A., Caballero, S., Veesart, A., & Weaver, C. (2013). Simulation Evaluation Using a Modified Lasater Clinical Judgment Rubric. Nursing education perspectives, 34(2), 122-126.

Atkinson, D., & Lim, S.L. (2013). Improving Assessment Processes in Higher Education: Student and Teacher Perceptions of the Effectiveness of a Rubric Embedded in a LMS. Australasian Journal of Educational Technology, 29(5), 651-666. doi: 10.1234/ajet.v29i5.526

Bahri, N. A. S., Azli, N. A., & Samah, N. A. (2012). Problem-Based Learning Laboratory (PBLab): Facilitators' Perspective on Rubric Assessment. Procedia-Social and Behavioral Science, 56, 88-95. doi: 10.1016/j.sbspro.2012.09.635

Bailey, J.R. (2014). Crossing the Rubric-Con. Journal of Management Education, 38(3), 313-318. doi: 10.1177/1052562913515657

Bartram, D., & Roe, R.A. (2005). Definition and assessment of competences in the context of the European Diploma in Psychology. European Psychologist, 10, 93-102. doi: 10.1027/1016-9040.10.2.93

Biggs, J.B. (2004). Teaching for Quality Learning at University. Madrid: Narcea.

Blommel, M.L., & Abate, M.A. (2007). A rubric to assess critical literature evaluation skills. American Journal of Pharmaceutical Education, 71(4), 1-63. doi: 10.5688/aj710463

Bolívar, A. (2008). El discurso de las competencias en España: educación básica y educación superior. Revista de Docencia Universitaria, número monográfico 2. Recuperado desde http://revistas.um.es/redu/article/view/35241/33761

Bonsón, M., & Benito, A. (2005). Evaluación y Aprendizaje. En A. Benito y A. Cruz (Coords.), Nuevas claves para la docencia universitaria en el Espacio Europeo de Educación Superior (pp. 87-100). Madrid: Narcea.

Bordas, M.I., & Cabrera, F.A. (2001). Estrategias de evaluación de los aprendizajes centrados en el proceso. Revista Española de Pedagogía, 218, 25-48.

Brown, S., & Glasner, A. (2003). Evaluar en la universidad. Problemas y nuevos enfoques. Madrid: Narcea.

Butvilofsky, S.A., & Sparrow, W.L. (2012). Training teachers to evaluate emerging bilingual students' biliterate writing. Language and Education, 26(5), 383-403. doi: 10.1080/09500782.2011.651143

Calvo, A., & Mingorance, C. (2010). Evaluación continua de conocimientos vs. de competencias: Resultados de la aplicación de dos métodos valorativos diferentes. Revista de Investigación Educativa, 28(2), 361-383.

Cano, E. (2015). Las rúbricas como instrumento de evaluación de competencias en educación superior: ¿uso o abuso? Revista de currículum y formación del profesorado, 19(2), 265-280.

Capllonch, M., & Busca, F. (2006). Pros y contras de la evaluación formativa en el proceso de adaptación al EEES. El caso de la asignatura de fundamentos de la educación física y su didáctica. Actas del I Congreso Nacional de evaluación formativa en docencia universitaria, Segovia, Universidad de Valladolid.

Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). New York: Academic Press.

Colás, P., Jiménez, R., & Villaciervos, P. (2005). Portafolios y desarrollo de competencias profesionales en el marco del Espacio Europeo de Educación Superior. Revista de Ciencias de la Educación, 204, 519-538.

Contreras, W.E., Martínez, F., Rubio, J., & Vila-Ban, R. (2016). University Students' Perceptions of E-Portfolios and Rubrics as Combined Assessment Tools in Education Courses. Journal of Educational Computing Research, 54(1), 85-107. doi: 10.1177/0735633115612784

De la Cruz, G., Díaz-Barriga, F., & Abreu, L.F. (2010). La labor tutorial en los estudios de posgrado. Rúbricas para guiar su desempeño y evaluación. Perfiles Educativos, 52(130), 83-102.

DeVellis, R.F. (2003). Scale development: Theory and applications (2nd ed.). Thousand Oaks, CA: Sage.

Eshun, E.F., & Osei-Poku, P. (2013). Design Students Perspectives on Assessment Rubric in Studio-Based Learning. Journal of University Teaching and Learning Practice, 10(1). Recuperado desde http://ro.uow.edu.au/cgi/viewcontent.cgi?article=1308&context=jutlp

Espinosa, M.T. (2013). Evaluación de competencias mediante rúbrica. Importancia de las matemáticas en la evaluación de competencias genéricas. Historia y Comunicación Social, 18, 243-255.

Gallego, M.J., & Raposo, M. (2014). Compromiso del estudiante y percepción del proceso evaluador basado en rúbricas. Revista de Docencia Universitaria, 12(1), 197-215.

García Sanz, M.P. (2012). Fundamentos teóricos y metodológicos de la evaluación de programas. Murcia: DM.

García Sanz, M.P. (2014). La evaluación de competencias en Educación Superior mediante rúbricas: un caso práctico. Revista Electrónica Interuniversitaria de Formación del Profesorado, 17(1), 87-106. doi: 10.6018/reifop.17

Gezie, A., Khaja, K., Chang, V.N., Adamek, M. E., & Johnsen, M. B. (2012). Rubrics as a Tool for Learning and Assessment: What Do Baccalaureate Students Think? Journal of Teaching in Social Work, 52(4), 421-437. doi: 10.1080/08841233.2012.705240

Gleason, B.L., Gaebelein, C.J., Grice, G R., Crannage, J., Weck, M.A., Hurd, P., & Duncan, W. (2013). Assessment of Students' Critical-Thinking and Problem-Solving Abilities Across a 6-Year Doctor of Pharmacy Program. American journal of pharmaceutical education, 77(8). doi: 10.5209/rev_HICS.2013.v18.44240

Hack, C. (2015). Analytical rubrics in higher education: A repository of empirical data. British Journal of Educational Technology, 46(5), 924-927. doi: 10.1111/bjet.12304

Huber, M.T., & Hutchings, P. (2004). Integrative Learning: Mapping the Terrain. Washington, DC: Association of American Colleges and Universities.

Huerta, M., Lara-Alecio, R., Tong, F., & Irby, B.J. (2014). Developing and validating a science notebook rubric for fifth-grade non-mainstream students. International Journal of Science Education, 36(11), 1849-1870. doi: 10.1080/09500693.2013.879623

Ibarra, M.S., Rodríguez, G., & Gómez, M.A. (2012). La evaluación entre iguales: beneficios y estrategias para su práctica en la universidad. Revista de Educación, 359, 206-231.

Inda, M., Álvarez, S., & Álvarez, R. (2008). Métodos de evaluación en la enseñanza superior, Revista de Investigación Educativa, 26(2), 539-552.

Ion, G., & Cano, E. (2011). El proceso de implementación de la evaluación por competencias en la Educación Superior. Un estudio del rol de los cargos académicos. Revista de Investigación en Educación, 9(2), 246-258.

Iraurgi, L. (2009). Evaluación de resultados clínicos (II): las medidas de la significación clínica o los tamaños del efecto. NORTE de Salud Mental, 34, 94-110.

Jonsson, A. (2010). The use of transparency in the 'Interactive examination'for student teachers. Assessment in Education: Principles, Policy & Practice, 17(2), 183-197. doi: 10.1080/09695941003694441

Jonsson, A. (2014). Rubrics as a way of providing transparency in assessment. Assessment & Evaluation in Higher Education, 39(7), 840-852. doi: 10.1080/02602938.2013.87511

Knight, L.A. (2006). Using rubrics to assess information literacy. Reference Services Review, 34(1), 43-55. doi: 10.1108/00907320610640752

Kohn, A. (2006). The Trouble with Rubrics. The English Journal, 95(4) 12-15.

Kutlu, O., Yildirim, O., & Bilican, S. (2010). The comparison of the views of teachers with positive and negative attitudes towards rubrics. Procedia-Social and Behavioral Sciences, 9, 1566-1573. doi: 10.1016/j.sbspro.2010.12.366

Laurian, S., & Fitzgerald, C.J. (2013). Effects of Using Rubrics in a University Academic Level Romanian Literature Class. Procedia-Social and Behavioral Sciences, 76, 431-440.

Le Boterf, G. (2001). Construire les competences individuelles et collectives (2e edition). Paris: Editions d'Organisation.

Lee, J. (2014). An exploratory study of effective online learning: Assessing satisfaction levels of graduate students of mathematics education associated with human and design factors of an online course. The International Review of Research in Open and Distributed Learning, 15(1). Recuperado desde http://www.irrodl.org/index.php/irrodl/article/view/1638

López Ruiz, J.I. (2011). Un giro copernicano en la enseñanza universitaria: formación por competencias. Revista de Educación, 356, 279-301.

López Pastor, V.M. (2006). El papel de la evaluación formativa en el proceso de convergencia hacia el EEES. Análisis del estado de la cuestión y presentación de un sistema de intervención. Revista Interuniversitaria de Formación de Profesorado, 20(3), 93-119.

López, V.M., Fernando, L., & Julián, J.A. (2007). La Red Nacional de Evaluación Formativa, Docencia Universitaria y Espacio Europeo de Educación Superior (EEES). Presentación del proyecto, grado de desarrollo y primeros resultados. Red-U. Revista de Docencia Universitaria, 5(2).

Lorenzana, R.I. (2012). La evaluación de los aprendizajes basada en competencias en la enseñanza universitaria (Doctoral disertation). Universität Flensburg. Recuperado desde http://d-nb.info/1029421889/34

Manríquez, L. (2012). ¿Evaluación en Competencias? Revista Estudios Pedagógicos, 38(1), 353366. doi: 10.4067/S0718-07052012000100022

Mansilla, V.B., Duraisingh, E.D., Wolfe, C.R., & Haynes, C. (2009). Targeted assessment rubric: An empirically grounded rubric for interdisciplinary writing. The Journal of Higher Education, 80(3), 334-353.

Martiañez, N.L., Rubio, M., Terrón, M.J., & Gallego, T. (2015). Diseño de una rúbrica para evaluar las competencias del Prácticum del Grado en Fisioterapia. Percepción de su utilidad por los estudiantes. Fisioterapia, 37(2), 83-95. doi: 10.1016/j.ft.2014.06.005

Martín, P., & Wolff, L. (2011). La implantación de los nuevos grados: propuestas de mejora. Revista de Educación, 356, 703-715.

Martín, R., Fernández, P., González, M., & De Juanas, A. (2013). El dominio de los contenidos escolares: competencia profesional y formación inicial de maestros. Revista de Educación, 360, 363-387.

Martínez, M., Amante, B., Cadenato, A., & Gallego, I. (2012). Assessment tasks: center of the learning process. Procedia-Social and Behavioral Sciences, 46, 624-628. doi: 10.1016/j.sbspro.2012.05.174

Maxwell, S. (2010). Using Rubrics to Support Graded Assessment in a Competency Based Environment. Adelaide (Australia): NCVER.

McGoldrick, K., & Peterson, B. (2013). Using rubrics in economics. International Review of Economics Education, 12, 33-47. doi: 10.1016/j.iree.2013.04.009

Mok, J.C.H., & Toh, A.A.L. (2015). Improving the ability of qualitative assessments to discriminate student achievement levels. Journal of International Education in Business, 8(1), 49-58. doi: 10.1108/JIEB-12-2013-0048

NCalculators. (2013). Calculadora del tamaño del efecto. Recuperado desde http://es.ncalculators.com/statistics/effect-size-calculadora.htm

Nordrum, L., Evans, K., & Gustafsson, M. (2013). Comparing student learning experiences of in-text commentary and rubric-articulated feedback: strategies for formative assessment. Assessment & Evaluation in Higher Education, 38(8), 919-940.

O'Brien, C.E., Franks, A.M., & Stowe, C D. (2008). Multiple rubric-based assessments of student case presentations. American Journal of Pharmaceutical Education, 72(3), 1-58.

O'Donovan, B., Price, M., & Rust, C. (2001). The student experience of criterion-referenced assessment (through the introduction of a common criteria assessment grid). Innovations in Education and Teaching International, 38(1), 74-85. doi: 10.1080/147032901300002873

Ortiz, I., Uruburu, C.A., Ramón, B.J., & Prieto, R.T. (2013). Strengthening Communication Skills in an Innovative Context of Engineering Project Management Learning. Procedia-Social and Behavioral Sciences, 74, 233-243. doi: 10.1016/j.sbspro.2013.03.013

Panadero, E., & Jonsson, A. (2013). The use of scoring rubrics for formative assessment purposes revisited: A review. Educational Research Review, 9, 129-144. doi: 10.1016/j.edurev.2013.01.002

Panadero, E., & Romero, M. (2014). To rubric or not to rubric? The effects of self-assessment on self-regulation, performance and self-efficacy. Assessment in Education: Principles, Policy & Practice, 21(2), 133-148. doi: 10.1016/j.stueduc.2013.04.001

Pérez Pueyo, A., Tabernero, B., López Pastor, V.M., Ureña, N., Ruiz Lara, E., Caplloch Bujosa, M., ... González Fernández, N. (2008). Evaluación formativa y compartida en la docencia universitaria y el Espacio Europeo de Educación Superior: cuestiones clave para su puesta en práctica. Revista de Educación, 347, 435-451.

Perrenoud, P. (1997). Construiré des competences des l'école (3e edition). Paris: Editions Sociales Francaises.

Rau, H. (2009). Implementation of rubrics in an upper-level undergraduate strategy class. Southern Business Review, 34(2). Recuperado desde https://www.questia.com/library/journal/1P3-1844959861/implementation-of-rubrics-in-an-upper-level-undergraduate

Rekalde, I., & Buján, K. (2014). Las eRúbricas ante la evaluación de competencias transversales en Educación Superior. Revista Complutense de Educación, 2(2), 355-374.

Rezaei, A.R., & Lovorn, M. (2010). Reliability and validity of rubrics for assessment through writing. Assessing writing, 15(1), 18-39. doi: 10.1016/j.asw.2010.01.003

Roffé, A. (2014). Foreign Language Testing through Competence Assessment Rubrics and Oral Interviews in the European Higher Education Area. Procedia-Social and Behavioral Sciences, 141, 524-532. doi: 10.1016/j.sbspro.2014.05.091

Ruys, I., Keer, H.V., & Aelterman, A. (2012). Examining pre-service teacher competence in lesson planning pertaining to collaborative learning. Journal of Curriculum Studies, 44(3), 349-379. doi: 10.1080/00220272.2012.675355

Sadler, D.R. (2009). Indeterminacy in the use of preset criteria for assessment and grading. Assessment & Evaluation in Higher Education, 34(2), 159-179.

Saxton, E., Belanger, S., & Becker, W. (2012). The Critical Thinking Analytic Rubric (CTAR): Investigating intra-rater and inter-rater reliability of a scoring mechanism for critical thinking performance assessments. Assessing Writing, 17(4), 251-270. doi: 10.1016/j.asw.2012.07.002

Shipman, D., Roa, M., Hooten, J., & Wang, Z.J. (2012). Using the analytic rubric as an evaluation tool in nursing education: The positive and the negative. Nurse education today, 32(3), 246-249.

Siegel, S. (1991). Estadística noparamétrica aplicada a las ciencias de la conducta. México: Trillas.

Smit, R., & Birri, T. (2014). Assuring the quality of standards-oriented classroom assessment with rubrics for complex competencies. Studies in Educational Evaluation, 43, 5-13. doi: 10.1016/j.stueduc.2014.02.002

Steffens, K., & Underwood, J. (2008). Self-Regulated Learning in a Digital World, Technology, Pedagogy and Education, 17(3), 167-170. doi: 10.1080/14759390802383736

Stobart, G. (2010). Tiempos de pruebas: Los usos y abusos de la evaluación. Madrid: Morata.

Sundeen, T.H. (2014). Instructional rubrics: Effects of presentation options on writing quality. Assessing Writing, 21, 74-88. doi: 10.1016/j.asw.2014.03.003

The Survey Sistem. (s.f.). Calculadora de tamaño de muestras. Recuperado de http://www.surveysoftware.net/sscalce.htm

Thorsen, C.A., & DeVore, S. (2013). Analyzing reflection on/for action: A new approach. Reflective Practice, 14(1), 88-103. doi: 10.1080/14623943.2012.732948

Timmerman, B.E.C., Strickland, D.C., Johnson, R.L., & Payne, J.R. (2011). Development of a 'universal' rubric for assessing undergraduates' scientific reasoning skills using scientific writing. Assessment & Evaluation in Higher Education, 36(5), 509-547.

Tobón, S., Pimienta, J.H., & García. J.A. (2010). Secuencias didácticas: aprendizaje y evaluación de competencias. México: Pearson.

Valverde, J., & Ciudad, A. (2014). El uso de e-rúbricas para la evaluación de competencias en estudiantes universitarios. Estudio sobre fiabilidad del instrumento. REDU. Revista de Docencia Universitaria, 12(1), 49-79.

Vandenberg, A., Stollak, M., McKeag, L., & Obermann, D. (2010). GPS in the classroom: using rubrics to increase student achievement. Research in Higher Education Journal, 9, 1-10.

Vázquez, J.A. (2008). La organización de las enseñanzas de grado y postgrado. Revista de Educación, número extraordinario, 23-39.

Villa, A., & Poblete, M. (2007). Aprendizaje basado en competencias. Una propuesta para la evaluación de competencias genéricas. Bilbao: Ediciones Mensajero-Ice de la Universidad de Deusto.

Villa, A., & Poblete, M. (2011). Evaluación de competencias genéricas: principios, oportunidades y limitaciones. Bordón. Revista de pedagogía, 63(1), 147-170.

Walvoord, B.E., & Johnson, V.J. (1998). Effective grading: A tool for learning and evaluación. San Francisco: Jossey-Bass.

Whiddett, S., & Hollyforde, S. (2003). The competencies handbook. London: CIPD.

Zabalza, M.A. (2002). Diseño curricular en la universidad. Competencias del docente universitario. Madrid: Narcea.

Zabalza, M.A. (2006). Buscando una nueva hoja de ruta en la formación del profesorado. Revista de Educación, 340, 51-58.

 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons