La exigencia cognitiva en los exámenes tipo test en contexto universitario y su relación con los enfoques de aprendizaje, la autorregulación, los métodos docentes y el rendimiento académico

  • Pilar Gandía Herrero Universidad de Murcia (España)
  • Agustín Romero Medina Universidad de Murcia (España)

Resumen

La calidad del rendimiento académico y los resultados de aprendizaje dependen de diversos factores, tanto de tipo psicológico como de tipo contextual. El contexto académico incluye las actividades formativas y el tipo de evaluación o examen, sobre el cual también influyen factores cognitivos y motivacionales, tales como los enfoques de aprendizaje y estudio y la autorregulación. En nuestro contexto universitario el tipo de examen predominante es el de preguntas de opción múltiple. La exigencia cognitiva de estas preguntas puede variar. Desde la típica taxonomía de Bloom se considera que de menor a mayor exigencia cognitiva tenemos preguntas sobre conocimiento factual, conceptual, de aplicación, etc. Normalmente el profesor no tiene en cuenta estas clasificaciones a la hora de elaborar este tipo de examen. Se propone aquí un modelo de adaptación de la clasificación de preguntas de opción múltiple según exigencia cognitiva (memorización asociativa, comprensión, aplicación), poniéndolo a prueba analizando un examen de una asignatura de Grado en Psicología y relacionando los resultados con medidas de enfoques de aprendizaje (cuestionarios ASSIST y RSPQ-2F) y autorregulación en una muestra de 87 sujetos. Los resultados muestran rendimiento académico diferencial según tipos “cognitivos” de preguntas y diferencias en enfoques de aprendizaje y autorregulación. Se subraya la conveniencia de tener en cuenta estos factores de exigencia cognitiva a la hora de elaborar preguntas de opción múltiple.

Citas

Abellán-Pérez, C. (2018). Aplicación del modelo de Rasch en un cuestionario de autorregulación
en el estudio (Trabajo fin de grado). Universidad de Murcia, Murcia.

Agencia Nacional de Evaluación de la Calidad y Acreditación (2013). Guía de apoyo para la
redacción, puesta en práctica y evaluación de los resultados del aprendizaje. Madrid:
ANECA.

Anderson, L.W., Krathwohl, D.R., Airasian, P.W., Cruikshank, K.A., Mayer, R.E., Pintrich,
P.R.,… Wittrock, M.C. (2001). A Taxonomy for Learning, Teaching, and Assessing: A
Revision of Bloom’s Taxonomy of Educational Objectives. New York: Longman.

Biggs, J.B., y Collis, K. F. (1982). Evaluating de quality of learning. The SOLO taxonomy
(Structure of the Observed Learning Outcome). New York: Academic Press.

Bloom, B., Englehart, M., Furst, E., Hill, W., y Krathwohl, D. (1956). A taxonomy of educational
objectives, Handbook I: Cognitive domain. New York: David McKay Company.

Cárdenas, J.A., Blanco, L.J., y Cáceres, M.J. (2016). La evaluación de las matemáticas: análisis de
las pruebas escritas que se realizan en la Secundaria. Revista Iberoamericana de
Educación Matemática, 48, 59-78.

Doval, E., y Renom, J. (2010). Desarrollo y verificación de la calidad de pruebas tipo test.
Barcelona: Institut de Formació Continua (Universitat de Barcelona).

Hidalgo, M.D., Romero, A., González, F., García-Sevilla, J., Pérez, M.A., Carrillo,… Peñaranda,
M. (2009). Herramientas de evaluación de los estilos de aprendizaje en universitarios:
Traducción y adaptación del cuestionario ASSIST. Comunicación presentada a las IV
Jornadas sobre el Espacio Europeo de Educación Superior: "El Espacio Europeo de
Educación Superior en el horizonte del 2010”. Murcia, 22, 23 y 24 de septiembre de
2009.

Hubbard, R. (1997). Assessment and the Process of Learning Statistics. Journal of Statistics
Education, 5(1), 1-9.

Kattan, E., Pérez, G., Le Roy, C., Sirhan, M., González, A., Rybertt, T.,… Riquelme, A. (2014).
Proceso de mejoría de pruebas de conocimiento con preguntas de selección múltiple en
un curso teórico de pregrado de medicina. Revista de Educación en Ciencias de la Salud,
11(2), 116‐123.

Kelley, T.L. (1939). The selection of upper and lower groups for the validation of test items.
Journal of Educational Psychology, 30(1), 17.

Kominski, C.A. (2012). Designing multiple choice tests to measure higher order thinking. Test
Item Writing, 10, 1-33.

Pérez, M.L., Carretero, M.R., Palma, M., y Rafel, E. (2000). La evaluación de la calidad del
aprendizaje en la universidad. Infancia y Aprendizaje, 91, 5-30.

Prieto, A. (2016). Taxonomía de Bloom. Usos para los profesores y para los alumnos. En
https://es.slideshare.net/alfredo.prietomartin/001-taxonoma-de-bloom

Scouller, K. (1998). The influence of assessment method on students’ learning approaches:
Multiple choice question examination versus assignment essay. Higher Education, 35,
453–472.

Scully, D. (2017). Constructing multiple-choice items to measure higher-order thinking. Practical
Assessment, Research y Evaluation, 22(4), 1-13.

Stanger-Hall, K.F. (2012). Multiple-Choice Exams: an obstacle for higher-level thinking in
introductory science classes. CBE—Life Sciences Education, 11, 294–306.

Su, W.M., Osisek, P.J., Montgomery, C., y Pellar, S. (2009). Designing multiple-choice test items
at higher cognitive levels. Nurse Education, 34(5), 223-227.
doi:10.1097/NNE.0b013e3181b2b546

Tait, H., Entwistle, N.J., y McCune, V. (1998). ASSIST. A reconceptualization of the Approaches to
Studying Inventory. En C. Rust (Ed.), Improving students as learners (pp. 262-271).
Oxford: Oxford Bookes University.

Yonker, J.E. (2011). The relationship of deep and surface study approaches on factual and applied
test‐bank multiple‐choice question performance. Assessment y Evaluation in Higher
Education, 36, 673-686.
Sección
Artículos