Nuevas directrices sobre el uso de los testsinvestigación, control de calidad y seguridad

  1. Muñiz Fernández, José 1
  2. Hernández Baeza, Ana 2
  3. Ponsoda Gil, Vicente 3
  1. 1 Universidad de Oviedo
    info

    Universidad de Oviedo

    Oviedo, España

    ROR https://ror.org/006gksa02

  2. 2 Universitat de València
    info

    Universitat de València

    Valencia, España

    ROR https://ror.org/043nxc105

  3. 3 Universidad Autónoma de Madrid
    info

    Universidad Autónoma de Madrid

    Madrid, España

    ROR https://ror.org/01cby8j38

Revista:
Papeles del psicólogo

ISSN: 0214-7823 1886-1415

Año de publicación: 2015

Título del ejemplar: Nuevas directrices sobre el uso de los tests

Volumen: 36

Número: 3

Páginas: 161-173

Tipo: Artículo

Otras publicaciones en: Papeles del psicólogo

Resumen

Antecedentes. Para llevar a cabo una evaluación psicológica rigurosa es necesario que los profesionales que la realizan tengan una preparación adecuada, que los tests utilizados muestren unas buenas propiedades psicométricas, y que se utilicen de forma correcta. El objetivo de este trabajo es presentar las directrices recientes de la Comisión Internacional de Tests sobre el uso de los tests en tres ámbitos: investigación, control de calidad y seguridad en el manejo de las pruebas. Método. Se revisarán y comentarán los directrices recientes desarrolladas por la Comisión Internacional de Tests. Resultados. Las nuevas directrices sobre el uso de los tests ofrecen todo un conjunto de recomendaciones teórico-prácticas para guiar la utilización adecuada de los tests en contextos de investigación, para desarrollar e implementar procesos de control de calidad efectivos, y para salvaguardar la seguridad de todos los datos implicados en un proceso evaluativo. Conclusiones. Las nuevas directrices desarrolladas por la Comisión Internacional de Tests contribuirán a una adecuada utilización de los tests en contextos de investigación, a una mejora en los procesos de control de calidad de las pruebas, y a garantizar la seguridad en los procesos evaluativos.

Referencias bibliográficas

  • Abad, F.J., Olea, J., Ponsoda, V., y García, C. (2011). Medición en ciencias sociales y de la salud. Madrid: Síntesis.
  • American Educational Research Association, American Psychological Association, and National Council on Measurement in Education. (2014). Standards for educational and psychological testing. Washington, DC: American Psychological Association.
  • Armayones, M., Boixadós, M., Gómez, B., Guillamón, N., Hernández, E., Nieto, R., Pousada, M., y Sara, B. (2015). Psicología 2.0: Oportunidades y retos para el profesional de la psicología en el ámbito de la e-salud. Papeles del Psicólogo, 36(2), 153-160.
  • Bartram, D. (1996). Test qualifications and test use in the UK: The competence approach. European Journal of Psychological Assessment, 12, 62-71.
  • Bartram, D. (1998). The need for international guidelines on standards for test use: A review of European and international initiatives. European Psychologist, 2, 155-163.
  • Bartram, D. y Coyne, I. (1998). Variations in national patterns of testing and test use: The ITC/EFPPA international survey. European Journal of Psychological Assessment, 14, 249-260.
  • Bartram, D. y Hambleton, R. K. (Eds.) (2006). Computerbased testing and the internet: Issues and advances. Chichester: Wiley.
  • Bennett, R. E. (1999). Using new technology to improve assessment. Educational Measurement: Issues and practice. 18(3), 5-12.
  • Bennett, R. E. (2006). Inexorable and inevitable: The continuing story of technology and assessment. En D. Bartram and R. K. Hambleton (Eds.), Computer-based testing and the internet: Issues and advances. Chichester: Wiley.
  • Breithaupt, K. J., Mills, C. N., y Melican, G. J. (2006). Facing the opportunities of the future. En D. Bartram y R. K. Hambleton (Eds.), Computer-based testing and the Internet (pp. 219-251). Chichester: John Wiley and Sons.
  • Brennan, R. L. (Ed.) (2006). Educational measurement. Westport, CT: ACE/Praeger.
  • Byrne, B. M., Leong, F. T., Hambleton, R. K., Oakland, T., van de Vijver, F. J., y Cheung, F. M. (2009). A critical analysis of cross-cultural research and testing practices: Implications for improved education and training in psychology. Training and Education in Professional Psychology, 3(2), 94-105.
  • De Ayala, R. J. (2009). The theory and practice of item response theory. New York: The Guilford Press.
  • Downing, S. M. y Haladyna, T. M. (Eds.) (2006). Handbook of test development. Mahwah, NJ: LEA.
  • Drasgow, F., Luecht, R. M. y Bennett, R. E. (2006). Technology and testing. En R. L. Brennan (Ed.), Educational measurement. Westport, CT: ACE/Praeger.
  • European Federation of Professional Psychologists’ Associations (2005). Meta-Code of ethics. Brussels: Author (www.efpa.eu).
  • Fernández-Ballesteros, R., De Bruyn, E., Godoy, A., Hornke, L., Ter Laak, J., y Vizcarro, C. et al. (2001). Guidelines for the assessment process (GAP): A proposal for discussion. European Journal of Psychological Assessment, 17, 187-200.
  • Foster, D. F. (2010). Worldwide Testing and Test Security Issues: Ethical Challenges and Solutions. Ethics & behavior, 20 (3–4), 207–228.
  • Goodman, D.P. y Hambleton, R.K. (2004). Student test score reports and interpretive guides: Review of current practices and suggestions for future research. Applied Measurement in Education, 17, 145-220.
  • Hambleton, R. K. (2004). Theory, methods, and practices in testing for the 21st century. Psicothema, 16 (4), 696-701.
  • Hambleton, R. K. (2006). Testing practices in the 21st century. Key Note Address, University of Oviedo, Spain, March 8th.
  • Hambleton, R. K., Merenda, P. F., y Spielberger, C. D. (Eds.) (2005). Adapting educational and psychological tests for cross-cultural assessment. London: LEA.
  • Hambleton, R. K., Swaminathan, H., y Rogers, J. (1991). Fundamentals of item response theory. Beverly Hills, CA: Sage.
  • Hernández, A., Tomás, I., Ferreres, A. y Lloret, S. (2015) Tercera evaluación de tests editados en España. Papeles del Psicólogo, 36, 1-8.
  • Ioannidis, J. P. A., Munafo, M. R., Fusar-Poli, P., Nosek, B. A., & David, S. P. (2014). Publication and other reporting biases in cognitive sciences: Detection, prevalence, and prevention. Trends in Cognitive Sciences, 18, 235-241.
  • Irvine, S. y Kyllonen, P. (Eds.) (2002). Item generation for test development. Mahwah, NJ: Lawrence Erlbaum.
  • ISO (2011). Procedures and methods to assess people in work and organizational settings (part 1 and 2). Ginebra: ISO [version española: Prestación de servicios de evaluación: procedimientos y métodos para la evaluación de personas en entornas laborales y organizacionales (partes 1 y 2). Madrid: AENOR, 2013].
  • Joint Committee on Testing Practices. (2002). Ethical principles of psychologists and code of conduct. Washington DC: Joint Committee on Testing Practices.
  • Koocher, G. y Keith-Spiegel, P. (2007). Ethics in psychology. Nueva York: Oxford University Press.
  • Koole, S. L. y Lakens, D. (2012). Rewarding replications: A sure and simple way to improve psychological science. Perspectives on Psychological Science, 7, 608-614.
  • Kosinski, M., Stillwell, D., y Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behaviour. Proceedings of the National Academy of Sciences (PNAS), 110(15), 5802-5805.
  • Leach, M. y Oakland, T. (2007). Ethics standards impacting test development and use: A review of 31 ethics codes impacting practices in 35 countries. International Journal of Testing, 7, 71-88.
  • Leeson, H. V. (2006). The mode effect: A literature review of human and technological issues in computerized testing. International Journal of Testing, 6, 1-24.
  • Lindsay, G., Koene, C., Ovreeide. H., y Lang, F. (2008). Ethics for European psychologists. Gottingen and Cambridge, MA: Hogrefe.
  • Markovetz, A., Blaszkiewicz, K., Montag, C., Switala, C, y Schlaepfer, T. E. (2014). Psycho-Informatics: Big Data shaping modern psychometrics. Medical Hipotheses, 82(4), 405-411.
  • Miller, G. (2012). The smartphone psychology manifesto. Perspectives on Psychological Science, 7(3), 221-237.
  • Mills, C.N., Potenza, M.T., Fremer, J.J., y Ward, W.C. (Eds.) (2002). Computer-based testing: Building the foundation for future assessments. Hillsdale, NJ: LEA.
  • Moreland, K. L., Eyde, L. D., Robertson, G. J., Primoff, E. S., y Most, R. B. (1995). Assessment of test user qualifications. American Psychologist, 5, 1, 14-23.
  • Muñiz, J. (1997). Introducción a la teoría de respuesta a los ítems. Madrid: Pirámide.
  • Muñiz, J. (2012). Perspectivas actuales y retos futuros de la evaluación psicológica. En C. Zúñiga (ed.), Psicología, sociedad y equidad. Santiago de Chile: Universidad de Chile.
  • Muñiz, J. y Bartram, D. (2007). Improving international tests and testing. European Psychologist, 12, 206219.
  • Muñiz, J., Elosua, P., y Hambleton, R.K. (2013). Directrices para la traducción y adaptación de los tests: segunda edición. Psicothema, 25(2), 151-157.
  • Muñiz, J. y Fernández-Hermida, J. R. (2010). La opinión de los psicólogos españoles sobre el uso de los tests. Papeles del Psicólogo, 31, 108-121.
  • Muñiz, J., Prieto, G., Almeida, L., y Bartram, D. (1999). Test use in Spain, Portugal and Latin American countries. European Journal of Psychological Assessment, 15(2), 151-157.
  • Muñiz, J., Fernández-Hermida, J.R., Fonseca-Pedrero, E., Campillo-Álvarez, A. y Peña-Suárez, E. (2011). Evaluación de tests editados en España. Papeles del Psicólogo, 32, 113-128.
  • Nosek, B. A., Alter, G., Banks, G. C., Borsboom, D., Bowman, S. D., Breckler, S. J., Buck, S., Chambers, C. D., Chin, G., Christensen, G., Contestabile, M., Dafoe, A., Eich, E., Freese, J., Glennerster, R., Goroff, D., Green, D. P., Hesse, B., Humphreys, M., Ishiyama, J., Karlan, D., Kraut, A., Lupia, A., Mabry, P., Madon, T. A., Malhotra, N., Mayo-Wilson, E., McNutt, M., Miguel, E., Levy Paluck, E., Simonsohn, U., Soderberg, C., Spellman, B. A., Turitto, J., VandenBos, G., Vazire, S., Wagenmakers, E. J., Wilson, R., y Yarkoni, T. (2015). Promoting an open research culture. Science, 348, 1422-1425.
  • Nosek, B. A. y Lakens, D. (2014). Registered reports. A method to increase the credibility of published results. Social Psychology, 45, 137-141.
  • Olea, J., Abad, F., y Barrada, J. R. (2010). Tests informatizados y otros nuevos tipos de tests. Papeles del Psicólogo, 31(1), 94-107. Papeles del Psicólogo (2009). Número monográfico sobre Ética Profesional y Deontología. Vol. 30, 182-254.
  • Parshall, C.G., Spray, J.A., Kalohn, J.C., y Davey, T. (2002). Practical considerations in computer-based testing. New York: Springer.
  • Phelps, R. (Ed.) (2005). Defending standardized testing. Londres: LEA.
  • Phelps, R. (Ed.) (2008). Correcting fallacies about educational and psychological testing. Washington: APA.
  • Ponsoda, V. y Hontangas, P. (2013). Segunda evaluación de tests editados en España. Papeles del Psicólogo, 24, 82-90
  • Prieto, G. y Muñiz, J. (2000). Un modelo para evaluar la calidad de los tests utilizados en España. Papeles del Psicólogo, 77, 65-71.
  • Ryan A.M., Inceoglu, I., Bartram, D., Golubovich, J., Grand, J., Reeder, M., Derous, E., Nikolaou, I. y Yao, X. (2015). Trends in testing: Highlights of a global survey. En Nikolaou, I. y J. Oostrom (Eds.). Employee recruitment, selection, and assessment: Contemporary issues for theory and practice. Psychology Press-Taylor & Francis. Shermis, M. D. y Burstein, J. C. (Eds.) (2003). Automated essay scoring. London: LEA.
  • Simner, M. L. (1996). Recommendations by the Canadian Psychological Association for improving the North American safeguards that help protect the public against test misuse. European Journal of Psychological Assessment, 12, 72-82.
  • Sireci, S., y Zenisky, A. L. (2006). Innovative items format in computer-based testing: In pursuit of construct representation. En S. M. Downing y T. M. Haladyna (Eds.), Handbook of test development. Hillsdale, NJ: LEA.
  • Van der Linden, W. J. y Hambleton, R. K. (1997). Handbook of modern item response theory. New York, NY: Springer-Verlag.
  • Williamson, D.M., Mislevy, R.J. y Bejar, I. (2006). Automated scoring of complex tasks in computer based testing. Mahwah, NJ: LEA.
  • Williamson, D.M., Xi, X., y Breyer, J. (2012). A framework for evaluation and use of automated scoring. Educational Measurement: Issues and Practice, 31(1), 2-13.
  • Wilson, M. (2005). Constructing measures: An item response modeling approach. Mahwah, NJ: LEA.
  • Yee, K., y MacKown, P. (2009). Detecting and preventing cheating during exams. In T. Twomey, H. White, & K. Sagendorf (Eds.), Pedagogy not policing: Positive approaches to academic integrity at the University (pp. 141 148). Syracuse: The Graduate School.
  • Zenisky, A.L. y Sireci, S.G. (2002). Technological innovations in large-scale assessment. Applied Measurement in Education, 15, 337-362.