Metodología docente y rendimiento en PISA 2015análisis crítico

  1. Sara Álvarez Moran 1
  2. Carlos E. Carleos Artime 1
  3. Norberto O. Corral Blanco 1
  4. Elena Prieto Rodríguez 2
  1. 1 Universidad de Oviedo
    info

    Universidad de Oviedo

    Oviedo, España

    ROR https://ror.org/006gksa02

  2. 2 Newcastle University
    info

    Newcastle University

    Newcastle-upon-Tyne, Reino Unido

    ROR https://ror.org/01kj2bm70

Revista:
Revista de educación

ISSN: 0034-8082

Año de publicación: 2018

Título del ejemplar: PISA y TIMSS (I)

Número: 379

Páginas: 85-114

Tipo: Artículo

DOI: 10.4438/1988-592X-RE-2017-379-370 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Revista de educación

Resumen

La controversia entre quienes defienden que la enseñanza de las ciencias debe hacerse empleando una metodología dirigida por el docente y aquellos que señalan que es preferible que sea centrada en el estudiante lleva décadas siendo objeto de estudio. En la edición de PISA de 2015 se destaca que la enseñanza dirigida por el profesor en Ciencias (índice TDTEACH) es una de las variables que mayor relación tiene con los resultados en las pruebas de Ciencias. En este estudio se examina la muestra PISA que representa a España para tratar de determinar en qué medida ese resultado puede estar condicionado por otros factores. Se constata que el TDTEACH tiene tanta relación con el rendimiento de los estudiantes en Ciencias como con su rendimiento en Matemáticas y Lectura, resultando sorprendente que la forma de enseñar en las clases de ciencias tenga incidencia en los resultados del resto de competencias evaluadas en PISA. También se aprecia que la variabilidad intra-centros del TDTEACH es mucho más importante que la variabilidad entre centros, lo cual resulta bastante chocante pues a priori las metodologías de trabajo son consensuadas dentro de una misma escuela. También se comprueba que al representar cada centro por sus valores medios, la influencia del TDTEACH en el rendimiento desaparece al considerar el efecto del nivel socio-educativo, lo que indicaría que no hay relación entre el TDTEACH y las puntuaciones de los estudiantes. Por último se encuentra una correlación positiva entre TDTEACH y la enseñanza basada en la investigación (IBTEACH). Todos estos resultados inducen a pensar que: (1) el índice TDTEACH no mide de manera adecuada la enseñanza dirigida por el profesor en ciencias; (2) no está justificado suponer que la enseñanza dirigida por el docente produzca mejores resultados de los estudiantes en el sistema educativo español.

Referencias bibliográficas

  • Crouch, C., Mazur, E. (2001). Peer Instruction: Ten Years of Experience and Results. American Journal of Phisics, vol., 69, 970-977.
  • Driver, R. (1995). Constructivist approaches to science teaching. En L. P. Steffe and J. Gale (Eds.), Constructivism in education (385–400). Hillsdale, NJ: Lawrence Erlbaum.
  • Driver, R., Newton, P., y Osborne, J. (2000). Establishing the norms of scientific argumentation in classrooms. Science Education, vol.,84(3), 287–312.
  • Ermeling, B.A. (2010). Tracing the effects of teacher inquiry on classroom practice. Teaching and Teacher Education, vol., 26(3), 377-388. Doi:https://doi.org/10.1016/j.tate.2009.02.019
  • Fernandez-Cano, Antonio (2016). Una crítica metodológica de las evaluaciones PISA. RELIEVE, 22(1), art. M15. Doi: http://dx.doi.org/10.7203/relieve.22.1.8806
  • Furtak, E.M., Seidel, T., Ivenson, H. y Bridggs, D. (2012). Recent experimental studies of inquiry - bases teaching: A meta -analysis and review. Review of Educational Research, vol., 82(3), 300–329
  • Gibb, Nick. (2017). The evidence in favour of teacher - led instruction. Editorial: Teaching and school leadership. GOV.UK. Recuperado de https://www.gov.uk/government/policies/teaching-and-schoolleadership
  • Hanberger, A. What PISA Intends to and Can Possibly Achieve: A Critical Programme Theory Analysis. European Educational Research Journal, vol., nº13 (2), 167-180. Doi: http://dx.doi.org/10.2304/eerj.2014.13.2.167
  • Hattie, J.A.C. (2011). Visible learning: A Synthesis of Over 800 MetaAnalyses Relating to Achievement. International Revue of Education, vol., nº 57, 219-211. Doi: 10.1007/s11159-011-9198-8
  • Hirsch, E.D. (2001). Why Core Knowledge Promotes Social Justice. Core Knowledge Foundation. Recuperado de https://www.coreknowledge.org/about-us/e-d-hirsch-jr/
  • Hofstein, A, Lunetta, V.A., (2004) The laboratory in science education: Foundations for the twenty-first century. Sciences Education, 88(1), 28-54. Doi: 10.1002/sce.10106
  • Jiang, F., McComas, W, F. (2015). The Effects of Inquiry Teaching on Student Science Achievement and Attitudes: Evidence from Propensity Score Analysis of PISA Data. International Journal of Science Education, vol., nº 37(3), 554-576. Doi: http://dx.doi.org/10.1080/09500693.2014.1000426
  • Jurik, V., Gröschner, A., Seidel T. (2014) Predicting students’ cognitive learning activity and intrinsic learning motivation: How powerful are teacher statements, student profiles, and gender?. Learning and Individual Differences. Doi: http://dx.doi.org/10.1016/j.lindif.2014.01.005
  • Kirschner, P. A., Sweller, J., and Clark, R.E. (2006). Why Minimal Guidance During Instruction Does Not Work: An Analysis of the Failure of Constructivist, Discovery, Problem-Based, Experiential, and InquiryBased Teaching. Educational Psychologist, vol., nº 41(2), 75–86. Recuperado de www.cogtech.usc.edu/publications/kirschner_Sweller_Clark.pdf
  • Le Donné, N., Fraser, P. y Bousquet, G. (2016), Teaching Strategies for Instructional Quality: Insights from the TALIS PISA Link Data, OECD Education Working Papers, nº 148, Paris: OECD Publishing. Doi: http://dx.doi.org/10.1787/5jln1hlsr0lr-en
  • Mazur, E. (1997). Peer Instruction: A User’s Manual Series in Educational Innovation . Upper Saddle River, NJ: Prentice Hall.
  • Ministerio de Educación y Ciencia (2007). REAL DECRETO 1631/2006, de 29 de diciembre, por el que se establecen las enseñanzas mínimas correspondientes a la Educación Secundaria Obligatoria. BOE viernes 5 de enero de 2007. Nº 5. Recuperado de https://www.boe.es/boe/dias/2007/01/05/pdfs/A00677-00773.pdf
  • Minner, D.D., Levy, A.J., Century, J. (2010). Inquiry-bases science instruction - what is it and does it matter? Results from a research synthesis years 1984 to 2002. Journal of Research in Science Teaching.Vol., nº 47 (4), 474–496. Doi: 10.1002/tea.20347.
  • National Research Council (1996). National Science Education Standards. Washington, DC: National Academy Press. Recuperado de https://www.nap.edu/catalog/4962/national-science-educationstandards
  • OECD (2006). Student questionnaire for PISA 2006, Main study. Programme for International Student Assessment 2006. Recuperado de www.umac.mo/fed/pisa/06_stu/StdQ_MS06_EN.pdf
  • OECD (2007). PISA 2006 Science Competencies for Tomorrow’s World: Volume 1: Analysis. Paris: OECD Publishing. Recuperado de http://www.oecd-ilibrary.org/education/pisa-2006_9789264040014-en
  • OECD (2013). PISA 2015. Draft Science Framework. Programme for International Student Assessment. Recuperado de http://www.oecd.org/pisa/pisaproducts/pisa2015draftframeworks.htm
  • OECD (2016). PISA 2015 Assessment and Analytical Framework: Science, Reading, Mathematics and Financial Literacy. Paris : OECD Publishing. Doi: http://dex.doi.org/10.1787/9789264255425-en
  • OECD (2016 a). PISA 2015 Results (Volume II). Policies and Practices for Successful Schools. Paris: OECD Publishing. Recuperado de http://www.oecd-ilibrary.org/education/pisa-2015-results-volumeii_9789264267510-en
  • OECD (2017). PISA 2015 Technical Report. Programme for International Student Assessment. Recuperado de http://www.oecd.org/pisa/data/2015-technical-report/
  • OECD (2017 a). Student questionnaire data file. Programme for International Student Assessment. Recuperado de http://www.oecd.org/pisa/data/2015database/
  • Schoeder, C.M., Scott, T.P., Tolson, H., Huang, T. Y., Lee, Y. (2007). A metaanalysis of national research: Effects of teaching strategies on student achievemnte in science in the United States. Journal of Research in Science Teaching. Vol., nº 44, 1436–1460
  • Prenzel, Seidel, and Kobarg, (2012). Science teaching and learning: An international comparative perspective. En Fraser, B.J. et ál. (Ed.), Second International Handbook of Science Education. Springer International Handbooks of Education. Doi: 10.1007/978-1-4020-9041-7-44
  • Turpen, C. and Finkelstein, N. (2010). The construction of different classroom norms during Peer Instruction: Students perceive differences. Physical Review Physics Education Research, vol., nº 6(2). Doi:https://doi.org/10.1103/PhysRevSTPER.6.020123