Buscar este blog

martes, 22 de abril de 2014


INFORMES PISA

Una de las principales fuentes sobre el rendimiento escolar son los informes PISA (Programme for International Student Assesment), iniciados en el año 2000 y continuados en 2003, 2006, 2009 y 2012 por la OCDE (Organización para la Cooperación y el Desarrollo). En el primer estudio (2000) participaron 28 países pertenecientes a la OCDE y 4 no miembros, en 2003 participaron los 30 miembros de la organización y 11 no miembros, en 2006 un total de 56 y en 2009 y 2012 los países fueron 65.

“Su principal objetivo es el de indagar sobre el grado de formación o preparación de los alumnos de quince años de edad en tres grandes áreas de conocimiento y competencia: Lectura comprensiva, Matemáticas y Ciencias (en los últimos estudios se han incluido otros aspectos relativos a relaciones estudiantes-profesorado, aspectos relacionados con la familia, etc.). No intenta averiguar el grado de aprovechamiento escolar en esas materias, tal como están definidas en los currículos de los distintos países, sino que busca evaluar hasta qué punto los jóvenes pueden usar las habilidades y conocimientos adquiridos para enfrentarse a los retos de la vida adulta”, es decir, la funcionalidad del conocimiento adquirido.


El número de estudiantes participantes oscila entre aproximadamente  250.000, el año 2000, hasta más de 470.000 en 2009 y 510.000 en 2012. En España, para el estudio 2012 participaron 25.313 estudiantes de 910 centros, y la Comunidad Autónoma de Castilla y León participó en 2009 con 1.490 alumnos de 51 centros y un número similar en 2012.

Sus puntos fuertes derivan, por un lado, del importante número de países que participan y el gran volumen de alumnado que es examinado, y por otro, del grado de diseño técnico, implementación y análisis de resultados que conlleva. A pesar de las críticas que recibe por parte de algunos expertos, no se conoce otro estudio a nivel mundial que tenga esta extensión, longitudinalidad (repetición cada tres años) y preparación técnica comparable.

Sus  debilidades provienen, en primer lugar, de los inevitables sesgos que se producen en la traducción de las pruebas y en su aplicación, en el entrenamiento del alumnado en resolver tests de este tipo y en las diferentes culturas (educativas, económicas, familiares, etc.) que cada país tiene, y en segundo término, habría que decir que no se estudian con igual intensidad otros aspectos educativos relacionados con las ciencias sociales y los valores ciudadanos que tan importantes son en la formación de las personas.

 Estas circunstancias hacen que la comparación de puntuaciones entre países deba hacerse teniendo en cuenta circunstancias como el nivel de estudios de los padres, su economía, su disponibilidad de tiempo para acompañar y ayudar a sus hijos, el nivel formativo del profesorado, el tipo de centro (privado o público), la importancia que en el centro se da a otros aspectos educativos como educación en valores, etc.    

 Por tanto, el comparar de manera mecánica las puntuaciones obtenidas en el ranking correspondiente,  no puede ser la alternativa de elección para sacar conclusiones.

Sin embargo esto último es lo que suele hacerse. De hecho, en el informe español publicado por el Ministerio de Educación únicamente se alude a los números puros y duros, sin siquiera considerar que las diferencias estadísticas de 5, 10, 15 ó 20 puntos no son significativas. Interpretar de manera negativa y sesgada los resultados sin tener en cuenta otras magnitudes o datos es demagogia.
El catedrático se Sociología de la Universidad Complutense de Madrid, Julio Carabaña, colaborador en estos informes, plantea algunas prevenciones a la hora de interpretar los resultados, tal como lo hacen diversos expertos en el artículo enlazado.  

No hay comentarios:

Publicar un comentario