INFORMES
PISA
Una de las principales fuentes sobre el rendimiento escolar
son los informes PISA (Programme for
International Student Assesment), iniciados en el año 2000 y continuados en
2003, 2006, 2009 y 2012 por la OCDE (Organización para la Cooperación y el
Desarrollo). En el primer estudio (2000) participaron 28 países pertenecientes
a la OCDE y 4 no miembros, en 2003 participaron los 30 miembros de la
organización y 11 no miembros, en 2006 un total de 56 y en 2009 y 2012 los
países fueron 65.
“Su principal
objetivo es el de indagar sobre el grado de formación o preparación de los
alumnos de quince años de edad en tres grandes áreas de conocimiento y
competencia: Lectura comprensiva, Matemáticas y Ciencias (en los últimos
estudios se han incluido otros aspectos relativos a relaciones
estudiantes-profesorado, aspectos relacionados con la familia, etc.). No
intenta averiguar el grado de aprovechamiento escolar en esas materias, tal
como están definidas en los currículos de los distintos países, sino que busca
evaluar hasta qué punto los jóvenes pueden usar las habilidades y conocimientos
adquiridos para enfrentarse a los retos de la vida adulta”, es decir, la
funcionalidad del conocimiento adquirido.
El número de estudiantes participantes oscila entre
aproximadamente 250.000, el año 2000,
hasta más de 470.000 en 2009 y 510.000 en 2012. En España, para el estudio 2012
participaron 25.313 estudiantes de 910 centros, y la Comunidad Autónoma de
Castilla y León participó en 2009 con 1.490 alumnos de 51 centros y un número
similar en 2012.
Sus puntos fuertes derivan, por un lado, del importante
número de países que participan y el gran volumen de alumnado que es examinado,
y por otro, del grado de diseño técnico, implementación y análisis de
resultados que conlleva. A pesar de las críticas que recibe por parte de
algunos expertos, no se conoce otro estudio a nivel mundial que tenga esta
extensión, longitudinalidad (repetición cada tres años) y preparación técnica
comparable.
Sus debilidades
provienen, en primer lugar, de los inevitables sesgos que se producen en la
traducción de las pruebas y en su aplicación, en el entrenamiento del alumnado
en resolver tests de este tipo y en las diferentes culturas (educativas,
económicas, familiares, etc.) que cada país tiene, y en segundo término, habría
que decir que no se estudian con igual intensidad otros aspectos educativos
relacionados con las ciencias sociales y los valores ciudadanos que tan
importantes son en la formación de las personas.
Estas circunstancias
hacen que la comparación de puntuaciones entre países deba hacerse teniendo en
cuenta circunstancias como el nivel de estudios de los padres, su economía, su
disponibilidad de tiempo para acompañar y ayudar a sus hijos, el nivel formativo
del profesorado, el tipo de centro (privado o público), la importancia que en
el centro se da a otros aspectos educativos como educación en valores,
etc.
Por tanto, el comparar
de manera mecánica las puntuaciones obtenidas en el ranking
correspondiente, no puede ser la
alternativa de elección para sacar conclusiones.
Sin embargo esto último es lo que suele hacerse. De hecho, en
el informe español publicado por el Ministerio de Educación únicamente se alude
a los números puros y duros, sin siquiera considerar que las diferencias
estadísticas de 5, 10, 15 ó 20 puntos no son significativas. Interpretar de
manera negativa y sesgada los resultados sin tener en cuenta otras magnitudes o
datos es demagogia.
El catedrático se Sociología de la Universidad Complutense de Madrid, Julio Carabaña, colaborador en estos informes, plantea algunas prevenciones a la hora de interpretar los resultados, tal como lo hacen diversos expertos en el artículo enlazado.
No hay comentarios:
Publicar un comentario