domingo, 11 de mayo de 2008

A vueltas con la prueba de sexto (2): un análisis de 2006 que mantiene la actualidad

Por su interés y actualidad se reproduce un análisis del año 2006 encontrado en el blog "Un nombre al azar".

En el mismo blog aparece otros interesantes análisis de los resultados presentados por la Consejería: aquí y otro más sobre la dificultad de comparar entre años sucesivos.



Evaluación de Primaria en la Comunidad de Madrid
"Por segundo año, la Comunidad de Madrid ha evaluado a los alumnos de Sexto de Primaria con una prueba de nivel. Los objetivos de la prueba no están claros. Unos dicen que la recogida de información es importante para poder ajustar el sistema. Otros consideran que el objetivo final es poder ofrecer datos indicando los peores resultados de los centros públicos en comparación con los privados, para así poder seguir con la supuesta política de privatización educativa de la Comunidad. Al mismo tiempo, los críticos señalan la baja calidad del proceso evaluador.

Al menos en lo que respecta al año pasado, el proceso fue francamente mejorable. Primero, no se garantizó la estandarización de las condiciones de evaluación. Por ejemplo, se comentó que en algunos centros los profesores 'soplaban' algunas respuestas para mejorar el rendimiento aparente de tal colegio. Si no todos los chavales son evaluados en las mismas condiciones, los resultados de la prueba no significan lo mismo para todos ellos. Segundo, no se informó en momento alguno de la fiabilidad de la prueba, de tal modo que no sabemos si la prueba medía bien algo. Tercero, no hubo ajuste entre los contenidos de la prueba y el currículo educativo, por lo que parece que la prueba (midiendo bien o mal, no lo sabemos) en todo caso no medía lo que debía. Cuarto, no se contó con el profesorado y se le implicó en el proceso, ni de elaboración ni de informe de los resultados.

Supongamos que se han mejorado las garantías psicométricas este año (o para algún año próximo) y finalmente pudiéramos estar seguro de que hemos medida con precisión lo que queríamos medir: el nivel de cada chaval de Sexto de Primaria. Eso no sería poco avance. El problema siguiente sería la interpretación de los resultados. Y para ello necesitamos la definición explícita d elos objetivos de la evaluación.

¿Queremos presentar una ordenación de centros según la media de los resultados de la prueba? Podemos sin problemas. ¿Nos informa esto acerca de la capacidad educativa de los centros? Desde luego que no. Las situaciones de partida de los alumnos y las condiciones laborales no son idénticas para todos los colegios. En algunos, la proporción de inmigrantes es elevada, con más o menos que no se manejan con fluidez en español; en algunos, la mayor parte de los padres son universitarios; en algunos, el claustro tiene un alto nivel de rotación y está poco cohesionado...

Para poder hablar de la calidad educativa de los centros sería necesario medir todas las covariables que se consideren relevantes (estatus socio-ecónomico o socio-cultural, nivel de conocimientos de los chavales cuando acceden al centro) y ver si los resultados tras la prueba son superiores o inferiores a lo que obtienen otros centros de similares características. El problema es que estas variables adicionales, si bien probablemente de acceso sencillo, no se incluyeron el año pasado.

Por ello, este año la Comunidad, convenientemente presionada, no hará públicos este año los resultados. Siguiendo una dinámica consolidada, en la que con dinero público se generar datos que no se devuelven al público que los ha financiado, nos quedaremos sin esta información, aunque sea incompleta.

Pero otro objetivo es posible para esta evaluación, no únicamente saber si tal centro lo está haciendo bien o mal. Esta información bien podría servir para orientar a los padres y madres sobre el centro en el que quieren escolarizar a sus hijos, dejándoles libertad a ellos para que le den a estos valores la importancia que ellos consideren conveniente y que busquen la información adicional que estimen oportuna. Y aquí es necesario decir con claridad que un ránking de centros en el que éstos se ordenen por 'resultados obtenidos dadas las covariables' no serviría para decidir. La razón: cuando tengo que decidir acerca de qué hacer con mis hijos, el nivel de análisis no puede ser el resultado promedio del centro, sino el resultado en ese centro condicionado a las características de partida de los chavales.

Un centro en el que los chavales de bajo nivel mejorasen mucho, mientras que los de alto nivel se estancaran, quedaría como un centro que mejora los resultados de sus alumnos como promedio. Pero, si yo tengo un hijo de alto nivel de capacidad, me resultará mejor escolarizarlo en un centro que haga que los mejores aprendan lo más posible, aunque en ese centro los de baja capacidad incluso retrocedieran, que en el primer colegio descrito. Pongo un caso extremo para que se vea con claridad.

Hasta donde yo sé, los resultados de ninguna prueba de evaluación de centros incluye resultados condicionados a niveles de habilidad de los chavales. Faltan los mejores datos para tomar decisiones (asumiendo que como padres fuese posible evaluar las condiciones de nuestros hijos que hace que tal o cual centro les pueda ir mejor). ¿De qué datos me fiaría yo como padre? Dos son las alternativas: a) el ránking de centros según datos brutos (media de los resultados sin atender a covariables); b) el ránking según 'mejoras en el rendimiento subtrayendo el efecto de covariables'. Yo preferiría decir según el criterio a. Creo que la mejor educación la recibirá mi hijo estando escolarizado entre gente de una capacidad afín a la suya, porque así él no tendrá necesidad de diversificaciones curriculares (ni por arriba ni por abajo) y tendrá más compañeros de los que aprender. Mejor, claro, disponer de toda la información: a, b... y si los datos están al alcance de todos, alguien capaz ya generará c, d y más.

En todo caso, los que pagamos impuestos: 1) tenemos derecho a acceder a datos que puedan ayudarnos a tomar decisiones y que pagamos; 2) tenemos derecho que estos datos sean de la mayor calidad posible. En ningún caso se puede suplir un conocimiento incompleto por la ausencia de conocimiento.

Puedes ver el post en su blog original pulsando aquí.

1 comentario:

Anónimo dijo...

SIN ESPERANZA VIVÍAMOS MEJOR