Coalición para revisar el currículum educativo de Australia en un intento por revertir la caída en los resultados de los estudiantes

Oceania/Australia/Theguardian

El gobierno comenzará con las matemáticas y las ciencias mientras establece un instituto nacional para asesorar a los maestros sobre formas de mejorar los resultados de los estudiantes

El gobierno federal revisará el plan de estudios nacional comenzando con las matemáticas y las ciencias en un esfuerzo por revertir una disminución a largo plazo en los resultados de los estudiantes australianos en las pruebas estandarizadas.

Los ministros de educación se reunieron en Alice Springs el miércoles y jueves para discutir un conjunto de reformas para tratar de que Australia caiga al promedio de la OCDE en matemáticas, la primera vez que resulta en una de las tres competencias centrales desde que comenzaron las comparaciones internacionales en 2000.

El gobierno federal acordó presentar una revisión del plan de estudios nacional y el plan de Victoria de desarrollar opciones para utilizar los requisitos previos de la universidad para cursos, como ingeniería y ciencias, para alentar a los estudiantes de secundaria a estudiar matemáticas.

Los ministros también acordaron establecer un instituto nacional de evidencia para brindar asesoramiento sobre las mejores prácticas para que los maestros mejoren los resultados de los estudiantes, una idea defendida por los laboristas federales antes de las elecciones y respaldada por la segunda revisión de Gonski.

Se discutió la propuesta central de la revisión de dividir los planes de estudio en “progresiones de aprendizaje” para alejarse de un plan de estudios rígido basado en el año, con una resolución para enfocar el desarrollo de progresiones en alfabetización y aritmética.

El informe de los resultados de las pruebas estandarizadas de Naplan en el sitio web de My School cambiará de la publicación de los promedios de la escuela al informe de los logros obtenidos por los estudiantes en la escuela, según el comunicado de la reunión.

Los ministros también acordaron el impulso del gobierno federal para hacer que la enseñanza de la fonética y la instrucción de lectura sean obligatorias para los cursos iniciales de educación docente y para aumentar el tiempo asignado a la alfabetización en dichos cursos.

Los ministros aprobaron los términos de referencia para el Instituto Australiano de Enseñanza y Liderazgo Escolar para revisar el impacto de la «carga normativa y de cumplimiento que enfrentan los maestros y los líderes escolares».

El ministro de educación federal, Dan Tehan, dijo que «desorganizar el plan de estudios» era una prioridad para el gobierno federal y que estaba «encantado … este trabajo puede comenzar de inmediato».

«Las progresiones de alfabetización y aritmética ayudarán a los maestros a garantizar que cada estudiante obtenga al menos un año de aprendizaje de cada año escolar», dijo.

«Los estudiantes que se están quedando atrás ayudarán y los estudiantes que están adelante tendrán el desafío de ir más allá».

En la reunión, Tehan reiteró que el gobierno federal «no respalda la revisión separatista de Naplan» dirigida por Nueva Gales del Sur, el Territorio de la Capital Australiana, Victoria y Queensland, que se informará en junio de 2020.

El ministro de educación victoriano, James Merlino, dijo que la reunión fue «la más productiva» en sus cinco años en el trabajo. «La comunidad acertadamente esperaba que los ministros tomaran medidas significativas a la luz de los resultados recientes [del Programa de Evaluación Internacional de Estudiantes]».

Merlino dijo que la revisión del plan de estudios de matemáticas ayudaría a que sea «relevante y atractivo para nuestros hijos» y argumentó que abordar el fracaso de las universidades para establecer las matemáticas y las ciencias como requisitos previos era un «paso clave» para alentar a los estudiantes a estudiar niveles más altos. de las matematicas.

La portavoz federal de educación de los laboristas, Tanya Plibersek, dijo que los liberales no habían hecho «nada serio para mejorar el desempeño de Australia en las materias escolares básicas» en seis años.

«Después de años de pérdida de tiempo, la prueba real ahora es si algo de esto se traduce en mejoras para nuestros niños en el aula y si realmente funciona para mejorar los resultados en materias básicas como lectura, escritura y matemáticas».

Fuentes: https://www.theguardian.com/australia-news/2019/dec/12/coalition-to-review-australian-education-curriculum-in-bid-to-reverse-fall-in-student-results

Comparte este contenido:

Lo que PISA no cuenta: 4 deficiencias de las influyentes pruebas educativas que se realizan cada año a nivel mundial

Por: Norberto Corral Blanco, Carlos Carleos Artime y Sara Álvarez Morán/BBC

PISA son las iniciales del Programa para la Evaluación Internacional de los Alumnos de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), el examen mundial de las habilidades de los estudiantes de 15 años en Lectura, Matemáticas y Ciencias cada tres años y establece un ranking de países según el rendimiento en cada competencia.

En las primeras ediciones, Finlandia ocupó el puesto número uno, pero en las últimas dio paso a Shanghái, Singapur y Hong-Kong, con sistemas educativos muy diferentes.

Y eso muestra que «copiar» los métodos de educación sin tener en cuenta las características culturales de cada país no garantiza una mejora.

A pesar de la enorme influencia de PISA en la educación, existen críticas muy fundadas sobre su funcionamiento.

Estos son algunos puntos débiles de PISA con ejemplos referidos a temas que la propia evaluación considera muy importantes y cuya detección resulta bastante obvia:

Para medir la oportunidad de aprender, PISA plantea preguntas sobre conceptos matemáticos como «ecuación lineal» o «vectores», y el alumno debe elegir su respuesta entre las opciones:

  1. No lo he visto nunca.
  2. Lo he visto una o dos veces.
  3. Lo he visto varias veces.
  4. Lo he visto a menudo.
  5. Lo conozco bien, entiendo el concepto.

¿A qué opción debe responder un alumno al que le hayan explicado el concepto varias veces y que lo entienda bien? En consecuencia, las conclusiones de analizar las respuestas a este ítem, ¿se refieren a lo que los alumnos creen que saben o a su exposición/conocimiento de los conceptos?

2. Sesgo cultural

Un objetivo básico de la evaluación PISA es que sus instrumentos de medida sean aplicables y válidos en contextos culturales diferentes. En 2012, para evaluar la familiaridad con conceptos matemáticos incluyó trece reales y tres falsos: «número genuino», «fracción declarativa» y «escala subjuntiva». Esto posibilitó usar la técnica de preguntas trampa y elaborar el índice corregido FAMCONC (familiaridad con los conceptos matemáticos).

En contra de lo esperado, la relación de FAMCONC con las Matemáticas es muy distinta al agrupar los países por zonas geográfico-culturales. En la gráfica 1 se muestran por un lado el conjunto de países europeos o anglosajones y, por otro, el resto de países.

Gráfica 1. Relación entre FAMCONC y Matemáticas según la zona geográfica y cultural de los países.Derechos de autor de la imagen THE CONVERSATION
Image caption Gráfica 1. Relación entre FAMCONC y Matemáticas según la zona geográfica y cultural de los países.

Si el sesgo cultural se hubiese eliminado las dos gráficas serían similares, pero en Europa y los países con cultura anglosajona FAMCONC y Matemáticas son independientes, mientras que en el resto la relación es creciente y muy fuerte.

Curiosamente, PISA no hace referencia alguna a estos problemas, ni empleó en 2015 estas técnicas de corrección.

3. Cambios en los cuestionarios y seguimiento de resultados

PISA señala la importancia de analizar la evolución temporal de sus indicadores. Sin embargo, son frecuentes los cambios en los enunciados y las definiciones de los índices, sin que se explique la causa.

Un ejemplo de esta situación se produjo al estudiar la relación de la Enseñanza Dirigida por el Docente (EDD) con el rendimiento (en este estilo docente priman las clases magistrales, frente a la Enseñanza Basada en la Investigación, caracterizada por trabajo por proyectos, por ejemplo). En 2012, se empleó un cuestionario para Matemáticas y otro muy diferente en 2015 para Ciencias. Ambos eran generales y sin preguntas específicas ni de Ciencias ni de Matemáticas.

Por otro lado, en 2012 la relación de EDD en Matemáticas con el rendimiento en esta materia es casi idéntica a la que tiene con Ciencias y Lectura; en 2015 ocurre lo mismo con la EDD de Ciencias (ver la gráfica 2 para Ciencias y Matemáticas). Este resultado es sorprendente porque las tres materias se imparten de manera independiente, lo que plantea dudas sobre qué mide el índice que PISA define para cuantificar la EDD.

Gráfica 2. Relación entre Ciencias y Matemáticas en 2012 y 2015.Derechos de autor de la imagenTHE CONVERSATION
Image captionGráfica 2. Relación entre Ciencias y Matemáticas en 2012 y 2015.
Gráfica 3. Cambio en la relación de Matemáticas y EDD de 2012 a 2015.Derechos de autor de la imagen THE CONVERSATION
Image caption Gráfica 3. Cambio en la relación de Matemáticas y EDD de 2012 a 2015.

En la gráfica 3 se observan los cambios de signo de 2015 respecto a 2012, que afectan a la gran mayoría de los países (puntos rojos), de la correlación de EDD con las Matemáticas y Ciencias.

Dados la modificación de los cuestionarios, el cambio de signo en las correlaciones y la ausencia de especificidad de EDD, ¿qué fiabilidad puede darse a las conclusiones de PISA sobre este tema?

4. Cómo aborda PISA los resultados inesperados

Un aspecto fundamental en una investigación es detectar los resultados inesperados y dar una explicación coherente y bien fundamentada. Sin embargo, es muy frecuente que ante este tipo de situaciones PISA recurra a generalidades o explicaciones sin base en los datos del estudio.

Por ejemplo, en la edición del año 2015, PISA compara la relación de las Matemáticas con las metodologías de enseñanza: la dirigida por el docente (EDD) y la basada en la investigación (EBI). En sus resultados obtiene una correlación de +0,31; cabría esperar, no obstante, que fuera negativa pues tales metodologías son casi contrapuestas: si un 70 % del tiempo de trabajo en el aula lo hacen los estudiantes, las explicaciones magistrales del docente se reducen a un 30% y viceversa.

PISA explica este hecho señalando que hay una correlación débil entre ellas y se pregunta a qué dedican las horas de clase los estudiantes con valores bajos en las dos metodologías. Ambas afirmaciones son vagas e insuficientes.

En cualquier caso, PISA detecta el problema pero no estudia el origen ni las implicaciones de este resultado.

Estudiantes finlandesesDerechos de autor de la imagenEPA
Image caption En los primeros informes PISA, Finlandia ocupaba las primeras posiciones.

Otro resultado inesperado es la relación negativa de la EBI con el rendimiento. Según PISA, esta metodología es muy importante ya que los estudios previos indican que puede mejorar el aprendizaje y la adquisición de destrezas como el razonamiento crítico. Sin embargo, sus resultados van en otra dirección pues la EBI tiene relación negativa con Matemáticas en 56 países.

Los comentarios de PISA para explicar este hecho son:

  • El laboratorio solo mejora el aprendizaje si los estudiantes realizan actividades manuales y manejan conceptos.
  • El tiempo dedicado a los laboratorios se emplea de manera ineficiente.
  • En ocasiones las actividades manuales se utilizan para hacer más atractiva la ciencia a los estudiantes con problemas.
  • Los estudiantes solo trabajan realmente cuando hay buen material y el profesor está bien formado.

Estas explicaciones carecen de validez por varias razones:

  • Los resultados son idénticos para Lectura y Matemáticas, que nada tienen que ver con los laboratorios de ciencias.
  • La buena formación del profesorado y la calidad del material son aplicables a cualquier método de enseñanza.
  • Claramente PISA evita un análisis profundo para detectar las causas de este resultado, como comprobar la representatividad del indicador que usa para cuantificar la EBI.

En resumen, la fiabilidad de las conclusiones de PISA ha de ponerse en entredicho por:

  • Los errores en la elaboración de los cuestionarios.
  • El sesgo cultural que no han sido capaces de eliminar.
  • Resultados contradictorios y dificultades para el seguimiento longitudinal.
  • Explicaciones superficiales ante resultados inesperados.

Fuente: https://www.bbc.com/mundo/noticias-50630244

Comparte este contenido: