Minedu prepara un nuevo plan de evaluaciones para estudiantes

América del sur/Perú/29 Agosto 2019/El comercio

La viceministra de Gestión pedagógica del Minedu, Patricia Andrade, anuncia nueva estrategia para medir logros de aprendizaje en colegios. Incluirán nuevas áreas

Los resultados de la Evaluación Censal de Estudiantes (ECE) y la Evaluación Muestral de Estudiantes (EME) revelan una caída en alumnos de segundo de primaria. Solo el 37,8% tiene un desempeño satisfactorio en comprensión lectura y el 14,7% en matemáticas. En conversación con este Diario, Patricia Andrade, viceministra de Gestión Educativa del Ministerio de Educación (Minedu) explica las causas de este retroceso y anuncia el replanteo del plan de evaluaciones.

— ¿Qué factores explican el descenso en el desempeño de estudiantes de segundo grado observado en las evaluaciones realizadas por el Minedu?

Hay muchos factores que influyen en el logro del aprendizaje. Unos tienen que ver con el estudiante y su familia, otros están relacionados al desempeño docente y gestión de la escuela, y otros son externos y están asociados al nivel socioeconómico, a condiciones ambientales o a la coyuntura política. Lo que ha ocurrido en este nivel posiblemente es una interrelación de todos, pero con un mayor peso de los externos. La evaluación censal se realizó luego de El Niño costero y la huelga magisterial,que afectaron a los estudiantes y la dinámica escolar.

— ¿Por qué el descenso se registró más en este grado que en otros evaluados?

Afectó más a los niños más pequeños porque recién se están insertando a la escolaridad, tenían apenas un grado previo en el colegio. Tampoco hemos completado la universalización del acceso a la educación inicial que también es un factor vinculado a los aprendizajes. Estas circunstancias colocaron a los niños en una situación de mayor vulnerabilidad frente a factores externos.

— ¿Cómo afectó la actual coyuntura política el aprendizaje de los alumnos?

En dos años y medio hemos tenido más de cinco ministros de Educación y esto trae cambios en los equipos y genera discontinuidad en la gestión. Una de las estrategias que tiene más impacto en los aprendizajes es el acompañamiento pedagógico, pero solo está presente en colegios rurales y de pueblos originarios. También está la discusión en torno a la aprobación del currículo nacional, que es una herramienta que los docentes consultan para programar sus estrategias de aprendizaje.

— ¿Incluirán en futuras pruebas más dimensiones de aprendizaje? Especialistas mencionan que es necesario retirar incentivos para aprobar las pruebas.

Luego de 10 años de evaluaciones censales centradas en razonamiento matemático y comprensión lectora se incluyen otras áreas como ciudadanía, ciencia y tecnología. Hubo un sobredimensionamiento de algunas competencias en desmedro de otras. Nuestra gestión aplica estrategias no solamente focalizadas en el cierre de brechas en determinados aspectos, sino en el desarrollo de la identidad, que los estudiantes se reconozcan como personas valiosas, seguras, para establecer relaciones empáticas con los demás, y generar una sociedad más democrática e inclusiva.

— ¿Cuáles son las principales desventajas del actual sistema?

Toda evaluación estandarizada, sea censal o muestral, puede ser útil cuando se tiene claro cuáles son los usos que se le da. Para fines del sistema, la muestral es más que suficiente, pero también se sabe que los gobiernos regionales y las Ugeles esperan un dato de sus estudiantes, donde están localizadas las escuelas con menores resultados. En esa medida, una censal sí reporta una evaluación precisa.

— ¿Replantearán el actual esquema de evaluación de estudiantes?

Estamos trabajando en un nuevo plan multianual de evaluaciones estandarizadas para estudiantes. Esta herramienta no la habíamos tenido hasta ahora, las decisiones iban de gestión en gestión. Estamos cerrando consultas con diversos expertos, revisando experiencias. Queremos dejar una ruta que señale cuál es el uso que debería tener cada tipo de evaluación.

— ¿Qué aspectos contemplará el nuevo plan?

Lo importante es que las pruebas tengan utilidad, que sean pedagógicas y que no induzcan estas prácticas de entrenamiento que se han venido dando. Tomaremos las medidas necesarias para erradicar prácticas distorsionadas como el entrenamiento para las pruebas o la reducción del currículo a algunos aprendizajes.

Fuente: https://elcomercio.pe/peru/minedu-prepara-nuevo-plan-evaluaciones-estudiantes-noticia-ecpm-669488

Comparte este contenido:

Colombia: Evaluaciones sobre la educación

Colombia / www.elcolombiano.com / 10 de Enero de 2018.

La Organización para la Cooperación y el Desarrollo -Ocde evalúa anualmente los colegios públicos de 72 países en matemáticas, ciencias y comprensión de la lectura, por medio de sus pruebas Pisa. Colombia ha venido mejorando sus resultados en estas evaluaciones, superamos hoy a Brasil, a México y a Perú; sin embargo, ocupar en 2016 un puesto 57 en tales pruebas no es motivo de gran satisfacción para los colombianos.

El Instituto Colombiano para el Fomento de la Educación Superior -Icfes- también evalúa anualmente los colegios públicos y privados, de 1 a 10, por medio de una prueba llamada Saber 3 – 5 – 9 – 11, según el año evaluado. Saber 11 es la puerta de ingreso a las universidades.

Con base en las pruebas Saber, elaboramos en Colombia, además, el Índice Sintético de Calidad Educativa -Isce- incluyendo en las pruebas Saber cuatro indicativos adicionales medio subjetivos y teóricos: 1. Progreso con relación a las pruebas Saber del año anterior. 2. Desempeño comparado con el resto del país. 3. Eficiencia, porcentaje de los que aprobaron el año anterior. 4. Ambiente en las aulas de clase.

Me ha llamado la atención que en el artículo publicado por la revista Dinero el 14 de diciembre de 2017 y titulado: “Los mejores colegios de Colombia según la prueba Saber 11 de 2017”. Se puede ingresar a Dinero por Internet, Google, a la tabla donde se ordenan del mejor al peor los 13.425 colegios evaluados en el primero y en el segundo semestre de 2017. Participan en este documento tanto instituciones privadas como oficiales, calendarios A, B y O, este último el de los semestralizados.

Espero no haberme equivocado, pero los mejores colegios No Oficiales de Antioquia fueron: 1. Montessori de Medellín, puesto 68. 2. José María Berrío Sabaneta, 79. 3. Seminario Corazonista, Marinilla, 82. 4. Theodoro Hertzl del Retiro, 85. 5. Corazonista de Medellín, 104. 6. Vermont del Retiro, 104. 7. Cumbres de Envigado, 125.

El primer colegio Oficial entre los 13.425 de la tabla citada aparece en el puesto 148 y es el bachillerato de la Universidad de Nariño. Entre los primeros 500 colegios de dicha tabla, tan solo hallé 11 oficiales, de los cuales ninguno de ellos figura en “Antioquia la más educada”.

Coincido con quienes insisten en que apremia para mejorar la calidad de la educación en Colombia: 1. Consolidar la jornada única. 2. Ampliar la cobertura del bachillerato o de una formación tecnológica al 60% de los colombianos. 3. Elevar la calidad del preescolar, la primaria y el bachillerato. 4. Cerrar la brecha entre la educación rural y la urbana. 5. Si bien la educación no tiene que estar liderada por los avances tecnológicos, muestran los profesores de los países más educados un gran interés en los dispositivos móviles, las tabletas, las computadoras, en fin, en la educación apoyada por medio de estos dispositivos. 6. Evaluar los profesores, pagarles bien, exigirles y actualizarles sus conocimientos de cuando en cuando.

Fuente: Evaluaciones de la OCDE

 

Comparte este contenido:

¿Por qué, pese a que sobran las evaluaciones, no mejora la educación?

Luciana Vázquez

¿Por qué? La pregunta vuelve, insistente: ¿por qué Ciudad de Buenos Aires no logra mejorar sustantivamente el nivel de aprendizaje en sus escuelas primarias y secundarias a pesar de años de evaluación de su sistema educativo con todo tipo de pruebas tanto locales como nacionales e internacionales?

Lo mismo pasa en Argentina y en buena parte de América Latina, evaluadas hasta el cansancio desde hace décadas pero con rendimientos siempre por debajo del promedio de los países desarrollados. Por eso la pregunta, casi obligada: ¿por qué?

«Con la evaluación no alcanza», dice, contundente, la directora ejecutiva del Instituto de Estadística de UNESCO, la argentina Silvia Montoya, que agrega: «El problema es que los datos que aportan las evaluaciones no se usan en política pública de la manera en que deberían ser usados. Hay un exceso de elaboración de rankings o de uso de las pruebas para rendirle cuentas a la sociedad pero poco aprovechamiento de los datos para diseñar políticas educativas».

El lunes en la sede de UNESCO en París se presentaron los resultados de las respetadas pruebas PIRLS, el Estudio Internacional de Progreso en Comprensión Lectora que se aplica a alumnos de cuarto grado de escuelas públicas y privadas, y los resultados de CABA desalientan: puesto 46 de un ranking de 61 sistemas educativos. Un puntaje de 480 puntos, 20 por debajo de los 500 promedio deseables. Estancamiento sostenido en los rangos bajos de diversas evaluaciones.

Montoya dialogó el lunes con LANACION en la Sala de Actos de este edificio de hormigón de la UNESCO en París, ideado por Walter Gropius en la década del `50. Montoya llegó a París directo desde Montreal, Canadá, donde está la sede del Instituto, para participar de la discusión de los resultados de PIRLS junto a nombres destacados del mundillo educativo global.

¿Qué aprenden los cuartos grados porteños?

Durante el debate en UNESCO, Montoya subrayó la necesidad de encontrar los datos claves que permitan describir la realidad educativa de cada país: «Tenemos que determinar cuáles son los indicadores que mejor muestren la diversidad educativa internacional y al mismo tiempo permiten las comparaciones entre países», sostuvo.

Esta argentina nacida en Córdoba, es una especie de estrella en estos pasillos parisinos: su rol en UNESCO la vuelven fuente de consulta obligada en esta jornada, que Montoya satisface en un inglés o francés ágil pero descuidado de la pretensión del acento perfecto. Los habla también con su cantito cordobés.

Y al mismo tiempo, por su experiencia, Montoya es la persona ideal para pensar la dificultad de CABA para mejorar los aprendizajes en sus escuelas. Esta doctora en Análisis de Políticas Públicas por la Pardee RAND Graduate School, en Estados Unidos, fue la directora general de Evaluación de la Calidad Educativa de CABA. Durante años trabajó codo a codo con el ex ministro Esteban Bullrich y fue la funcionaria que instaló el tema de la calidad educativa en la agenda porteña de PRO. Los resultados de PIRLS también evalúan los años de gestión de Montoya en CABA, aunque la edición 2016 de la prueba se implementó luego de su partida.

Desde la Ciudad, Montoya desarrolló las pruebas locales de calidad y coordinó la implementación de las evaluaciones internacionales PISA, PIRLS, TIMSS, entre otras tantas. Desde 2015 dirige desde UNESCO la principal agencia internacional en evaluación educativa.

Una primera dificultad de las evaluaciones internacionales, según explicó la experta argentina en París, es la «diferencia de la estructura de los sistemas educativos»: no siempre los grados o años comparados tienen los mismos objetivos de aprendizaje y sus programas de estudios no coinciden.

¿Tienen razón entonces la autoridades educativas de CABA que sostuvieron que los bajos resultados obtenidos por los alumnos de cuarto grado en PIRLS se deben a una diferencia en los programas de estudio, que en las primarias porteñas se desarrollan, afirman, recién en quinto o sexto grado?

«Muchos de los contenidos evaluados por PIRLS en cuarto grado, son propios del segundo ciclo de la escuela primaria en la Ciudad», explicó a LA NACION la directora de la unidad de evaluación del ministerio de Educación porteño, Tamara Vinacur.

Hastedt, el responsable de las pruebas PIRLS, no estuvo de acuerdo. Hastedt insiste en la necesidad de consolidar ciertos aprendizajes en determinados grados de la escolarización.

«Si llegada cierta edad los alumnos no desarrollaron capacidades de lectura básicas, es difícil que puedan aprender ciencias o ciencias sociales, por ejemplo, o conocimientos más complejos en los años siguientes», afirmó Hastedt a LANACION ratificando la importancia de alcanzar niveles de comprensión lectora altos en cuarto grado. La idea que da sentido a la prueba PIRLS es que primero se aprende a leer y llegado cuarto grado, la lectura es en sí misma un herramienta para aprender otras cosas.

En relación a los argumentos de la diferencias de contenidos de cuarto grado, Montoya aclaró que los países evaluados en PIRLS pueden acordar con la IEA en qué grado se tomará la prueba para que sea más consistente con el curriculum nacional.

«Los estudios de la IEA tienen en cuenta la adecuación a los programas de cada sistema educativo, a diferencia delas pruebas PISA que evalúan a alumnos de 15 años no importa en qué año se encuentren», explicó la directora del Instituto de Evaluación Educativa de UNESCO. CABA pudo haber solicitado la evaluación de sus aprendizajes en sexto grado, por ejemplo, pero no lo hizo.

Chicos que aprenden y que no

Sudáfrica es un ejemplo de cómo PIRLS se aplicó en sexto grado y no en cuarto. «Como en los dos años del primer ciclo escolar trabajan mucho con la oralidad, que es muy importante en África, se considera que el apresto para la lectoescritura empieza más tarde», explicó Montoya, que coincide con el director de la IEA: más allá de diferencias en los sistemas educativos, explica, los chicos de las mismas edades críticas deberían poder contar con capacidades semejantes y usarlas apropiadamente.

«Hay algo que no está funcionando en los sistemas escolares en general», desarrolla sobre el tema de la dificultad para la mejora, y extiende el análisis a un nivel global: «Está claro que los países lograron poner a los alumnos en las escuelas: la cobertura escolar creció drásticamente. Pero elaboramos un indicador que llamamos «los niños que no aprenden» a partir de una estimación anclada en todas las evaluaciones nacionales de aprendizaje. Dos tercios de los niños, hasta 15 años de edad, que no aprenden están dentro del sistema escolar.»

Fuente del articulo: http://www.lanacion.com.ar/2089388-por-que-pese-a-que-sobran-las-evaluaciones-no-mejora-la-educacion

Fuente de la imagen: http://bucket2.glanacion.com/anexos/fotos/51/educacion-2516851w620

Comparte este contenido:

Panamá: Buscan calificar la educación

Panamá/30 octubre 2017/Fuente: Día a Día

El año escolar va acabar, y las evaluaciones a los estudiantes y programas del Ministerio de Educación Meduca se siguen dando con miras, según las autoridades, a mejorar la calidad educativa.

Ayer culminó la primera fase de la Prueba Nacional Censal y Muestral a niños de 3° y 6°, lo que, de acuerdo con la ministra Marcela Paredes, son importantes para conocer el dominio de los temas de los niños en las escuelas.

También se inició el proceso de evaluación de Panamá Bilingüe con pruebas que serán aplicadas a los estudiantes de tercer grado, de las 216 escuelas que forman parte de él.

Eneida Araúz, asesora de Panamá Bilingüe, comentó que están haciendo la evaluación en tercer grado porque son los que han estado en el programa por tres años.

Mientras, el Informe de Seguimiento de la Educación en el Mundo, de Unesco, apeló que los gobiernos tienen la responsabilidad de garantizar una educación, pero que los padres y estudiantes deben poner de su parte.

La directora general de la Unesco, Irina Bokova, sugiere que los bajos resultados en las pruebas podrían ser por la falta de una buena estructura física, a menudo con desventajas socioeconómicas.

En el 2015 Panamá salió mal posicionado en el Tercer Estudio Regional Comparativo y Explicativo, en español, ingles y matemáticas.

Fuente: http://www.diaadia.com.pa/el-pais/buscan-calificar-la-educacion-327141

Comparte este contenido: