Entrevista a Maryanna Abdo:“En educación se puede medir casi todo si hacemos las preguntas adecuadas”

Entrevista/Autor: Rodrigo Santodomingo/eldiariolaeducacion.com

Detectar el éxito o fracaso de la acción educativa es el primer paso. Después hay que interpretar los datos y convertirlos en iniciativas que atiendan a cada contexto y sean asímismo evaluables. Hablamos con Maryanna Abdo, managing director del Centre for Evidence and Implementation, sobre este flujo constante que retroalimenta el vínculo entre investigación y práctica educativa.

Con sede en Australia, Singapur y Reino Unido, el Centre for Evidence and Implementation asesora a gobiernos y organizaciones de todo el mundo en la mejora de servicios como la educación o la salud. Su fórmula combina la investigación con pautas precisas para transformar lo que nos dice la ciencia en prácticas de éxito. En ese aterrizaje de los números en el mundo real, la adaptación al contexto emerge como la condición que marca la diferencia.

Hablamos con Maryanna Abdo, su managing director. Nacida y educada en EEUU, Adbo vive en Asia desde hace casi una década. Allí ha desarrollado diversos proyectos en los que su preocupación por los más desfavorecidos aparece como constante. La estadounidense participa en el próximo congreso digital de WISE, que se celebra entre el 23 y el 25 de este mes. En su cuenta de Twitter, Abdo se define como education nerd.

Vemos en los últimos años una especie de fiebre por las evidencias en educación. ¿Existen factores que han desencadenado esta tendencia?

Sin duda hay un interés creciente por saber qué funciona y qué no. Pienso que aquí han cobrado un papel relevante los Objetivos del Milenio en cuanto a acceso universal a la educación. Muchos países lograron grandes avances en la primera década del siglo construyendo escuelas, pero ahora las cifras aumentan levemente o se han estancado. Solo construir más escuelas ya no funciona, especialmente en zonas rurales o entre las niñas. Y ahora las autoridades educativas y los que financian la ayuda internacional quieren tomar decisiones a partir de la investigación, de estudios rigurosos que demuestren la efectividad de sus medidas.

¿Abundan también los estudios sobre rendimiento en esas nuevas escuelas de países en vías de desarrollo? Entiendo que no es solo un problema de cantidad, sino de calidad.

Sí, se está haciendo un gran esfuerzo por evaluar los resultados. Y en muchos casos, las cifras muestran deficiencias, con porcentajes significativos de alumnos que no alcanzan un nivel mínimo en conocimientos básicos.

Medir el acceso a la educación o el aprendizaje en matemáticas o lectoescritura resulta relativamente fácil. Pero la cosa se complica cuando el objeto de estudio se centra en competencias como el pensamiento crítico, la capacidad de síntesis o la creatividad.

Se puede medir casi todo, siempre y cuando se hagan las preguntas adecuadas. Si queremos saber si una práctica aumenta la creatividad, quizá no sea de gran ayuda fijarnos en las notas de exámenes. Pero sí podemos indagar sobre el interés artístico de los alumnos o el número de vocaciones en esa dirección.

Tu organización destaca la importancia de saber cómo implementar, mediante prácticas concretas, lo que nos dice la ciencia.

Hemos calculado que se necesitan hasta 17 años para transformar una evidencia en una práctica de éxito. Aspiramos a acortar ese tiempo.

Uno de los grandes retos en la implementación pasa por adaptar buenos programas a otros contextos educativos. Algo puede funcionar en un sitio pero no en otro. De hecho, varios organismos [EduCaixa en España] apuestan por sintetizar en meta-análisis los resultados de diferentes estudios sobre un mismo tema.

Varios factores influyen en el proceso: los currículos nacionales, el enfoque pedagógico, la geografía, variables culturales… Por eso es tan importante saber no solo qué queremos hacer, sino también qué condiciones contribuyen a su éxito. Te pondré un ejemplo, en este caso del sector salud. Un país occidental intentó exportar un modelo de mejora sanitaria -basado en la atención domiciliaria- a otro país asiático. No funcionó, en buena medida por las diferentes relaciones paciente-doctor y las reticencias a recibir atención en casa.

¿Ayudaría también acercar a los profesores a los métodos y técnicas de la investigación?

Sin duda. Hemos llevado a cabo recientemente un estudio sobre el uso de las evidencias entre los profesores australianos. Las conclusiones apuntan a un gran margen de mejora en áreas como el acceso a los propios recursos de investigación educativa o la capacidad del docente para identificar evidencias robustas.

¿Existe resistencia entre algunos profesores a la hora de cambiar su metodología a la luz de la ciencia?

Me cuesta pronunciarme porque no tengo un contacto frecuente y directo con la primera línea en las escuelas. Pero percibo un gran entusiasmo. Al final, todos queremos hacer bien nuestro trabajo, y estamos abiertos a recibir información que nos ayude a mejorarlo.

Para evaluar sistemas educativos en su conjunto, primero hemos de tener más o menos claro para qué queremos educar. Y los fines de la educación no siempre se nos presentan tan obvios. ¿Complica este eterno debate el diseño de buenas investigaciones?

Este tipo de tensiones y visiones divergentes se dan en la mayoría de sistemas educativos. Quizá por ello hemos observado que algunas de las evidencias más sólidas proceden de un nivel menor, a escala escolar o red de escuelas.

¿Podrías citar alguna práctica educativa que en principio suena bien pero la ciencia se haya ocupado de desterrar?

No pertenece exactamente al ámbito escolar, pero sí a la educación en sentido amplio. Hay un programa que utilizan en EEUU para disuadir a adolescentes con delitos menores de que sigan por el mal camino. Se llama Scared straight [algo así como Asustado de golpe] y consiste en visitas a prisiones de adultos donde los presos les explican lo que allí les espera si finalmente acaban ingresando. Se trata básicamente de meterles miedo para encauzarles. Parece una excelente idea, ¿no? Pues las evidencias demuestran no solo que no tiene un impacto positivo, sino que puede aumentar la probabilidad de terminar en la cárcel. No sabemos exactamente por qué ocurre esto. Puede ser porque algunos chavales de entornos deprimidos ven la vida en la cárcel como una opción atractiva, con tres comidas al día y un techo. O por la mala influencia que ejercen sobre ellos los presos con quienes tratan durante las visitas. No lo sabemos. Pero la moraleja del cuento se antoja clara: lo que suena bien no siempre está bien.

Lo verdaderamente innovador en educación es hacer cosas que sabemos que funcionan y hacerlas bien

¿Es la educación un campo especialmente fértil para lanzar propuestas con un bonito envoltorio y escaso fundamento?

Creo firmemente que la innovación tiene un enorme potencial transformador, y para innovar hay que arriesgar. Pero te diré algo que mi jefe asegura con frecuencia: lo verdaderamente innovador en educación es hacer cosas que sabemos que funcionan y hacerlas bien. Sean estas innovadoras o tradicionales. ¿Por qué distraernos con el brillo de la última novedad cuando a veces ni siquiera hemos intentado lo que ya sabemos con certeza que funciona?

A veces el debate tradición/innovación se plantea como si fueran opciones incompatibles. Hay estudios que reconcilian ambas posturas y concluyen que innovar es bueno, pero solo cuando el alumno ha asimilado una buena base de conocimiento, que quizá haya que enseñarle mediante metodologías clásicas.

Algo similar ocurre con la relación entre competencias digitales y socioemocionales. Cada vez hay un mayor consenso en cuanto a que el potencial de las primeras solo se puede desarrollar plenamente cuando el alumno confía en su capacidad para pensar críticamente y se siente cómodo colaborando y trabajando en equipo.

¿Qué podemos esperar en el futuro próximo de la investigación educativa? ¿Habrá campos de análisis predilectos?

Por razones obvias, la educación a distancia será uno de ellos. O la falta de medios tecnológicos para acceder a ella y cómo estas carencias influyen a la hora de que muchísimos alumnos se alejen, puede que definitivamente, de la escuela. El otro día escuché en una conferencia virtual que, durante el confinamiento, solo el 25 % de alumnos en India han dispuesto de tecnología para continuar aprendiendo. También se dijo que, durante la crisis del ébola, en Liberia se triplicó el porcentaje de alumnos sin escolarizar. Son datos terribles que requieren respuestas, y la investigación puede contribuir a dar las más efectivas.

En tu cuenta de Twitter te defines como education nerd [de difícil traducción, en castellano nerd sería una mezcla de empollona, pringada y obsesa]. ¿Qué implica ser una education nerd?

[Risas] Pienso que el sector educativo es el más interesante, con tantas variables, tan complejo y apasionante. Vivimos además un momento de cambio que lo hace aún más fascinante. Flujos de estudiantes internacionales, nuevas competencias para un futuro incierto… Podría hablar horas y horas sobre mi pasión por la educación, pero no creo que proceda. [Risas]

Fuente e imagen tomadas de: https://eldiariodelaeducacion.com/2020/06/24/en-educacion-se-puede-medir-casi-todo-si-hacemos-las-preguntas-adecuadas/

Comparte este contenido:

México: Prueba PISA, insuficiente para medir la educación en México

México / 11 de enero de 2017 / Por: Gerardo Contreras / Fuente: http://elpopular.mx/

La maestra de UPAEP, Mónica Monroy Kuhn, dijo que esta prueba no es integral ya que sólo se limita a medir las habilidades de los estudiante.

Los resultados de la prueba PISA 2015 que se dieron a conocer el año pasado no reflejan de manera integral la situación actual del sistema educativo de México, pues no mide los planes curriculares, los programas de cada país y el nivel de instrucción en las aulas, así lo dio a conocer la maestra de la Universidad Popular Autónoma de Puebla (UPAEP), Mónica Monroy Kuhn.

En conferencia de prensa, puntualizó que la pruebaPISA sólo se limita a medir las habilidades de los estudiantes y en este caso la aplicación del examen fue por simuladores en computadora que en muchas ocasiones no saben utilizar a su totalidad los estudiantes mexicanos.

Aclaró que para medir los resultados de estas pruebas se debe de tomar en cuenta la población, el nivel de desarrollo del país y la situación educativa en general, por lo que si se compara con países de mayor desarrollo México siempre saldrá mal evaluado.

En este sentido, el doctor Juan Manuel López Calva dijo que los rezagos que tiene el país se deben a que no se tiene claridad hacia dónde nos dirigimos y señaló que se debe de tener claro qué tipo de mexicano se quiere formar por medio de una revisión de un modelo curricular tomando en cuenta la realidad de cada escuela.

Agregó que a formación y capacitación de los docentes y las cuestiones de infraestructura de las escuelas son factores a tomar en cuenta,  además de  revisar la gestión de la educación la cual no debe de ser tan centralizada y se debe de plantear la creación de actores diversos y autónomos al estado para evaluar.

Por su último, la maestra Mónica Monroy Kuhn dijo que los resultados de las pruebas es un reflejo de una sociedad en general y puso como ejemplo el papel que juegan los gobernantes y los medios de comunicación, por lo que le hizo un llamada a todos los actores sociales a participar de manera activa para la mejora educativa.

La prueba PISA 2015 es una evaluación realizada entre los países pertenecientes a la Organización para la Cooperación y el Desarrollo Económico (OCDE) que mide el desempeño de los estudiantes en ciencias, lectura y ciencias. México resultó el país peor evaluado en la prueba del año pasado con puntajes de 423 en lectura, 408 en matemáticas y 416 en ciencias de una base de 500.

Fuente noticia: http://elpopular.mx/2017/01/10/local/prueba-pisa-insuficiente-para-medir-la-educacion-en-mexico-156238

Comparte este contenido: