Page 2 of 8
1 2 3 4 8

Las claves de los mejores sistemas educativos del mundo

Redacción: BBC Mundo

La formación de calidad de los profesores es un factor en común de los sistemas educativos de China, Singapur y Finlandia, considerados entre los mejores del mundo.

China desplazó a Singapur como el país con la mejor educación del mundo, según los últimos resultados del Programa para la Evaluación Internacional de los Alumnos (PISA, por sus siglas en inglés). Sin embargo, Singapur y Finlandia continúan en el top de los mejores puntuados. El programa de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) realiza cada tres años un examen mundial de las habilidades de los estudiantes de 15 años en lectura, matemáticas y ciencias; y tiene por objeto evaluar hasta qué punto los alumnos cercanos al final de la educación secundaria han adquirido algunos de los conocimientos y habilidades necesarios para la participación plena en la sociedad del saber.

¿Cómo son estos modelos educativos y qué hace que sean los mejores?

SINGAPUR

Singapur tiene un sistema educativo pequeño y centralizado, donde todos los maestros son entrenados en el Instituto Nacional de Educación. El estatus de los maestros en la sociedad es muy alto debido a la dura competencia para obtener un puesto; son seleccionados del 5 % que obtuvo los mejores resultados entre los graduados universitarios. Tienen tiempo para profundizar su conocimiento y preparar sus clases.

En los colegios se busca crear oportunidades para un aprendizaje más creativo y se alienta a los alumnos a construir prototipos, desde un sistema de riego para jardines hasta un teclado electrónico.

Por ejemplo, una sala vacía de un colegio se transforma en un laboratorio y ponen a disposición de los alumnos herramientas y materiales para que construyan prototipos.

“Queremos que el aprendizaje sea algo auténtico para los alumnos. Debe estar relacionado con el mundo real. Esto ayuda a que aprendan no solo ciencia sino muchas otras disciplinas”, dice Ricky Tan Pee Loon, uno de los maestros.

El sistema es competitivo. Hay un examen al final de la educación primaria que determina en parte si un niño puede ir a su colegio de preferencia.

FINLANDIA

En Finlandia, con poco más de cinco millones de habitantes, un aspecto clave es la formación de los profesores, que tanto en primaria como en secundaria deben tener nivel de maestría.

Los niños finlandeses inician la educación formal a los 7 años, tienen jornadas escolares más cortas, vacaciones más largas, pocas tareas y no hacen exámenes. Desde el 2016, todos los centros de enseñanza introdujeron el método conocido como phenomenon learning, por el que las materias tradicionales son desplazadas por proyectos temáticos en los que los alumnos se apropian del proceso de aprendizaje. Según expertos finlandeses, la razón es que la forma tradicional de educación, dividida en diferentes materias, no está preparando a los niños para el futuro, ya que necesitarán una capacidad de pensamiento transdisciplinaria, mirar a los mismos problemas desde distintas perspectivas.

Debido a la adaptación de la era digital, los niños ya no dependen de los libros para aprender, y tampoco de las aulas tradicionales, puesto que siguen el principio del espacio abierto.

CHINA

El sistema educativo del gigante asiático es muy exigente y competitivo, incluso desde los más pequeños. Esto se basa en que deben aprobar varios exámenes para pasar al siguiente nivel, como el zhongkao, al terminar la primaria, y el gaokao, para entrar a la universidad. “Los estudiantes en China enfrentan tremendas presiones para tener buenos resultados en los exámenes, tienen una gran carga académica y dedican enormes cantidades de tiempo a la preparación de pruebas”, dice Yong Zhao, autor de libros sobre el sistema educativo chino.

La alta competitividad hace que muchas familias opten por complementar el aprendizaje de sus hijos con una segunda escuela, para así garantizar los mejores resultados posibles en clase, y muchos chicos pasan casi todo el día estudiando.

En China hay requisitos rigurosos para dedicarse a la enseñanza, que es vista como una ocupación prestigiosa; en Shanghái, por ejemplo, los maestros pasan solo un tercio de su tiempo enseñando, la mayor parte la pasan en entrenamientos, capacitaciones. (BBC MUNDO-REDACCIÓN)

Los resultados PISA para Latinoamérica y Ecuador

Las pruebas PISA sirven de evaluación para muchos gobiernos del mundo, y en las últimas, los países de Latinoamérica mejor ubicados fueron Chile, Uruguay, Costa Rica y México, en ese orden.

Sin embargo, todos los países latinoamericanos evaluados obtuvieron una clasificación inferior a la del promedio de países de la OCDE, el denominado “club de los países más ricos del mundo” al que pertenecen Chile y México.

Los otros países de América Latina que fueron evaluados son: Brasil, Colombia, Argentina, Perú, Panamá y República Dominicana.

No participaron de las pruebas Bolivia, Cuba, El Salvador, Ecuador, Guatemala, Haití, Honduras, Nicaragua, Paraguay y Venezuela.

Ecuador participó en el 2018 por primera vez de esta prueba, en el grupo PISA-D, con ocho países más: Bután, Camboya, Guatemala, Honduras, Panamá, Paraguay, Senegal y Zambia. Todos estos países son de ingresos medios y bajos, con tasas de pobreza, analfabetismo y desempleo mayores que los de los países de la OCDE.

Entre los países que participaron en PISA-D, Ecuador tuvo el mejor desempeño en todas las materias. Sin embargo, es importante considerar que la mayor parte de los estudiantes no llegaron al nivel 2 en Matemáticas ni en Ciencias.

Según el último informe, las necesidades educativas de los adolescentes de 15 años han “cambiado de manera fundamental” con la llegada de los teléfonos inteligentes, que han transformado la forma de leer y de intercambiar información, al tiempo que la digitalización ha provocado la aparición de nuevas formas de escribir.

“Antes, los alumnos podrían encontrar respuestas claras a sus preguntas en los manuales aprobados por los gobiernos en los que podían confiar. Hoy encuentran cientos de miles de respuestas en línea y les corresponde a ellos determinar qué es verdadero y qué es falso”, agrega el informe sobre los resultados. (AFP -REDACCIÓN) (I)

Fuente: https://www.eluniverso.com/noticias/2019/12/17/nota/7648094/claves-mejores-sistemas-educativos-mundo

 

Comparte este contenido:

PISA doesn’t define education quality, and knee-jerk policy proposals won’t fix whatever is broken

Since the OECD’s Programme for International Student Assessment (PISA) began in 2000, published results have sent commentators and politicians in some countries into meltdown. The release of the 2018 test results last week was no exception.

Out of 79 participating countries and economies in 2018 Australia came equal 11th (with countries including NZ, UK and US) in reading (in 2015 it was 12th); equal 13th (with countries including US, UK and Germany) in science (in 2015 it was tenth); and equal 24th (same as the OECD average, and NZ and Russia) in maths (in 2015 it was 20th).

The Daily Telegraph claimed Australian schools “are failing”. The Australian bemoaned Australia had “plunged in global rankings”; and business leaders told Australian educators to “lift your game”.

According to education minister Dan Tehan, “alarm bells should be ringing”. Tehan claimed he would raise the issue with state and territory ministers for education at the Education Council meeting in Alice Springs this week.

In particular, Tehan said he wanted to “take a chainsaw to the curriculum” and “put literacy and numeracy back to the heart” of it.

There are two striking features of the reactions to the PISA results. First, it seems broadly accepted PISA defines educational quality when it only tests three subject areas and the methodology itself is questionable.

And second, the results inevitably produce a flurry of policy responses, none of which have been specifically tested as a means to improve our PISA scores.

There are serious problems with PISA scores

PISA has seemingly become the arbiter of education quality in Australia and around the world. When the results are released, the numbers are broadly accepted as accurate measures of the quality of the world’s education systems.

This ignores the chorus of concerns growing for years about PISA’s serious methodological problems which test a stratified sample of 15 year olds in three curriculum areas.

These same concerns were raised by 100 educational researchers around the world in a public letter to the Director of PISA at the OECD in 2014.

Some such concerns relate to the problems of making an international test neutral when it is converted to many different languages and cultures. Other concerns come from educational statisticians and researchers who argue the validity and reliability of the tests themselves are at best dubious and at worst render the league tables “useless”.

There are also issues with the sampling process. Some participating countries only include certain parts of the country or exclude more schools and students from the tests than others. This clearly makes it more difficult to compare countries.

Mainland China is an example. For instance, when Shanghai finished top in each of the three domains in the 2012 PISA tests, Tom Loveless from the Brookings Institute in Washington argued the students tested weren’t representative of the students in the city.

He wrote Shanghai’s PISA-tested students didn’t include thousands from poor rural areas whose parents had moved to the city in search of work.

The OECD’s Education Director Andreas Schliecher, admitted to the UK’s House of Commons Education Select Committee that, in fact, only 73% of students were represented in the Shanghai province’s sample of students in the 2012 test.

Loveless’ also analysed the recent results, which were reported in the Washington Post. He noted the four Chinese provinces participating in 2018 (Beijing, Shanghai, Jiangsu and Zhejiang) did significantly better than the four (Beijing, Shanghai, Jiangsu and Guangdong) that participated in 2015.

Loveless wrote “the typical change in a nation’s scores is about ten points. The differences between the 2015 and 2018 Chinese participants are at least six times that amount…”. He hypothesised this had something to do with the change in provinces selected for testing.

These and other problems with PISA’s methodology suggest it is foolhardy to accept the test results as precise readings of educational quality in any country, or for ranking countries.

Knee-jerk policy fixes will only take us backward

The other feature of the reaction to PISA results is the litany of policy proposals to fix the problems PISA has supposedly unearthed.

Minister Tehan confined his strategies to “stripping back” the “crowded” Australian curriculum and focusing on “the basics”, as well as fast tracking professionals from other fields into teaching.

But there is no obvious link between the PISA results and the strategies proposed and certainly no analysis of what information PISA offered to support them. Even if PISA data are taken seriously, we are obliged to investigate the reasons for educational outcomes before designing policies to address the problems.

And although PISA only tests three areas of the curriculum, the strategies proposed apply to the whole curriculum and, it seems, to the whole of schooling.

Minister Tehan should explain what part of the PISA data convinced him that the Australian curriculum should be pared back to “the basics”. And if that data exists, why should it apply to every other area of the curriculum apart from the three areas tested by PISA: maths, science and reading?

Or is PISA simply being used as a convenient vehicle for introducing favoured policy positions?

I am not suggesting some of the PISA data cannot usefully contribute to the ongoing effort to enhance the quality of Australian education. There is a strong case to be made for sharing educational ideas and practices with other countries.

But superficial, knee-jerk readings of international standardised test data are more likely to impede than advance quality improvement.

The meeting of the Education Council this week could use the opportunity to do two things when they reach the agenda item on PISA.

First, it could set in train a process for achieving national agreement about an approach to educational accountability which goes beyond the simplistic reliance on standardised tests. This would start with the purposes of accountability, including supporting schools to enhance education quality, and aim to provide the community with rich information about educational progress.

Inevitably new approaches would mean broadening our evidence options. These should be both qualitative as well as quantitative. They should also support teachers in their work rather than impose time consuming form-filling. And they should be based on trust in the professional expertise of our teachers.

Second, the Education Council should institute a review of PISA which might consider the flaws in the testing regime, and ways to overcome these. This might help ensure policy, media commentary and research based on PISA results would acknowledge the limitations of the tests and be more tentative about using PISA as the sole arbiter of what constitutes quality in education.

These two steps would help break the destructive cycle of the release of PISA tests results every three years, followed by the barrage of criticising educators and the work of schools, as well as a flurry of political, ideologically pre-determined policy proposals.

After all, it is somewhat ironic that the policy makers who for so long have enforced a standardising educational policy regime, simply double down on it when their own standardising measures have deemed such policies to have failed.

Australia needs a new education narrative, and work on it should start this week at the Education Council.

Fuente de la Información: https://theconversation.com/pisa-doesnt-define-education-quality-and-knee-jerk-policy-proposals-wont-fix-whatever-is-broken-128389

 

Comparte este contenido:

Estudiantes japoneses con pocas habilidades de lecturas, según PISA

Asia/Japón/05 Diciembre 2019/Prensa Latina

Los últimos resultados del Programa para la Evaluación Internacional de los Alumnos (PISA, por sus siglas en inglés) publicados hoy, mostraron que los estudiantes japoneses tienen altos niveles en ciencias y matemáticas, pero sus habilidades de lectura son deficientes.
El programa de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) realiza cada tres años un examen mundial de las habilidades de los estudiantes de 15 años en lectura, matemáticas y ciencias.

En esta oportunidad se encuestaron 600 mil estudiantes de 79 países y según los resultados los jóvenes chinos encabezaron las tres categorías y Singapur alcanzó el segundo lugar.

Mientras, los japoneses ocuparon el quinto lugar en ciencias, tres lugares menos que en la encuesta anterior; en matemáticas, bajaron de un nivel al sexto; pero en lectura, cayeron al lugar 15.

Históricamente, la encuesta ha tenido un impacto significativo en la política educativa de Japón, pues en 2003 cuando mostró una disminución en las habilidades de lectura, se incrementaron las horas de clase y se reactivó una prueba de aptitud escolar en todo el país.

Luego de conocer estos últimos resultados, funcionarios del Ministerio de Educación japonés dijeron que estudiarán las causas de esa disminución con el objetivo de mejorar la calidad de la educación en sus nuevas pautas de enseñanza.

En su edición 2018 las pruebas PISA se concentraron en la evaluación de las capacidades de lectura y los resultados sugieren que uno de cada cuatro estudiantes no pueden completar las tareas más básicas de lectura.

Además el porcentaje de estudiantes con baja comprensión lectora también aumentó en comparación con 2009, el último año en que PISA se enfocó en Lectura.

‘Sin la educación adecuada, los jóvenes languidecerán al margen de la sociedad, incapaces de enfrentar los desafíos del futuro mundo del trabajo, y la desigualdad continuará aumentando’, advirtió el Secretario General de la OCDE, Ángel Gurría, al presentar el informe.

Fuente: https://www.prensa-latina.cu/index.php?o=rn&id=325501&SEO=estudiantes-japoneses-con-pocas-habilidades-de-lecturas-segun-pisa
Comparte este contenido:

Pruebas PISA reflejan bajo nivel de educación en Panamá

Centroamérica/Panamá/05 diciembre 2019/Prensa Latina

Tras nueve años sin aplicarse en Panamá, las pruebas Pisa revelaron el bajo nivel de la educación en el país centroamericano, al relegarlo al puesto 71 entre los 77 evaluados a nivel mundial.
Los exámenes realizados en 2018 por el Programa para la Evaluación Internacional de Alumnos (PISA, por sus siglas en inglés) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) evaluaron los conocimientos y habilidades en matemáticas, ciencias y comprensión de los estudiantes panameños de 15 años.

Según los resultados develados este martes, el 64 por ciento no puede ‘identificar la idea principal en un texto de longitud moderada, encontrar información basada en criterios explícitos, ni reflexionar sobre el propósito y la forma de los textos cuando se les indica explícitamente que lo hagan’.

Al respecto, el estudio refleja que apenas un 34 por ciento alcanza este mínimo de comprensión, o sea, de cada 10 alumnos más de seis no entienden lo que leen, cifra que contrasta con los países miembros de la OCDE, donde el 77 por ciento está capacitado para esta función básica.

En cuanto a la evaluación en ciencias, solo el 29 por ciento es competente a la hora de sacar algunas conclusiones a partir de diferentes fuentes de datos, además de describir y explicar en parte las relaciones causales simples.

Sin embargo, el panorama más crítico está en matemáticas, en las cuales el 81 por ciento de los estudiantes no sabe responder un cálculo simple como comparar la distancia total a través de dos rutas alternativas o convertir los precios a una moneda diferente.

En tal sentido, el informe expresa que en el mundo solo el 24 por ciento no llega a este nivel, en el que los alumnos de Filipinas y República Dominicana están por debajo de Panamá.

Esta es la segunda vez que la nación centroamericana participa en ese examen, el cual evalúa hasta qué punto los educandos cercanos a concluir su educación obligatoria adquirieron los conocimientos y habilidades necesarios para participar activamente en la sociedad del saber.

De acuerdo con los resultados finales, Panamá se ubica muy por debajo de la zona media en lectura y comprensión de un texto escrito, eje principal del más reciente estudio en el que Estonia y Canadá alcanzaron las mejores calificaciones, mientras matemáticas y ciencias fueron dominadas por China.

El programa de evaluación internacional PISA se aplicó por primera vez en el año 2000 con la colaboración de 28 países miembros de la OCDE, entre ellos México.

Recientemente la novena edición anual del Índice de Dominio del Inglés de la compañía Education First, líder mundial en la enseñanza de idiomas en el extranjero, ubicó a la nación istmeña en el lugar 64 entre las 100 de la región evaluadas, lo que refleja un descenso de ocho posiciones con respecto a 2018.

Fuente: https://www.prensa-latina.cu/index.php?o=rn&id=325472&SEO=pruebas-pisa-reflejan-bajo-nivel-de-educacion-en-panama
Comparte este contenido:

Boicots, escuelas fantasmas y errores informáticos: las “anomalías” que encontró PISA en otros países del mundo

Redacción: El País

La OCDE, que ha paralizado la prueba de lectura española, detectó distorsiones en nueve Estados en las seis ediciones anteriores del informe.

Hace 15 días la Organización para la Cooperación y el Desarrollo Económico (OCDE) anunció que, ante un “comportamiento inverosímil”, no iba a publicar este próximo martes los datos de lectura en España en las pruebas de calidad educativa PISA. A las dos horas, visiblemente molesta, la ministra de Educación en funciones Isabel Celaá se defendió diciendo que el test se respondió con el Gobierno anterior y que las anomalías no eran algo exclusivo de España. “Ya le ha ocurrido a la OCDE en Estados Unidos, en Holanda… Y esto es lo que tenemos”, señaló. La lista de Celaá se quedaba muy corta, porque en un escrito la institución reconoce haber detectado “anomalías” en las pruebas de nueve países en las seis ediciones anteriores de la evaluación (2000-2015). En unos casos por problemas técnicos y en otros porque los datos reunidos no cumplían el exigente patrón de PISA. Un listado que el organismo no oculta y que, sin embargo, es desconocido. Aunque la OCDE no dice a los países cómo debe actuar tras la foto mostrada en PISA, es evidente que condiciona las políticas nacionales.

En 2000, el año del estreno de PISA, Holanda fue excluida de la encuesta porque la tasa de respuesta de los colegios fue “insuficiente para garantizar su inclusión en la base de datos”. Y ese año la muestra de Austria no representó adecuadamente a los alumnos de Formación Profesional, que alcanzan el 70% del alumnado. El fallo se corrigió en 2003 haciendo ajustes para poder hacer una comparación real de la progresión del país.

En el Reino Unido los colegios no se implicaron en las pruebas. En la primera edición se detectó que había una tasa baja de respuestas (un 3,7% por debajo del patrón), pero se certificó porque era una cifra despreciable. Pero en 2003 la OCDE no dio por buena la muestra y los resultados quedaron fuera de las comparaciones. En la siguiente ocasión, asegura el organismo internacional, los británicos fueron “más rigurosos” en el procedimiento.

En Luxemburgo decidieron cambiar las características del examen para que reflejase su verdadero sistema escolar. En 2000, una semana antes de la prueba, se entregó a los estudiantes un folleto explicativo de la mecánica del test en la lengua elegida para la prueba (francés o alemán) y la OCDE comprobó que la familiaridad del idioma fue “una barrera para una gran proporción de estudiantes”. Así que, desde entonces, se entregan guías en ambas lenguas y en los análisis no se tiene en cuenta las cifras de la primera edición.

Estados Unidos fue el protagonista de PISA 2006 por un fallo en la impresión del examen. Un cambio de paginación redirigió a los alumnos a una lectura de preguntas incorrectas y se estimó —comparando resultados con 2003— que el fallo pudo penalizar a los alumnos en seis puntos. Los resultados de comprensión lectora no se hicieron públicos, pero sí los de matemáticas y ciencias en los que la incidencia del error supuso un punto.

Los problemas en Austria no terminaron en 2000. Nueve años más tarde una disputa entre los sindicatos de educación y el ministro del ramo se saldó con una llamada a boicot el examen. Eso, sostiene la OCDE en su listado de irregularidades, creó “una atmósfera negativa que pudo afectar a la motivación de los estudiantes a la hora de responder a las preguntas”. Los resultados ahora no se usan para hacer cotejos. Un análisis posterior de la plataforma educativa holandesa CITO concluyó que solo un 2,2% de los alumnos sabotearon el test negándose a contestar, un porcentaje “despreciable” que no invalidaba los resultados.

En España “al menos” —calcula la OCDE— hay contestaciones dudosas en el 5% de los test de lectura (1.800 escolares), pero se descarta que haya una intención maliciosa. “No creemos que sea un fraude o boicot contra PISA o los tests en sí, más bien creemos que pueda ser algún error técnico desafortunado”, afirmó a EL PAÍS el día del escándalo la japonesa Miyako Ikeda, responsable del análisis de datos de PISA. Aunque horas antes, en una dura nota de prensa, la institución había negado cualquier error en su tecnología.

En PISA 2012 un “número desproporcionado” de niños de Albania coincidió en afirmar que sus padres trabajaban los mismos oficios (no se detalla cuales), algo inusual. Durante la limpieza de datos no se pudo arreglar el error y en los índices internacionales se omitió esa información de este país. No se trataba de un dato trivial, porque el contexto sociocultural en el que se cría el niño determina en gran medida su éxito académico.

Los datos de Argentina, en PISA 2015, fueron desechados en todo el país salvo en Buenos Aires. “La muestra no cubría la población objetivo, debido a la potencial omisión de escuelas del marco muestral”, argumentó la OCDE, y eso impedía comparar con los números anteriores. Lo que ocurrió es que el Gobierno de Cristina Fernández de Kirchner, en el poder cuando se celebró la prueba, quitó ciertas escuelas y sumó otras en relación con el listado presentado en 2012. El ministro de entonces, Alberto Sileoni, explicó que administrativamente se fusionaron escuelas primarias y secundarias en un nuevo sistema, pero su argumento no convenció a los promotores de la prueba. Abochornado, el ministro de Educación designado por Mauricio Macri, Esteban Bullrich, se disculpó en una rueda de prensa cuando se anunció la penalización: “Esto se parece a ese país que no tenía compromiso con las estadísticas y la verdad, y ese es el país que vinimos a cambiar”.

En 2015, última edición de PISA, no solo Argentina dio quebraderos de cabeza. Malasia seleccionó a unos colegios que representaban al 51% de sus escuelas del país cuando la OCDE obliga a que al menos sea una muestra característica del 85% de los centros. Así que los resultados del test no pueden cotejarse con los anteriores. Y se apartaron los datos de Kazajistán porque los técnicos fueron “indulgentes” en el tratamiento de los códigos de información.

El martes la OCDE presentará en rueda de prensa los resultados de PISA 2018 omitiendo los de lectura en España. Justamente la competencia analizada con más detalle en esta edición. «Es probable que tardemos varios meses en obtener una respuesta a las anomalías en España», ha adelantado el alemán Andreas Schleicher, jefe del informe PISA.

 Fuente: https://elpais.com/sociedad/2019/11/28/actualidad/1574972885_994228.html

 

Comparte este contenido:

Francisco Bautista Toledo: Pruebas Pisa y eficacia escolar. Resultados en Europa

Redacción: Diario de Almeria

Se desprende que en España y Suecia la metodología aplicada en el aula es más eficaz.

Si nos fijamos en los resultados obtenidos en las pruebas de evaluación PISA, comparándolos con otros países europeos, y opinando desde el análisis de datos, se obtienen las siguientes conclusiones: Comparando los PIB, destinados al gasto en educación, de los años 2011 y 2014, así como la evolución de la puntuación obtenida en PISA, en sus pruebas de 2012 y 2015, se observa que: Finlandia incrementa en 0,69% su PIB destinado a Educación, y retrocede bastante en las competencias matemáticas y lectoras, aumentando en la científica. Igual ocurre al Reino Unido, pero aumenta 0,021% su PIB. Alemania incrementa 0,139% su PIB en educación, y retrocede en todas las competencias. Francia permanece casi igual con su PIB, desciende 0,021%, se mantiene con los mismos valores, en competencia científica y comprensión lectora, pero disminuye en matemáticas. Suecia invierte, en porcentaje PIB, 1,19% y mejora sensiblemente en todas las competencias. Considerando que estaba por debajo de España en las pruebas PISA 2012, la supera en 2015. Ha realizado una fuerte apuesta por la educación. España invierte 0,597% menos en su PIB. Mejora en ciencias, permanece igual en lectura y disminuye algo en matemáticas.

En Suecia la inversión en educación ha dado su fruto, mejorando los datos PISA. Para Finlandia y Reino Unido, aunque han mejorado en Ciencias, han retrocedido en Lengua y Matemáticas, suponiendo un aviso, pues indica que su método ha quedado desfasado, sea por la rutina o por no adaptarse al cambio social de los tiempos. También parece que han apostado más por las ciencias. Francia apenas varía su PIB en educación, y su sistema educativo muestra cansancio, retrocede en todas las competencias. Se observa un estancamiento con tendencia a la baja. Alemania incrementa su PIB en educación 0,139%, y desciende en todas las competencias, en las Pruebas PISA 2015. Le ocurre a su Sistema educativo otro tanto igual que a Francia. En España se invierte menos en el PIB, pero se refleja en los datos que, salvo el ligero retroceso en matemáticas, no se empeora en lengua y se produce un incremento en ciencias. Se desprende que en España y Suecia la metodología aplicada en el aula es más eficaz. En España, el trabajo desarrollado en la escuela es más productivo, y muchas de las inversiones anteriores no repercutían realmente en el proceso de enseñanza-aprendizaje. Puede suponerse que un incremento del PIB, en España, y una reorientación del gasto, pueda ayudar a mejorar los resultados escolares.

Fuente: https://www.diariodealmeria.es/opinion/articulos/Pruebas-Pisa-eficacia-escolar_0_1410159036.html

Comparte este contenido:

Colombia: ¿Hasta cuándo la educación en Colombia seguirá siendo desigual?

Los resultados de las Pruebas Saber dejan ver que los estudiantes de colegios privados reciben mejor formación que los de los públicos. No tiene por qué ser así

Históricamente la educación preescolar, básica y media que se imparte en Colombia ha presentado gran cantidad de problemas, esto lo podemos observar en los resultados de las últimas pruebas PISA, que estandarizan el nivel educativo de distintos países. Entonces queda preguntarnos: ¿la culpa la tienen los estudiantes o la tiene el sistema educativo del país? Es claro que las falencias socioculturales, la falta de inversión y regular calidad de la educación en muchas regiones del país son variables importantes para tener en cuenta para que internacionalmente arrojemos esos resultados tan cuestionados. Todo esto se pone en evidencia en los últimos 20 años, donde la política educativa neoliberal que se ejecuta en Colombia ha permitido que solo unos pocos estudiantes de los estratos socioeconómicos 5 y 6 logren unos puntajes altos en dichas pruebas, mientras que un gran porcentaje de estudiantes de estratos 1 y 2 demuestran grandes falencias en su proceso de educación, dándonos una lamentable imagen como uno de los países con peor educación en Latinoamérica.

Para los gobernantes de nuestro país la educación es una estrategia política que tienen muy en cuenta durante sus campañas electorales, pero no de igual forma cuando han alcanzado las curules o puestos de liderazgo que buscaban con tanto anhelo; esto es más que evidente ante la vista de toda la sociedad, así nuestros honorables representantes no lo quieran aceptar, sacando pecho por el presupuesto que asignan cada año para el funcionamiento y publicidad de la educación. Todo esto se puede observar en el informe del año 2015 realizado por la OCDE llamado Panorama de la educación, donde se demuestra cuánto dinero invierte por año en un solo estudiante cada nación evaluada por la OCDE (36 países).

Los resultados de las pruebas realizadas por la OCDE en su Programa de Evaluación de Estudiantes (PISA), realizado a 70 países en el año 2015, dejó a Colombia en el puesto 59, mejorando 19 puestos en comparación a los resultados de las pruebas realizadas en el año 2012, donde nuestro país quedo en el puesto 62 de 65 países evaluados en ese momento. Esto nos permite analizar que hubo una mejoría en la inversión de recursos en las instituciones educativas públicas y privadas del país por parte del Ministerio de Educación Nacional, dejando claro que las políticas de Estado del expresidente Juan Manuel Santos y del presidente Iván Duque siguen siendo parecidas, en el sentido de destinar mayores recursos a las fuerzas armadas, a la construcción de carreteras 4G y en las nuevas tendencias tecnológicas que promueven la economía naranja. Mientras tanto a la educación le destinan los recursos para su sostenimiento, pero no para que esta sea el mayor propósito del desarrollo del país, donde un gran porcentaje de la población colombiana tenga acceso a educación de calidad. Esto se evidencia en las marchas estudiantiles que realizaron en estos diez meses del 2019 tanto los docentes de las instituciones educativas oficiales como los estudiantes de las instituciones educativas de educación superior, con el acompañamiento y apoyo de muchos estudiantes de las universidades privadas.

Definitivamente la desigualdad en la educación de Colombia se ve claramente reflejada en los resultados de las Pruebas Saber realizadas por el Instituto Colombiano para la Evaluación de la Educación, donde se evidencia claramente que los estudiantes de grado 11º de las instituciones educativas privadas sacan excelentes resultados en comparación a los estudiantes de las instituciones educativas oficiales. Esto explica por qué un egresado de una institución educativa oficial ubicada en un corregimiento o vereda no tiene las competencias fundamentales necesarias para competir por un cupo en una universidad ante un egresado de una institución educativa privada de estrato alto. Por ende, surge como resultado en las pruebas Pisa una educación que premia a los niños y jóvenes del estrato socio económico 5 y 6, pero deja rezagados a miles de niños y jóvenes de la zona rural y barrios de estrato socioeconómico 1 y 2, con sus sueños vistos lejos de alcanzar, quedando al amparo de los grupos al margen de la ley, para poder obtener algún tipo de ingreso económico para su subsistencia.

Fuente de la Información: https://www.las2orillas.co/hasta-cuando-seguira-siendo-desigual-la-educacion-en-colombia/

Comparte este contenido:
Page 2 of 8
1 2 3 4 8