Page 2 of 3
1 2 3

Epaña: La UAL saca un sobresaliente en la enseñanza de las Matemáticas

España/23 de mayo de 2016/ Fuente: La voz de almeira

En el ‘ránking de universidades a la medida del usuario’, Almería también sobresale en Química

La Universidad de Almería (UAL) destaca sobre 66 universidades españolas en la enseñanza y el aprendizaje en Matemáticas, donde el centro almeriense obtiene un total de seis indicadores altos, por encima de otras como la Autónoma de Barcelona o incluso la Pompeu Fabra que, en total, es la que más indicadores de alto rendimiento obtiene de todas.

Así queda recogido en el Ránking de Universidades Españolas a la medida del Usuario que se ha dado a conocer este mes de mayo y que, de la mano de la Fundación Conocimiento y Desarrollo (CyD), analiza trece áreas de conocimiento y 948 titualciones de 66 universidades con la idea de ofrecer la posición de cada universidad respecto a las demás y proporcionar información sobre los puntos fuertes y débiles de cada una.

Sistema homogéneo Para quienes han realizado este estudio, las universidades que participan (un total de 44 públicas y 22 privadas) no se distribuyen en buenas y malas, sino que ofrecen unos intereses determinados que pueden servir a unos estudiantes y no a otros.

De hecho, entienden que las diferencias encontradas entre las mejores y las peor valoradas no esta tanta por lo que apuntan que el sistema universitario español es muy homogéneo.

Los ámbitos de conocimiento valorados son Física, Empresariales, Ingeniería Mecánica, Ingeniería Eléctrica, Informática, Medicina, Psicología, Matemáticas, Química, Trabajo Social, Sociología, Historia y Biología. Trece en total.

En Matemáticas, por ejemplo, la Universidad Politécnica de Cataluña destaca con 22 indicadores de alto rendimiento, seguida de la Autónoma de Barcelona (16) y la Autónoma de Madrid (13). Sin embargo, si se atiende a la enseñanza y aprendizaje en Matemáticas, la de Almería es la que destaca sobre el resto, con seis indicadores altos.

En Química, en el ránking general, la Autónoma de Barcelona sobresale sobre el resto con 19 indicadores de alto rendimiento, seguida de la Rovira y Virgili (18) y la de Valencia (16).No obstante, en enseñanza y aprendizaje en Química, las universidades de Valencia, Burgos y Alicante destacan sobre las demás.

Investigación química En investigación en Química sobresale, sin embargo, la Universidad de Almería, destaca el citado informe que vuelve a apuntar hacia la UAL también en Sociología.

En este caso, no obstante, la puntuación no ofrece buena calificación. En Sociología sobresale, siempre según este ránking, la Autónoma de Barcelona, seguida de la Pompeu Fabra y la Carlos III de Madrid, mientras que las universidades de Zaragoza y de Almería cuentan con menos indicadores en este ámbito.

Respecto a la clasificación que se realiza de las Comunidades Autónomas, es Navarra la que, atendiendo a todas las áreas o ámbitos de conocimiento analizados (tasas de graduación y máster y estudiantes de grado y  máster) es la que mas indicadores de alto rendimiento obtiene, mientras que Islas Baleares es la que, en contraposición,tiene más indicadores de rendimiento reducido.

En investigación (fondos externos, publicaciones por profesor, producción artística, impacto de publicaciones, postdoctorados) destaca Cantabria.

La Comunidad Autónoma de Andalucía se mantiene en la mitad de la tabla en lo que a indicadores se refiere en contribución regional (prácticas en empresas de la región e ingresos regionales).

Fuente: http://www.lavozdealmeria.es/Noticias/106923/2/La-UAL-saca-un-sobresaliente-en-la-ense%C3%B1anza-de-las-Matem%C3%A1ticas

 Imagen: https://lh3.googleusercontent.com/_BguYcKi_6mbyHGMZJqRAUy328XGmIh-UT6VAJHh0Pkml0a07KYuKxG3D6Z4oQcUWr5aT2XdKWIgRMX9EIexjeNdtsApcr40H1M=w620-e365

Comparte este contenido:

Rusia: Las tres universidades con más reputación

Europa/Rusia/Mayo 2016/Fuente:Mba/Autor: Russian Beyond The Headlines

La Universidad Estatal de Moscú Lomonósov se posicionó en el lugar 30.

Tres universidades rusas fueron incluidas en el Ranking de Reputación Mundial de 2016 elaborado por The Times Higher Education (THE).

De acuerdo al estudio, la Universidad Estatal de Moscú Lomonósov  (30), Universidad Estatal de San Petersburgo (81) y el Instituto de Física y Tecnología de Moscú (91), son las tres universidades rusas catalogadas dentro de las 100 más reputadas del mundo.

En 2015 la Universidad Estatal de San Petersburgo estuvo en el grupo de las 71-80 mejores, mientras que la Universidad Estatal de Moscú Lomonósov ocupó el 25º puesto y este año baja cinco puestos.

El ránking de Reputación de THE se basa solo en las encuestas a los académicos invitados.

Hay cinco universidades chinas entraron en el ranking y 43 estadounidenses. Harvard encabeza la clasificación por sexto año consecutivo, seguida por el MIT y la Universidad de Stanford.

“Rusia tendrá que seguir trabajando duro para asegurar que puede competir con sus rivales globales como China, que también invierte mucho en la educación superior”, declara a RBTH Phil Baty, editor de The Times Higher Education.

“El ranking de este año se explica por el progreso sostenido de las universidades de Asia, con las 18 de ellas apareciendo en el top 100, frente a las 10 universidades el año pasado. En ese contexto, la Universidad Estatal de Moscú Lomonósov y la Universidad Estatal de San Petersburgo hicieron buen trabajo para limitar su caída y perder unas pocas posiciones”, explica Baty.

Fuente de la noticia: http://mba.americaeconomia.com/articulos/notas/las-tres-universidades-rusas-con-mas-reputacion

Fuente de la imagen: http://mba.americaeconomia.com/sites/mba.americaeconomia.com/files/styles/article_main_image/public/field/image/557212_424818270898013_636838359_n.jpg?itok=BHYtGB5s

Comparte este contenido:

Ministerio de Educación presentó Colombia Científica

Viernes 13 de Mayo de 2016/ Bogotá/

Colombia Científica una apuesta por la investigación y la calidad educativa superior en el país que busca incrementar el número de doctores e ingresar al menos 2 universidades al ranking de Shanghai.

Natalia Ariza, Viceministra de Educación Nacional hizo la presentación del Programa Colombia Científica en la Universidad Tecnológica de Pereira.

Ariza indicó que el programa nació como un estímulo a la investigación en el país, ya que actualmente Colombia no aparece en el ranking de Shanghai que involucra a las mejores universidades del mundo.

“Entre los problemas en ciencia y tecnología que hemos identificado están los recursos, ya que no hay los suficientes para adelantar investigaciones. También hemos visto la falta de articulación entre universidades y semilleros de investigación y la falta de visión sobre que hacer con la investigación para que de frutos en la universidad” dijo Ariza.

Colombia Científica busca crear un ecosistema científico con la creación de clusters científicos, que generen una articulación en el sector investigativo. Así como alianzas internacionales para la región, mejorar la planta de investigación a través de la vinculación de phds a las universidades además de mejorar la producción en la región.

 El programa

En los dos próximos años se espera invertir $500 mil millones en proyectos científicos. De los cuales $361 mil millones serán para ecosistemas científicos y $139 mil millones para financiar 200 becas de doctorado y 100 becas para maestría.

La financiación será a través de cuentas abandonadas. Dichos recursos serán trasladados a Icetex.

Aunque Icetex opere los recursos no serán créditos, serán becas.

Subir 2 universidades de Colombia al ranking de entre las 100 mejores en ranking Shanghai, es uno de los propósitos del ViceMinisterio de Educación.

Luis Fernando Gaviria, rector de la Universidad Tecnológica de Pereira, dijo que el programa es importante para que el país y las universidades del eje cafetero destaquen a nivel internacional.

Actualmente en Risaralda ya hay $71 mil millones comprometidos en proyectos de investigación. En total han sido seis proyectos presentados y aún hay libres $8 mil millones más para nuevos proyectos. Los proyectos del departamento le apuestan a agroindustria, desarrollo de biotecnología aplicada en salud y la construcción de un centro de desarrollo tecnológico.

Algunos proyectos

Entre los proyectos que adelanta la Universidad Tecnológica de Pereira están, algunos relacionados con la agroindustria y BPO y KPO. Algunos de ellos concertados desde la Red de Nodos. Así mismo se desarrolla un programa que permitirá verificar las pérdidas por robo de energía a las empresas que prestan el servicio.

Y se adelanta un proyecto de investigación del uso del gusano de seda para producir, medicamentos humanos y animales, que contengan agentes desinflamatorios. Juan Carlos Sepúlveda, investigador, indicó que además se extraerá un componente para la producción de cartílago y hueso.

En el proyecto se invierten $ 1300 millones y se plantea la Maestría en Biotecnología y Biología Molecular, con 30 estudiantes. En el país solo hay dos universidades que ofrecen esta maestría.

Quejas en las Universidades

LaTarde consultó a la Viceministra de Educación acerca de las principales quejas de los ciudadanos sobre las universidades. La Unad encabeza la lista con 147 quejas en 2015 seguida de la Fundación Universitaria San Martín con 121 y la CUN con 109.

Las más frecuentes son, la gestión del gobierno estudiantil, devolución de derechos pecunarios o matrícula, procesos de evaluación y otorgamiento de títulos académicos.

Ariza indicó que en el ranking no aparecen universidades del eje cafetero por tener pocas quejas al ser universidades con menos estudiantes, en comparación con la Universidad Abierta y a Distancia, donde actualmente hay más de 60 mil estudiantes.

En el ranking de Mineducación la Universidad de Cundinamarca es la que menos quejas recibió en 2015 con 47.
Fuente: http://www.latarde.com/noticias/risaralda/170005-ministerio-de-educacion-presento-colombia-cientifica

Comparte este contenido:

Argentina: Córdoba, en un ranking mundial de universidades

Argentina: Córdoba, en un ranking mundial de universidades

Argentina/12 de mayo de 2016/La Nación

CÓRDOBA.- La Universidad Nacional de Córdoba (UNC) es la única argentina que figura en el ranking Times Higher Education, que registra a 30.000 instituciones educativas en todo el mundo.
La UNC figura entre los puestos 601 y 800. Hay que aclarar que después de los primeros 25 -que son individuales- las instituciones se agrupan en escalas que pueden ir, por ejemplo, de 25 a 50.
Con 95,2 puntos, el Instituto de Tecnología de California (Caltech), una de las principales instituciones mundiales dedicadas a la ciencia, la ingeniería y la investigación, encabeza el ranking. Lo siguen las universidades de Oxford, con 94,2, y de Stanford, con 93,9. Entre las primeras 25, 16 son de los Estados Unidos.
A la hora de evaluar, se tuvieron en cuenta variables como la enseñanza, la investigación y las menciones de los estudios de la universidad en publicaciones. La trascendencia internacional y lo que recauda por la transferencia de sus conocimientos también se tuvieron en cuenta.
En el caso de la UNC, las calificaciones fueron las siguientes: 16 en enseñanza, nueve en investigación, 28,1 en trascendencia internacional, 28,6 en ingresos por transferencias y 9,6 en menciones.
El rector de la UNC, Hugo Juri, admitió a LA NACION que siempre hay polémica alrededor de los rankings y planteó que la clave es analizarlos teniendo en cuenta qué miden y para qué. En este caso, apunta a establecer dónde hay personas altamente calificadas para el mundo laboral global. «No evalúa la pertinencia de lo que se enseña respecto de las necesidades de su comunidad. Es un debate que nos debemos», indicó.
Por: Gabriela Origlia

Fuente: http://www.lanacion.com.ar/1897811-cordoba-en-un-ranking-mundial-de-universidades
http://static.cdn.cadena3.com/admin/playerswf/fotos/ARCHI_288078.jpg

Comparte este contenido:

Así se elaboran los rankings mundiales de universidades

Por: Shirabe Masashi

El Gobierno de Abe Shinzō se ha fijado, como una de las metas cuantificables que guiarán su política universitaria, situar al menos 10 universidades japonesas entre las 100 que comandan los rankings mundiales. Pero, ¿es esa una meta correcta? Un investigador que conoce a fondo los criterios utilizados en los rankings nos previene contra una excesiva fe en estas mediciones.

Los rankings penetran en las políticas de ciencia y tecnología

El periódico Nihon Keizai Shimbun publicó en su edición matinal del 2 de noviembre de 2015 un artículo impactante, que informaba de que el Gobierno de Japón había decidido introducir en la quinta etapa del Plan Básico de Ciencia y Tecnología, plan rector de la política del país en esos campos durante los próximos cinco años, metas cuantificables para medir los resultados, y que una de las mediciones concretas que se realizarían sería la posición que ocupan las universidades japonesas en los rankings mundiales.

En la propuesta presentada el 10 de diciembre, juntamente con el informe sobre el Plan Básico, por el Comité de Estudios Especializados para el Plan Básico (órgano del Consejo de Política Científica, Tecnológica e Innovación), la expresión que aparece no es “rankings mundiales de universidades” sino “comparaciones internacionales entre universidades”, pero si con esto se pretende significar lo primero, nos vemos obligados a decir que esta decisión no va a atajar el problema.

La idea de introducir en las políticas oficiales de nuestro país esos rankings como metas cuantificables cuajó por primera vez en la Estrategia de Revitalización de Japón, y ahí es donde encontramos el origen del error que se está cometiendo ahora.

A la citada estrategia vino a sumarse el objetivo ideado y hecho público en junio de 2013 por el Consejo de Competitividad Industrial de colocar, a lo largo de los próximos 10 años, 10 universidades japonesas entre las 100 que encabezan los rankings mundiales. Este es el curso que ha seguido la idea de introducir dichos rankings entre las metas de planes, programas, políticas y medidas oficiales.

Rankings que favorecen a las universidades más grandes

Actualmente, los tres rankings más ampliamente difundidos son el Ranking Académico Mundial (ARWU) que comenzó a publicar la Universidad de Shanghai Jiao Tong en 2003, los World University Rankings (Rankings THE) de la revista Times Higher Education, desde 2004, y los QS World University Rankings la compañía QS, desde 2010(*1).

Sin embargo, personalmente, creo que el primero de ellos el ARWU no debe ser tenido en cuenta. Tengo varias razones, pero creo que lo que más estropea este ranking es el hecho de que el 90 % de los factores que conforman la puntuación están definidos de forma que, supuesta la igualdad en el resto de los factores, resultan proporcionales al tamaño de la universidad.

El ranking está hecho de una forma tan extraña que si, por ejemplo, fundiéramos las siete instituciones japonesas que antiguamente formaban la Universidad Imperial (Teikoku Daigaku), obtendríamos quizás la universidad número 1 del mundo. Los otros rankings citados, el THE y el QS, si bien en menor medida que el ARWU, cojean del mismo pie, pues el principal elemento que se tiene en cuenta en las puntuaciones, la reputación, depende(*2) igualmente del tamaño de la universidad.

Los rankings THE y QS se elaboran siguiendo un método similar y sus resultados tienden a parecerse mutuamente, aunque tampoco son totalmente iguales, como se ha visto este año en el hecho de que, mientras que el THE incluía solo dos universidades japonesas entre las 100 mejores del mundo, el QS daba el pase a cinco. También se dan en estos rankings algunos fenómenos difíciles de explicar, como que la institución en la que trabajo, el Instituto Tecnológico de Tokio, haya logrado encaramarse este año hasta el puesto 56 en el QS, mientras que en el THE ha sufrido una fuerte caída hasta quedar relegada al bloque 201-250.

Por muy similares que puedan ser los métodos de cálculo, se trata de rankings elaborados desde perspectivas diferentes y, por tanto, es lógico que los resultados no sean los mismos. Es, precisamente, esa variación que puede ocurrir en función del punto de vista adoptado lo que caracteriza a estos rankings y a cualquier otra forma de valoración. Pero, aun conviniendo lo anterior, sigue habiendo en ellos algo que no convence del todo.

La errónea idea de que el desconocimiento perjudica a los centros japoneses en los rankings

La Tabla 1 muestra los indicadores que son objeto de valoración y el peso relativo o porcentaje que se concede a cada indicador en el cómputo general en los rankings THE y QS. Como se ve, en un ranking hay más indicadores que en el otro, pero ambos coinciden en otorgar el mayor peso relativo a la encuesta en la que se pregunta por la reputación de las universidades. Los siguientes indicadores que más influyen sobre la valoración final son los que incluyen la frecuencia de cita(*3), es decir, el número de veces que son citados los trabajos académicos (tesis, etcétera) producidos por esas universidades. A partir de lo anterior se suele señalar que podría ocurrir que el bajo nivel de conocimiento de las universidades japonesas estuviera condicionando muy negativamente su valoración.

Tabla 1 Criterios utilizados en los rankings y sus pesos relativos

THE
Categoría Indicador Peso relativo
Docencia Encuesta sobre reputación 15 %
Razón docentes/alumnos 4,5 %
Razón doctorados/graduados 2,25 %
Razón doctorados/personal docente 6 %
Ingresos institucionales 2,25 %
Investigación Encuesta de reputación 18 %
Ingresos por investigaciones 6 %
Razón trabajos presentados/investigador 6 %
Número de citas Citas por trabajo 30 %
Internacionalidad Razón alumnos extranjeros/nacionales 2,5 %
Razón docentes extranjeros/nacionales 2,5 %
Proporción de trabajos en colaboración internacional 2,5 %
Ingresos recibidos de las empresas Razón ingresos industriales/personal docente 2,5 %
QS
Indicador Peso relativo
Reputación académica 40 %
Reputación entre las empresas 10 %
Razón alumnos/docentes 20 %
Razón citas/docente 20 %
Proporción de alumnos extranjeros 5 %
Proporción de docentes extranjeros 5 %

THE, paralelamente, hace público cada primavera una serie de rankings que tienen en cuenta solo la reputación. Sus resultados nos revelan que, al menos en lo que se refiere a la Universidad de Tokio y a la de Kioto, es falsa la idea de que se están viendo perjudicadas. El siguiente gráfico muestra, en el eje de abscisas (horizontal) los resultados obtenidos en la encuesta de reputación y en el de ordenadas (vertical) la puntuación total obtenida por las 50 universidades que ocupan las primeras posiciones en el ranking THE de 2014. La curva muestra la regresión logarítmica. Las universidades que aparecen situadas en la parte interior de la curva son aquellas cuya reputación fue valorada, proporcionalmente, por encima de la puntuación total que obtuvieron. Las que están en el caso contrario (peor reputación en proporción a la puntuación total) quedan en la parte exterior de la curva. Se ve claramente que las dos universidades citadas, marcadas en color amarillo, lejos de resultar perjudicadas por la encuesta de reputación, se han beneficiado de ella.

Cambio de criterios produce fuerte bajada de las universidades japonesas

Los resultados de los rankings elaborados por THE y QS para 2015 trajeron grandes variaciones para las universidades japonesas, especialmente el primero de ellos. En el THE, la Universidad de Tokio bajó del puesto 23 al 43, la de Kioto del 59 al 88 y el Instituto Tecnológico de Tokio cayó del puesto 141 a la banda comprendida entre el puesto 201 y el 250. La Universidad de Osaka, que estaba en el 157, cayó a la banda 251-300 y la Universidad de Tohoku (165) a la 201-250. La debacle afectó, pues, a todas las universidad japonesas. En el ranking QS, si exceptuamos el Instituto Tecnológico de Tokio y la Universidad de Waseda, que ascendieron, el resto perdió muchas posiciones. Esta variación refleja un cambio en el método de calcular el número de veces que fueron citados los trabajos académicos producidos por cada universidad, que es el segundo indicador más valorado, después de la reputación.

Hasta ahora, en el ranking QS no se tenían en cuenta las grandes diferencias en el número de citas recibidas existentes entre un campo de investigación y otro. 2015 fue el primer año en que se tuvo en cuenta este hecho, procediéndose a hacer una rectificación (compensación numérica). A consecuencia del cambio, descendió el influjo relativo de campos como las ciencias de la vida o la medicina, ascendiendo el de otros campos como la ingeniería. Todo ello quedó reflejado en los resultados finales.

Por su parte, el ranking THE, en el apartado del número de citas, venía haciendo una rectificación numérica por país(*4) que tenía en cuenta el influjo de su lengua, cultura, etcétera. En esa misma edición de 2015 se moderó, hasta reducirla a la mitad, la magnitud de la rectificación que se venía haciendo. Fruto de este cambio, las puntuaciones en el apartado de “citas recibidas” de las universidades japonesas, que se sitúan por debajo de la media mundial, experimentaron, sin excepción, un fuerte bajón. En el ranking THE se introdujeron otros muchos cambios además del que afecta al número de citas recibidas y resulta difícil hacerse una idea precisa de cómo afectan al resultado cada uno de esos cambios.

Se comprenderá, en vista de todos estos hechos que vengo exponiendo, que estos rankingsmundiales que varían de tal forma en virtud de los planteamientos de quienes los elaboran no deberían causarnos una impresión demasiado honda ni para bien ni para mal, no deberían influir nuestras actuaciones, y menos aún deberían llevarnos a convertir la posición que nuestras universidades ocupan en ellos en objetivos cuantificables de nuestras políticas. Dicho lo cual, quisiera llamar la atención sobre la penosa situación en la que se encuentra la universidad japonesa, una realidad subyacente en todos estos rankings.

Las universidades asiáticas van a dar alcance a las japonesas

Impulsado por la lectura de cierto artículo periodístico, quien suscribe estas líneas recogió, el pasado otoño, una serie de datos de la base de datos bibliográficos Scopus. Los resultados los muestro en la Tabla 2 , que expone(5) el número de trabajos académicos que fueron citados más de 1.000 veces por universidades(6).

Tabla 2 Número de trabajos citados más de 1.000 veces

Publicados entre 2000 y 2014 Publicados entre 2008 y 2014
Universidad de Tokio 74 19
Universidad de Kioto 47 9
Universidad de Pekín (China) 14 8
Universidad Nacional de Singapur 31 16

Vemos que durante el largo periodo que va desde el año 2000 hasta prácticamente el momento presente (2014) la posición ocupada en el contexto de Asia por las dos universidades japonesa es muy destacada. Sin embargo, la medición para el periodo 2008-2014 nos indica que las principales universidades asiáticas, que últimamente están recibiendo un fuerte apoyo estatal, podrían estar próximas a dar alcance a las japonesas. Otros muchos datos apuntan a esa misma posibilidad. Sería deseable que las universidades japonesas obtuviesen un apoyo oficial similar.

Los rankings mundiales de universidad presentan numerosos problemas en sí mismos, pero muchos indicativos y otros datos relacionados que se ocultan tras ellos podrían estar señalándonos hechos que merece la pena analizar seriamente.

Fotografía del titular
El Auditorio Yasuda de la Universidad de Tokio (izquierda) y el Pabellón Memorial de la Torre del Reloj, de la Universidad de Kioto (derecha).

(*1) ^ Hasta 2009, la compañía QS colaboraba en la elaboración del Ranking THE, pero la colaboración terminó ese año y desde 2010 elabora sus propios rankings.

(*2) ^ De hecho, si el Instituto de Tecnología de California, número 1 en el ranking THE en 2015 y 2016 no obtuvo un buen puesto en el ranking específico de reputación fue, probablemente, por su pequeño tamaño.

(*3) ^ La forma de entender la estandarización del número de citas difiere entre THE y QS y esta es la causa de las grandes diferencias en los puestos que ocupan las universidades japonesas en uno y otro ranking.

(*4) ^ No se ha explicado suficientemente en qué consiste esta rectificación por país, lo cual supone un problema.

(*5) ^ El método que se sigue habitualmente no considera las citas en número absolutos sino en porcentajes, pero los trabajos citadas más de 1.000 veces merecen una consideración especial. Además, en tanto sea alto ese número, cabe pensar que la investigación realizada en ese trabajo es líder en su campo. No obstante, debido a la gran cantidad de factores que intervienen, la medición no deja de ser un indicativo aproximado.

(*6) ^ Debe tenerse en cuenta que, al haberse hecho las búsquedas por observación ocular de los nombres de las universidades, cualquier error o deficiencia en la anotación ha podido afectar al cómputo.

*Articulo tomado de: http://www.nippon.com/es/in-depth/a05102/#auth_profile_0

 

Comparte este contenido:

España: Ranking de universidades que usan Software Libre

UniversiaEspaña/28 de abril de 2016

Las universidades más innovadoras del sistema universitario español son calificadas en este ranking

Anualmente, el Ranking de Universidades de Software Libre creado por el Observatorio Tecnológico de PortalProgramas.com  mide el uso y la difusión de esta herramienta por parte de las universidades hispanoamericanas y españolas. Conocido como el RuSL, abarcó en esta edición los datos de 76 universidades españolas y 144 latinoamericanas, generando así este reporte.

El Software Libre se manifiesta como una forma democrática de acceder a los recursos informáticos que todos los estudiantes necesitan para cursar sus estudios, especialmente en el caso de los universitarios. Brindando opciones de calidad y sin restricciones en cuanto al uso de las aplicaciones, permite acceder a múltiples recursos que generalmente no implican ningún tipo de costo.

Las universidades españolas más comprometidas con el Software Libre en 2016 - Infografía

Las iniciativas realizadas por las universidades para utilizar o promover el uso del SL entre sus estudiantes, son calificadas y puntuadas de acuerdo al Índice de Difusión del Software Libre (IDSL). En esta última edición, sorprende que la tetracampeona Universidad de Granada se vio desplazada del primer lugar por la Universidad Miguel Hernández (UMH) que se califica como la institución más comprometida con el Software Libre.

Los primeros 5 puestos del ranking se completan con la Universidad de La Laguna, laUniversidad de Sevilla y la Universidade da Coruña; y la menos comprometida con la causa es laUniversidad Antonio de Nebrija. Otro dato interesante que resalta entre los resultados, es el quedestaca a las tres universidades gallegas en una mejoría constante, que demuestra cierto compromiso de la comunidad misma más allá de sus principales instituciones.

Fuente: http://noticias.universia.es/educacion/noticia/2016/04/28/1138733/ranking-universidades-usan-software-libre.html

Comparte este contenido:

Europa: Educación deja abierta la puerta a que se publiquen «rankings» de colegios

Méndez de Vigo promete que no habrá clasificaciones pero la LOMCE las permite y su normativa no blinda evitarlas. Castilla y León, también del PP, sí lo explicita por escrito

Falta menos de un mes para que los alumnos de 6º de Primaria (11 y 12 años) se enfrenten a un examen externo que hasta ahora no hacían: la evaluación de final de etapa incluida en la Ley Orgánica para la mejora de la Calidad Educativa (LOMCE). Esta prueba, que ha provocado un profundo desencuentroentre el ministerio y algunas comunidades que amenazan con no ponerla en marcha, es polémica principalmente por un aspecto: la posibilidad de que se establezcan rankings de colegios con los resultados de los estudiantes.

El ministro de Educación en funciones, Íñigo Méndez de Vigo, ha declarado públicamente en Televisión Española y en laCadena Ser que se compromete a evitar las clasificaciones y «a que no se hagan públicos los resultados de las evaluaciones, si ése es el problema». Pero lo cierto es que no hay sustento legal tras sus declaraciones.

SIETE COMUNIDADES RECHAZAN HACER LA PRUEBA

La reunión técnica que celebró este miércoles el Ministerio de Educación para aclarar, entre otros puntos, aspectos de la prueba de sexto y de otros apartados de la LOMCE debió ser una de las más solitarias de la historia. Los representantes de 11 comunidades faltaron a la cita. De todas ellas, hay siete que a día de hoy rechazan hacer la evaluación externa prevista en el mes de mayo. Son Cantabria, Extremadura, Castilla La Mancha, Canarias, Cataluña, País Vasco y Navarra. Juntas suman 158.842 alumnos, más de un tercio de los 460.025 estudiantes convocados para el examen. Cataluña o Navarra dicen que harán una prueba propia. País Vasco señala que aprobó los currículos en enero y no ha tenido tiempo de elaborarla. Cantabria hará un examen muestral, no censal como obliga la ley. Andalucía, la que tiene más alumnos, no está en este grupo. Su consejera de Educación, Adelaida de la Calle, ha declarado que le encantaría saltarse la prueba pero que «la insumisión no va con Andalucía». Extremadura la ha frenado “de momento” a la espera de que el ministerio convoque una conferencia sectorial, la reunión a la que acuden los representantes políticos. El ministerio señala que la convocará “en los próximos días”.

La LOMCE eliminó una referencia contra los rankings de la ley anterior, la Ley Orgánica de Educación que elaboró el PSOE. El artículo 144.3 de la LOE recogía sobre las evaluaciones externas. “En ningún caso, los resultados de estas evaluaciones podrán ser utilizados para el establecimiento de clasificaciones en los centros”. Esa referencia ya no existe.

Educación tampoco ha hecho una manifestación explícita para Ceuta y Melilla, los dos únicos territorios que dependen directamente del ministerio para las pruebas. En la orden que les ha enviado a ambas ciudades autónomas en la que regula la realización de esa evaluación (a la que ha tenido acceso este periódico y que aún es un borrador pendiente de su publicación en el Boletín Oficial del Estado) no figura ninguna referencia expresa a este particular. Un portavoz del ministerio señala que la orden solo regula cómo debe aplicarse esa orden.

Sin embargo, sí existe ese enunciado explícito, por ejemplo, en una de las comunidades autónomas que gobierna el PP y que celebrará esta prueba en mayo. La orden que ha enviado Castilla y León a sus centros para la organización del examen, señala: “Los resultados de las evaluaciones individualizadas no serán objeto de publicidad a los efectos de establecer una clasificación de centros”.

El consejero de Castilla y León, Fernando Rey, también ha hecho declaraciones públicas contra las clasificaciones. “No haremos ránkings de colegios porque ese no es el objetivo. Lo principal es conocer en qué debemos mejorar”, señaló el pasado 22 de marzo en su parlamento regional. Una portavoz de su departamento señala que incluyen ese aviso en su normativa para dejarlo claro a la comunidad educativa y fijar el compromiso con los centros y públicamente.

«Las palabras duran lo que dura un ministro»

El portavoz del ministerio señala además que el ministro se ha comprometido públicamente a que no se hagan ránkings y que no tiene por qué ir regulado en la orden que han enviado a Ceuta y Melilla. “Las palabras de un ministro duran lo que dura ese ministro”, considera Carlos Utrera, representante de la federación de inspectores de educación ADIDE. “Lo que aparece en una orden es de obligado cumplimiento, es lo que da el principio de seguridad jurídica”, añade el inspector, que señala que tener una normativa clara “es lo que permitiría acudir a los tribunales en caso de que se incumpla”.

El antecesor de Méndez de Vigo, José Ignacio Wert, fue quien propuso ya antes de la aprobación de la LOMCE que se hicieran públicos los resultados de los colegios en las pruebas finales de evaluación para que las familias pudieran consultarlos.

La propuesta de Wert fue rechazada por las comunidades gobernadas por el PSOE, las mismas que ahora reprueban el examen de 6º de Primaria y que, tras las elecciones regionales de 2015, son mayoría. Tres de las ocho comunidades gobernadas por los socialistas -Cantabria, Extremadura y Castilla la Mancha- han señalado que no harán el examen. Este miércoles han plantado al ministerio en una reunión técnica para preparar esas pruebas. También han dicho que no realizarán la prueba Canarias, Cataluña, País Vasco y Navarra. El ministro Méndez de Vigo les ha recordado que tienen que hacerla porque “está en la ley”. La misma ley que no incluye que esas pruebas no acaben como una clasificación de centros.

Fuente: http://politica.elpais.com/politica/2016/04/21/actualidad/1461257484_837229.html

Comparte este contenido:
Page 2 of 3
1 2 3