Redacción: El Confidencial
En el verano de 2017, el país oriental dio luz verde a un nuevo proyecto de inteligencia artificial. Ahora sabemos cómo está influyendo en las aulas de los colegios e institutos
Hace dos años, la Comunidad de Madrid implantó el programa Talis Video de la OCDE, que registraba las clases de matemáticas de segundo de la ESO para analizar las experiencias de los profesores y comparar sus prácticas. La grabación en vídeo, aun voluntaria, levantó ampollas. Algo que también ocurrió cuando José Antonio Marina sugirió la posibilidad de grabar las clases como forma de mejora. Una herramienta cada vez más extendida que, probablemente, generará muchos desencuentros durante los próximos años, a medida que se popularice.
Muchos de los que mostraron sus reservas ante la propuesta –y, muy probablemente, aquellos que la defendían– se quedarán boquiabiertos ante la implantación del programa NGAIDP (siglas en inglés de “Plan de Desarrollo de una Nueva Generación de Inteligencia Artificial”) en las aulas chinas, que promete marcar un antes y un después en la relación entre docentes y estudiantes. Básicamente, porque bajo la alambicada retórica utilizada en el informe presentación, publicado en julio de 2017 (“el uso de tecnología inteligente para acelerar la promoción de modelos de formación personal y reformas de métodos educativos”) se oculta lo que, a simple vista, parece un sencillo programa de espionaje y valoración del estudiante afín al polémico programa de crédito social
Algunos colegios han ocultado la implantación del programa a padres y alumnos para evitar que se manifestasen en contra de él.
La información que teníamos hace tan solo un año era limitada. Sabíamos que el sistema de “gestión del comportamiento de la clase inteligente” (CCS) escaneaba la clase cada 30 segundos para registrar el comportamiento de los estudiantes, incluidas sus expresiones faciales. La actitud del alumno era clasificada en seis conductas diferentes: leyendo, escribiendo, alzando la mano, de pie, escuchando al profesor o reclinándose sobre la mesa. El teórico objetivo era ayudar a los profesores y padres a conocer el comportamiento de sus hijos y alumnos, y poder intervenir cuanto antes.
La razón aducida por el centro para mantener en secreto el proyecto piloto hasta que los padres y los profesores estuviesen “listos” era la posibilidad de que sus reservas pudiesen provocar el final del experimento. Actualmente, hay siete centros en toda China que engloban a 28.000 estudiantes como parte de este proyecto piloto. No en todos ellos se ha ocultado la implantación del sistema, y el reportaje de Yujie cita un instituto de la provincia de Zheijang donde los estudiantes saben que le están grabando y por qué. En este caso, las quejas vienen motivadas por el intrusismo del sistema: uno de los estudiantes recuerda que la cámara es capaz de recoger con detallesincluso lo que escriben en el cuaderno.
Te observan
La ejecución ha sido un poco diferente a la teoría. El sistema de “cuidado de la clase”, como se conoce, utiliza la tecnología de una empresa llamada Hanwang Technology, una de las startups boyantes de China. Una cámara del tamaño de una mandarina se coloca encima de la pizarra, y toma una fotografía por segundo de la clase entera. La instantánea es enviada a un servidor que se encuentra localizado en el mismo centro. Allí, la inteligencia artificial de Eigenface reconoce los rostros de los alumnos y lo clasifica en cinco categorías. La información es encriptada y clasificada en el servidor, y los algoritmos recogen la información pasada y presente del estudiante para crear una puntuación semanal de 1 al 100. Dependiendo del centro, esta está disponible para alumnos, padres o profesores.
Uno de los alumnos se pregunta si el hecho de bostezar más de la cuenta puede truncar las posibilidades de acudir a la universidad que desea
La información es presentada con un profundo nivel de detalle. Por ejemplo, desgrana hasta con dos decimales cuánto tiempo pasa un estudiante concentrado o vagueando. Pongamos, por ejemplo, un 8,02%. O un 97,34%. Como ocurre en la clasificación de la liga, estas cifras aparecen junto a gráficos de curvas (que muestran la mejora o el empeoramiento del rendimiento individual), flechas verdes hacia arriba (¡bien!) o rojas hacia abajo (uy, uy, uy, cuidado). También, el número de preguntas respondidas al profesor o la participación en clase. No solo eso, sino que como si un VAR educativo se tratase, la información almacenada puede consultarse a posteriori para ver qué estaba haciendo determinado alumno a determinada hora.
La meta final es, en teoría, disponer de más información para mejorar el rendimiento de los estudiantes. Sin embargo, como recuerdan sus detractores, llama la atención que las clasificaciones empleadas sean tan “disciplinarias”. Es decir, no se fija tanto en los resultados finales del alumno como en su comportamiento durante la clase, analizando su gestualidad corporal y facial para identificar si está prestando o no atención. Es muy revelador el miedo que muestra uno de los alumnos entrevistados, al preguntarse si el hecho de bostezar en clase más de la cuenta puede truncar sus posibilidades de acudir a la universidad que él desea.
Para entender el alcance de estos sistemas de vigilancia (y castigo, si se quiere citar a Foucault) conviene recordar la dura competitividad del sistema educativo chino. Dado que la mayor parte de la población proviene del entorno rural, obtener una buena puntuación en el ‘gaokao’, el “examen más difícil del mundo” por su dureza que equivale a la Selectividad española, puede determinar el futuro de una familia. Casi 10 millones de estudiantes se presentan cada año, y menos del 40% conseguirán llegar a la universidad. De ahí que esta herramienta se convierta también en una forma de vigilancia adicional para los niños más estresados del planeta; cada año, decenas de ellos se suicidan antes de dichas pruebas.
En China… ¿y en Occidente?
Aún estamos lejos de que un sistema así se implante en Occidente. Para empezar, por las previsibles resistencias que despiertan no solo entre profesores que no desean que su trabajo sea registrado, sino también por alumnos y padres con una conciencia más desarrollada de la privacidad, muy distinta a una China que ha vivido décadas bajo un régimen comunista. Lo cual, no obstante, no quiere decir que no haya empresas desarrollando propuestas similares, si bien la mayor parte de innovación en tecnología artificial se centra en la creación de contenidos o la automatización de tareas sencillas. Por ejemplo, como también ocurre en 60.000 colegios de China, a la hora de corregir automáticamente los ensayos escritos por los alumnos.
En Princeton se han realizado escáneres cerebrales de los estudiantes mientras aprenden para comprender cómo funciona su cerebro
Un artículo publicado por la consultora McKinsey el pasado año sobre el rol de la educación en la Inteligencia Artificial señalaba otra posible dirección. En él, la directora de ciencias computacionales de la Universidad de Princeton, Jennifer Rexford, explicaba uno de los proyectos en desarrollo en el centro. Se trataba de escáneres cerebrales de los estudiantes mientras veían vídeos, con el objetivo de entender cómo se refleja el aprendizaje en el cerebro. Una vez se tengan los datos, se aplicará ‘machine learning’ a los datos recogidos. Ya no solo nos observan sino que se meten en nuestro cerebro, dirán los detractores.
Sin embargo, el motivo más común para implantar nuevas formas de vigilancia es raramente académico, y tiene más que ver con la seguridad. Algo especialmente común en Estados Unidos, donde los tiroteos en colegios e institutos son tristemente frecuentes, y donde los arcos de detección de metales han pasado a forma parte del paisaje escolar. El pasado año, el permiso concedido a la policía de Los Ángeles para acceder a las 2.500 nuevas cámaras de seguridad presentes en UCLA provocó la protesta de los estudiantes, que lo vieron como la implantación de un estado policial a costa de su privacidad.
Fuente: https://www.elconfidencial.com/alma-corazon-vida/2019-04-02/china-educacion-global_1916478/