La Unesco saca adelante la ‘declaración universal’ de la inteligencia artificial

El texto propone un marco normativo para tecnologías controvertidas como el reconocimiento facial o para los sistemas de recomendación de las plataformas

Los Estados miembro de la Unesco cuentan desde ahora una guía para “afrontar de manera responsable los efectos conocidos y desconocidos de la inteligencia artificial en los seres humanos, las sociedades y el medio ambiente y los ecosistemas”. Ese es el objetivo de la Recomendación sobre la Ética de la Inteligencia Artificial, una suerte de declaración universal para el uso de estos sistemas que durante la conferencia general celebrada este miércoles fue adoptada por los 193 países del organismo. La guía contempla los principios que deben inspirar el desarrollo de tecnologías tan controvertidas como el reconocimiento facial y aborda también temas menos polémicos, como el potencial efecto de los sistemas de recomendación sobre la diversidad cultural o lingüística. “Este texto establece por primera vez un marco normativo mundial para el uso de la inteligencia artificial. Se basa para ello en tres pilares: el respeto de los derechos humanos, el Estado de Derecho y la lucha contra la discriminación”, explica a EL PAÍS Audrey Azoulay, directora general de la Unesco.

El documento de 30 páginas que Azoulay describe como un “texto histórico” no es legalmente vinculante, pero desde la Unesco esperan que se convierta en una referencia global para el desarrollo y uso ético de esta tecnología. En este contexto conviven ya numerosos marcos y guías desarrollados por organizaciones de diferentes niveles, desde la iniciativa de entidades como la OCDE hasta propuestas como la carta de derechos digitales adoptada por el gobierno español el pasado 14 de julio. “La Unesco pide a sus 193 Estados miembros que tomen todas las medidas necesarias para aplicar este marco ético. La Organización evaluará periódicamente su aplicación, pidiendo a los Estados que informen sobre sus progresos y prácticas en este ámbito. Estos resultados serán analizados por expertos y sometidos a debate público de forma transparente”, precisa Azoulay.

En la redacción del documento, que se inició a principios de 2020 han participado grupos de expertos formados por representantes de Google, Facebook, Microsoft, las Universidades de Stanford y Nueva York, la Academia China de Ciencia y Tecnología. En septiembre del año pasado, se presentó un primer borrador y se abrió el plazo para que los países de la Unesco presentasen sus comentarios y observaciones sobre el texto, que ha seguido revisándose hasta la última conferencia general.

Entre las claves de la recién adoptada recomendación se encuentra la acotación de principios básicos que atañen al desarrollo de algunas de las tecnologías más cuestionadas del momento, como los sistemas de reconocimiento facial. De acuerdo con el documento adoptado por la Unesco, que cuenta con países como China entre sus integrantes, estos sistemas “no deberían ser utilizados con fines de vigilancia masiva o rendición de cuentas sociales”. En el caso de las armas autónomas, la subdirectora general de Ciencias Sociales y Humanas de la Unesco, Gabriela Ramos, explica en un comunicado que, aunque no se hace referencia explícita a los drones de uso militar ni al armamento autónomo letal, la recomendación establece normas básicas como el que “las decisiones de vida o muerte no deben ser tomadas por sistemas de inteligencia artificial” y se especifica que en estos escenarios “la última palabra debe ser humana”.

La recomendación también aborda escenarios menos extremos pero igualmente relevantes, como el potencial efecto de los sistemas de recomendación que emplean las plataformas de streaming como Netflix o Spotify en la diversidad cultural y lingüística. Un reciente informe de la Unión Europea señalaba que los criterios que emplean estos modelos para ofrecer nuevos contenidos “no son transparentes ni auditables” y probablemente basan sus decisiones en factores económicos que benefician a las plataformas. “Los artistas locales o los contenidos creativos y culturales infrarrepresentados son menos proclives a aparecer en las recomendaciones de estos sistemas si sus trabajos o espectáculos son insuficientemente lucrativos”, señala el informe. En este contexto, la recién estrenada guía hace un llamamiento a los países para que trabajen mejor comprensión y evaluación tanto de los efectos positivos como de los potencialmente perjudiciales de los sistemas de recomendación.

Las relaciones humano-robot

Con vistas a un hipotético pero cada vez más plausible futuro donde las personas interactuemos con robots y sistemas de inteligencia artificial capaces de reconocer y reproducir las emociones humanas, el documento requiere que se evalúen las implicaciones éticas de estas relaciones, especialmente cuando se establecen con menores. “La constante interacción con tecnología de inteligencia artificial, incluyendo los algoritmos sociales, podrían someter a niños y adultos a manipulaciones y consecuencias negativas para su salud mental”, continúa Ramos. Por otra parte, se subraya la necesidad de que los individuos estén en todo momento informados de si están tratando con uno de estos sistemas o son objeto de decisiones tomadas por ellos. Se pide también que se establezcan mecanismos para acceder a las razones que guían una decisión que afecta a los derechos o libertades de los usuarios, así como vías para impugnarla o solicitar una reevaluación.

Otras materias incluidas en el marco de esta recomendación son la protección de la privacidad, la prevención de los sesgos que puedan perjudicar al rendimiento de estos sistemas, la promoción de un entorno más inclusivo en el sector responsable de desarrollar estas tecnologías o incluso la reducción del impacto ambiental de estos sistemas. De acuerdo con un estudio publicado en la revista Nature, entrenar un algoritmo de inteligencia artificial puede producir cerca de 300.000 kilos de dióxido de carbono, lo que equivale a 125 vuelos de ida y vuelta entre Nueva York y Pekín.

Además, el documento que acaba de adoptar la Unesco exige que los gobiernos eduquen a sus ciudadanos en los derechos digitales que pretende proteger. “Si educamos a una nueva generación de consumidores digitales conscientes de sus derechos y con las habilidades de pensamiento crítico necesarias para navegar la esfera digital, estaremos empoderándoles para que exijan a las grandes tecnológicas a rendir cuentas y estaremos exigiendo que la IA sea desarrollada de forma humana y ética”, sentencia Ramos.

Fuente: https://elpais.com/tecnologia/2021-11-25/la-unesco-saca-adelante-la-declaracion-universal-de-la-inteligencia-artificial.html

Comparte este contenido:

Mundo: Crean novedoso software que detecta emociones de alumnos en clases virtuales

El software sería capaz de leer las expresiones faciales de los estudiantes para determinar su estado de ánimo.

A raíz de la pandemia, la virtualidad se ha tomado muchos aspectos de la vida cotidiana. La educación no es la excepción. Las dinámicas que tradicionalmente se desarrollaban en un aula de clases, o en el colegio, se han ido perdiendo y hoy es más difícil para los profesores saber cómo los alumnos reciben su metodología o si están comprendiendo los temas de clase, entre otras cosas.

Desde hace mucho tiempo el lenguaje corporal de una persona se ha vuelto fundamental en el día a día, y este incluso comunica mucho más que las palabras. Con el objetivo de responder a este limitante, la empresa Fine Solutions desarrolló un software de inteligencia artificial que es capaz de analizar las expresiones faciales de los alumnos y así registrar sus emociones.

A través de la posición de sus ojos, cejas y boca la nueva tecnología detecta emociones como felicidad, enojo, tristeza, miedo, disgusto e incluso sorpresa, con un rango de efectividad del 85 %. La empresa tecnológica es una de las muchas que hacen parte de la industria de reconocimiento facial y detección de emociones.

Este sector de innovación y tecnología ha estado en constante crecimiento y desde la pandemia ha logrado incrementar su productividad significativamente, se estima que para 2014 el sector moverá al menos 56 mil millones de dólares en todo el mundo.

A través de la posición de sus ojos, cejas y boca la nueva tecnología detecta emociones como felicidad, enojo, tristeza, miedo, disgusto e incluso sorpresa, con un rango de efectividad del 85 %. La empresa tecnológica es una de las muchas que hacen parte de la industria de reconocimiento facial y detección de emociones.

¿Qué es el reconocimiento facial y cómo funciona?

El reconocimiento facial es un de la tecnología que además de emocionante puede resultar problemático. Es una forma de autenticación biométrica que utiliza medidas corporales para verificar tu identidad. Funciona gracias a un subconjunto de datos biométricos que identifica a las personas mediante la medición de la forma y estructura únicas de sus rostros.

El reconocimiento facial ha sido una las mayores revoluciones tecnológicas e importantes de la década, se puede considerar un adelanto tecnológico problemático porque ha generado debates sobre la protección de datos y la legislación que debería existir al respecto.

Uno de los primeros países en utilizar esta novedosa tecnología fue China, que la han usado a modo de salvaguarda de la seguridad en las calles, allí existen más de 300 millones de cámaras de seguridad, motivo que les permite reconocer en pocos segundos a una persona entre la multitud.

Otros países que se utiliza

En estados Unidos, hace más de dos años se realizó una prueba piloto de una tecnología similar, sin embargo, su eficacia fue casi que nula. No obstante, Estados Unidos sigue adelante con la implementación del sistema, inclusive, el propio FBI lleva un registro de criminales en 16 estados gracias a que las bases de datos tienen el registro facial de la mitad de la población adulta.

Por su parte las autoridades de Londres y Gales lo han implementado como conejillo de Indias logrando varios arrestos. No obstante, su uso generó varias protestas pues la población sentía que estaban violando su privacidad.

Otros países como Emiratos Árabes, India, Malasya y singapur, usan estos mecanismos con frecuencia, puesto que su sistema de vigilancia está basado en el reconocimiento facial. En la pequeña y millonaria ciudad estado, que incorporó tecnología china y japonesa, tienen incluso un avance aún más futurista: reciben ayuda de un robot autónomo. Se trata del Multi-purpose All-Terrain Autonomous Robot.

Fuente: https://www.semana.com/tecnologia/articulo/crean-novedoso-software-que-detecta-emociones-de-alumnos-en-clases-virtuales/202140/

Comparte este contenido:

La represión en China amenaza la celebración de las Olimpiadas de Invierno en Pekín

La organización Human Rights Watch (HRW) ha enviado este lunes una misiva al presidente del Comité Olímpico Internacional (COI), Thomas Bach, en la que le ha advertido de que «el aumento de la represión del Gobierno chino desde Xinjiang hasta Hong Kong» amenaza su capacidad para acoger los Juegos Olímpicos de Invierno en febrero de 2022, según informa Europa Press.

El clima de Derechos Humanos en el país supone un motivo de preocupación para la celebración de los juegos en China, tal y como ha detallado la organización en un comunicado, que ha señalado la falta de libertad de los medios de comunicación y de Internet, el encarcelamiento de más de un millón de musulmanes en campos de «educación política» y la falta de transparencia. Asimismo, ha señalado la situación en Hong Kong y el aumento de las restricciones a la libertad de expresión.

Ante estas violaciones y represión, «el COI debe llevar a cabo inmediatamente una sólida diligencia en materia de Derechos Humanos en torno a los preparativos de los Juegos Olímpicos de Beijing de 2022 y explicar sus esfuerzos para gestionar los riesgos para los Derechos Humanos relacionados con los Juegos antes de febrero de 2021».

HRW ha señalado el deterioro «considerable» que ha tenido el país asiático en materia de Derechos Humanos desde la celebración de los Juegos Olímpicos de Pekín, en 2008, aunque ya en ese entonces se cometieron atropellos como desalojos forzosos y el silenciamiento de activistas de la sociedad civil. Nadie consiguió obtener un permiso para protestar en las zonas que el Gobierno acordó establecer para los juegos, y al menos una persona que lo intentó, Ji Sizun, fue encarcelada por intentar conseguir un permiso.

No obstante, el Gobierno del presidente Xi Jinping «ha reforzado significativamente los controles sociales y la supremacía del Partido Comunista Chino», imponiendo mayores restricciones a la religión, la sociedad civil, Internet, los medios de comunicación y las universidades.

Además, ha procesado a numerosos activistas y periodistas con cargos infundados, ha perseguido a los musulmanes turcos en Xinjiang y a otras minorías étnicas y ha desmantelado drásticamente las libertades en Hong Kong.

La organización también ha denunciado que las autoridades chinas utilizaron los juegos de 2008 para justificar una importante expansión del aparato de seguridad nacional y la inversión y promoción de tecnologías de vigilancia como el reconocimiento facial, lo que «permitió una mayor represión durante la siguiente década».

En ese entonces, «el COI guardó silencio», ha asegurado la directora de China de HRW, Sophie Richardson, y ha asegurado que la adopción de nuevas normas requiere una acción significativa y decisiones difíciles, o de lo contrario es solo un insulto a todos los que sufren las violaciones masivas de derechos de Pekín», en referencia a la publicación a principios de año de un decálogo del COI en materia de Derechos Humanos.

Fuente:https://www.elperiodico.com/es/deportes/20201222/represion-china-amenaza-celebracion-olimpiadas-11416225

Comparte este contenido:

Estados Unidos: IBM abandona la tecnología de reconocimiento facial por las dudas éticas sobre su uso

Redacción: El País

En una carta al Congreso de EE UU, el CEO de la compañía afirma que la medida forma parte de su rechazo al uso de la innovación que promueve “el racismo y la injusticia social”

Manifestación en San Francisco el pasado 30 de mayo en protesta por la muerte de George Floyd en Minneapolis.

La compañía estadounidense IBM ha anunciado que dejará de comercializar software propio de reconocimiento facial “de uso general”, según asegura el CEO de la compañía, Arvind Krishna, en una carta abierta dirigida al Congreso de Estados Unidos. Esta iniciativa forma parte, asegura, de su rechazo al uso de la tecnología en la promoción del “racismo y de la injusticia social”. La compañía no ha explicado qué calendario maneja y qué productos específicos se verán afectados por la medida, si bien fuentes del sector apuntan a que puede tratarse de los servicios de visual recognition alojados en la nube. Fuentes de la compañía en España rehusaron ofrecer más explicaciones.

Krishna ha asegurado en su misiva que la compañía “se opone firmemente» al uso de cualquier tecnología para la “vídeovigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas”. Por ello, señala, “ya no ofrece el software de análisis o reconocimiento facial de uso general”. El anuncio llega en un momento en el que las protestas contra los excesos policiales, y muy especialmente contra las minorías, se han extendido por todo Estados Unidos tras la muerte de George Floyd durante un arresto en Minneapolis.

Arvind Krishna, CEO de IBM, en una foto de archivo
Arvind Krishna, CEO de IBM, en una foto de archivoBRIAN ACH

El CEO de la compañía ha defendido también que “es el momento de iniciar un diálogo nacional sobre si estos sistemas deberían usarse por parte de las agencias nacionales de seguridad». Como se trata de una tecnología que puede caer en el sesgo, considera que es responsabilidad de las empresas asegurarse de que la inteligencia artificial “ayude a las fuerzas de seguridad a mantener a salvo a los ciudadanos”.

En este sentido, Krishna ha señalado que el Congreso debería hacer más por “combatir los abusos policiales, como llevar más casos ante la Corte federal o retirar la inmunidad que impide que los ciudadanos puedan buscar una reparación cuando se viole sus derechos constitucionales”.

“La Inteligencia Artificial es una herramienta poderosa que puede ayudar a las fuerzas del orden a mantener a los ciudadanos seguros”, ha asegurado. “Pero los vendedores y usuarios de los sistemas de Al tienen la responsabilidad compartida de asegurar que se compruebe la imparcialidad de Al, en particular cuando se utiliza en la aplicación de la ley, y que se audite y se informe sobre dicha prueba de parcialidad”.

«Creo que constituye una buena noticia que una de las grandes empresas, finalmente, pida un debate ético sobre el uso de la tecnología de reconociento facial, ha asegurado a EL PAÍS Mónica Villas, ex ejecutiva de IBM y actual profesra de IE y de Inmune Institute.

En lo referente a la economía, Krishna ha resaltado la necesidad de “crear vías más abiertas y equitativas para que todos los estadounidenses adquieran habilidades y capacitación,” una necesidad “particularmente aguda en las comunidades de color”. Por ello, insta a la promoción de programas como P-Tech para los estudios de secundaria, con un “fuerte enfoque en estudiantes de áreas educativamente desatendidas en los Estados Unidos”, y las Becas Pell, que constituyen “una vía importante para que los estudiantes de color vayan a la universidad”.

Fuente: https://elpais.com/tecnologia/2020-06-09/ibm-abandona-la-tecnologia-de-reconocimiento-facial-por-las-dudas-eticas-sobre-su-utilizacion.html

Comparte este contenido:

ESTADOS UNIDOS Estudiantes protestan por el uso del reconocimiento facial por parte de las universidades

América del Norte/EEUU/Universituworldnews

Los estudiantes de universidades de todo Estados Unidos participaron en protestas para exigir que sus instituciones se abstengan de utilizar el reconocimiento facial en el campus, escribe Kari Paul para The Guardian .

Las protestas se produjeron después de que el rechazo liderado por estudiantes y el grupo de derechos digitales Fight for The Future contra un programa de reconocimiento facial propuesto en la Universidad de California, Los Ángeles (UCLA) llevó a la escuela a revertir el curso y abandonar la tecnología. Los estudiantes de alrededor de una docena de universidades organizaron protestas en el campus en persona esta semana, mientras que 36 universidades vieron acciones en línea, incluidas peticiones.

En 2019, los administradores de UCLA propusieron el uso de software de reconocimiento facial para la vigilancia de seguridad en el campus. En una campaña contra el programa, Fight for the Future ejecutó la tecnología de reconocimiento facial en más de 400 fotos de miembros de la facultad y atletas de la UCLA y descubrió que el software coincidía incorrectamente con 58 de aquellos con fotos en una base de datos de fotografías policiales. La mayoría de los mal identificados por la base de datos eran personas de color.
Informe completo en el sitio de The Guardian

Fuente: https://www.universityworldnews.com/post.php?story=20200307101035903

Comparte este contenido:

En Corea del Sur hay gente enseñando a hacer entrevistas de trabajo en las que vas a ser analizado por inteligencia artificial

Redacción: Xataka

La llegada de la inteligencia artificial apunta a cambiar muchos sectores y uno de lo más probables es el de recursos humanos. En Corea del Sur, por ejemplo, empresas como SK Innovation o Hyundai Engineering & Construction, dos de los grandes titanes del país, ya usan esta tecnología para contratar a personal, así que surge una nueva necesidad: aprender a enfrentarse a la IA para conseguir un puesto de trabajo, y como dicta la ley de oferta y demanda, hay gente dando clases a los estudiantes para conseguirlo.

Apuntan desde Reuters que, según la consultoría People & People, este tipo de clases «están creciendo rápidamente» y que hay empresas que ofrecen un paquete de tres horas de formación por 100.000 won, que son unos 78 euros al cambio (el salario medio en Corea del Sur es de 3.090 euros mensuales, para poner la cifra en contexto). Tiene sentido, puesto que el paro juvenil en el país supera el 10% y las escuelas de refuerzo escolar son bastante populares (ocho de cada diez estudiantes han accedido a ellas alguna vez).

No siempre es qué dices, sino cómo lo dices

Reconocimiento Facial

Una de las personas que dan este tipo de clases es Park Seong-jung, de People & People, que reconoce que las entrevistas en vídeo con reconocimiento facial son clave. En estas, el software analiza las expresiones faciales como el miedo o la alegría, además de las palabras elegidas para la respuesta. A lo largo de la entrevista, la IA hace preguntas como «Estás en un viaje de negocios con tu jefe y ves que usa la tarjeta de crédito de la empresa para comprarse algo personal. ¿Qué le dirías?»

Es un sistema de gamificación en toda regla. De acuerdo a Chris Jing, de la empresa de software Midas IT, «a través de la gamificación, los empleadores pueden verificar 37 capacidades diferentes de un solicitante y qué tan bien encaja la persona en el puesto». La clave no está en dar la respuesta correcta, porque algunas preguntas, como la anterior, no tiene una respuesta correcta, no es A o B. La clave está en cómo se afronta el problema.

Solo en 2019, Park Seong-Yung dio clases a más de 700 estudiantes, graduados y profesores, una cifra relativamente baja si tenemos en cuenta que en Corea del Sur hay 51,47 millones de habitantes, pero parece ser un fenómeno en auge. De hecho, en una sola sesión de formación pueden llegar a juntarse hasta 600 personas en una sala de chat.

Casi el 25% de las empresas más grandes de Corea del Sur usan o planean usar IA en el proceso de contratación

Ahora bien, el éxito no está garantizado, porque no siempre es posible vencer a la inteligencia artificial. Reuters cita el caso de Kim Seok-wu, un estudiante de 22 años. Este no consiguió pasar la entrevista con una IA para una empresa minorista y decidió volver a estudiar. Según él, «creo que me sentiré desesperado si todas las empresas recurren a la IA para la contratación».

Opina que este tipo de entrevistas con «demasiado nuevas, por lo que los solicitantes de empleo no saben para qué prepararse y cualquier preparación parece no tener sentido, ya que la IA leerá nuestras caras si nos inventamos algo«. De acuerdo al Instituto de Investigación Económica de Corea, casi el 25% de las 131 empresas más grandes de Corea del Sur ya usan o planean usar inteligencia artificial en el proceso de contratación.

No hace falta irse a Corea del Sur

Entrevista

Aunque el caso de Corea del Sur es llamativo, no hace falta coger un avión para conocer casos de uso de inteligencia artificial aplicada a los Recursos Humanos. En España también se usa, por ejemplo, en L’Oreal, que afirma que «nos puede ayudar a mejorar la experiencia del candidato y también a ser más eficaces en nuestros procesos de reclutamiento a la hora de manejar un alto número de candidaturas» Por el momento, en L’Oreal usan la IA en una primera fase de cribado que da pie a una entrevista personal.

En Unilever España también aprovechan la IA para los procesos de selección, ya que «la IA elimina sesgos y permite que las personas que lleguen a la entrevista final hayan sido objetivamente seleccionadas por sus competencias y potencia». Entre las herramientas empleadas por Unilever están 12 juegos online que sirven para evaluar, por ejemplo, la capacidad de adaptación de los candidatos.

Indigital Advance, una empresa fundada en Barcelona hace unos cinco años, ha visto en la IA un sistema para acelerar procesosExplica su fundadora que «el candidato realiza una entrevista online y la IA nos dice si es apto o no para el puesto requerido. Nos indica si sus respuestas han sido las correctas o si ha utilizado la terminología imprescindible». Tras conocer sus fallos, «nosotros lo formarmos en las habilidades que le permitirán pasar el primer filtro», ya que la decisión final sigue dependiendo de los humanos.

En septiembre de 2019, Unilever UK usó por primera vez un software de reconocimiento facial desarrollado por HireVue, una empresa estadounidense. Según la empresa, se «obtienen 25.000 puntos de información en una entrevista de 15 minutos«, se analizan «desde el lenguaje corporal, el tono, el vocabulario, etc., y se presta especial atención al tipo de frases que usa el candidato», por ejemplo, si habla de «nosotros» o si habla de «yo.

Fuente: https://www.xataka.com/inteligencia-artificial/corea-sur-hay-gente-ensenando-a-hacer-entrevistas-trabajo-que-vas-a-ser-analizado-inteligencia-artificial

Comparte este contenido:

3 iniciativas innovadoras para cambiar la educación

España / 24 de junio de 2018 / Autor: Redacción / Fuente: Educación 3.0

¿Cómo podemos mejorar el proceso de enseñanza-aprendizaje? ¿Qué iniciativas innovadoras se están llevando a cabo con éxito en el mundo? Repasamos algunas de las más punteras (y sorprendentes).

Profesores robot en Corea del Sur

Profesores robot en Corea del Sur

En algunas aulas de Corea del Sur, los alumnos aprenden inglés gracias a un robot en forma de huevo que está controlado por un profesor nativo que trabaja desde casa.

Con el objetivo de ‘humanizar’ la forma de actuar del robot, este reproduce el rostro y los movimientos del profesor nativo que se encarga de manejarlo. “Podemos detectar el movimiento del profesor de Inglés. Tan pronto como el maestro mueve su mano, el robot levanta su mano. Si el maestro, por ejemplo, se ríe, podemos detectar su expresión de risa. Entonces el robot puede hacer lo mismo que el docente”, señala Kim Mun-sang, director del Programa de Inteligencia Robótica del gobierno surcoreano.

Por lo general, el robot se encarga de hacer a los alumnos repetir frases y les enseña canciones en inglés para que las practiquen tanto en el aula como fuera de ella.

Es una alternativa interesante para países que no dispongan de un buen número de profesores nativos dispuestos a desplazarse para dar clases presenciales, logrando así dotar a sus alumnos de la oportunidad de disfrutar de la enseñanza de alguien que domina totalmente el idioma.

Guarderías en el bosque en Dinamarca

Guarderías en el bosque en DinamarcaEste modelo de enfoque en las guarderías, que comenzó a popularizarse durante los años 60 en el norte de Europa, permite a los alumnos disfrutar de un tiempo de juego indefinido en un ambiente natural. Así, en lugar de sentarse en clase y seguir las actividades propuestas por el docente, son libres de explorar y centrar su atención en aquellos elementos que deseen.

De acuerdo con Richard Louv, autor del libro ‘El último niño en el bosque’ y cofundador de la página Children and Nature, son múltiples los beneficios del desarrollo de la niñez en un entorno natural. “La investigación sugiere fuertemente que el tiempo en la naturaleza puede ayudar a muchos niños a aprender a construir confianza en sí mismos, reducir los síntomas del trastorno por déficit de atención con hiperactividad, calmar a los niños y ayudarlos a enfocarse”, señala. Además, añade que también existen beneficios físicos, ya que este tipo de aprendizaje conlleva actividad física, contribuyendo a reducir uno de los grandes problemas actuales: la obesidad infantil.

Reconocimiento facial para controlar la asistencia en China

Reconocimiento facial para controlar la asistencia en China

 

 

 

En Hangzhou, una escuela ha decidido poner a prueba un sistema piloto de reconocimiento fácildel alumnado, con el objetivo de controlar la asistencia al centro y medir el grado de atención prestado durante las clases. Para ello, se instalan tres cámaras en la pizarra que son capaces de captar tanto las expresiones faciales como la dirección de la mirada de los estudiantes, por lo que se puede determinar si los alumnos disfrutan de las lecciones impartidas o si, por el contrario, se sienten aburridos o desinteresados.

“Usando este sistema podemos ver qué compañeros de clase se están concentrando en clase y aquellos que están distraídos”, señala el director de la escuela, Ni Ziyuan. Respecto a la asistencia, aseguran que el control se basa en la utilización de una base de datos con caras y nombres de los alumnos con la que se verifica si han asistido o no al aula.

Fuente de la Reseña:

3 iniciativas innovadoras para cambiar la educación

ove/mahv

Comparte este contenido: