Page 1 of 2
1 2

Entrevista a Virgine Eubanks: “Detrás de los algoritmos hay una profunda voluntad de programación social”

Por: Sandra Vicente

Virgine Eubanks describe en ‘La automatización de la desigualdad’ cómo los algoritmos no son las herramientas neutrales que nos quieren hacer creer y que, por el contrario, perpetúan un sistema asistencial injusto

Los algoritmos están entre nosotros. Dictan lo que vemos en Twitter y organizan la jornada laboral de cientos de trabajadores. Incluso deciden quién tiene derecho a qué dinero y por qué. Y es que las políticas públicas de asistencia social cada vez se basan más en las decisiones tomadas por estas herramientas digitales. Pero, a pesar de que nos digan que son objetivas, neutrales y basadas en complejas ecuaciones matemáticas, solo son una automatización de las decisiones humanas de toda la vida. Los algoritmos los diseña alguien, y ese alguien vive en el mismo sistema capitalista y desigual que todos nosotros.

Virginie Eubanks (Estados Unidos, 1972) conoce bien este sistema de ayudas públicas y la injusticia de los algoritmos. Lo vivió en primera persona cuando su marido sufrió un robo y recibió una paliza que le llevó a tener que recibir caros tratamientos médicos. Esta agresión se dio justo después de cambiar de seguro y el algoritmo que gestionaba la empresa congeló todos los pagos durante meses, dejándoles con una enorme deuda. Esta experiencia traumática con la tecnología fue el inicio de dos décadas de investigación cualitativa que se plasma en el libro La automatización de la desigualdad (Capitán Swing). El libro fue escrito justo antes de la pandemia, pero la COVID-19 no lo ha desactualizado en absoluto: “Nos ha dado una prueba más de cómo de injustas y frágiles son estas herramientas”.

Empecemos por el principio. Se nos dice que los algoritmos son objetivos, pero no lo son. ¿Por qué y quién los hace?

En el libro hablo de los algoritmos como herramientas digitales de decisión política. Muchas veces no tenemos en cuenta que lo son y por eso pensamos que son más neutrales que las decisiones humanas. Eso simplemente no es cierto, pero es una creencia que nos vamos repitiendo a nosotros mismos y que parte de la concepción de que la tecnología sale de la nada, como Venus de la concha. Es por esa creencia que empiezo el libro hablando sobre la asistencia social en Estados Unidos: hay una profunda voluntad de programación social detrás de los algoritmos. Cosas que están ahí, pero no las vemos.

Los algoritmos son como casas de la caridad digitales; simplemente son una versión moderna de las herramientas para asistir a los trabajadores pobres a cambio de controlar parte de sus derechos como el derecho a voto, a casarse, a criar… Nos encontramos con el mismo escenario de control político y social a cambio de un subsidio que había en el siglo XIX. Sé un ciudadano ejemplar y recibirás tu ayuda. El pensamiento político no ha cambiado y los algoritmos están diseñados por este mismo sistema discriminatorio. Pero el problema con los algoritmos es que se relacionan y se complementan entre sí, aumentando exponencialmente y sistematizando las consecuencias discriminatorias, haciendo que sean más difíciles de detectar y de esquivar.

Dice que somos nosotros los que nos contamos el cuento de la neutralidad tecnológica. Pero ¿nos lo contamos o nos lo cuentan las compañías y gobiernos? En el libro habla del mathwashing (lavado matemático): ¿diseñamos políticas desiguales en nombre de la objetividad?

Creo que es una combinación de ambas cosas. Hay una tendencia a negar que detrás de estas herramientas digitales hay sesgos humanos y políticos diciendo que las decisiones las toma un algoritmo, sabiendo que ese algoritmo es algo que la ciudadanía no va a entender. Y es ahí donde entra el mathwashing, que es venderle a la gente que la tecnología es algo demasiado difícil para las personas normales. Lo cual no es cierto.

¿Eso cree?

Sí creo que la gente lo cree, pero no es así. Pongo un ejemplo. En Los Ángeles tuvieron el llamado Sistema de Entrada Coordinada [una fórmula para conectar personas en riesgo de exclusión con servicios de apoyo económico y de vivienda]. Se supone que estaba formado por dos algoritmos: uno evalúa el grado de vulnerabilidad y el otro conectaba con los recursos. Pues bien, el primero de ellos era simplemente una encuesta y el segundo era un tipo sentado en una silla, haciendo trabajo manual con una pestaña de Google abierta. Pero se vendió como un sistema complicado y sofisticado para que nadie se quejara.

Es cierto que hay algunas herramientas que sí son complicadas, como aquellas que usan Inteligencia Artificial para entrenar sistemas que se enseñen a sí mismos, sin intervención humana. Pero en esos casos, lo que he encontrado en mis investigaciones es que la gente, si bien quizás no entiende cómo funcionan los algoritmos, sí saben qué impactos tienen en sus vidas. Y pueden hacer suposiciones realmente buenas sobre su funcionamiento.

¿Qué clase de suposiciones?

Otro ejemplo. El gobernador de Indiana firmó un gran contrato con IBM para automatizar los sistemas de elegibilidad de todos los programas sociales del Estado y antes de que el contrato siquiera estuviera firmado, la gente ya sabía lo que pasaría. Automatizar el proceso es una manera de no hablar del problema; la digitalización rompe la relación entre los trabajadores sociales y los usuarios para deshumanizar el proceso y hacer que sea más difícil llegar a las prestaciones. Eso decía la gente que pasaría y eso fue lo que pasó.

Ese contrato le costó un billón de dólares a Indiana y fue tan mal que el pueblo forzó al gobernador a cancelar el acuerdo. IBM demandó al Estado por incumplimiento de contrato y acabó ganando 50 millones en indemnizaciones. Tuvo un gran coste económico, pero mayor fue el coste social. 15 años después, todavía trabajan en compensar a las personas que perdieron sus prestaciones. Una de mis fuentes dentro del gobierno me dijo que si hubieran querido diseñar un sistema para denegar prestaciones sistemáticamente, no lo podrían haber hecho mejor.

¿Cree que nos faltan garantías de información sobre estas herramientas? En España tenemos la Ley Rider, que reconoce el derecho de los trabajadores de plataformas a conocer el funcionamiento de sus algoritmos, pero los usuarios y trabajadores externalizados no están contemplados. 

Creo que, más que darnos información para que la recibamos pasivamente, lo que necesitan estas herramientas es escuchar la voz de las personas que se ven afectadas por ellas. Cuando las diseñamos, nos dirigimos a programadores, oficinistas, políticos, académicos… La conversación tiende a volverse abstracta rápidamente y se plantean preguntas filosóficas sobre si los robots nos robarán el trabajo, pero no nos preguntamos cómo afectan a la vida diaria de una persona que depende de una prestación. Esta abstracción es parte del problema, porque nos impide reconocer el impacto real que tienen los algoritmos.

Reconocer el derecho de participación de la ciudadanía es una asignatura pendiente desde mucho antes de la llegada de los algoritmos. 

Supondría un gran cambio y no necesariamente funcionaría. En Estados Unidos tenemos un gran problema cultural basado en la creencia de que las personas pobres suponen una pequeña parte de la población que, además, tienen la culpa de su pobreza. Incluso muchos trabajadores pobres piensan eso y están a favor de diseñar el sistema más punitivista posible para reprimir a las personas pobres. Necesitamos combatir estas creencias y hacer ver a la gente que muchos de nosotros estamos cerca del lindar de la pobreza. Pero no es una verdad que estemos preparados para oír.

En el libro menciona la opción de establecer un juramento hipocrático entre las personas que diseñan estas herramientas. ¿Cómo funcionaría?

Precisamente he cambiado de opinión respecto a eso. Creí que los lectores del libro serían políticos y trabajadores públicos, diseñadores y técnicos, pero no lo son. Me han leído personas afectadas por el sistema. Es interesante porque, a menudo, desde el mundo editorial asumimos que las personas que solicitan prestaciones no leen. Pero no es cierto. Normalmente, cuando escribes, lo haces pensando en la audiencia que crees que tiene las soluciones y yo me equivoqué. Ya no creo que la solución esté en hacer que los ingenieros sean más simpáticos y sensibles. La tecnología son las nuevas finanzas, así que imagínate que alguien hubiera planteado en los años 80 arreglar la desigualdad económica haciendo que los agentes de bolsa fueran más simpáticos. Sonaría estúpido, ¿verdad? Pues así es ahora.

Creo que la solución está donde ha estado siempre. No se consigue nada sin protestar y miro con bastante optimismo a los movimientos sociales, las comunidades y los barrios que son capaces de cambiar políticas, como pasó en Indiana. Aquella fue una protesta a la antigua usanza, con octavillas, ocupando bancos y saliendo a la calle. Y funcionó.

Quizás haya mucha gente que crea que para combatir a la alta tecnología tienes que ser hacker. Pero no. 

No. Siempre ayuda tener un hacker a bordo, por su experiencia, pero no es la única valiosa. De hecho, creo que la experiencia de un hacker puede ser un poco limitante. Hay una ingeniera de Nueva Zelanda que estaba diseñando una herramienta que fue rechazada y fue comprada en Pittsburgh. Esta ingeniera escribió un artículo en que aseguraba que los científicos de datos acabarían por reemplazar toda la burocracia, ya que lo que hace la burocracia es recoger la información y dársela a las personas correctas en el momento correcto, pero que ese proceso a menudo fallaba. Y decía que, si los políticos fueran capaces de tener la información correcta en el momento correcto, todo el mundo estaría, por fin, de acuerdo en lo que se debe hacer.

Ella es una mujer muy inteligente, pero tremendamente estúpida en lo que concierne a la política. La información es poder y no necesariamente vamos a estar de acuerdo aunque tengamos los mismos datos, porque la política es la tarea humana y contenciosa de evaluar datos. Su opinión era criminalmente naif y simplista, como simplista son las respuestas que pueden ofrecer estas herramientas, que tienen un alcance de miras muy corto. Creo que los algoritmos tienden a encoger el problema para encajarlo en una solución ya existente y lo que necesitamos es mantener los problemas tan grandes como sean para afrontarlos como tal.

Antes ha comentado que detrás de los algoritmos hay una voluntad de programación social. Hemos hablado del papel de estas herramientas en las políticas públicas, pero ¿qué hay de las redes sociales? Hace poco conocimos los Facebook Papers. Es posible que le han preguntado esto muchas veces, pero ¿caminamos hacia un mundo como el de 1984?

¡Realmente eres la segunda persona que me lo pregunta! Facebook no es una empresa de amistades, sino una empresa de anuncios y no deberíamos sorprendernos cuando salen filtraciones como estas. La gente debería ser consciente del papel que juegan estas plataformas en el control social por parte del estado. Es posible que estemos caminando hacia un mundo como el que describió George Orwell, pero ¿lo escogemos nosotros? Es cierto que tenemos libertad para decidir compartir nuestros datos en Facebook, pero si necesitas asistencia pública, no puedes escoger pedir o no ayuda para comer.

¿Hay relación entre estas plataformas sociales y las políticas públicas?

Hay un montón de vínculos entre las decisiones que toma el sistema y el control social. Y esto no es nuevo de la economía de plataforma. La asistencia económica cada vez está más politizada y desde que es fácil relacionar nuestras vidas e identidades con nuestras necesidades sociales y económicas, el vínculo se hace más fuerte. Que el sistema de vigilancia y el de asistencia compartan información es muy preocupante; es importante mantenerlos separados aunque realmente nunca lo hayan estado. Antes, en los asilos para gente sin hogar, había personas que eran llevadas allí por la policía.

¿Llevamos ahora a la policía en el bolsillo?

En países como Estados Unidos, la pobreza está muy criminalizada y las cosas que se tienen que hacer para sobrevivir son vistas como ilegales, sobre todo para las personas sin hogar. Así que, cuando vas a pedir ayuda, admitir la realidad de tu vida supone criminalización. Son sistemas que se hablan mutuamente, lo cual tiene consecuencias muy peligrosas, sobre todo en cómo los trabajadores sociales entienden sus trabajos. Según algunos de ellos me han contado, en el pasado pensaban que acompañaban a personas a través de un trauma, pero ahora se ven como investigadores. Policializar en lugar de acompañar es peligroso y eso se ha intensificado con las herramientas digitales.

Escribió el libro antes de la pandemia. ¿Añadiría algo?

La pandemia ha puesto muy en claro los límites de estas herramientas: no hay ningún estado de EEUU en que los sistemas para el desempleo no colapsaran. La mayor lección de la pandemia es que todas esas cosas que creemos imposibles, pueden volverse reales en cualquier momento. Ahora nos toca pensar como responder al clima que se ha generado. No quiero caer en el tópico de decir que es una oportunidad política, porque sería inhumano, pero estamos ante un momento muy interesante. Soy conscientemente optimista, porque confío en el potencial de los movimientos sociales y creo que podremos afrontar lo que vendrá.

Esta iba a ser la última pregunta: ¿se consideras optimista sobre la tecnología?

No creo que ser optimista sea una característica, sino una práctica. Una de las grandes lecciones me la he llevado de las personas con las que he trabajado: a pesar de pasar por graves situaciones vitales, son optimistas y consiguen ser divertidos, generosos y dedicados a la comunidad. Frente a esto, para mí, no ser optimista es una traición. Pero no es un optimismo naíf. Mi madre me dice que no sabe cómo no me deprimo con lo que veo en mi trabajo, pero yo creo que soy muy afortunada de ver a la gente luchar y todavía creo que se pueden cambiar las cosas. Y la tecnología puede ser útil para ello.

Fuente de la información e imagen:  https://www.lamarea.com

Comparte este contenido:

Entrevista a Cathy O’Neil, matemática «La próxima revolución política será por el control de los algoritmos»

Por: Carlos del Castillo

«Solo sabemos que funcionan bien para quien los diseña, pero pueden ser tremendamente injustos para las personas objetivo», defiende la matemática Cathy O’Neil

Palabra de dios. Por mandato real. Es la economía, estúpido. La historia ofrece constantemente ejemplos de cómo las personas recurrimos al mito de la autoridad superior para revestir de una supuesta justicia objetiva nuestras decisiones. Para Cathy O’Neil, los algoritmos son el siguiente mito en esa lista.

¿Qué prejuicios tienen los robots sin prejuicios?

O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, fue una de las primeras en señalar que nuestro nuevo emperador también está desnudo. Un algoritmo (o la celebrada Inteligencia Artificial, que «no es más que un término de marketing para nombrar a los algoritmos») es tan machista, racista o discriminador como aquel que lo diseña. Mal programados, pueden llegar a ser Armas de Destrucción Matemática (Capitán Swing), como detalla en su libro sobre el peligro que representan para la democracia.

Defiende que existe una diferencia entre lo que la gente piensa que es un algoritmo y lo que realmente es un algoritmo. ¿Cuál es?

La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás.

En realidad un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data. Averigua si eres un cliente que paga o cuáles son tus posibilidades para comprar una casa en base a pistas que has ido dejando, como cuál es tu clase social, tu riqueza, tu raza o tu etnia.

¿Qué es un arma de destrucción matemática?

Es un algoritmo importante, secreto y destructivo. Injusto para los individuos que evalúa.

Normalmente son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en la universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto.

Sin embargo, no solo es algo injusto para el individuo, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano, estamos tratando de poner en marcha una herramienta científica. Si fracasan, provocan que la sociedad entre un bucle destructivo, porque aumentan la desigualdad progresivamente.

Pero también puede ser algo más preciso. Puede ser un algoritmo para decidir quién accede a la libertad condicional racista, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de minorías…

¿A quién le pedimos cuentas cuando un algoritmo es injusto?

Es una buena pregunta. La semana pasada salió a la luz que luz que Amazon tenía un algoritmo de selección de personal sexista. Cada vez que ocurre algo así, las empresas se muestran sorprendidas, toda la comunidad tecnológica se muestra sorprendida. En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes.

Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando. Si hacen como si nadie supiera nada pueden seguir promulgando esta fe ciega en los algoritmos, que ellos en realidad no tienen, pero que saben que el resto del público tiene.

Por eso escribí el libro, para que la gente deje de estar intimidada por los modelos matemáticos. No hay que abandonar la automatización ni dejar de confiar en los algoritmos, pero sí exigir que rindan cuentas. Sobre todo cuando actúan en un campo en el que no hay una definición clara de qué es «éxito». Ese es el tipo de algoritmo que me preocupa. Quien controle el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos.

¿La próxima revolución política será por el control de los algoritmos?

En cierto sentido, sí. Creo que los algoritmos reemplazarán todos los procesos burocráticos humanos porque son más baratos, más fáciles de mantener y mucho más fáciles de controlar. Así que, sí: la cuestión sobre quién tiene el control está relacionada con quién despliega ese algoritmo. Espero que nosotros tengamos un control con rendición de cuentas sobre ellos.

Pero si nos fijamos en un lugar como China, donde hay sistemas de puntuaciones sociales que son intentos explícitos de controlar a los ciudadanos, no tengo tanta esperanza sobre que los ciudadanos chinos puedan ser los propietarios de esos algoritmos. En estos casos estamos hablando de una distopía, una sociedad de vigilancia en la que el Gobierno controla a los ciudadanos con los algoritmos, como una amenaza real. Es algo que puede pasar.

De momento el poder político no ha hecho mucho por mejorar la transparencia de los algoritmos.

Sí, es un problema real. Los políticos piensan que desde su posición tendrán en su mano controlar los algoritmos, así que no quieren renunciar a este poder, aunque sea malo para la democracia.

Es una consideración muy seria. Como digo en el libro, Obama fue adorado por la izquierda por su uso del big data para aumentar las donaciones o mejorar la segmentación de mensajes. Pero eso fue un precedente muy peligroso: en las últimas elecciones hemos visto como la campaña de Trump logró suprimir el voto de los afroamericanos gracias a esa misma segmentación de mensajes a través de los algoritmos de Facebook.

Publicó su libro en 2016. ¿Ha cambiado algo desde entonces?

Cuando escribí el libro yo no conocía a nadie preocupado por este tema. Eso sí ha cambiado. Vengo de Barcelona, donde he visto a 300 personas, mayoritariamente jóvenes, preocupadas por este tema. Es un fenómeno emergente a nivel mundial, la gente está empezando a ver el daño, el mal que hay aquí. La mayor parte de este daño algorítmico no se ve, no es visible. Que la gente sea más consciente hace que podamos esperar que haya una demanda para que los algoritmos rindan cuentas. Espero que eso ocurra.

Fuente: https://rebelion.org/la-proxima-revolucion-politica-sera-por-el-control-de-los-algoritmos/

Comparte este contenido:

La era de los algoritmos: ¿Qué son y cómo impactan nuestro día a día?

Por:

Los algoritmos están presentes en nuestro día a día pero, ¿sabemos qué son y cómo funcionan?

La era actual podría llamarse «la era de los algoritmos» porque gobiernan, para bien o para mal, gran parte del mundo. El aprendizaje automático se está convirtiendo rápidamente en parte de todo lo que nos rodea, mejorando muchos productos existentes y permitiendo que se creen nuevos productos y servicios. Es el oxígeno para la generación emergente de tecnología.

Un algoritmo es una secuencia de instrucciones para solucionar un problema de manera automática. Es finito y ejecuta las instrucciones de manera sistemática. Justo debido eso, los algoritmos se han vuelto parte clave del avance tecnológico. El algoritmo tiene una entrada de la instrucción y la salida. Y si se juntan estas instrucciones con inteligencia artificial, las máquinas adquieren la habilidad de aprender y mejorar los algoritmos.

Es una tecnología que se utiliza todos los días en diversos sectores y actividades, desde detectar enfermedades, controlar vuelos o las cuentas bancarias hasta qué publicaciones mostrar en las redes sociales. Debido a su impacto en diversas áreas de nuestras vidas es esencial preguntarse, ¿cómo funcionan? ¿Qué criterios utilizan?

Criterios de los algoritmos: entre el bien y el mal

En la era de los algoritmos, una de las preguntas más recurrentes es: ¿cómo codifican lo que está bien y lo que está mal? Para esto, se necesita influenciar la inteligencia artificial (IA). Un ejemplo es el modelo de IA de imágenes de Google, donde se entrena al algoritmo a identificar fotos. En más detalle, para que el buscador encuentre fotos de perros, por ejemplo, el algoritmo tuvo que ser expuesto a distintas imágenes para aprender de las formas y patrones que se repiten. Tras analizar suficientes, el algoritmo ya sabrá reconocer los patrones que definen lo que es un perro y podrá identificarlo en cualquier otro escenario.

Sin embargo, este proceso de aprendizaje de una inteligencia artificial puede tener resultados y aplicaciones negativas, como el caso de Amazon que utilizó algoritmos para descartar candidatos basándose en los currículums de personal que contrataron en los últimos 10 años. El problema fue que muchas de las personas contratadas fueron hombres, ya que es una industria dominada por ese género. De manera que la inteligencia artificial utilizada para este fin, observó este patrón y terminó aprendiendo que las mujeres “no son buenas candidatas”. Si bien este caso muestra cómo los algoritmos pueden incrementar los sesgos y la discriminación, también sirven para identificar estos mismos prejuicios y sesgos en la sociedad. Por ejemplo, si buscas “estudiante” en Google, los resultados de la búsqueda de imágenes muestra, en su mayoría, caras de personas blancas.

Uso de algoritmos en la evaluación del aprendizaje

La educación tampoco se salva de los algoritmos. Con la pandemia, millones de estudiantes y personal docente se tuvieron que confinar a sus hogares y continuar con las clases en línea independientemente de si tenían la infraestructura adecuada o el conocimiento adecuado para adaptarse al nuevo formato.

Entre los mayores retos de esta modalidad en línea se encuentra la evaluación, por lo que muchos recurrieron al uso de los algoritmos para solucionarlo, como fue el caso de Inglaterra. La Oficina de Regulación de Calificaciones y Exámenes en Inglaterra (Ofqual por sus siglas en inglés) creó un algoritmo para estandarizar las calificaciones para evitar que se inflaran. Esto resultó en un 39 % de estudiantes con notas más bajas, desatando protestas masivas en todo el país para que se revisara el proceso.

Y este no fue el único problema que enfrentó el país ya que tuvo un problema similar para revisar las cualificaciones de nivel avanzado en los que se basan las universidades para admitir a los estudiantes de nuevo ingreso. Estas valoraciones se realizan al final del año y definen si los alumnos entran a la universidad o no. Nuevamente el algoritmo bajó los resultados de muchos estudiantes, haciendo que algunos se quedarán sin acceso a la universidad. En ambos casos, el gobierno canceló los resultados optando por resultados basados en sus exámenes simulados y evaluaciones de maestros. También permitieron que los estudiantes presentaran sus exámenes más adelante en el año.

Lo opuesto pasó en Estados Unidos donde varios alumnos descubrieron que la inteligencia artificial de la plataforma Edgenuity tenía preferencia por ciertas palabras. Al poco tiempo, comenzaron a usar estas palabras en todas sus respuestas y la máquina asumía que cubrían todo el tema y les daba la puntuación máxima.

El problema es que un algoritmo que estandariza o asigna calificaciones no toma en cuenta muchos aspectos importantes de las habilidades de un estudiante, se enfocan más en saber si memorizaron la información, sin comprender si la entendieron o la asimilaron. Aún así, aunque hay un largo camino por recorrer para que estos algoritmos puedan evaluar efectivamente pruebas y exámenes, el uso de esta tecnología, bien enfocada, puede utilizarse en beneficio de la educación. Un ejemplo de ello es el caso de Japón.

¿Cómo usan los algoritmos y la inteligencia artificial en Japón?

La compañía IBM junto con el Consorcio para la renovación de la educación del futuro (CoREF por sus siglas en inglés), buscan transformar el sistema educativo de Japón. Ellos creen que las ciencias cognitivas y el aprendizaje activo y colaborativo mejoran drásticamente la educación.

Ambas compañías desarrollaron el método del rompecabezas constructivo del conocimiento que se trata de dividir a los alumnos en pequeños grupos y ponerlos a considerar múltiples ángulos de un tema. En lugar de tener un plan de estudios estático, el docente debe diseñar lecciones enfocadas en cada estudiante, así como monitorear y proporcionar retroalimentación sobre su actividad y colaborar con otros maestros para continuar mejorando.

Para ser capaces de monitorear efectivamente las interacciones de sus alumnos, IBM desarrolló “Watson discurso a texto” que monitorea la calidad de las pláticas de los estudiantes, mejorando la planificación y retroalimentación del método. Los maestros le enseñan a Watson palabras clave que esperan que surjan durante el ejercicio para poder evaluar qué tanto entendieron los alumnos. Además, Watson registra y transcribe las discusiones de los estudiantes, buscando palabras clave esperadas para que los docentes las revisen más adelante y poder mejorar el algoritmo de la máquina. El propósito de IBM y CoREF es fortalecer la capacidad de independencia y colaboración. Su argumento es que al utilizar algoritmos e inteligencia artificial harán que los docentes se enfoquen más en inspirar creatividad y amor al aprendizaje que memorizar datos para pasar un examen.

Japón también invirtió 227,000 dólares en una prueba piloto para mejorar las habilidades de inglés en 500 aulas. El país obliga a todos los estudiantes de primaria y entre los 12 a 15 años a aprender este idioma pero, debido a la demanda, es complicado encontrar profesores calificados para esa materia. Es por eso que el gobierno decidió integrar robots programados con algoritmos e inteligencia artificial para ayudar a verificar la pronunciación del inglés de cada alumno.

En esta época donde los avances tecnológicos aumentan de manera acelerada, los algoritmos se han convertido en la base de muchas de estas innovaciones. Aunque aún existe un gran desconocimiento en el área de tecnología entre las diferencias entre Inteligencia Artificial, Machine Learning y Deep Learning, en todas están presentes los algoritmos. Estos son los conjuntos de instrucciones que los guían para cumplir sus funciones y es lo que les ayuda a aprender.

Es por eso que se escucha tanto hablar de algoritmos, porque impactan el día a día de todas las personas. Es necesario educar a los alumnos a que comprendan qué son y cómo funcionan para que logren comprender hacia dónde se mueve la tecnología y así poder enfrentar los retos de entrar al mundo laboral rodeado de tecnología. Además, conocer en qué áreas de nuestras vidas se utilizan y sus implicaciones, es parte esencial de nuestra alfabetización digital.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/la-era-de-los-algoritmos

Comparte este contenido:

Libro en youtube: 21 lecciones para el siglo XXI. Autor: Yuval Noah Harari

Reseña: «No tener smartphone es símbolo de estatus. Muchos poderosos no tienen uno. Lo nuevo es protegerse contra los ladrones que quieren retener nuestra atención». Así lo asegura el autor de «21 lecciones para el siglo XXI», que saltó a la fama con «Sapiens» y «Homo Deus», best seller del momento, con más de diez millones de copias vendidas en todo el mundo.

En su nuevo libro aparecen temas de sus obras anteriores, pero si el primer ensayo se centraba en el pasado y el segundo en el futuro, el tercero se ocupa del presente. El ser humano a punto de desaparecer , en uno o dos siglos el homo sapien desaparecerá y será remeplazadopor entidades, el fin de la evolucion tal y como la hemos conocidfo en cuatrobillones de años. Dentro de uno o dos siglos la seleccion natural serña sustiuida por el diseño inteligente, a punto de despedir el homo sapiens

El pensador israelí Yuval Noah Harari alerta en 21 lecciones para el siglo XXI (Debate) sobre la “dictadura del algoritmo” que podría avecinarse: un mundo en el que las principales decisiones políticas, económicas y sociales son tomadas por complejos cálculos de computación que ya muy pocos comprenden, socavando la libertad individual y generando una nueva masa de desheredados. “Toda la riqueza y todo el poder podrían estar concentrados en manos de una élite minúscula, mientras la mayoría de la gente sufriría no la explotación, sino algo mucho peor: la irrelevancia”.

Tras el éxito de Sapiens, conseiderado la historia o un viaje al pasado, publicó Homo Deus, un viaje a un futuro dominado por la tecnología, que también fue bastante bien recibido en las librerías. Falta por ver qué pasa con su nuevo libro, que como el mismo Harari ha explicado está inspirado en artículos suyos publicados en varios periódicos y debates que han surgido durante las conferencias que ha pronunciado y las entrevistas que ha concedido. En él aparecen temas de sus libros anteriores, pero si el primer ensayo se centraba en el pasado y el segundo en el futuro, el tercero se ocupa del presente.

Nuestros tres principales problemas son globales. Un solo país no puede arreglarlos. Hablo de la amenaza de una guerra nuclear, del cambio climático y de la disrupción tecnológica, en especial el auge de la inteligencia artificial y la bioingeniería. Por ejemplo, ¿qué podría hacer el Gobierno español contra el cambio climático? Aunque España se convirtiera en el país más sostenible y redujera sus emisiones a cero, sin la cooperación de China o Estados Unidos, no serviría de mucho. En cuanto a la tecnología, aunque la UE prohíba experimentar con los genes de una persona para diseñar superhumanos, si Corea o China lo realizan, ¿qué haces? Es probable que Europa acabara creando seres superinteligentes para no quedarse atrás. Es difícil ir en la dirección contraria.

En un mundo inundado de información irrelevante, la claridad es poder. La censura no funciona bloqueando el flujo de información, sino saturando a la gente de desinformación y distracciones. 21 lecciones para el siglo XXI atraviesa estas aguas pantanosas y afronta algunas de las cuestiones más urgentes de la agenda global.

¿Por qué está la democracia liberal en crisis? ¿Ha vuelto Dios? ¿Estamos a las puertas de una nueva guerra mundial? ¿Qué implica la victoria de Donald Trump? ¿Qué podemos hacer con la epidemia de noticias falsas? ¿Qué civilización domina el mundo: Occidente, China, el islam?  ¿Puede el nacionalismo resolver los problemas de desigualdad y el cambio climático? ¿Qué deberíamos hacer con el terrorismo? ¿Qué deberíamos enseñar a nuestros hijos?

Somos miles de millones las personas que apenas podemos permitirnos el lujo de indagar en estas cuestiones porque tenemos cosas más urgentes que hacer: ir a trabajar, cuidar de nuestros hijos u ocuparnos de nuestros padres ya ancianos. Lamentablemente, la historia no hace concesiones. Si el futuro de la humanidad se decide en nuestra ausencia, porque estamos demasiado ocupados dando de comer y vistiendo a nuestros hijos, ni los demás ni nosotros nos libraremos de las consecuencias. Esto es muy injusto, pero ¿quién dijo que la historia es justa?

Un libro no proporciona alimento ni ropa a la gente, pero sí puede ofrecer cierta claridad y de esta manera contribuir a nivelar el terreno de juego global. Si esta obra empodera aunque solo sea a un puñado de personas para que se incorporen al debate sobre el futuro de nuestra especie, habrá cumplido su cometido.

Después de que Sapiens ahondara en el pasado de la humanidad y Homo Deus considerara nuestra existencia en un futuro impulsado por el diseño inteligente, 21 lecciones para el siglo XXI se detiene para centrarse en las cuestiones más importantes de nuestro presente. ¿Qué está ocurriendo ahora mismo? ¿Cuáles son los grandes retos y opciones de nuestro presente? ¿A qué debemos prestar atención?

21 lecciones para el siglo XXI se construye sobre las ideas exploradas en los dos libros previos para tomar el pulso al actual clima global. Desenmaraña cuestiones políticas, tecnológicas, sociales y existenciales, y pone de relieve cómo impactan en nuestro día a día. Presentando de forma clara y accesible los complejos retos contemporáneos, este libro invita al lector a plantearse valores, significados y compromisos personales en un mundo lleno de ruido e incertidumbre.

Relato comunista, fascista y liberal…

¿Qué preguntas son importantes para usted?, le preguntó Cristina Galindo en ELPAIS cuando el autor promovía el nuevo libro, y Harari respondió: «El mayor problema político, legal y filosófico de nuestra época es cómo regular la propiedad de los datos. En el pasado, delimitar la propiedad de la tierra fue fácil: se ponía una valla y se escribía en un papel el nombre del dueño. Cuando surgió la industria moderna, hubo que regular la propiedad de las máquinas. Y se consiguió. Pero ¿los datos? Están en todas partes y en ninguna. Puedo tener una copia de mi historial médico, pero eso no significa que yo sea el propietario de esos datos, porque puede haber millones de copias de ellos. Necesitamos un sistema diferente. ¿Cuál? No lo sé. Otra pregunta clave es cómo conseguir una mayor cooperación internacional.

“No tener smartphone es símbolo de estatus. Muchos poderosos no tienen uno. Lo nuevo es protegerse contra los ladrones que quieren retener nuestra atención”

Previamente, Iñaki Gabilondo había entrevistado a Yuval Noah Harari, entre cuyos seguidores se encuentran Barack Obama o Mark Zuckerberg. En su siguiente libro ‘Homo deus’ pinta un negro futuro para la humanidad. Pronostica que la humanidad se dividirá entre una superélite de humanos mejorados y una masa de personas «inútiles». El mundo va a cambiar radicalmente gracias a los algoritmos, el big data y la inteligencia artificial.

Fuente: https://www.ibercampus.es/21-lecciones-para-el-siglo-xxi–38269.htm

Comparte este contenido:

¿Cuáles serán los avances de la Inteligencia Artificial dentro de 10 años?

Redacción: Distrito Digital

El término Inteligencia Artificial se acuñó en 1956. Desde entonces, más de 60 años después, los avances en este campo han sido sorprendentes.

Entre varios progresos, se han producido traductores de idiomas automáticos, algoritmos informáticos configurados para analizar cantidades desmedidas de datos y predecir comportamientos humanos o agentes virtuales que interactúan con relativa naturalidad con nosotros.

Durante este tiempo, la ciencia ha hecho avanzar a la tecnología a una velocidad superior a la imaginación. Y el motivo de tal avance es el denominado Deep Learning (aprendizaje profundo).

Esta disciplina científica ha desarrollado conceptos como el modelo predictivo (como por ejemplo la capacidad de reconocimiento facial) o el modelo generativo (la suficiencia para escribir o dibujar).

¿Qué nos espera con relación a la Inteligencia Artificial dentro de 10 años?

Muchos científicos no saben responder a esta pregunta debido a que, hace 10 años, no imaginaban los avances que ellos mismos conseguirían a día de hoy.

¿Será posible que la Inteligencia Artificial avance al punto de desarrollar, por ejemplo, la conducción autónoma?

Teniendo en cuenta los avances que se están realizando en los últimos 5 años, la respuesta sería sí.

Las investigaciones sobre los modelos predictivos (reconocimiento de patrones de texto, imagen o vídeo no estructurados) arrojan que, dentro de pocos años, una máquina será capaz de predecir los comportamientos de otros coches.

Este avance, además, abre la posibilidad a una conducción 100% segura.

La Inteligencia Artificial en medicina.

Queda claro que, del mismo modo, la IA generará enormes avances en el sector de la medicina y el diagnóstico médico.

En torno a 10 años, será viable que las máquinas analicen, con perfecta competencia, historiales médicos, concluyendo diagnósticos con un nivel de fiabilidad muy superior al de los humanos.

Una situación que trae a la memoria a Deep Blue, la primera Inteligencia Artificial capaz de superar a una mente humana en aquellas memorables partidas de ajedrez entre la supercomputadora y el campeón mundial Gary Kaspárov en 1996. Una partida que sigue jugándose entre las máquinas y los humanos, esta vez en otros tableros más sofisticados.

No obstante, esto no quiere decir que, en el futuro, la Inteligencia Artificial sustituya a los humanos en el campo de la medicina o cualquier otro. La tecnología siempre tendrá limitaciones y habrá de ser interpretada y analizada de cerca por personas.

Los algoritmos, de los que tanto estamos oyendo hablar en los últimos tiempos, serán aliados en la detección y sugerencia de tratamientos, pero nunca sustituirán a un facultativo.

¿Más humanos que los humanos?

La imprescindible película de culto “Blade Runner”, enunciaba de este modo la reflexión sobre el futuro de la IA. ¿Llegarán las máquinas a ser más humanas que sus propios creadores? Un debate que trasciende a los mitos clásicos y que, hoy, comienza a dejar de ser una quimera.

En la actualidad ya interactuamos con las máquinas de un modo prácticamente natural: los chatbots, Alexa o los asistentes virtuales, son algunos ejemplos; pero ¿llegarán a poder desarrollar las máquinas una capacidad superior en sus relaciones con nosotros?

Muchos científicos creen que, dentro de una década, estaremos cerca de que las máquinas puedan desarrollar una comunicación fluida y coherente, basada en el procesamiento del lenguaje, pero sin llegar a razonar o concluir por sí mismas conceptos complejos propios de los humanos como la empatía, el amor o la creatividad.

La Inteligencia Artificial en la educación.

Otro campo que avanzará sustancialmente en los siguientes 10 años será la educación. Y lo hará, naturalmente, de la mano de la IA.

Desde hace algunos años se están realizando experimentos utilizando la IA para adaptar los currículums de los alumnos a cada niño. Es decir, personalizar la educación.

A día de hoy, uno de los mayores retos del sistema educativo es el del ritmo de aprendizaje de los niños. Un problema que puede encontrar solución en los diagnósticos de aprendizaje personalizados que la IA podrá desarrollar en los alumnos dentro de un tiempo.

Por otro lado, además, se podrán diagnosticar dificultades o discapacidades como la dislexia a una edad muy temprana para garantizar un tratamiento adecuado y personalizado.

¿Habrá guerra contra las máquinas en el futuro?

Pese a que la ciencia ficción no ofrece otra alternativa, parece que la guerra contra los Terminators no aparece en un escenario real de futuro.

Muy al contrario, las máquinas aprenderán a manejar, a través de los algoritmos, un comportamiento sesgado como el de los humanos. Lo que significa que no participarán de conceptos absolutos que puedan magnificar hasta el punto de “tomarse la justicia por su mano”.

De hecho, la IA:

  • Creará más trabajos de los que destruirá.
  • Ayudará a los humanos en un buen número de servicios a la sociedad.
  • Posibilitará un mundo más justo y con más posibilidades para la gente con menos recursos.

En conclusión, en los próximos 10 años, la Inteligencia Artificial ayudará a conseguir todo aquello que, a día de hoy, consideramos un reto complejo; pero lo hará siempre bajo el control y la supervisión humana.

Fuente: https://distritodigital.biz/inteligencia-artificial-avances/

Comparte este contenido:

Paolo Zellini: “No todo puede ser resuelto con algoritmos”

Redacción: El Cultural

El autor de la celebrada “Breve historia del infinito”, analiza el alcance actual de los números en “La matemática de los dioses y los algoritmos de los hombres”

Profesor de Análisis Numérico de la Universidad de Roma Tor Vergata, Paolo Zellini (Trieste, 1946) no consigue, pese a su prestigio como matemático, estructurar su jornada diaria con horarios preestablecidos. Sólo la enseñanza hace que en su día a día brote la precisión. Su mente siempre está trabajando, aun cuando parece que descansa. «Cuando dormimos –dice- también pensamos». Tras el éxito de su Breve historia del infinito nos vuelve a sorprender con La matemática de los dioses y los algoritmos de los hombres (Siruela), una monumental síntesis científica y humanística en la que nos desvela la identidad, el concepto y la historia de los números, desde la tradición grecolatina, védica y mesopotámica hasta las teorías actuales más avanzadas, incluidas las que analizan el algoritmo que nos encadena.

P. ¿Es la era digital la lógica evolución de la historia de las matemáticas?

R. En cierta manera, sí. La era digital es la evolución de una ciencia del cálculo que a su vez es la realización del principio teórico, difundido entre los científicos de finales del siglo XIX, de que toda la matemática se puede reconducir a la noción básica de número entero. Ahora este principio se ha convertido en un desafío en el plano de la computación real, porque el cálculo digital efectivamente lo reduce todo a operaciones entre cadenas de unos y ceros.

Pregunta. Se habla mucho de la belleza de las matemáticas. ¿Qué ecuación o fórmula le ha seducido especialmente?

Respuesta. Es cierto, se habla mucho de la belleza de las matemáticas, quizás demasiado, haciendo referencia principalmente a la perfección de las teorías, a la atracción que ejercen ciertas construcciones o figuras que sacuden nuestra imaginación. Pero la belleza se encuentra sobre todo en la relación entre aquello que podemos imaginar y construir y lo que no comprendemos. Es precisamente cuando elaboramos las teorías más claras y cristalinas cuando somos conscientes de no saber. Este carácter enigmático y secreto de los números nos atrae más que cualquier otra cosa.

Respondiendo a su pregunta, me siento atraído sobre todo por aquellas fórmulas que deciden qué cosas podemos resolver y qué otras se sustraen inevitablemente a nuestro conocimiento. Me atraen los casos extremos en los que se dibuja con precisión lo que realmente podemos saber y lo que debemos ignorar. Existen teorías extraordinarias, como las elaboradas por John von Neumann o Alan Turing hacia la mitad del siglo pasado, que logran establecer límites superiores al error en el caso de computaciones a gran escala, cuando las operaciones digitales necesarias para resolver un problema son millones o miles de millones. Lo finito, cuando es muy grande, presenta problemas análogos a lo infinito.

P. ¿De qué  forma puede conectarse la vida y los números?

R. Para poder vincular vida y números haría falta ante todo leer a Platón. En sus Diálogosencontramos consideraciones sobre el placer y el dolor que utilizan el mismo lenguaje con el que la matemática griega afronta el cálculo de las relaciones y las proporciones. Se puede hacer una observación parecida en la Ética a Nicómaco de Aristóteles, obra en la que la perfección moral asume el significado de un vértice casi inalcanzable, abordable sólo aproximadamente, por exceso o por defecto, algo análogo a cuando redondeamos un número  irracional con una sucesión de números racionales. En tiempos más recientes encontramos intuiciones increíbles sobre el significado de las matemáticas griegas en las obras de Simone Weil.

Encontramos también vinculaciones entre vida y números, de manera más problemática, en las obras de Robert Musil, especialmente en El hombre sin atributos, donde se explica toda la ambigüedad del impacto del conocimiento matemático, más o menos especializado, en nuestras vidas. Eminentes científicos del siglo XX también sabían muy bien que el hombre debe enfrentarse de una manera u otra a las matemáticas. A principios del siglo XX el holandés Luitzen Egbertus Jan Brouwer explicaba que las matemáticas tenían que ser refundadas como un pensamiento esencialmente ligado a nuestra conciencia. En el mismo periodo, Pavel Florenskij, profundo teólogo, filósofo y matemático, encontraba extraordinarios nexos simbólicos entre las teorías del infinito matemático y nuestra vida. Para Norbert Wiener, padre de la cibernética moderna, existían vínculos precisos entre la ciencia más abstracta y los actos de nuestra vida cotidiana.

P. ¿Está nuestra existencia vinculada a los números? ¿Cómo se integran dentro del universo?

R. Los números están por todas partes y a menudo los usamos sin saberlo. Cuando apretamos la tecla de un ordenador o activamos un motor de búsqueda en la red, deberíamos saber qué potentes algoritmos se ponen en funcionamiento para responder a nuestras preguntas. Sin embargo, por lo general ignoramos la estructura y el grado de fiabilidad de estos algoritmos y delegamos nuestras decisiones a un mecanismo que permanece oculto incluso para los programadores más expertos, porque no podemos seguir al detalle los miles de millones de operaciones digitales de los que consta un proceso de cálculo.

P. ¿Qué momento de la historia fue crucial para las matemáticas?

R. Han sido varios. En la Antigüedad fue fundamental el descubrimiento de la magnitud inconmensurable. Por ejemplo, no existe una sola línea, por pequeña que sea, que mida bien el lado o bien la diagonal de un cuadrado. En las matemáticas modernas las relaciones entre magnitudes inconmensurables se han convertido en números (irracionales), símbolos con los que calculamos y construimos los modelos matemáticos del mundo natural y artificial. Estos símbolos son entidades finitas con las que es posible representar el infinito. La introducción explícita del infinito en los cálculos ha sido otro momento crucial, iniciado en el siglo XVII y culminado a finales del siglo XIX, cuando se pensó que toda la  matemática se podía fundar en operaciones elementales de la mente, como reagrupar objetos diversos en un solo conjunto, finito o infinito.

En el siglo XX, ha sido el descubrimiento de que dicho acto de fundación es imposible. Al mismo tiempo, nacen los algoritmos, que parecen ofrecernos una certeza y una seguridad al abrigo de las antinomias que afectan a los conjuntos infinitos. Ahora, el punto decisivo está en el descubrimiento de que no todo puede ser resuelto mediante los algoritmos, es decir, no todo puede ser automatizado.

P. ¿Qué tipo de matemática consideraría más elevada?

R. Ciertamente, no las matemáticas más abstractas. Creo que el recorrido matemático va de lo concreto a lo abstracto y viceversa, de lo abstracto a lo concreto. La matemática más elevada puede ser, de manera indiferente, el análisis o la teoría de los números, la geometría o la estadística, pero debe evidenciar de alguna manera este doble recorrido. Se puede sostener que las matemáticas son muchas, pero también es cierto que la matemática es una sola, y que es «elevada» cuando consigue resolver de manera elegante problemas insólitos y difíciles.

P. ¿Qué científico ha abierto más puertas al conocimiento humano? ¿qué lugar ocuparía Newton en ese ránking?

R. En la Antigüedad diría que Arquímedes, en la época moderna no sabría elegir, pero los primeros nombres que me vienen a la mente son Bolzano, Hilbert, Einstein, Gödel, Turing y  Von Neumann. Las listas me dan siempre apuro, aunque sin duda Newton estaría en los primerísimos puestos. A él le debemos, junto con Leibniz, el nacimiento del cálculo infinitesimal en el siglo XVII y el primer intento de definir la noción matemática del límite. Algunos algoritmos ideados por Newton (cuyos antecedentes se remontan sin embargo a los árabes y a los babilonios) son todavía una piedra angular de la ciencia del cálculo y de todo el pensamiento matemático en sentido amplio.

P. ¿Qué piensa de la conexión esotérica de las matemáticas?

R. Las matemáticas son una ciencia positiva, en principio accesible a todos, y sus teoremas son publicados en revistas que todos pueden leer. Las demostraciones de estos teoremas son procesos objetivos y repetibles, no experiencias meramente privadas y subjetivas. Sin embargo, también es cierto que, en la historia, los primeros problemas matemáticos han sido formulados o inspirados por los dioses. Esto es evidente tanto en la tradición griega como en la védica, y quizás vale también para las tradiciones egipcias y mesopotámicas.

P. ¿Diría que es una ciencia «divina»?

R. Hacia finales del siglo XIX Richard Dedekin decía que los matemáticos son de raza divina y tienen el poder de crear… Por otra parte, el propio Von Neumann, a quien debemos en buena parte la concepción y la creación  del ordenador digital moderno, parecía sostener que las matemáticas, la más útil de todas las ciencias, es también una ciencia divina. Pero el hecho decisivo es que las matemáticas, como se ha dicho muchas veces, es la ciencia del infinito y como tal desarrolla la tarea de representar de alguna manera, con instrumentos finitos. Lo invisible y lo indecible.

Fuente: https://elcultural.com/paolo-zellini-no-todo-puede-ser-resuelto-con-algoritmos

Comparte este contenido:

Stranger Numbers: el cálculo mental gamificado

España / 7 de julio de 2019 / Autor: Redacción / Fuente: Educación 3.0

La finalidad de Stranger Numbers es acercar a los niños y niñas las matemáticas de una forma atractiva. En esta experiencia también se fomenta el trabajo cooperativo y la cohesión de equipo. Nos lo cuenta Isabel Izquierdo León, profesora de 6º de Primaria en el CEIP Andrés Segovia de Ciempozuelos (Madrid).

¿Qué ocurre en Stranger Numbers? Una extraña criatura denominada ‘demogorgon’, que habita en el mundo del revés del colegio, ha abierto seis portales. Cada portal está vigilado por los seis protagonistas de la serie ‘Stranger Things’: Eleven, Dustin, Mike, Lucas, Max y Will.

Para cerrarlos, los alumnos necesitarán puntos de experiencia (individuales) y puntos de sabiduría (grupales). Con los primeros, subirán de nivel en la categoría profesional del ‘Departamento de Cálculo Mental’ del colegio, pasando por aprendiz, becario, agente en prácticas, agente junior y agente sénior hasta llegar a agente máster, seis niveles en total.

Con estos puntos conseguirán cartas de recompensa y cartas de edición coleccionista. Las he realizado con una estética similar a las que se utilizan en los juegos de mesa y utilizando los muñecos Funko de la serie de ‘Stranger Things’. Los niños se identifican más con ellos que con las imágenes reales de la serie.

funko stranger numbers

Recompensas especiales

Cada carta tendrá una recompensa, como cambiarse de sitio durante la hora de matemáticas, no hacer los deberes un día, preguntar una duda en un examen… Las de coleccionista no tienen recompensa, solo el placer de tenerlas.

Por su parte, los puntos obtenidos en las pruebas de sabiduría (grupales) se canjearán por una moneda denominada ‘dartañanes’ con la que los niños comprarán tres objetos para cerrar el portal. Cada personaje de la serie va asociado a tres herramientas.

Pruebas para conseguir puntos de experiencia

Las sesiones serán breves, de no más cinco minutos. La información obtenida en cada una de las pruebas será siempre para mejorar la nota del alumno, en ningún caso para lo contrario. La progresión de los ejercicios debe estar relacionada con los niveles de conocimientos del alumno.

  • Prueba de algoritmos: una ficha con 30 operaciones sencillas (sumas, restas, multiplicación, división, potencias…), basadas en el método Quinzet de Lluis Segarra, que tendrán que realizar nuestros alumnos en cuatro minutos.
  • Prueba de problemas orales: cinco problemas sencillos tipo “en un plato tengo 4 peras y en otro tengo 2, ¿cuántas tengo en total?”.
  • Prueba de estrategia numérica y de cálculo: número posterior de…, anterior de…, número siguiente de una serie…
  • Reto: problemas de lógica, de acertijos…
experiencia stranger numbers

Pruebas para conseguir puntos de sabiduría

La idea es que cada diez o quince días realicen un prueba de bingo, a los diez días una de problema reto y la última, la prueba de dados:

  • Bingo matemático: se cantará el número en forma de operación: por ejemplo, “cinco por quince, ocho decenas y cuatro unidades, los minutos de media hora”, etc.
  • Problemas Reto: cuadros mágicos, sudokus…: más difíciles que los retos individuales. Se realizarán en clase.
  • Juego de dados. Conseguir mediante operaciones la cifra (o la más próxima) a la sacada por los dados de múltiples caras que contienen números altos.

Narrativa y resultados

Para mantener la atención de los niños es fundamental una narrativa que incluya novedades. Los personajes, en este caso representados a través de los muñecos Funko, tienen que tener una comunicación frecuente con el alumnado. Para ello utilizo vídeos realizados por mí cada vez que todos los grupos cierran un portal. En los vídeos el personaje que guardaba el portal les da las gracias.

Otro aliciente para ellos es que, cuando cierran un portal en Stranger Numbers, le doy a cada alumno un diploma. También aparecen de vez en cuando objetos como el chocolate de Eleven, la gorra de Dustin, un puzle con un mensaje o cartas de los personajes escondidas en diferentes sitios del aula o colegio.

resultado stranger numbers

Incremento del rendimiento

A nivel académico, el alumnado han mejorado mucho en el cálculo mental y, por ende, ha aumentado el rendimiento en el área. Esto ha reforzado su autoestima, ya que muchos niños pensaban que no “valían” ­–como dicen ellos– para las matemáticas. Ahora, se ha convertido para muchos en su asignatura favorita.

Pero lo más importante es que ‘Stranger Numbers’ ha fomentado el compañerismo entre ellos, la cohesión de grupo y con ello han disminuido los conflictos en clase. Un ejemplo de este compañerismo es que muchos niños “compran” con sus propios puntos cartas a otros compañeros. Otras veces un grupo regala ‘dartañanes’ a otro equipo que los necesita para  llegar a un portal.

Fuente de la Reseña:

https://www.educaciontrespuntocero.com/experiencias/stranger-numbers-calculo-mental-gamificado/108270.html

ove/mahv

Comparte este contenido:
Page 1 of 2
1 2