Page 2 of 2
1 2

Programación del Portal Otras Voces en Educación del Domingo 7 de julio de 2019: hora tras hora (24×24)

7 de julio de 2019 / Autor: Editores OVE

Recomendamos la lectura del portal Otras Voces en Educación en su edición del día domingo 7 de julio de 2019. Esta selección y programación la realizan investigador@s del GT CLACSO «Reformas y Contrarreformas Educativas», la Red Global/Glocal por la Calidad Educativa, organización miembro de la CLADE y el Observatorio Internacional de Reformas Educativas y Políticas Docentes (OIREPOD) registrado en el IESALC UNESCO.

00:00:00 – UNESCO trabaja en el reconocimiento de estudios en educación superior para América Latina y el Caribe

http://otrasvoceseneducacion.org/archivos/314855

01:00:00 – Usos del Office 365 en educación #infografia #infographic #education

http://otrasvoceseneducacion.org/archivos/314846

02:00:00 – Honduras: maestros y docentes irán a paro si el gobierno continúa con las “amenazas” y sanciones

http://otrasvoceseneducacion.org/archivos/314896

03:00:00 – ¿Debería renovarse el término “maestro”? Un educador dice que sí

http://otrasvoceseneducacion.org/archivos/314890

04:00:00 – ¿Cómo consiguió Portugal pasar del 45% de analfabetismo a convertirse en el modelo de la educación?

http://otrasvoceseneducacion.org/archivos/314923

05:00:00 – Mariángeles de Zan: «hay una muy estrecha relación entre la gestión escolar y la calidad de la educación»

http://otrasvoceseneducacion.org/archivos/314917

06:00:00 – Libro: La expresión de la diferencia. Universidades estatales comprometidas con el arte en la educación (PDF)

http://otrasvoceseneducacion.org/archivos/314926

07:00:00 – De Kenia a Chile: el mejor profesor del mundo llega al país para inspirar con su labor

http://otrasvoceseneducacion.org/archivos/314958

08:00:00 – 25 Libros Gratis de Neurociencia en PDF – (Ayuda Docente)

http://otrasvoceseneducacion.org/archivos/314946

09:00:00 – ¿Cómo aprende nuestro cerebro? #Infografía

http://otrasvoceseneducacion.org/archivos/314852

10:00:00 – Otros 15 libros que todo docente debe leer

http://otrasvoceseneducacion.org/archivos/314955

11:00:00 – La ventana de la SEP

http://otrasvoceseneducacion.org/archivos/314901

12:00:00 – Carta abierta de una chica de 13 años: «Nos duele que nadie se proponga cambiar el sistema educativo»

http://otrasvoceseneducacion.org/archivos/314929

13:00:00 – Colombia: 45° Emisión de ‘El Abecedario, La Educación de la A a la Z’ – Radio Educativa (Evaluación Educativa VII)

http://otrasvoceseneducacion.org/archivos/314949

14:00:00 – La educación en Chile está ‘abandonada’

http://otrasvoceseneducacion.org/archivos/314934

15:00:00 – …Y la maestra explotó (Chernobil educativo, segunda parte)

http://otrasvoceseneducacion.org/archivos/314878

16:00:00 – Educadores del mundo acuerdan contribuir al logro de la Agenda 2030

http://otrasvoceseneducacion.org/archivos/314937

17:00:00 – Stranger Numbers: el cálculo mental gamificado

http://otrasvoceseneducacion.org/archivos/314920

18:00:00 – China: Escuelas de Guangzhou abrirán cursos piloto en inteligencia artificial

http://otrasvoceseneducacion.org/archivos/314940

19:00:00 – ¿Qué es la ‘ansiedad matemática’ y cómo se coló en las aulas?

http://otrasvoceseneducacion.org/archivos/314893

20:00:00 – Unesco exhorta a redoblar esfuerzos contra acoso escolar

http://otrasvoceseneducacion.org/archivos/314943

21:00:00 – Entrevista a Carl Honoré. Periodista: «La escuela es la burbuja ‘edadistas’ por excelencia»

http://otrasvoceseneducacion.org/archivos/314859

22:00:00 – Argentina: Los excluidos de las becas Progresar

http://otrasvoceseneducacion.org/archivos/314885

23:00:00 – Cortometraje – Educacion Rural

http://otrasvoceseneducacion.org/archivos/314952

En nuestro portal Otras Voces en Educación (OVE) encontrará noticias, artículos, libros, videos, entrevistas y más sobre el acontecer educativo mundial cada hora.

ove/mahv

Comparte este contenido:

Andrew Smart: “Los algoritmos son invenciones culturales: pueden ser más racistas que nosotros”

Entrevista a Andrew Smart

El autor de ‘El arte y la ciencia de no hacer nada’ se pregunta qué podemos entender sobre nuestra conciencia gracias al despertar de la inteligencia artificial

El 16 de abril de 1943, el químico suizo Albert Hofmann se convirtió en el primer hombre en consumir LSD aquella tarde en la que percibió “un flujo continuo de imágenes fantásticas y formas extraordinarias con un juego de colores caleidoscópico”. El 11 de mayo, el ordenador Deep Blue venció en una partida de ajedrez a Gary Kaspárov. Y el 6 de mayo de 2010, el día del “crack relámpago”, el Dow Jones cayó 600 puntos en cinco minutos a causa de un ataque informático. Son tres acontecimientos sin aparente relación que, no obstante, forman parte de la narrativa de ‘Más allá de ceros y unos‘, el último libro del científico e ingeniero Andrew Smart.

En el volumen, el colaborador de la Universidad de York se pregunta acerca del funcionamiento del cerebro humano desde una perspectiva neurológica y filosófica y sobre la posibilidad de que una inteligencia artificial pueda desarrollar una verdadera conciencia; entre nuestro cerebro y el fantasma en la máquina, el LSD se convierte en la bisagra olvidada que nos puede ayudar a entender por fin nuestra subjetividad. Una pregunta pertinente en un momento en los avances en inteligencia artificial nos hacen preguntarnos si en muy poco tiempo no podremos encontrarnos con un robot tan humano como cualquiera de nosotros. Smart no está muy seguro sobre dicha posibilidad, sugiriendo que aunque posible, quizá estemos exagerando las probabilidades.

Pero lo que de verdad interesa a Smart es comprender el funcionamiento de la conciencia humana, mucho más que el producto de un simple órgano gestor de información como la neurociencia actual parece defender. Como él mismo concluye en el libro, no cree “que sea una locura empezar a intentar diseñar ordenadores con el propósito de ofrecerles experiencias psicodélicas, pues es posible que al intentarlo logremos resolver por fin el misterio de la consciencia natural y artificial, y con ello salvar a la raza humana”. ¿De qué? Smart nos da la respuesta a través del correo electrónico.

Asusta que ni siquiera los ingenieros que construyeron esos sistemas puedan explicar cómo funcionan

PREGUNTA. Una idea que se repite en el libro es que estamos aún muy lejos de crear una verdadera inteligencia artificial, y que estamos exagerando las consecuencias negativas de que ello ocurra. Entonces, ¿quién y por qué esta interesado en que pensemos que una inteligencia artificial divina nos gobierne dentro de 30 años?

RESPUESTA. Mi sensación es que la tecnología de aprendizaje de las máquinas está acercándose a lo que los humanos hacen en determinadas áreas, como jugar al Go o reconocer una voz y mantener conversaciones aparentemente humanas. La gente se asusta porque nos estamos acercando al valle inquietante, así que atribuimos poderes mágicos a esos sistemas. Pero es importante recordar que la inteligencia artificial (o el aprendizaje de las máquinas) es una abstracción estadística de unos datos dados. No es más que utilizar una cantidad inimaginable de información con ordenadores súper rápidos y poderosos y algoritmos sofisticados para hacer predicciones cada vez mejores. Por supuesto que asusta que ni siquiera los ingenieros que construyeron esos sistemas puedan explicar cómo funcionan; por ejemplo, el aprendizaje profundo funciona muy bien en ciertas áreas, pero nadie sabe por qué.

La creencia en un Dios de la inteligencia artificial probablemente se deriva de ciertos impulsos religiosos residuales entre algunos grupos de Silicon Valley. Dios, en el sentido religioso, no existe, pero puede que ahora seamos capaces de resucitar (valga la redundancia) esa creencia en fuerzas sobrehumanas. Para mí la idea de una inteligencia artificial divina, como un oráculo que puede predecirlo todo, es ridícula. Es cuestionable si es posible, e incluso si lo es no quiero vivir en un mundo de dioses, sean ordenadores o no. En parte, hablar de dioses de la inteligencia artificial mola en términos de ciencia ficción, y hay mucha gente en Silicon Valley intentando llevar esas fantasías a la vida real.

P. Tendemos a creer a pies juntillas en la metáfora del cerebro como un ordenador. Una vez más, señala que es incorrecto. ¿A quién le conviene? ¿A compañías como Google/Alphabet, que comercian con información?

R. Es cierto que entre la gente que trabaja con la inteligencia artificial hay una visión profundamente arraigada de que el cerebro es, literalmente, un código que ejecuta algoritmos, neuronales en su caso. Intento refutar esta idea en el libro. No estoy seguro de quién puede beneficiarse económicamente de ello, pero es una conjetura popular incluso en la neurociencia –existe un campo llamado neurociencia computacional– que asume que el cerebro es un sistema de ordenador.

El autor, Andrew Smart.
El autor, Andrew Smart.

Esta idea que apenas se ha discutido ha sido reforzada por los recientes avances en inteligencia artificial que han sido inspirados por las teorías sobre el funcionamiento del cerebro. Así que la lógica es la siguiente: desarrollamos algoritmos basados en las teorías del cerebro y funcionan muy bien, así que el cerebro está hecho de algoritmos. En el libro señalo que son modelos. Buenos, pero nada más que modelos. Esto nos lleva al debate filosófico sobre el realismo, y diría que soy un realista científico, pero no entendido como información o algoritmos. Creo que son invenciones culturales: el mundo no está hecho ni de información ni de algoritmos.

P. Al final del libro, recuerda que Google es ya un poco como una inteligencia artificial maligna, al reducir la experiencia humana a algoritmos. ¿Cuál es el peligro de herramientas como esa, ahora y en el futuro?

R. Lo que más asusta es que nuestro comportamiento está influido por nuestras interacciones con los ordenadores en formas de las que no somos conscientes, por lo que los algoritmos se perfeccionan y predicen mejor lo que haremos, lo que nos lleva a hacer aquello que han predicho los algoritmos, y nos empuja a un ciclo de retroalimentación donde nuestra libertad está constreñida a ser consumidores perfectos, clicando en las cosas en las que el sistema quiere que pinchemos. Tengo miedo de que el mundo algorítmico nos haga menos conscientes de nuestras decisiones, y que seamos empujados a patrones predecibles de consumo.

P. ¿Qué piensa de gente como Ray Kurzweil, Sergey Brin, Larry Page o Elon Musk? ¿Creen realmente en lo que dicen sobre el futuro, o simplemente están sirviéndose a sí mismos vendiendo trucos de magia?

R. No creo que crean de verdad en ello; si tienes razón o no, es otra cuestión.

P. Al mismo tiempo, muestra que, al contrario de lo que Kurzweil defiende, hay un gran margen para que ocurran graves errores de funcionamiento en los ordenadores que empleamos, por ejemplo, en el ‘high speed trading‘, que puede tumbar la bolsa en cuestión de segundos. ¿Estamos ciegos ante los problemas a los que podemos enfrentarnos si estos sistemas se viniesen abajo de repente?

R. Sí, es un área de investigación muy activa. Los defensores de la inteligencia artificial piensan que esta corregirá nuestros sesgos y debilidades humanas, pero recientes investigaciones recientes han mostrado que es al revés: el aprendizaje de las máquinas de hecho amplifica nuestros prejuicios. Por ejemplo, en la política predictiva o el sistema de justicia criminal, los algoritmos son más racistas que los policías y jueces humanos. Esto se debe a que los datos que alimentan los algoritmos vienen de informes policiales sesgados, que vigilan especialmente determinados barrios, así que si utilizas dichos datos un algoritmo estadístico preverá que hay más crimen donde hay una mayor presencia policial. Y sí, en términos de sistemas complejos y seguridad, puede haber eventos catastróficos acechando de los que no somos conscientes porque damos por hecho determinadas probabilidades. A medida que somos más dependientes de estos sistemas, más frágil será la economía global.

La creencia de que la naturaleza está formada por información es ideológicamente útil

P. ¿Nos hemos convertido en neoplatónicos que consideran que todo es información? ¿Cuál es el problema con este nuevo paradigma?

R. Científicamente es importante dirigir nuestras conjeturas sobre la naturaleza de la realidad en la dirección correcta, de lo contrario nos perderemos en cuestiones absurdas, por ejemplo, buscando información en el cerebro. El otro problema que veo es que esta creencia de que la naturaleza está formada por información puede funcionar a un nivel ideológico, ya que se supone que todos somos consumidores racionales de información. Esto puede entorpecer los movimientos críticos y la organización social contra el poder del capital. También me resulta interesante la relación entre la información y el capital: nadie piensa que el universo esté formado por capital, y aun así hay una equivalencia entre el capital y la información como ideas abstractas que sin embargo tienen un impacto real en el mundo. ¿Por qué somos tan rápidos al asumir que las cosas están hechas de información, y suena absurdo decir que los átomos son capital?

P. Una de las posibilidades relacionadas con la inteligencia artificial es que terminemos creando algo muy parecido a una conciencia, que hable como una conciencia, se comporte como una conciencia e incluso piense como una conciencia… pero que para nada sea una conciencia. ¿Es imposible saber si hemos creado realmente una conciencia semejante a la humana, o siempre habrá un margen de duda?

R. Es una pregunta muy difícil de contestar pero estoy de acuerdo en que muy pronto tendremos sistemas que no será fácil diferenciarlos de los humanos. No estoy seguro de si habrá un robot humanoide así, pero mientras interactúes con un ordenador, será cada vez más difícil saber si es una persona o una inteligencia artificial. Si no estás seguro, siempre habrá preguntas que solo un humano con cierta experiencia pueda responder. Esta prueba de conciencia subjetiva es muy difícil: por ejemplo, asumimos que todos con los que interactuamos son también conscientes, pero no podemos comprobarlo más que observando un comportamiento que asumimos que el de un humano consciente. Podemos medir toda actividad cerebral relacionada con las distintas etapas de la conciencia; pero incluso en esos casos, no sabemos si “objetivamente” alguien está experimentando algo. Así que una vez los ordenadores comiencen a comportarse de formas cada vez más humanas, ¿cuál es la diferencia? No conozco la respuesta, porque por supuesto, si le preguntas al ordenador si es consciente, te dirá “sí”. Pero a menos que veamos a una persona desmayarse, no le vamos a preguntar “¿estás consciente?”

P. Mientras leía el libro, recordé su anterior trabajo, ‘El arte y la ciencia de no hacer nada‘. Me hizo pensar que quizá no hacer nada, ser un poco vago, puede jugar un papel semejante al del LSD que propone en su libro: ¿podría una inteligencia artificial decidir ser vaga, al igual que los humanos pueden hacerlo? ¿Qué demostraría?

R. Por ahora la inteligencia artificial no tiene sus propios objetivos. La arquitectura de la red neuronal está creada por humanos, así como los datos que los alimentan, y el algoritmo de aprendizaje, y las tareas… y por ahora ninguno ha aprendido a cambiar sus objetivos o su propio algoritmo, pero esto está evolucionando, y probablemente más rápido de lo que algunos creen. Pronto serán capaces de aprender a aprender: es lo conocido como “metaaprendizaje”. Pero no está fuera de nuestras posibilidades que en el futuro cercano un sistema de inteligencia artificial pueda ser capaz de entender algo sobre su proceso de aprendizaje, y entonces darse cuenta que determinadas cosas le pueden ayudar, ¡como descansar! Si esto ocurre, puede ser muy interesante.

Albert Hofmann.
Albert Hofmann.

P. En el libro defiende que el LSD es una herramienta para comprender cómo funcionan nuestra percepción y conciencia (tanto para humanos como para robots). ¿Cuál es el mito más peligroso que existe sobre el LSD?

R. El LSD, junto a la terapia de conversación, tiene un enorme potencial para ayudar a la gente adicta a otras sustancias o al alcohol. Aunque suene paradójico, hay muchas investigaciones sobre esto en los años sesenta que se han perdido a causa de la histeria que existe sobre la droga en EEUU. Así que durante 50 años podríamos haber disfrutado de un tratamiento muy efectivo para la adicción que nadie podía conseguir a causa de esta controversia sobre la droga. Albert Hoffmann terminó decepcionado por lo que ocurrió con el LSD, ya que realmente creía en su potencial terapéutico y creo que tenía razón. Afortunadamente ahora está resurgiendo esta clase de investigaciones.

P. ¿Qué cree que ocurrirá con el LSD en el futuro inmediato? ¿Volverá a ser investigado desde un punto de vista médico? ¿Se convertirá en una forma habitual de conocernos a nosotros mismos en las sociedades occidentales, quizá poniéndose de moda en Silicon Valley?

R. Sinceramente espero que las investigaciones continúen desde un punto de vista médico, y esto está ocurriendo de forma exponencial. Puede llegar a generalizarse. Sin embargo, espero que la cultura cambie para integrar la experiencia del LSD, en lugar de simplemente utilizarlo para ser más productivo como alguna gente hace con las microdosis. Incluso la gente en Silicon Valley se ha dado cuenta de que estamos en crisis y que se necesita una transformación cultural fundamental para atajar el cambio climático, la desigualdad y la fragmentación/polarización. El LSD por supuesto que podría facilitar esta clase de cambio, como empezó a hacer en los años 60, pero hay poderosos intereses que no desean que se produzca una transformación cultural a un mundo más consciente, medioambientalmente viable, igualitario y justo. Como en los 60, podría haber una especie de reacción si comienza a cambiar la cultura. Lo veo como una coproducción: la cultura debe ser receptiva a ser transformada y el LSD puede conseguirlo.

Fuente: https://www.elconfidencial.com/alma-corazon-vida/2018-06-21/andrew-smart-robots-psicodelia-conciencia_1581609/

Comparte este contenido:

Algoritmos sesgados y machistas: más educación contra los prejuicios de las máquinas inteligentes

España/28 de Abril de 2018/El Diario

La amenaza de la Inteligencia Artificial tiene que ver más con los prejuicios sociales que con un apocalipsis final al estilo de Hollywood, como se puso de manifiesto en una jornada de la Cátedra de Participación del Ayuntamiento de Zaragoza

La tecnología Big Data, utilizada por las grandes compañías, favorece prejuicios machistas o racistas con algoritmos que contienen sesgos implícitos

“Un algoritmo puede establecer que interese más la opinión de un hombre que la de una mujer; esto ha pasado”, afirma el catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Zaragoza, Francisco Serón

¿Acabará la inteligencia artificial por controlar al ser humano? Esta cuestión, que ha sido argumento de innumerables películas, fue planteada también en una jornada sobre Inteligencia Artificial y Democracia celebrada en la Universidad de Zaragoza. Allí, los ponentes intentaron desmitificarla, aunque alertaron de sus riesgos, pero en su justa medida.

En definitiva, defendieron la inteligencia artificial como una herramienta útil, lejos de la creencia de que las máquinas acabarán con la especie humana. Porque, en realidad, como quedó patente en este encuentro, la amenaza de la Inteligencia Artificial va por otro camino; tiene que ver más con los prejuicios sociales que con un apocalipsis final al estilo de las películas de Hollywood.

La tecnología Big Data utilizada por las grandes compañías favorece en ocasiones la discriminación debido a algoritmos sesgados. En el mundo digital, existen ejemplos de algoritmos que favorecen prejuicios machistas o racistas, porque ante todo buscan acertar con los resultados que muestran al usuario.

El catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Zaragoza Francisco Serón, quien participó en este encuentro organizado por la Cátedra de Participación del Ayuntamiento de Zaragoza, afirma que algunos algoritmos contienen sesgos implícitos: “Por ejemplo, pueden establecer que interese más la opinión de un hombre que la de una mujer; esto ha pasado”.

Sostiene, además, que es algo que no se va a poder evitar porque el ámbito de la inteligencia artificial es global. La Unión Europea (UE) puede orientar la estrategia acorde a unos criterios éticos y legislar esta materia, pero ahora “díselo a otros países o a una empresa que quiera hacer dinero”. “Hay gente que no está dispuesta a pasar por ahí”.

Por ello, la educación se perfila como la única forma de poner freno a este impacto digital. Pero formar al usuario para que pueda interpretar los resultados que recibe no está en los planes educativos. Ni siquiera se está planteando, indica Serón. “En un mundo en el que los algoritmos impactan sobre nosotros, ¿tiene sentido formar juristas que no tengan ni idea de lo que es un algoritmo? Necesitamos formación para generar criterios”, precisa.

En esta línea insiste también el profesor de Derecho Constitucional de la Universidad de Granada Juan Francisco Sánchez. Aunque es una materia que excede al ámbito nacional de los países, y que se ha comenzado a regular a nivel europeo, también los estados miembros pueden adoptar decisiones.

“El problema es que en España tenemos un debate público débil, donde vemos el problema más inmediato sin pensar a varios años vista”, subraya. Y apunta que la decisión política en materia de Inteligencia Artificial que se podría adoptar en España, a nivel nacional y autonómico, es en el ámbito de la educación. “Es ahí donde tenemos que tomar la decisión más inmediata, formar ciudadanos que sean capaces de actuar de manera responsable en la sociedad digital donde estamos”, recalca.

Sobre todo, porque el denominador común en el binomio inteligencia artificial y democracia es la globalización. La Inteligencia Artificial se mueve en un ámbito global y, en este contexto, lo que haga la Unión Europea se sigue con interés.

 «Si la UE fracasa, Google podrá entrar en el mercado europeo sin controles. Si la UE es fuerte, le puede poner límites a los motores de búsqueda de Google. Hay mucho interesado en que el proyecto europeo no salga”, puntualiza.

Fuente: https://www.eldiario.es/aragon/Algoritmos-machistas-educacion-prejuicios-inteligentes_0_762574534.html

Comparte este contenido:
Page 2 of 2
1 2