Nuevos dioses, viejas supersticiones

Por:  Por Jorge Majfud 

Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 “experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco”. (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)

Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.

En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a la prehistoria de las técnicas de reconocimiento facial, denunciadas, por lo menos, desde el año en 2009.

Con un sistema diferente al logaritmo, las IA se parecen a niños superdotados de cinco años: aprenden de sus mayores humanos y, aunque pueden desarrollar su propia personalidad, no se distinguen mucho de sus progenitores y actúan en consecuencia, en casos de formas más radicales sin ninguna creatividad.

A modo de especulación, en 2015 escribí la novela Silicona 5.0 para abordar este problema sobre una serie de muñecas sexuales con capacidad de terapeutas y de asesinas, debido a los traumas de la Eva humana usada para su comercialización. Una mujer cosificada por su cultura, alimentando la existencia de una cosa humanizada con aspecto de mujer. Más recientemente, se usó la colección de 600 ensayos publicados en majfud.org por su sistematicidad y consistencia humana desde 1999 para desarrollar otra IA. Algo que me inquieta profundamente, pero que no puedo evitar.

A principios de 2024, otra IA produjo un escándalo internacional al crear imágenes de soldados nazis de la Alemania de Hitler con rostros morenos y asiáticos. ¿A qué se debió esta contradicción con lo que señalamos antes? Aparentemente, las IA fueron instruidas para ser “políticamente correctas” insertando diversidad en donde nunca la hubo. Otra vez, la micropolítica rebelde haciéndole el juego a la macro política del establishment. Así, árabes barbudos vestidos de soldados alemanes perseguían judíos; mujeres negras arrojaban bombas atómicas sobre Hiroshima y Nueva York; gays y lesbianas dirigían el FBI de Hoover para perseguir gays y lesbianas sospechosos de ser comunistas; y los nativos del Tercer Mundo invadían y saqueaban Europa y Estados Unidos y luego masacraban a su población hasta lograr imponer dictaduras militares en Londres, París y Washington. Porque hay que prevenir el racismo promoviendo la diversidad.

Veamos un ejemplo más digerible. Durante la Semana Santa de este mismo año, hubo una proliferación de retratos de Jesús creados por la Inteligencia Artificial. Los retratos de ChatGPT muestran a hombres de ojos marrones y piel más morena que los clásicos retratos de los museos de Europa y de las modestas casitas de África y América Latina. No en pocas casas piadosos cristianos le rezaron por años a una fotografía de Jim Caviezel o de Robert Powell. No pocos “cristianos verdaderos” se ofenderían con la sola idea de inclinarse ante una imagen realista del africano San Agustín, también retratado por siglos como un santo llegado de algún pueblo esloveno.

Aunque algunos lo encontrarán más realista que el David de Miguel Ángel o el Jesús de Leonardo da Vinci, también los nuevos retratos de Jesús pintados por ChatGPT tienen un fuerte prejuicio etnocéntrico, porque fueron alimentados con ese material de la historia eurocéntrica más el maquillaje de la diversidad epidérmica (también eurocéntrica). Aunque aquí las AI se aleja unos centímetros del Jesús caucásico de ojos celestes tipo Robert Powell (angelical, confiable, higiénico y desarrollado), continúa muy lejos del aspecto facial de los habitantes del Medio Oriente de hace 2000 años. No deja de ser el rostro de un hombre caucásico luego de unas largas vacaciones en Cancún.

Lo de pobre también se le quitó en la vestimenta. La pulcritud y la calidad de sus túnicas revelan prejuicios de clase, otra vez negando y contradiciendo la realidad de un carpintero de Galilea veinte siglos atrás, alguien que viajaba en burro y que tenía por amigos pescadores y mujeres de las clases más humildes, con excepción de una sola.

Ahora, cada tanto leemos artículos sobre lo qué piensa la Inteligencia Artificial de la existencia humana, de cómo será el mundo del futuro o de cómo era el mundo hace mil o diez mil años. “¿Qué dice la IA sobre el mundo en 2040?” “¿Cómo se veía una cena en el Imperio Romano según IA? “La IA predice que en 2050 seremos todos felices”, “La IA revela los cinco hábitos para un matrimonio feliz” ―algo tan confiable como los consejos de un sacerdote católico.

Las IA tienen algo en común con los dioses anteriores: son metahumanos. Su credibilidad radica en que se asume que no dependen de los criterios de los creyentes, mortales de un día. No tienen “bias” (prejuicios). Como sea, es indiscutible que tienen algo en común: si no son ambos creaciones humanas, sin duda están hechos a nuestra imagen y semejanza, como esos dioses llenos de pasiones que, en nombre del Amor Universal condenan a su propias creaciones al infierno, no por haber hecho algo inmoral, como arrojar una bomba atómica sobre una ciudad o por haber promovido una guerra genocida, sino por no haber rezado de la forma indicada o por tener creencias equivocadas sobre el más allá.

Otra similitud: las IA son leídas y escuchadas con una profunda superstición: si lo dice una super inteligencia, debe ser cierto. O lo más aproximado a la realidad posible. Es algo más allá de la comprensión humana. Pero la Inteligencia Artificial no es una gran inteligencia. No aún. Es solo un niño con un conocimiento y una velocidad de procesamiento más allá de los límites humanos. Claro que los humanos no somos mucho mejores. Seguimos procesando pensamientos y creencias como en tiempo de las estepas del cálido Sur y de las cavernas del frío Norte. Cuando no creemos historias imposibles creemos en dioses virtuales.

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.

Fuente de la información e imagen:  https://rebelion.org

Comparte este contenido:

“Un algoritmo está marcando la educación de nuestros hijos”

Un cumpleaños, una reunión, los grupos de padres y madres a la salida de los colegios son lugares perfectos para comprobar la evidencia de que existe una preocupación entre las familias acerca del uso de los móviles en la infancia y la adolescencia. Parece que el problema estaba latente y que nadie se atrevía a dar el paso para ponerlo encima de la mesa de la actualidad informativa, pero desde hace unas semanas padres y madres de diferentes comunidades autónomas -las primeras fueron en Cataluña y País Vasco- han abierto grupos de Whatsapp y Telegram con varios objetivos. El primero, abordar el tema y establecer un debate para concienciar a las familias en el uso del móvil en niños y adolescentes.

Desde hace unos días La Rioja también tiene un grupo de Telegram al que poder unirse. Antonio es uno de los padres que está movilizándose para conseguir, primero, que exista un compromiso de no regalar móviles en la infancia o adolescencia; segundo, luchar por un marco legal que limite el uso de móviles en la infancia; y tercero, organizar una formación en el uso adecuado de móviles, redes sociales e internet.

“La situación preocupa a muchas familias porque no podemos olvidar que el móvil se ha convertido ya hace unos años en un regalo de comunión”, comenta. “La idea es que entre todos y con la información necesaria alarguemos esa llegada del móvil lo máximo posible, pero lo preferible es que hubiese una normativa nacional para regularlo porque los problemas que tienen nuestros hijos con su uso son muchos”.

Para Antonio una clave pasaría por “prohibir los móviles en los centros educativos y en las actividades extraescolares”. No está en contra “de que los chavales tengan acceso a la tecnología pero que no lo puedan hacer en cualquier sitio si no en un lugar en el que un adulto pueda controlarlo de alguna forma. Tenemos que tener en cuenta que nuestros hijos llevan un potente ordenador en sus manos que debemos poder controlar”.

Hace lista del número que problemas a los que se enfrentan los chavales cuando la llegada del móvil es demasiado temprana. “La mayoría tiene su primer acceso a través de ellos a la pornografíía que en muchos casos llega sin ellos buscarla, sobre los ocho años”. Además “estamos dejando en manos de un algoritmo la educación en valores de nuestros hijos. Las redes crean unas expectativas que luego no son reales y la frustración es importante”. La pérdida de tiempo, la pérdida de atención, problemas auditivos y visuales… La lista es larga.

“No estamos diciendo que las tecnologías sean malas pero tenemos que ver a qué edad son adecuadas”. Ellos están haciendo estos días una encuenta con los padres sobre eso. “Parece que los 14 años puede ser una edad mínima, pero lo óptimo sería a los 16, para poderlas manejar sin nuestra supervisión, teniendo en cuenta que no todos los niños son iguales”.

Para ellos uno de los principales problemas es el bulling que se ejerce con otros niños a través de las tecnologías. “Si conseguimos que el problema de acoso a través de redes se minimice porque acceden más tarde a ellas habremos logrado el objetivo, porque el daño que sufren muchos niños es menor conforme van creciendo”.

Ahora mismo el grupo cuenta con 426 familias a las que van sumándose día a día muchas más. “Estamos muy contentos de la acogida que ha tenido la iniciativa pero hay que pensar que ya hay más de dos mil personas en Navarra y cerca de 10.000 en Cataluña”.

Oskar Pérez, director del centro residencial de Proyecto Hombre La Rioja, ha tenido que lidiar con chavales con muchos problemas derivados del uso abusivo de las nuevas tecnologías. “Cada vez son más las familias que vienen para solicitar información con respecto a este tema”.  Para él hay varios puntos críticos: as redes sociales, la pornografia, los videojuegos y los juegos de apuestas.

“Hay que tener en cuenta que la utilización de redes sociales a determinadas edades pueden condicionar la afectividad de nuestros hijos”, asegura explicando que ,”aunque creemos que son nativos digitales, lo que en realidad son es huérfanos digitales porque nadie les está acompañando ni supervisando lo que hacen con ellas. Les hemos enseñado a andar en bicicleta pero no a usar un móvil y luego nos encontramos con problemas serios”.

Él los ha visto de cerca. “Como otras adicciones siempre suelen ir acompañadas (drogas, alcohol… ) la adicción a las nuevas tecnologías nos la encontramos casi siempre en solitario, en muchos casos son chicos que no tienen otro tipo de problemas”. Pero sí con formas de ser: “Los chavales con problemas de autoestima suelen ser víctimas perfectas para las redes sociales o los videojuegos”.

Oskar Pérez aconseja poner buenos controles parentales en los móviles en edades tempranas. “Si pueden no tener conexión fuera de casa, mejor”, y está de acuerdo con el grupo de padres en que “es necesaria una legislación adecuada, hay que poner límites, también desde las familias”.

Para pérez la clave está en “ser nosotros los influencers de nuestros hijos, no podemos dejar sus estilos de vida, sus valores, su afectividad en manos de personas que no están preparadas para ello”.  Sabe que no es fácil, “pero tenemos que ver los problemas que nacen de ello: en el caso de los chicos, los mayores son la adicción a videosjuegos, y en ellas, la dependencia a los ‘likes’ de las redes sociales”.

También es serio el problema de la pornografía. “Los estudios dicen que siete de cada diez chavales de entre 13 y 18 años ya han tenido acceso a ella y es una pornografía dura donde el consentimiento prácticamente no existe y hay cantidad de videos de pornografía muy violenta”.

Está convencido de que son buenas iniciativas como la creación de estos grupos de padres. Parece que soplan vientos de esperanza frente al uso indiscriminado del teléfono móvil por parte de la infancia.

“Un algoritmo está marcando la educación de nuestros hijos”

Comparte este contenido:

Cuando la nota no te la pone un profesor, sino un algoritmo: caos entre los estudiantes del Reino Unido

Europa/Reino Unido/20 Agosto 2020/https://www.xataka.com/

Si no te gusta tu nota, tenemos otra para ti. Parafrasear a Groucho Mark es inevitable ante la esperpéntica situación que se está viviendo en el Reino Unido, donde miles de estudiantes del equivalente de nuestro bachillerato se han visto afectados por las notas que han sacado en este curso. Dichas notas no se las ha puesto un profesor, sino un algoritmo.

La pandemia de COVID-19 y la ausencia de exámenes presenciales ha obligado a las autoridades académicas a utilizar ese algoritmo para calificar a los alumnos. El problema es que el algoritmo ha tomado en cuenta factores discutibles que han hecho que ahora cualquiera alumno pueda recurrir esas calificaciones que determinan parte de su futuro académico y laboral.

Un desastre causado por un (mal) algoritmo

Los exámenes GCE Advanced Level, más conocidos como A Level, son unas pruebas que los estudiantes de Inglaterra, Gales e Irlanda del Norte realizan tras los dos últimos años de la enseñanza secundaria. Es un concepto similar al que se maneja en España con la EBAU (la antigua Selectividad) y que es determinante para que muchos alumnos puedan cursar los estudios universitarios que desean y la carrera profesional a la que intentan encaminar sus pasos.

Exam

El problema es que el confinamiento ha hecho imposible que se celebre dicha evaluación, lo que ha provocado que la nota obtenida por los alumnos no se determine por un exámen calificado por un profesor, sino por un algoritmo.

Ese algoritmo, como se ha descubierto a posteriorijum, ha resultado tomar en cuenta factores coherentes como el historial del estudiante, pero también influyen otros más polémicos como el propio historial de sus compañeros y el centro al que pertenece ese estudiante.

El Departamento de Educación del Reino Unido ha anunciado la puesta en marcha de un sistema de «triple bloqueo» (triple lock) para esos estudiantes, y que permitirá a los estudiantes recibir la máxima calificación de tres alternativas: la nota calculada por el algoritmo, las notas de exámenes de prueba preliminares (‘mock exams’, celebrados entre noviembre y marzo) o la nota de un futuro exámen presencial que se celebrará en otoño.

Las críticas a ese sistema son también notables, pero es el algoritmo el que ha generado las mayores protestas y unos resultados especialmente llamativos. En ellos se revela que dicho algoritmo es injusto con las minorías étnicas de entornos más pobres o de entornos desfavorecidos.

 

 

Stephen Curran, profesor y experto en educación, indicaba que «chicos de cierto origen pueden encontrarse con que su nota ha disminuido», y eso parece haber ocurrido por ejemplo en Escocia, donde los chicos de entornos más desfavorecidos tenían el doble de posibilidades de ver sus notas rebajadas en comparación con los chicos que viven en zonas más ricas.

Eso ha provocado una avalancha de apelaciones por parte de los alumnos que no estaban conforme con sus notas, pero incluso este proceso parece haber levantado nuevas ampollas. En Inglaterra, por ejemplo, la decisión de si se apela o no la nota no corresponde al alumno, sino al centro educativo, algo que otros expertos califican de «escandaloso».

Como apuntan en Wired, este caótico escenario ha hecho que la situación educativa se convierta en una situación política «y los estudiantes de hoy son los votantes de mañana«.

Para los responsables del acceso a las universidades el problema es aún más importante cuando afirman que al final «muchos estudiantes -al menos los de colegios que se pueden permitir apelar las notas- acabarán obteniendo básicamente la nota que quieran» porque no hay una fuente de información fiable para establecer esa nota.

Fuente: https://www.xataka.com/robotica-e-ia/cuando-nota-no-te-pone-profesor-sino-algoritmo-caos-estudiantes-reino-unido

Comparte este contenido:

La ‘clase inútil’

Por: lahora.com.ec

Cuando finalmente se pueda habitar el mundo que gira fuera de nuestro hogar, el reto no será la conservación de empleos, sino la creación de empleos que sean más eficientes que un algoritmo, un robot o un asiático al otro lado del mundo. Incluso allí, en el mundo que se está gestando en medio de la depresión económica y el pánico sanitario, se requerirán destrezas más flexibles y creativas, más cambiantes y elásticas, que aquellas que imparte el sistema educativo ecuatoriano.

Entre tanto, en nuestro país hay niños que deben caminar hasta seis kilómetros para acceder a una computadora con conexión a Internet, y el debate se centra en qué estaciones de radio o TV se difundirán las “clases”.

El historiador y filósofo Yuval Noah Harari, autor del libro ‘21 lecciones para el siglo XXI’, advierte desde mediados de la década, de la creación de una “clase inútil”: un grupo demográfico que no solo vivirá desempleado, sino que se tornaría “inempleable”. Su predicción apuntaba al 2050, pero nadie anticipó que la pandemia empujaría a la humanidad en el tiempo. Las decisiones que se esperaba tomar en los siguientes 5, 10 o 15 años, de pronto se volvieron urgentes y decisivas. Los empleos que se presagiaba se volverían innecesarios, hoy son una realidad. El mundo se enfrenta a un desempleo masivo y a una horda de seres humanos de edad media y avanzada cuyas destrezas no serán aplicables a la demanda de una economía motivada por el miedo, la pobreza y la necesidad de automatización y tecnología.

Si algún día el Ecuador pretende sacar a su población de la pobreza, y no solo permitirle sobrevivir como lo ha hecho por 190 años de vida republicana, deberá educar para el futuro. La del Covid-19 es una oportunidad única para reinventarnos, ojalá que así lo entienda la Educación también.

Fuente: https://lahora.com.ec/quito/noticia/1102317198/la-clase-inutil

Imagen: risti611 en Pixabay

Comparte este contenido:

Descubren cómo el cerebro identifica a la persona con la que hablamos

Por: Tendencias 21

Un grupo de neuronas es capaz de distinguir las voces, las frases y la entonación.

Científicos norteamericanos han descubierto a un grupo de neuronas que es capaz de distinguir las voces, las frases y la entonación, pudiendo de esta forma identificar al hablante. El estudio confirma que el cerebro es capaz de identificar características importantes que dan significado a lo que está escuchando.

Los cambios en la entonación son fundamentales para el éxito de la comunicación humana. En las lenguas tonales, como el chino mandarín, la alteración del tono llega a cambiar por completo el significado de una palabra. Y en idiomas como el inglés o el español, esta variación puede modificar el sentido de una frase.

Aunque está demostrado que ciertas partes del cerebro humano y de otros primates son sensibles al tono vocal y al modo de hablar, ningún estudio ha descubierto el misterio sobre cómo se detectan y se representan esos cambios en el cerebro.

Investigadores de la universidad de California en San Francisco, cuyos resultados se publican en la revista Science, han identificado un grupo concreto de neuronas en el cerebro que crean diferentes respuestas a las modificaciones en el tono del lenguaje.

“Una de las misiones del laboratorio es entender de qué manera el cerebro traduce los sonidos en significado”, asegura Claire Tang, coautora del trabajo, en un comunicado de la citada universidad-

“Lo que estamos observando es que hay neuronas en el neocortex cerebral que procesan no solo qué palabras estamos diciendo, sino también cómo son dichas”, explica.

Tang y su equipo monitorizaron la actividad eléctrica de las neuronas en una parte de la corteza auditiva, el giro temporal superior (STG, por sus siglas en inglés), donde ya se habían observado indicios del procesamiento del acento, los tonos y la entonación.

Así, analizaron la respuesta de las neuronas ante cuatro frases grabadas por tres voces diferentes y con distintas entonaciones: neutral, enfatizando la primera palabra, enfatizando la tercera, o en modo pregunta.

Los resultados demostraron que algunas neuronas del STG pueden distinguir las voces debido a las diferencias en la gama vocal. Otras neuronas distinguen cada una de las frases, sin importar quién lo diga, basándose en los distintos fonemas que las forman.

Y un último grupo hace distinciones entre los cuatro patrones de entonación usados, de modo que modifican su actividad dependiendo de donde recaiga el énfasis, sin importar la frase o la persona que las pronuncie.

Algoritmo para anticiparse a las neuronas 

A partir de esta información, los científicos crearon un algoritmo para predecir la reacción de las neuronas en función del hablante, la fonética y la entonación, y trataron de deducir las respuestas ante cientos de frases pronunciadas por diferentes personas.

De este modo, observaron que las neuronas que responden a la entonación se centran más en el tono relativo alto y bajo de la voz, es decir, cómo varía la entonación a cada instante del discurso.

Por el contrario, aquellas neuronas que responden ante los distintos hablantes se enfocan más en el tono absoluto (capacidad de distinguir una nota sin la ayuda de otra referencial).

“Para mí este es uno de los aspectos más emocionantes del estudio”, asegura Tang. “Hemos sido capaces de demostrar no solo dónde se codifica la prosodia, sino cómo, al explicar la actividad en términos de cambios específicos en el tono vocal”.

El estudio, que se pudo llevar a cabo gracias a una tecnología para mapear la actividad eléctrica en pacientes con epilepsia severa antes de la cirugía, sostiene una vez más que el cerebro es capaz de identificar características importantes que dan significado a lo que está escuchando.

Pero más importante aún, revela cómo el cerebro es capaz de desmontar la compleja fuente de sonidos del habla que recibe en cuestión de milisegundos (entonación, consonantes y vocales que forman palabra y frases, etc.).

“Ahora, la pregunta importante sin contestar es cómo controla el cerebro nuestro tracto vocal para producir esos sonidos intencionales. Espero que resolvamos este misterio pronto”, concluye Tang.

Referencia
Intonational speech prosody encoding in the human auditory corte. Science  Vol. 357, Issue 6353, pp. 797-801. DOI: 10.1126/science.aam8577
Fuente: http://www.tendencias21.net/Descubren-como-el-cerebro-identifica-a-la-persona-con-la-que-hablamos_a44125.html
Comparte este contenido: