Page 2 of 47
1 2 3 4 47

Docentes y tecnología en el siglo XXI

Por: Manuel Alberto Navarro Weckmann

 

La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos.

“El objetivo real de la educación es darle alas a la mente humana”. William Butler Yeats

 

En pleno siglo XXI, con un sinfín de avances tecnológicos revolucionando nuestras vidas en todas las áreas, la escuela se encuentra en una encrucijada. Surge un debate sobre el rumbo que debe tomar en un contexto donde la inteligencia artificial y las nuevas tecnologías están transformando rápidamente nuestra sociedad. Algunos argumentan que la escuela debe abrazar estos avances y transformarse profundamente, mientras que otros creen que es el momento de repensarla y preservar su esencia humana, incluso alejándola de estas tecnologías.

Frente a este desafío, es crucial comprender que, en cualquier momento de la historia, es propicio reflexionar sobre nuestro camino y buscar opciones que nos acerquen a nuestras aspiraciones. En este contexto, resulta esencial reconocer que la presencia de los docentes frente a las aulas sigue siendo más relevante que nunca. En un mundo en constante evolución tecnológica, es su cercanía humana la que nos permite atender a nuestra naturaleza y comprender que somos la razón de nuestra existencia.

En estos tiempos de avances y retos tecnológicos, el papel del personal docente adquiere una importancia fundamental. Son ellos quienes nos invitan a la reflexión, al entendimiento y a la comprensión, guiándonos en nuestro aprendizaje social. Su cercanía y dedicación nos permiten establecer vínculos comunitarios que fomentan el desarrollo individual y colectivo.

La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos. Su labor abarca la formación de ciudadanos críticos, creativos y éticos, capaces de enfrentar los desafíos de un mundo en constante cambio. Ellos nos enseñan a analizar, cuestionar y colaborar, dotándonos de herramientas para comprender y dar sentido a la información que nos rodea.

Si bien las tecnologías pueden brindarnos acceso a una gran cantidad de información y recursos educativos, es el docente quien nos guía en el proceso de filtrar, analizar y aplicar dicho conocimiento de manera significativa. Su experiencia y sensibilidad nos permiten entender la relevancia de los contenidos académicos en el contexto de nuestras vidas y de la sociedad en la que vivimos.

En este sentido, el personal docente es fundamental para cultivar una educación humanizada que promueva valores como la empatía, la solidaridad y el respeto. Son ellos quienes nos inspiran a ser seres humanos conscientes, capaces de pensar críticamente y actuar de manera responsable en un mundo cada vez más interconectado.

 

Por tanto, en tiempos de avances y retos tecnológicos, no debemos olvidar la importancia del personal docente. Su presencia y compromiso son indispensables para aspirar a una mejor humanidad. La escuela debe ser un espacio de encuentro, diálogo y aprendizaje donde se cultive el desarrollo integral de las personas, combinando el potencial de la tecnología con la esencia humana que solo los docentes pueden transmitir. Solo a través de su dedicación y compromiso podremos construir un mundo mejor, donde la tecnología sea una herramienta al servicio de la humanidad y no un fin en sí misma. Porque la educación es el camino…

Fuente de la información e imagen:  https://profelandia.com

Comparte este contenido:

Entrevista al neurocientífico argentino Mariano Sigman «No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

Por: Antonio Martínez Ron 

El científico argentino aborda el tema de moda en su libro ‘Artificial’, convencido de que debemos tratar a la IA “como a una musa y no como a un adversario”

El desarrollo acelerado de la inteligencia artificial generativa, y su capacidad para mantener conversaciones aparentemente inteligentes o crear contenidos audiovisuales, se ha convertido en uno de los temas candentes sobre los que todo el mundo tiene una opinión. El neurocientífico Mariano Sigman y el tecnólogo Santiago Bilinkis abordan la cuestión en el libro Artificial (Debate, 2023), un ensayo en el que aportan una amplia variedad de ángulos desde los que formarse un juicio fundamentado sobre lo que nos espera en el futuro.

Lejos de los mensajes apocalípticos y del optimismo acrítico que abunda en estos días, los argumentos de Sigman y Bilinkis se centran en las amenazas y posibilidades reales que nos brinda la tecnología, a la que conciben como un instrumento del que podemos sacar provecho o convertir en un arma. Al margen de los riesgos, que los hay, los autores prefieren poner el foco en el papel que pueden jugar estas nuevas herramientas como potenciadores de nuestra creatividad y nuestras capacidades, como una especie de entrenador virtual o una mente complementaria. Charlamos con Mariano Sigman en Madrid, con su libro recién salido del horno.

Dicen ustedes que nuestros días como la especie más inteligente del planeta parecen estar contados, ¿eso es bueno o malo? 

Bueno, hay que matizar que una cosa es que estén contados y otra que falte poco. Sabemos que va a pasar, pero otra cosa es que sea inminente.

El desarrollo de la IA generativa ha producido la sensación de que hay un gran cambio, e incluso se habla de una “bomba de inteligencia”. ¿Hasta qué punto es una amenaza?

Lo que hace distintiva a esta tecnología es que, a diferencia de otras, tiene cierta autonomía. Porque un lápiz no decide escribir y una bomba no decide dispararse. Una inteligencia artificial (IA), en cambio, toma sus propias decisiones, por supuesto, sobre un marco para el que está programada. Eso le da algo que nosotros reconocemos como un “sentido de agencia” y muchas decisiones involucran una observación sobre sí mismas, y en eso empiezan a parecerse al intelecto humano. Y si es capaz de crear copias similares a sí misma, pero con diferencias que la hagan más apta, también empieza a parecerse a una especie, un colectivo que puede tomar sus propias decisiones.

Lo que temen es lo que se llama una Inteligencia Artificial General (IAG). ¿Qué es exactamente una IAG? ¿Una especie de nuevo dios?

El vínculo con la IA está repleto de exageraciones, de enfados y también de adoraciones desmedidas, una tendencia a ponerla en el lugar de un dios. Y de ninguna manera es así, la IA toma decisiones y está en nosotros decidir si tienen valor o no.

Hay estudios que dicen que nos cuesta mucho trabajo llevarle la contraria a una IA, ¿en eso ya nos tiene sometidos?

La IA genera todo tipo de proyecciones e imágenes mentales en cuanto la nombras. También hay un enorme manto de ignorancia, que viene de no haber interactuado con ella. Esto es parte de lo que quiero resolver en el libro, creo que metafóricamente la IA es como la selva, que es un lugar peligroso, pero fascinante, lleno de vida. Si sabes apreciarla, una vez que entras en ese mundo tan extraño, hay todo un espacio de fascinación. Creo que a la IA no hay que tenerle ni tanto miedo ni tanto respeto o admiración.

Creo que a la IA no hay que tenerle ni tanto miedo ni tanta admiración

Hay líderes de opinión como Yuval Noah Harari que dicen cosas muy alarmantes, como que la IA puede poner en peligro la democracia o que ha hackeado nuestro sistema operativo, que es el lenguaje. ¿Está de acuerdo?

Bueno, puede pasar. Pero la historia humana está llena de hackeos de todo tipo, toda la historia está llena de tragedias, no necesitamos IA para destruir nuestros principios y valores, nos bastamos a nosotros mismos. Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular.

Es muy interesante la relación psicológica que tenemos con la inteligencia artificial. ¿Se ha sorprendido a sí mismo alguna vez celebrando un fallo de la IA como una victoria humana?

Ja, ja. Yo no, pero soy raro y sé que le pasa a todo el mundo. Cuando Deep Blue le ganó a ajedrez a Kasparov, muchos se lo tomaron como la derrota de la humanidad. Yo nunca lo vi así. Para mí fue una victoria de la humanidad contra la humanidad, de nuestra capacidad de abstraer, de hacer programas, de hacer computadoras contra nuestra capacidad de razonar a cerebro desnudo.

A algunos de esos errores de la IA se les llama alucinaciones. ¿Estamos creando una inteligencia con nuestros mismos defectos?

En general uno empatiza con lo imperfecto. La perfección te maravilla, pero uno conecta con lo vulnerable. Por eso en las películas de Hollywood el héroe resbala, patina y es frágil.

Pero cuando una IA consigue liar a un humano para saltarse un CAPTCHA convenciéndole de que es una persona ciega, de la empatía pasamos al terror.

Bueno, en ese sentido, la IA es como los niños, que aprenden muy bien a hacer trampa y que primero tienen que saltarse ciertas reglas para aprender luego el costo de eso. Como pasa con ellos, el aprendizaje es mucho más que aplicar reglas literales, siempre tienes que entender las excepciones y los matices.

¿El peligro es que interpreten las cosas demasiado literalmente?

Eso se puede compensar, porque las nuevas redes neuronales en realidad no funcionan como programas. Lo que incorporan son un conjunto de reglas que coexisten y en ese sentido se parecen mucho a nuestro cerebro. Nuestro cerebro funciona así. O sea, tú tienes hambre y tienes ganas de comer, pero sabes que no le puedes robar la comida al otro.

Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular

Además de conversar, la IA nos asusta todavía más cuando se pone a hacer arte. ¿Nos hará repensar todo lo que sabemos sobre creatividad?

Toda la creatividad humana está montada a hombros de gigantes. Hay un documental de Orson Wells que se llama F de Fake, donde él justamente cuestiona quién es el autor de algo. Porque no es una cuestión tan clara. ¿Quién ha hecho la catedral de Chartres? Al final había uno que era el que ponía la última piedra, pero ¿era el autor?

Al final, ¿las máquinas se van a poder dedicar al empleo creativo y el trabajo duro nos va a tocar a los humanos?

Yo sé que es inevitable tener una reacción negativa hacia la IA, pero creo que hay que mirar esto con un poco más de curiosidad, y considerarla como una herramienta con la que trabajar, o una musa, más que como un adversario.

Muchas de las creaciones de la inteligencia artificial, sobre todo en audiovisual, tienen un aspecto onírico. ¿Es como si estuviéramos creando una mente capaz de soñar por nosotros?

No es solo capaz de soñar, sino que es capaz de plasmar nuestros sueños. Y esa es la idea clave. Deberíamos pensar en la IA como algo que te permite llegar a lugares que antes eran imposibles para ti. Una herramienta que te permite ir a un sitio.

El uso no detectable de la IA en el arte o en los trabajos del colegio, ¿nos conduce hacia un mundo de impostores? 

En realidad eso no es nuevo. Las fake news nos acompañan desde hace mucho tiempo. De hecho, esta mezcla de realidad y ficción nos acompaña desde los tiempos de La Ilíada. Y una manera de vincularse con GPT es establecer con ella una conversación como hacía Sócrates. Cuando tú quieres pensar algo, necesitas un interlocutor.

Un interlocutor que a veces te suelta tonterías…

Bueno, no puedes pedirle peras al olmo. GPT no es un proveedor de verdades. Lo que tú tienes que saber es qué es lo que te puede dar y qué es lo que no te puede dar.

¿Es un sparring?

Exacto. Si tú te lo tomas como alguien con el que puedes conversar o contrastar ideas, puede que te sirva para pensar las preguntas correctas, para ver alguna idea que luego incorporas. Hay que tener una visión más amplia de la inteligencia artificial, hay humanos que hacen daño a través de ella, pero también puede generar mucho esplendor. Hace poco le enseñé a mi madre cómo funcionaba y fue emocionante ver su reacción. Fue como cuando ella me llevó por primera vez a ver el mar. Por otro lado, es interesante preguntarnos ¿por qué genera tanta emoción la inteligencia artificial? Aquí hay una paradoja: la gente lo ve como algo frío, y sin embargo despierta todo tipo de emociones. Esta es la ironía.

Hay una paradoja: la gente ve la IA como algo frío y sin embargo despierta todo tipo de emociones

Si le ofrecen la posibilidad de regenerar un familiar fallecido en el mundo virtual mediante IA, ¿lo aceptaría?

Yo adoraba a mi abuelo. Se murió cuando yo tenía veintipocos años. Si pudiera recrear su voz y los cuentos que me contaba, sí lo haría. Pero creo que a mí no me gustaría verlo, porque no me resultaría creíble.

En el libro advierten de que no han utilizado ChatGPT, pero ¿una inteligencia artificial podría haber escrito un libro como este?

No, todavía no. Aún no está a la altura de hacer algo así, pero eso puede ser una cuestión de tiempo. No sé si dentro de dos años, cinco o diez. No creo que haya ninguna limitación para que un día le des toda la información y le pidas un libro con tus ideas y con tu estilo y te lo dé. Y no solo eso, es posible que llegue un día en el que tú le des una instrucción en la que le digas “hazme la película que quiero ver” y te la ofrezca.

Fuente: https://www.eldiario.es/sociedad/mariano-sigman-entrevista-inteligencia-artificial-destruirnos_128_10606005.html

Comparte este contenido:

Inteligencia digital: retos de la época

Por: Sally Burch

Internet Ciudadana entrevistó a Anita Gurumurthy y Nandini Chami, de IT for Change, India, sobre los retos a los que se enfrenta el mundo, y en particular el Sur Global, con la revolución de la inteligencia artificial. IT for Change ha elaborado varios estudios sobre tecnologías digitales, en los que, entre otras cosas, proponen el término «inteligencia digital» como concepción más amplia de este fenómeno en desarrollo. Es también la secretaría de la coalición mundial Just Net. Entrevista realizada por Sally Burch (ALAI).

1) ¿Cuál es la diferencia entre «inteligencia artificial» e «inteligencia digital»? ¿De qué manera nos ayuda el término «inteligencia digital» a comprender mejor la nueva era tecnológica?

El término inteligencia artificial desconoce los orígenes sociales de la inteligencia que produce una determinada tecnología. Mistifica la máquina. Pero el término inteligencia digital está más orientado a los sistemas. Pone de relieve la interacción entre los sistemas humanos y digitales en la resolución de problemas y la toma de decisiones, algo cada vez más habitual en el mundo de la Cuarta Revolución Industrial (4RI). El término inteligencia digital también parece tener más fundamento histórico: no implica un fetiche por las máquinas; parece reconocer la revolución de la IA como parte de una evolución más larga de las tecnologías de computación, Internet y Big Data. Esta lógica sistémica –en la que la inteligencia está integrada en las relaciones tecnosociales que componen el sistema– nos ayuda a no perder nunca de vista que el conocimiento social y el trabajo humano son la materia prima de la revolución de la inteligencia que posibilitan las nuevas facultades de la tecnología digital, en particular las tecnologías de IA.

2) Está en curso un debate internacional sobre las implicaciones de la IA, especialmente desde que se lanzó el Chat GPT4. En su opinión, ¿cuáles son las principales amenazas (y/o ventajas) de este tipo de tecnología, y qué podemos hacer al respecto, desde una perspectiva de justicia digital y comunidad?

Los milagros de la IA –incluido el fenómeno del Chat GPT– son, en efecto, trascendentales. Se trata de una coyuntura histórica muy parecida al momento Gutenberg, cuando la producción masiva de libros a través de la imprenta coadyuvó a cambios en las instituciones de la civilización. La IA puede aumentar la creatividad humana y cambiar la división social del trabajo para potenciar y transformar. Puede ser para la emancipación individual o para hacer realidad el sueño keynesiano de una vida mejor para todos. Sin embargo, el statu quo no se orienta en absoluto hacia este potencial. Hoy en día, la IA está firmemente arraigada en la lógica de la financiarización con esteroides, basada en el desprecio descarado de la dignidad humana y el bienestar de la sociedad.

La mayor amenaza que plantean las actuales trayectorias de desarrollo de la IA es la exacerbación de la crisis medioambiental. Hay nuevas evidencias que parecen indicar que la IA puede ser más un problema que una solución a nuestra lucha contra el cambio climático, la escasez de agua y el elevado consumo de energía. Algunas estimaciones sugieren que el consumo de agua para entrenar el gran modelo lingüístico GPT 3 de Open AI fue equivalente a la cantidad necesaria para llenar la torre de refrigeración de un reactor nuclear. Incluso a las start-ups y los desarrolladores de tecnología que trabajan por una industria de IA más ética y transparente les cuesta abordar el reto de la sostenibilidad. La start up HuggingFace consiguió entrenar su propio modelo lingüístico de gran tamaño BLOOM en un superordenador francés alimentado con energía nuclear, produciendo una huella de emisiones inferior a la de la mayoría de modelos de tamaño similar; pero una vez completado el entrenamiento, en la fase previa al despliegue, BLOOM emitió una huella de carbono equivalente a la de 60 vuelos entre Londres y París.

El bucle tecnológico de la IA generativa1 también ha abierto la caja de Pandora de explotación laboral. Como demostró la polémica de Sama en Kenia, los modelos lingüísticos y las herramientas de moderación de contenidos sólo pueden perfeccionarse gracias al trabajo de innumerables trabajadores de contenidos que se adentran en la basura tóxica de contenidos odiosos y violentos que provocan traumas psicológicos. El bienestar y la salud mental de los trabajadores son víctimas de la lamentable ausencia de protecciones en la cadena de valor de la inteligencia artificial para realizar trabajos de tan alto riesgo.

Una tercera preocupación que ha cobrado protagonismo en los meses posteriores a que ChatGPT tomara el mundo por asalto es el impacto a largo plazo de la revolución de la IA en el futuro del trabajo. Estudios realizados en los últimos meses por la OCDE y la OIT sugieren que la mano de obra de los países desarrollados corre un mayor riesgo inmediato de perder puestos de trabajo a causa de la automatización que permite la IA generativa; pero a largo plazo, se espera que este salto conduzca a una mayor productividad y a un aumento del PIB. La mano de obra del Sur global no se verá afectada de inmediato, pero esto no significa buenas noticias para sus perspectivas de subsistencia y bienestar a largo plazo. Si sus países quedan al margen de la IA Generativa y otros saltos tecnológicos de la IA, y se quedan atrapados en los segmentos de bajo valor de la economía –y se convierten en trabajadores temporales o soldados de a pie en la nueva 4RI, como los agricultores que cultivaban índigo en la revolución industrial británica–, lo que nos espera es un futuro económico neo-colonial que limita las opciones de la mayor parte del mundo.

El extractivismo de datos provenientes de esta mayoría mundial es lo que potencia la revolución de la IA. Y del mismo modo que el patrimonio público de la Web 2.0 fue canibalizado para el beneficio empresarial en la plataformización de Internet, frustrando la producción de conocimiento compartido y las posibilidades de puesta en común entre iguales, nos encontramos en otro momento similar en la revolución digital. La IA Generativa, en particular, amenaza con cooptar los bienes comunes del conocimiento público sin ninguna obligación de licencia para compartir/devolver a la sociedad. ¡Imaginemos una situación en la que los registros sanitarios del gobierno –datos abiertos gubernamentales– están siendo utilizados por las farmacéuticas para investigaciones patentadas sobre predicciones epidemiológicas que el gobierno se ve obligado a comprar/alquilar en una crisis sanitaria!

Los monopolios de patentes de las grandes farmacéuticas que impidieron la lucha contra el Covid deberían demostrarnos que se trata de una posibilidad muy real.

También deberíamos volver a centrarnos en la IA fundacional en lugar de en la generativa. La mayoría de la población mundial dedicada a la agricultura, la ganadería y los medios de vida relacionados con la agricultura, que dependen de los bosques y de los recursos naturales comunes, ¿puede recibir ayuda para prosperar en la era de la IA, especialmente en sus necesidades de adaptación y mitigación del cambio climático? ¿Cómo podemos habilitar modelos localizados de diagnóstico y predicción para activar alertas y estrategias a largo plazo? ¿Por qué nos limitamos a impulsar la compartición de más y más datos en direcciones que sólo parecen ayudar a las grandes empresas agrícolas y tecnológicas a integrar a la gente en condiciones extremadamente adversas en el mercado hipercapitalista de la IA? Los países en desarrollo tienen que encontrar la forma de aprovechar sus recursos de datos para su desarrollo autónomo en la revolución de la inteligencia, de forma similar a como un país como Tailandia, en Asia, se recuperó tras la crisis de los años 90 y reconstruyó su economía.

Anita Gurumurthy

Directora ejecutiva de IT for Change

3) Existe una gran preocupación por el robo de propiedad intelectual por parte de la IA, que arrastra y reutiliza datos, como la obra de artistas, sin reconocer la fuente. ¿Cómo proponen que enmarquemos este debate?

Ciertamente la IA generativa, capaz de desarrollar textos e imágenes visuales y de clonar voces, ha puesto en primer plano la cuestión del robo de la propiedad intelectual. Los responsables políticos lo abordan de diferentes maneras: China quiere controlar los flujos de información hacia la IA generativa; mientras que Japón primero quiso eliminar las solicitudes de derechos de autor en los conjuntos de datos utilizados para la IA generativa y posteriormente dio marcha atrás en su postura; la política de la UE y EE.UU. tiene ambivalencias sobre cuándo el uso legítimo cubre el entrenamiento de IA generativa. El equilibrio entre los derechos de los creadores y el uso de los recursos públicos del procomún del conocimiento para el desarrollo tecnológico sigue evolucionando.

Pasemos ahora a la perspectiva del creador. Los autores se encuentran viviendo la pesadilla de la ficción del «Gran Grammatizador Automático» de Roald Dahl, cuando la máquina de imitación imita sus estilos y voces mejor que ellos y la creación se convierte en una cadena de montaje de producción. Los derechos morales del autor o del intérprete creativo están en peligro cuando sus obras se canibalizan para entrenar a la IA generativa. También hay cuestiones de apropiación cultural, como el arte Warli indio que se subasta en Sotheby’s sin reconocer el contexto cultural de su producción por las tribus del bosque; preocupaciones que la comunidad maorí de Nueva Zelanda ha planteado e intentado abordar en el uso de su lengua y recursos lingüísticos para el desarrollo de modelos de formación. La concesión colectiva de licencias –el reconocimiento de los bienes culturales comunes de la literatura, el arte y el patrimonio cultural humano– parece importante. Podría crearse un mecanismo fiduciario para impedir la canibalización o la reutilización en violación de los bienes culturales comunes. En cuanto a la literatura y el arte, también hay que mantener el equilibrio entre los bienes comunes intelectuales como patrimonio público y común de toda la humanidad, y los derechos morales del autor. La propuesta de licencia colectiva del Gremio de Autores parece útil a este respecto. Esta propuesta dice: «El Gremio de Autores propone crear una licencia colectiva por la que una organización de gestión colectiva (OGC) concedería licencias de derechos en nombre de los autores, negociaría las tarifas con las empresas de IA y luego distribuiría el pago a los autores que se registraran en la OGC. Estas licencias podrían cubrir usos anteriores de libros, artículos y otras obras en sistemas de IA, así como usos futuros. Estos últimos no se licenciarían sin una autorización específica del autor o de otros titulares de derechos».

Nandini Chami

Directora adjunta de IT for Change

4) ¿Cuáles considera que son las principales problemáticas y propuestas relacionadas con la IA que deberían abordarse en espacios multilaterales como las Naciones Unidas, con el fin de promover la justicia digital y contrarrestar el excesivo poder de las grandes corporaciones digitales?

Hay un debate en curso, incluso en la India, sobre si la gobernanza de la IA se puede abordar adecuadamente en la escena mundial o si necesitamos respuestas a nivel nacional. Las democracias occidentales y el mundo mayoritario tienen formas diferentes de calibrar el equilibrio entre los derechos individuales y el bien social; esto se reconoce incluso en el debate sobre los derechos humanos, ya que la interpretación contextual de los derechos es extremadamente importante. Como demuestra un reciente estudio de la UNCTAD sobre los países del G20, lo que se entiende por datos personales sensibles se define de forma diferente en las distintas sociedades. Ideas de innovación centrada en el ser humano, transparencia y rendición de cuentas del mercado, trayectorias deseadas de desarrollo de la IA: necesitamos un modelo de gobernanza multiescalar en el que los derechos de las personas que se encuentran en los márgenes estén protegidos por algunas protecciones de derechos básicos y, al mismo tiempo, cada comunidad nacional pueda llegar a un proceso deliberativo para determinar cómo debe aprovechar la revolución de la IA e integrarse en la economía global respaldada por una legislación del desarrollo de la IA basada en los derechos humanos que sea justiciable. Es posible que una hiperliberalización de los mercados de servicios de datos no funcione en todos los países, ya que algunos podrían incluso beneficiarse al limitar su integración en la economía digital mundial.

(1) La IA generativa es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes y en respuesta a indicaciones. (Wikipedia)

* Anita Gurumurthy es miembro fundador y directora ejecutiva de IT for Change, donde dirige proyectos y colaboraciones de investigación con la sociedad en red, centrándose en la gobernanza, la democracia y la justicia de género, la democracia y la justicia de género.

* Nandini Chami es directora adjunta de IT for Change. Su trabajo se centra principalmente en la investigación y la promoción de políticas en los ámbitos de los derechos digitales y el desarrollo, y la economía política de los derechos de las mujeres en la sociedad de la información. Forma parte de los esfuerzos de promoción de la organización en torno a la Agenda 2030 para el Desarrollo en cuestiones de «datos para el desarrollo» y tecnologías digitales y justicia de género.

* Sally Burch es periodista angloecuatoriana. Directora Ejecutiva de ALAI. Es licenciada en Literatura por la Universidad de Warwick (Gran Bretaña) y diplomada en Periodismo por la Universidad de Concordia (Montreal, Canadá). Publica regularmente artículos sobre la mujer y la comunicación, el derecho a la información y los movimientos sociales.

Esta nota está incluida en la Revista digital Internet Ciudadana N° 10 – Octubre 2023 – ¡Otro mundo digital es posible!

Comparte este contenido:

Un buen uso de la Inteligencia Artificial puede mejorar la educación. Salman Khan

Una buena educación es la mejor herramienta para la capacitación de los más jóvenes. El futuro del aprendizaje, según el gurú educativo Salman Khan será el basado en competencias, donde no importará si lo has aprendido sentado en una silla, en la playa o en tu cocina. Sin duda un cambio importante respecto al modelo de las aulas.

Khan, pionero de la educación a distancia, se adelantó a los cambios derivados de la crisis del coronavirus en que los problemas de presencialidad obligaron a nuevas fórmulas.

Salman Khan nació en octubre de 1976 en Luisiana de padres bengalíes. Estudió en la Escuela de Negocios de Harvard y en el Instituto Tecnológico de Massachusetts. Khan obtuvo títulos universitarios en matemáticas, ingeniería eléctrica e informática, luego una maestría en informática y un MBA. Al finalizar su última carrera se desempeñó como analista financiero.

En 2004, mientras todavía trabajaba como analista financiero, Khan comenzó a grabar tutoriales de matemáticas para sus primos, que finalmente publicó en YouTube. Rápidamente se dio cuenta de que sus vídeos atraían interés gracias a la cantidad de visitas diarias. Esto lo impulsó a abandonar su profesión y dedicarse a tiempo completo a Khan Academy, una organización sin fines de lucro que él mismo creó, dedicada a la educación. Varios años más tarde, Khan Academy, en constante crecimiento y con una plantilla de unos 100 empleados, registró 42 millones de usuarios en 190 países.

Khan Academy ofrece acceso gratuito e ilimitado a una plataforma educativa de calidad que permite a cualquiera progresar a su propio ritmo.

Aunque en un principio las materias presentadas eran principalmente matemáticas y ciencias, hoy en día el contenido se ha ampliado mucho. Gracias a los educadores voluntarios, otras materias incluyen: gramática, economía, historia del arte, informática, salud, medicina y más.

En tiempo de pandemia este servicio se revalorizó enormemente. Cuando comenzó el cierre de escuelas en todo el mundo, se dieron cuenta de que se necesitaba dar un paso adelante, ya que las personas necesitarían continuidad en el aprendizaje, ya que una educación confiable y de calidad no sería del todo accesible debido al cierre.

Entonces, comenzaron a probar la capacidad de su servidor, organizando seminarios web para maestros y padres y publicando horarios diarios que ayudarían a cerrar las posibles brechas después de la fase de covid.

Ahora, con el desarrollo de nuevas tecnologías con inteligencia artificial y su infiltración en la educación, Khan Academy está desarrollando su propia IA generativa. La idea es que la herramienta sirva como tutor para los estudiantes y asistente para los profesores.

“Si usamos bien la tecnología, tendremos menos aulas donde los niños se sienten perdidos o aburridos y donde el maestro dé cátedra a los estudiantes, que es básicamente lo que sucedió en muchas escuelas durante la pandemia, con clases a través de Zoom”, asegura en una reciente entrevista para BBC Mundo.

Para el gurú negar los avances tecnológicos es una mala estrategia. El buen o mal uso de esta nueva tecnología es una extensión de las intenciones de quienes la aplican.

“En mi opinión, la mejor manera de abordar la IA en este momento es que las personas con buenas intenciones la utilicen correctamente, piensen de manera proactiva en nuevos medios de protección y traten de minimizar los riesgos. En otras palabras, no debemos escondernos, sino involucrarnos más”.

Eso no exime la necesidad de una regulación de la IA en el sector educativo para que los educadores se aseguren de que todo lo que utilizan tenga medidas de seguridad y privacidad aceptables.

“Por lo tanto, los educadores, administradores escolares y formuladores de políticas deben establecer pautas a nivel de cada región antes de elegir qué herramientas quieren utilizar” sentencia.

SALMAN KHAN
Es un educador estadounidense y fundador de Khan Academy , una plataforma educativa en línea gratuita sin fines de lucro

Un buen uso de la Inteligencia Artificial puede mejorar la educación. SALMAN KHAN

Comparte este contenido:

Mariano Narodowski: “La política intentará mantener el sistema escolar así, los cambios vendrán de la innovación y el mercado”

Por:

El docente e investigador argentino Mariano Narodowski (Buenos Aires, 1961) vaticina una transformación de los sistemas de aprendizaje de la mano de la tecnolgía para la próxima década. Exministro de Educación de la Ciudad de Buenos Aires (2007-2009) y actualmente profesor de la Universidad de Torcuato Di Tella, en la capital, se autodefine como “un educador del siglo XVII que habla mientras sus alumnos toman nota y preguntan”. En Futuros sin Escuelas. Tecnocapitalismo, impotencia reflexiva y Pansophia secuestrada (Puertabierta Ediciones, 2022), un provocador primer volumen de una serie de publicaciones de varios autores sobre el futuro de la educación, escribe: “Esta tarde se cerró la última escuela”, una advertencia de los escenarios que anticipa.

En su texto plantea una especie de dicotomía entre la tecnología educativa y la tecnología digital, la vieja tecnología versus la nueva. ¿Está llegando el final de la escuela tal y como la conocemos hasta hoy para caminar hacia un nuevo sistema en el futuro?

La modernidad europea occidental planteó desde el principio la escuela como un instrumento para la igualdad, lo que yo llamo la pansofía, o sea el saber humano para todos. Se planteó la tecnología escolar como un medio para, no como un fin en sí mismo. Por lo tanto, es totalmente razonable pensar que puede haber otros medios que puedan superar, sustituir o complementar a la tecnología escolar, sobre todo teniendo en cuenta que, si bien tuvo grandes éxitos en la historia humana (nunca como ahora tantas personas dominan la lengua escrita, por ejemplo), también es cierto que en 300 años de historia, la escuela nunca alcanzó la pansofía. Muchos países del mundo, entre los cuales están los latinoamericanos, están muy lejos de lograrla. La igualdad frente al conocimiento es sólo patrimonio de un puñado de países ricos.

¿Cuál es el mayor impacto social de la expansión de la tecnología digital en las escuelas?

En la segunda mitad del siglo XX, aparecieron tecnologías de enseñanza de transmisión del conocimiento que tienen que ver con pantallas, con redes, con inteligencia artificial (IA) que, en gran medida, presentan desafíos a la tecnología escolar. El más importante es que la tecnología escolar perdió el monopolio de la enseñanza: hasta la Segunda Guerra Mundial, el único lugar legítimo para aprender cosas eran las escuelas, mientras que hoy son un lugar más entre muchos otros. Es razonable que estas nuevas tecnologías de enseñanza se mezclen con lo escolar o puedan superarlo. Todavía estamos lejos de eso, aunque en la pandemia ya se demostró que esas tecnologías lograron -aunque no del todo bien- sustituir una parte de la escolarización.

A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación

¿La pandemia aceleró este proceso de digitalización escolar?

La pandemia evidenció los problemas de las instituciones escolares y profundizó muchos de ellos. También aceleró la incorporación de algunas tecnologías digitales y no lo hizo más porque las tecnologías digitales de la educación, en general, son del siglo XX, como el Google Classroom. Recién ahora, con el chat GPT-4, hay algunos experimentos un poco más interesantes, como Khan Academy, que sí está tratando de cambiar la lógica de lo digital aplicado a la educación. A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación. No creo que los cambios vengan por el lado de la política. Al contrario, la política intentará mantener al máximo el sistema escolar como lo conocemos. Los cambios vendrán del lado de la innovación tecnológica y del mercado. Va a llegar un momento en que los docentes, las familias y los propios estudiantes van a ver un cambio en sus vidas, tal y como nosotros vimos un cambio en las nuestras al incorporar los teléfonos inteligentes.

¿Esa aceleración provocada por la pandemia ha profundizado la brecha escolar digital?

Posiblemente, sí. Pero cada vez más gente tiene dispositivos porque son cada vez más baratos. Lo mismo ocurre con la conectividad, aunque eso no quiere decir que sea universal. Es probable que en una década tanto los dispositivos como la conectividad ya no sean un problema.

Hasta ahora lo ha sido. Naciones Unidas advirtió del aumento de la brecha digital por la pandemia entre niños, niñas y adolescentes, sobre todo en América Latina.

Hay una brecha y eso es innegable, pero si miramos el corto-mediano plazo hacia atrás veremos que esa brecha, sobre todo con los teléfonos inteligentes, se está acortando muchísimo de una forma aceleradísima por la reducción de precios de estos dispositivos, directamente relacionada con la lógica de mercado. Incluso la penetración de los teléfonos inteligentes en los países más pobres de África es cada vez más importante, aunque hay muchos problemas de conectividad.

Al final de su texto escribe un post scriptum en el que imagina que en 2030 “el desplazamiento de lo escolar hacia otros formatos” será “imparable”, habla del avance de las neurociencias con nano robots y chips, de los screening fetal para “exportar” a los mejores individuos a los países ricos y del cerebro como commodity. Un escenario un poco inquietante. ¿Es una exageración o caminamos hacia allá?

Hay muchos escenarios futuros: proyectar una única ucronía es un ejercicio de deshonestidad intelectual. Yo presento distintos escenarios basándome en la idea de que la defensa irrestricta de la escuela actual es un efecto de nostalgia y pensando que lo que viene van a ser distintos acoplamientos entre distintas tecnologías con el cuerpo. Entiendo que puede ser un poco inquietante, pero en toda la historia de la humanidad hubo cambios de ese tipo. El Homo Sapiens inició la lechería, el ordeñe de vacas y cabras, y eso implicó una modificación genética para que los cuerpos puedan admitir bien la lactosa; lo mismo pasó con la revolución agrícola para aceptar las harinas. No hay motivos para pensar que esos cambios evolutivos se hayan terminado. No creo que sea exagerado, depende del grado de aceleración. La sociedad capitalista es una sociedad de aceleración: necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir, sería un efecto de la nostalgia y de la defensa de la escuela en bloque, que a mí me parece incorrecta, porque la escuela siempre fue un medio, no un fin en sí mismo.

La sociedad capitalista necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir

En su tesis también apunta que los docentes podrían desaparecer.

Los procesos de mecanización y automatización se dan en todas las profesiones. Algunos procesos docentes ya están automatizados, por ejemplo, plataformas adaptativas para matemáticas, los nuevos procesos de Khan Academy vinculados a la inteligencia artificial usando GPT-4. No hay motivos para pensar que esto no pueda suceder en la docencia. Los modelos actuales de inteligencia artificial no son inteligencias artificiales reflexivas, son puramente memorísticas e intuitivas y todavía no tienen capacidad de enseñar, pero todo esto avanza rápidamente y puede haber un escenario diferente.

Dice que esa extinción de los docentes podría ser debido al cambio en las relaciones, que hoy son asimétricas. ¿Lo puede explicar?

Uno de los grandes logros de la tecnología escolar es la asimetría entre el que enseña y el que aprende, que es una relación típica de la enseñanza. Pero los procesos de mecanización en el capitalismo tienden a desjerarquizar las funciones, haciéndolas más simples y entre equivalentes. La pregunta es ¿se va a perder esta organización asimétrica?

También habla del futuro de la certificación escolar.

Hay muchas instituciones de educación superior, de formación profesional o escuelas corporativas que dejaron de interesarse por los títulos o los certificados oficiales porque los adecúan al mercado y a las necesidades de la demanda. Cada vez será más propio de cada institución poder certificar por fuera de la certificación estatal. Eso es un problema para los sistemas educativos porque la certificación educativa todavía es un monopolio estatal en todo el mundo. Tenemos mecanismos como el blockchain, que son contratos digitales entre dos personas y que una vez que se suscriben ya son inviolables. Así, la tecnología escolar pierde el monopolio estatal y genera un campo para que otras tecnologías puedan interactuar. Eso tiene enormes consecuencias: es profundamente disruptivo y de alguna manera nos anticipa escenarios mucho más disgregados, menos cohesionados. Pero este es un tema muy controversial.

La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar

Si se pierde la cohesión social, una de las funciones de la educación, aumenta la desigualdad y las diferencias sociales.

No necesariamente, pero sí es probable. Hay que ver cómo se organiza esa sociedad o esa comunidad. La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar. Las escuelas tratan de satisfacer a la demanda y cuanto más satisfacen a la demanda, menos cohesión social hay porque se disgrega todo mucho más. Eso está pasando en todo el mundo y no me parece que la política pueda torcer este rumbo. Chile es un caso emblemático.

Cierra su propuesta con la idea de “entregarnos a lo desconocido”. ¿Hay que resignarse a lo que se viene?

Es una idea antiesencialista y anti nostálgica para entender que el futuro no necesariamente es negativo.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/07/24/mariano-narodowski-la-politica-intentara-mantener-el-sistema-escolar-asi-los-cambios-vendran-de-la-innovacion-y-el-mercado/

Comparte este contenido:

Pilar Manchón, la española tras la IA de Google: «Sólo es el principio de una explosión de tecnología»

La inteligencia artificial aspira a revolucionar el mundo. Herramientas conversacionales como ChatGPT de OpenAI y Bard de Google han llevado esta tecnología al gran público. Sin embargo, su uso se extiende en sectores tan amplios como la salud o defensa, de ahí que se haya visto con urgencia la necesidad de regular estas herramientas. España también participa en esta revolución, bien a través de proyectos patrios u ocupando puestos de responsabilidad en gigantes multinacionales, como el caso de Pilar Manchón, sevillana que dirige el área de Estrategia de Investigación en Inteligencia Artificial en Google.

Atraída hace años por la lingüística computacional, el área que estudia y desarrolla los modelos de lenguaje natural que han servido para dar vida a los chatbots y asistentes virtuales, ahora es una de las grandes impulsoras de la inteligencia artificial del gigante de Internet. «Siempre he pensado que la Inteligencia Artificial necesita un enfoque multidisciplinar que nos permita avanzar tecnológicamente, pero sin olvidarnos de proteger la esencia de la naturaleza humana y aprender de ella al mismo tiempo», explica a EL ESPAÑOL-Omicrono.

Hace 10 años que Manchón se mudó a Estados Unidos, donde se sorprendió al ver el escaso número de mujeres que había en puestos de responsabilidad. Una infrarrepresentación que también sufre la comunidad hispana, a pesar de ser una de las más grandes entre la población del país. «Poco a poco vamos avanzando, pero aún queda mucho por hacer», asegura.

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google Google Omicrono

En 1999, llegó a la Universidad de Stanford con una beca Fullbright. Acabó fundando su propia empresa, que vendió años después a Intel, donde paso cinco años trabajando. Antes de incorporarse a Google, en su currículum también figuran compañías como Amazon o Roku, siempre centrada en la creación de inteligencias artificiales.

Con esta amplia trayectoria en Silicon Valley, esta española tiene claro que en España «pecamos de humildad y pensamos en impacto local y crecimiento lineal», aunque de nuestro país exportaría a su actual entorno la calidad de vida y las relaciones familiares y con amigos: «me parece que juegan un papel más importante en nuestra filosofía de vida».

¿Se imaginaba cuando empezó su carrera en este ámbito el salto que han dado los modelos de lenguaje natural hasta ahora?

La verdad es que a todos los investigadores nos ha cogido por sorpresa la aceleración de lo últimos meses. Pero, hace ya algunos años, recuerdo haber utilizado en alguna charla una analogía con el principio de la palanca de Arquímedes para lanzar la siguiente predicción: «Dada la suficiente cantidad de datos y la suficiente capacidad computacional, moveremos el mundo».

Creo que todavía nos queda mucho por hacer y descubrir. Solo estamos viendo los primeros destellos de una explosión de conocimiento y avances tecnológicos como nunca antes habíamos experimentado. La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

¿Qué objetivos debe marcarse la industria tecnológica a la hora de desarrollar inteligencia artificial?

Lo primordial, en mi opinión, es centrarnos en desarrollos de impacto social y científico que nos ayuden a evolucionar hacia una sociedad más humana y segura para todos. Tenemos grandes retos frente a nosotros como el cambio climático, la cura de enfermedades o el acceso a la información y a servicios básicos en muchas partes del mundo.

La IA, más que una herramienta, es una solución en potencia a muchos de nuestros problemas. No debemos olvidar sin embargo que tanto potencial conlleva también un cierto nivel de riesgo, por lo que es fundamental ser prudentes para avanzar de manera segura.

Los chatbots basados en los nuevos modelos de lenguaje natural han sido los grandes protagonistas este año, sobre todo por su llegada a los grandes buscadores de internet. ¿Cómo usa usted Bard de Google en su día a día?

La idea de Bard es que te ayude a explorar curiosidades o poner en marcha tus ideas. El otro día, por ejemplo, estaba buscando algún sitio nuevo para llevar a mis perros a dar un paseo, y Bard me dió ideas de parques y rutas cerca de casa que permiten perros. Incluso me dió detalles sobre sitios para una caminata más larga, con espacio para que puedan correr y cansarse, rutas más difíciles…

Pilar Manchón en su presentación de Outhink de Google Madrid

Pilar Manchón en su presentación de Outhink de Google Madrid Google Omicrono

Estas IA generativas siguen cometiendo errores en los datos o la información que aportan. ¿Veremos algún día a una IA conversacional que no tenga alucinaciones?

Creo firmemente que vamos a ir viendo como estos modelos mejorarán en calidad gradualmente y las alucinaciones irán decreciendo. No es realista pensar que estas tecnologías van a ser perfectas, pero sí alcanzar niveles de fiabilidad suficientes para ser cada vez más útiles y funcionales.

Actualmente, hay muchos equipos de investigación, tanto en la industria como en el mundo académico, que estudian diversas aproximaciones para evitar las alucinaciones. En algunos casos se aboga por comprobar las fuentes originales o la veracidad de la información, en otros se apuesta por reentrenamiento de los modelos con nuevos datos, o datos sintéticos, el aprendizaje por refuerzo con la retroalimentación humana (RLHF), la integración con fuentes de información fidedignas o la combinación de varias técnicas.

Su uso a gran escala ha acelerado el debate sobre la necesidad de control y legislación de esta tecnología. ¿Qué aspectos de la IA es más urgente regular?

En mi opinión, lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales, y no la tecnología en sí. Por ejemplo, la IA que se usa para detectar el cáncer de mama en las mamografías probablemente necesite un enfoque diferente a la IA que ayuda a las personas a encontrar una ruta más ecológica para llegar a casa.

También es importante regular aquellas cuyo riesgo es incierto a medio o largo plazo. Y esto es más complejo, porque no es obvio, y los beneficios sociales y económicos a corto plazo pueden sesgar nuestra capacidad de análisis. Yo abogo por investigar más en profundidad el impacto de la IA en nuestras capacidades cognitivas individuales y en los distintos colectivos sociales en función del uso que hagan de estas herramientas.

El lenguaje natural es nuestro sistema operativo y el impacto de tecnologías que pueden manejarlo, en algunos casos mejor que nosotros mismos, es aún una incógnita que debemos resolver.

Lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales.

¿Cómo se afrontan en Google estos retos? 

El objetivo principal de los desarrollos de Google es tener un impacto social  beneficioso de forma segura y transparente para las personas, y prevenir usos inapropiados. A principios de julio, por ejemplo, anunciamos una alianza entre Anthropic, Google, Microsoft y OpenAI para promover la IA responsable.

Uno de los principios éticos fundamentales de amplio consenso es la necesidad de ser transparentes en el uso de la IA. Todo producto o servicio artificialmente generado debe ser identificado como tal. Por ejemplo, la IA generativa ha hecho más fácil que nunca crear nuevos contenidos, lo que también puede ser un problema si se crean, por ejemplo, imágenes para la desinformación.

Bard, el nuevo chatbot de Google.

Bard, el nuevo chatbot de Google. Mojahid Mottaki | Unsplash El Androide Libre

En Google hemos anunciado una herramienta llamada «Acerca de esta imagen» para ayudar a las personas a verificar si una imágen es fiable. A medida que empecemos a implementar capacidades de imagen generativa, esas imágenes tendrán una marca en el archivo original para darle contexto incluso fuera de nuestras plataformas.

Antes de poner nuestros productos y servicios a disposición del público, la prioridad ha sido siempre hacerlas lo más seguras posible, prevenir errores o efectos colaterales indeseados y anticiparnos a las necesidades de las personas. También es fundamental proteger los datos de cada cliente y garantizar que su información y valor diferencial nunca saldrán de su control.

¿Qué opinión tiene de la ley que está elaborando la Unión Europea?

Es difícil predecir cuál será la versión final ya que aún está en fase de borrador. La propuesta de la Comisión Europea es, en general, proporcionada. Hay aspectos que me parecen muy razonables y otros que requieren, en mi opinión, una evaluación más exhaustiva. Estándares y mayor concreción en casos de uso, escenarios y reglas de aplicación, por ejemplo, son importantes para que la ley no sólo tenga buenas intenciones sino también aplicación práctica.

El programa de ‘sandbox’ que se está poniendo en marcha va a ser decisivo. También es fundamental garantizar que la IA se aplique de manera segura y que sea confiable, al mismo tiempo que apoye la innovación impulsada por la IA por parte de las empresas y el progreso científico de las universidades. El objetivo debería ser mantener la capacidad de la UE de optimizar la aplicación de IA en sectores críticos.

¿El miedo a una inteligencia artificial superior a la humana es lógico? ¿Podríamos estar ante un sistema con conciencia como han apuntado algunos expertos dentro del sector?

La inteligencia y la conciencia son conceptos que se entienden de manera sencilla en un contexto humano. Sin embargo, su definición desde el punto de vista artificial o abstracto es más compleja. La inteligencia artificial ya es superior a la humana en muchos aspectos, pero no en aquellos que nosotros mismos consideramos como fundamentales desde la perspectiva de una persona sin formación específica en la materia. Cuando hablamos  por ejemplo de «sentido común», «libre albedrío» o de la «experiencia subjetiva de ser» como partes fundamentales de la inteligencia y la conciencia humana, todavía estamos muy lejos de eso.

Fuente: https://www.elespanol.com/omicrono/tecnologia/20230819/pilar-manchon-espanola-ia-google-solo-principio-explosion-tecnologia/786671561_0.html

Comparte este contenido:

Cuando los DDHH se convierten en un juego de lotería impulsado por la IA

Por: Juan Ortiz Freuler

Las aplicaciones de inteligencia artificial (IA) como ChatGPT están normalizando un giro probabilístico en la visión Occidental del mundo; este giro promueve la aceptación de la incertidumbre a través del pensamiento probabilístico y eleva la estadística y el modelado complejo como aproximaciones al conocimiento.

Con el despliegue de ChatGPT, por ejemplo, el propio lenguaje humano se replantea como un sistema de meras probabilidades, una lotería en la cual la verdad y los hechos son meros participantes.

Esto explica por qué ChatGPT mezcla de forma sistemática y confiada la verdad con ficciones plausibles, alucinaciones que se espera que aceptemos como un efecto secundario inevitable que será menos incómodo una vez que adoptemos plenamente la visión probabilística del mundo.

Este cambio hacia una visión probabilística del mundo es una lenta corriente subterránea que ha ido ganando terreno en las últimas décadas y, como tal, es a la vez más generalizada y menos tangible que gran parte del marco tecnológico que domina el ciclo de noticias. Este cambio probabilístico se basa en el cambio cuantitativo que se viene produciendo desde los años setenta tanto en el gobierno como en el mundo académico.

El enfoque probabilístico lleva décadas presente en los sistemas de scoring (por ejemplo, de crédito o de seguros) y cada vez está más presente en la vida cotidiana. En esencia, estos sistemas evalúan el comportamiento no observado de ciertos individuos proyectando sobre ellos el comportamiento observado de individuos que comparten determinadas características que el programa y los diseñadores de su sistema consideran relevantes y, por tanto, reciben el mismo trato o un trato similar.

Gracias al despliegue de sensores en los dispositivos personales, como smartphones, y al aumento del tiempo que se pasa en entornos virtuales fuertemente vigilados, la elección de las características que se utilizan para definir los límites de estos grupos construidos de manera artificial se ha vuelto cada vez más granular y abstracta.

Por ejemplo, podríamos imaginar que un modelos predictivos creara la agrupación X98899T2, que reúne a todas las personas que en algún momento han visitado un sitio web de un determinado champú, han estado en un aeropuerto una vez en los últimos seis meses, tienen entre 40 y 55 años y poseen un iPhone, siempre y cuando se demuestre estadísticamente que esta colección aparentemente aleatoria de características es buena predictora de algún otro comportamiento, como comprar un perfume de la marca X.

Las categorías que tradicionalmente han sido fundamentales para ordenar la vida humana, como la edad y el sexo, pierden relevancia a medida que estas segmentaciones abstractas, sin etiquetar y hechas a medida, destinadas a informar decisiones no humanas sino informáticas, ocupan su lugar.

Una reciente investigación de Markup reveló un archivo con 650 000 etiquetas discretas utilizadas por los anunciantes para categorizar a las personas. Para poner esta cifra en contexto, son más de dos etiquetas por cada una de las 270 000 palabras definidas en el Oxford English Dictionary.

Como resultado, el destino de algo como si recibimos o no un anuncio para un alquiler o un trabajo, pasa a estar sujeto a una compleja función que equilibra cientos de variables antes no disponibles (y a menudo datos aparentemente irrelevantes).

Con base en la combinación de estos puntos de datos que antes no estaban disponibles, estos complejos modelos nos colocan en una cohorte de personas que se considera lo suficientemente similares a nosotros  como para afirmar que su comportamiento predice el nuestro, a menudo afectándonos como si en realidad hubiéramos actuado como ellos.

Este preocupante sistema secreto se está desplegando en paralelo a un proceso de continua privatización del conocimiento en general y de las tecnologías de IA en particular.

Este giro probabilístico sacude concepciones de certeza y causalidad que han estado en el centro de nuestra cosmovisión occidental y que, quizá desde la Ilustración, promovieron la adopción del método científico.

Como tal, el profundo giro probabilístico también está desestabilizando los pilares de nuestro sistema de derechos humanos. En particular, desestabiliza la idea de que los derechos humanos son inalienables y universales.

Los derechos humanos no pueden ser inalienables cuando nuestra capacidad para ejercerlos está mediada por máquinas probabilísticas. Esto es precisamente lo que ocurre, por ejemplo, cuando los sistemas automatizados de moderación de contenidos limitan lo que podemos expresar en las redes sociales.

La normalización de esta práctica ha llevado a los legisladores de la UE a codificarla en la ley, lo cual convierte la libertad de expresión en un derecho probabilístico que, dada la cantidad de falsos positivos, entiende que nuestra capacidad para ejercer la libertad de expresión está sujeta a una lotería.

El pilar de la universalidad, a su vez, se ve amenazado por la forma en que la IA está desplazando la atención del individuo al grupo y de un enfoque en la agencia y la responsabilidad por las acciones pasadas hacia un enfoque prospectivo que busca la reducción probabilística de daños futuros.

El sistema de organización social a través de derechos que se construyó con el individuo como elemento central está en crisis porque se ha cuestionado la relevancia del conjunto de características que se colocaron bajo la etiqueta de individuo, incluida la propia idea de autonomía individual.

Por ejemplo, esta visión probabilística del mundo dará a los jueces una confianza tecnológicamente infundida en su capacidad para predecir comportamientos futuros, lo que determinará sus sentencias.

Esto no se debe únicamente a la perspectiva prospectiva, sino a que la idea de la responsabilidad personal se diluirá por la normalización de un sistema que deriva cada vez más autoridad de su capacidad para procesar percepciones a nivel de población.

Se trata de un cambio respecto a la fundamentación de la autoridad en la capacidad de estudiar y comprender al individuo subyacente, la cual ha caracterizado a la mayoría de los sistemas judiciales modernos de los últimos siglos.

Por un lado, como señala Kathrina Geddes, esta transformación podría permitirnos reconocer la naturaleza sistémica de algunos de nuestros problemas sociales. Podría ayudarnos a desplazar el juicio moral desde el individuo al conjunto global de relaciones que definen la estructura social en su conjunto.

Por otro lado, la complejidad de las herramientas que se despliegan para operar a esta escala epistémica desafían la comprensión humana y, por tanto, crean espacio para la consolidación del poder en manos de una élite cada vez más reducida e incontrolable

Una élite que se reserva el derecho a interpretar los dichos de lo que parecería estar comercializándose como nuevos dioses de Silicio y un sistema que nos obliga a participar en una lotería constante que definirá lo que vemos en Internet, qué trabajos nos ofrecen, para qué relaciones estamos disponibles y si vamos o no a la cárcel.

Si hubiera espacio para reformular los valores que subyacen a estas tecnologías para ponerlas al servicio del interés público, los gobiernos tendrían que reafirmar su legitimidad democrática como arquitectos de las relaciones sociales y sustituir los incentivos de mercado que alimentan el desarrollo tecnológico por objetivos de interés público.

Las empresas dominantes se presentan como las únicas capaces de salvar al público del grave riesgo que suponen los complejos sistemas que ellas mismas han creado y que, según afirman, son demasiado complejos para ser auditados.

A menos que adoptemos una postura activa frente a estas tecnologías, este proceso remodelará nuestra forma de entender la identidad y convertirá nuestro sistema de derechos humanos en una lotería secreta.

Este es un artículo de opinión de Juan Ortiz Freuler, doctorando en la Escuela de Comunicación y Periodismo Annenberg de la estadounidense Universidad del Sur de California y remero del movimiento tecnológico no alineado.

El autor, Juan Ortiz Freuler
El autor, Juan Ortiz Freuler
Fuentes: IPS noticias [Foto: Imagen generada por IA de una jueza probabilística que sostiene una bola de lotería. La imagen se generó a partir de la siguiente indicación: «cuadro retro futurista distópico de una jueza británica que lleva una peluca blanca y señala un paquete de tres bolas de lotería blancas que flotan sobre su mano contra un papel pintado con microchips de color verde eléctrico y rojo». La creó el autor con DALL-E; modificado por Alejandro Ospina. Imagen: Juan Ortiz Freuler / Aljandro Ospina]
Comparte este contenido:
Page 2 of 47
1 2 3 4 47