Saltar al contenido principal
Page 3 of 48
1 2 3 4 5 48

Un buen uso de la Inteligencia Artificial puede mejorar la educación. Salman Khan

Una buena educación es la mejor herramienta para la capacitación de los más jóvenes. El futuro del aprendizaje, según el gurú educativo Salman Khan será el basado en competencias, donde no importará si lo has aprendido sentado en una silla, en la playa o en tu cocina. Sin duda un cambio importante respecto al modelo de las aulas.

Khan, pionero de la educación a distancia, se adelantó a los cambios derivados de la crisis del coronavirus en que los problemas de presencialidad obligaron a nuevas fórmulas.

Salman Khan nació en octubre de 1976 en Luisiana de padres bengalíes. Estudió en la Escuela de Negocios de Harvard y en el Instituto Tecnológico de Massachusetts. Khan obtuvo títulos universitarios en matemáticas, ingeniería eléctrica e informática, luego una maestría en informática y un MBA. Al finalizar su última carrera se desempeñó como analista financiero.

En 2004, mientras todavía trabajaba como analista financiero, Khan comenzó a grabar tutoriales de matemáticas para sus primos, que finalmente publicó en YouTube. Rápidamente se dio cuenta de que sus vídeos atraían interés gracias a la cantidad de visitas diarias. Esto lo impulsó a abandonar su profesión y dedicarse a tiempo completo a Khan Academy, una organización sin fines de lucro que él mismo creó, dedicada a la educación. Varios años más tarde, Khan Academy, en constante crecimiento y con una plantilla de unos 100 empleados, registró 42 millones de usuarios en 190 países.

Khan Academy ofrece acceso gratuito e ilimitado a una plataforma educativa de calidad que permite a cualquiera progresar a su propio ritmo.

Aunque en un principio las materias presentadas eran principalmente matemáticas y ciencias, hoy en día el contenido se ha ampliado mucho. Gracias a los educadores voluntarios, otras materias incluyen: gramática, economía, historia del arte, informática, salud, medicina y más.

En tiempo de pandemia este servicio se revalorizó enormemente. Cuando comenzó el cierre de escuelas en todo el mundo, se dieron cuenta de que se necesitaba dar un paso adelante, ya que las personas necesitarían continuidad en el aprendizaje, ya que una educación confiable y de calidad no sería del todo accesible debido al cierre.

Entonces, comenzaron a probar la capacidad de su servidor, organizando seminarios web para maestros y padres y publicando horarios diarios que ayudarían a cerrar las posibles brechas después de la fase de covid.

Ahora, con el desarrollo de nuevas tecnologías con inteligencia artificial y su infiltración en la educación, Khan Academy está desarrollando su propia IA generativa. La idea es que la herramienta sirva como tutor para los estudiantes y asistente para los profesores.

“Si usamos bien la tecnología, tendremos menos aulas donde los niños se sienten perdidos o aburridos y donde el maestro dé cátedra a los estudiantes, que es básicamente lo que sucedió en muchas escuelas durante la pandemia, con clases a través de Zoom”, asegura en una reciente entrevista para BBC Mundo.

Para el gurú negar los avances tecnológicos es una mala estrategia. El buen o mal uso de esta nueva tecnología es una extensión de las intenciones de quienes la aplican.

“En mi opinión, la mejor manera de abordar la IA en este momento es que las personas con buenas intenciones la utilicen correctamente, piensen de manera proactiva en nuevos medios de protección y traten de minimizar los riesgos. En otras palabras, no debemos escondernos, sino involucrarnos más”.

Eso no exime la necesidad de una regulación de la IA en el sector educativo para que los educadores se aseguren de que todo lo que utilizan tenga medidas de seguridad y privacidad aceptables.

“Por lo tanto, los educadores, administradores escolares y formuladores de políticas deben establecer pautas a nivel de cada región antes de elegir qué herramientas quieren utilizar” sentencia.

SALMAN KHAN
Es un educador estadounidense y fundador de Khan Academy , una plataforma educativa en línea gratuita sin fines de lucro

Un buen uso de la Inteligencia Artificial puede mejorar la educación. SALMAN KHAN

Comparte este contenido:

Mariano Narodowski: “La política intentará mantener el sistema escolar así, los cambios vendrán de la innovación y el mercado”

Por:

El docente e investigador argentino Mariano Narodowski (Buenos Aires, 1961) vaticina una transformación de los sistemas de aprendizaje de la mano de la tecnolgía para la próxima década. Exministro de Educación de la Ciudad de Buenos Aires (2007-2009) y actualmente profesor de la Universidad de Torcuato Di Tella, en la capital, se autodefine como “un educador del siglo XVII que habla mientras sus alumnos toman nota y preguntan”. En Futuros sin Escuelas. Tecnocapitalismo, impotencia reflexiva y Pansophia secuestrada (Puertabierta Ediciones, 2022), un provocador primer volumen de una serie de publicaciones de varios autores sobre el futuro de la educación, escribe: “Esta tarde se cerró la última escuela”, una advertencia de los escenarios que anticipa.

En su texto plantea una especie de dicotomía entre la tecnología educativa y la tecnología digital, la vieja tecnología versus la nueva. ¿Está llegando el final de la escuela tal y como la conocemos hasta hoy para caminar hacia un nuevo sistema en el futuro?

La modernidad europea occidental planteó desde el principio la escuela como un instrumento para la igualdad, lo que yo llamo la pansofía, o sea el saber humano para todos. Se planteó la tecnología escolar como un medio para, no como un fin en sí mismo. Por lo tanto, es totalmente razonable pensar que puede haber otros medios que puedan superar, sustituir o complementar a la tecnología escolar, sobre todo teniendo en cuenta que, si bien tuvo grandes éxitos en la historia humana (nunca como ahora tantas personas dominan la lengua escrita, por ejemplo), también es cierto que en 300 años de historia, la escuela nunca alcanzó la pansofía. Muchos países del mundo, entre los cuales están los latinoamericanos, están muy lejos de lograrla. La igualdad frente al conocimiento es sólo patrimonio de un puñado de países ricos.

¿Cuál es el mayor impacto social de la expansión de la tecnología digital en las escuelas?

En la segunda mitad del siglo XX, aparecieron tecnologías de enseñanza de transmisión del conocimiento que tienen que ver con pantallas, con redes, con inteligencia artificial (IA) que, en gran medida, presentan desafíos a la tecnología escolar. El más importante es que la tecnología escolar perdió el monopolio de la enseñanza: hasta la Segunda Guerra Mundial, el único lugar legítimo para aprender cosas eran las escuelas, mientras que hoy son un lugar más entre muchos otros. Es razonable que estas nuevas tecnologías de enseñanza se mezclen con lo escolar o puedan superarlo. Todavía estamos lejos de eso, aunque en la pandemia ya se demostró que esas tecnologías lograron -aunque no del todo bien- sustituir una parte de la escolarización.

A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación

¿La pandemia aceleró este proceso de digitalización escolar?

La pandemia evidenció los problemas de las instituciones escolares y profundizó muchos de ellos. También aceleró la incorporación de algunas tecnologías digitales y no lo hizo más porque las tecnologías digitales de la educación, en general, son del siglo XX, como el Google Classroom. Recién ahora, con el chat GPT-4, hay algunos experimentos un poco más interesantes, como Khan Academy, que sí está tratando de cambiar la lógica de lo digital aplicado a la educación. A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación. No creo que los cambios vengan por el lado de la política. Al contrario, la política intentará mantener al máximo el sistema escolar como lo conocemos. Los cambios vendrán del lado de la innovación tecnológica y del mercado. Va a llegar un momento en que los docentes, las familias y los propios estudiantes van a ver un cambio en sus vidas, tal y como nosotros vimos un cambio en las nuestras al incorporar los teléfonos inteligentes.

¿Esa aceleración provocada por la pandemia ha profundizado la brecha escolar digital?

Posiblemente, sí. Pero cada vez más gente tiene dispositivos porque son cada vez más baratos. Lo mismo ocurre con la conectividad, aunque eso no quiere decir que sea universal. Es probable que en una década tanto los dispositivos como la conectividad ya no sean un problema.

Hasta ahora lo ha sido. Naciones Unidas advirtió del aumento de la brecha digital por la pandemia entre niños, niñas y adolescentes, sobre todo en América Latina.

Hay una brecha y eso es innegable, pero si miramos el corto-mediano plazo hacia atrás veremos que esa brecha, sobre todo con los teléfonos inteligentes, se está acortando muchísimo de una forma aceleradísima por la reducción de precios de estos dispositivos, directamente relacionada con la lógica de mercado. Incluso la penetración de los teléfonos inteligentes en los países más pobres de África es cada vez más importante, aunque hay muchos problemas de conectividad.

Al final de su texto escribe un post scriptum en el que imagina que en 2030 “el desplazamiento de lo escolar hacia otros formatos” será “imparable”, habla del avance de las neurociencias con nano robots y chips, de los screening fetal para “exportar” a los mejores individuos a los países ricos y del cerebro como commodity. Un escenario un poco inquietante. ¿Es una exageración o caminamos hacia allá?

Hay muchos escenarios futuros: proyectar una única ucronía es un ejercicio de deshonestidad intelectual. Yo presento distintos escenarios basándome en la idea de que la defensa irrestricta de la escuela actual es un efecto de nostalgia y pensando que lo que viene van a ser distintos acoplamientos entre distintas tecnologías con el cuerpo. Entiendo que puede ser un poco inquietante, pero en toda la historia de la humanidad hubo cambios de ese tipo. El Homo Sapiens inició la lechería, el ordeñe de vacas y cabras, y eso implicó una modificación genética para que los cuerpos puedan admitir bien la lactosa; lo mismo pasó con la revolución agrícola para aceptar las harinas. No hay motivos para pensar que esos cambios evolutivos se hayan terminado. No creo que sea exagerado, depende del grado de aceleración. La sociedad capitalista es una sociedad de aceleración: necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir, sería un efecto de la nostalgia y de la defensa de la escuela en bloque, que a mí me parece incorrecta, porque la escuela siempre fue un medio, no un fin en sí mismo.

La sociedad capitalista necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir

En su tesis también apunta que los docentes podrían desaparecer.

Los procesos de mecanización y automatización se dan en todas las profesiones. Algunos procesos docentes ya están automatizados, por ejemplo, plataformas adaptativas para matemáticas, los nuevos procesos de Khan Academy vinculados a la inteligencia artificial usando GPT-4. No hay motivos para pensar que esto no pueda suceder en la docencia. Los modelos actuales de inteligencia artificial no son inteligencias artificiales reflexivas, son puramente memorísticas e intuitivas y todavía no tienen capacidad de enseñar, pero todo esto avanza rápidamente y puede haber un escenario diferente.

Dice que esa extinción de los docentes podría ser debido al cambio en las relaciones, que hoy son asimétricas. ¿Lo puede explicar?

Uno de los grandes logros de la tecnología escolar es la asimetría entre el que enseña y el que aprende, que es una relación típica de la enseñanza. Pero los procesos de mecanización en el capitalismo tienden a desjerarquizar las funciones, haciéndolas más simples y entre equivalentes. La pregunta es ¿se va a perder esta organización asimétrica?

También habla del futuro de la certificación escolar.

Hay muchas instituciones de educación superior, de formación profesional o escuelas corporativas que dejaron de interesarse por los títulos o los certificados oficiales porque los adecúan al mercado y a las necesidades de la demanda. Cada vez será más propio de cada institución poder certificar por fuera de la certificación estatal. Eso es un problema para los sistemas educativos porque la certificación educativa todavía es un monopolio estatal en todo el mundo. Tenemos mecanismos como el blockchain, que son contratos digitales entre dos personas y que una vez que se suscriben ya son inviolables. Así, la tecnología escolar pierde el monopolio estatal y genera un campo para que otras tecnologías puedan interactuar. Eso tiene enormes consecuencias: es profundamente disruptivo y de alguna manera nos anticipa escenarios mucho más disgregados, menos cohesionados. Pero este es un tema muy controversial.

La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar

Si se pierde la cohesión social, una de las funciones de la educación, aumenta la desigualdad y las diferencias sociales.

No necesariamente, pero sí es probable. Hay que ver cómo se organiza esa sociedad o esa comunidad. La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar. Las escuelas tratan de satisfacer a la demanda y cuanto más satisfacen a la demanda, menos cohesión social hay porque se disgrega todo mucho más. Eso está pasando en todo el mundo y no me parece que la política pueda torcer este rumbo. Chile es un caso emblemático.

Cierra su propuesta con la idea de “entregarnos a lo desconocido”. ¿Hay que resignarse a lo que se viene?

Es una idea antiesencialista y anti nostálgica para entender que el futuro no necesariamente es negativo.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/07/24/mariano-narodowski-la-politica-intentara-mantener-el-sistema-escolar-asi-los-cambios-vendran-de-la-innovacion-y-el-mercado/

Comparte este contenido:

Pilar Manchón, la española tras la IA de Google: «Sólo es el principio de una explosión de tecnología»

La inteligencia artificial aspira a revolucionar el mundo. Herramientas conversacionales como ChatGPT de OpenAI y Bard de Google han llevado esta tecnología al gran público. Sin embargo, su uso se extiende en sectores tan amplios como la salud o defensa, de ahí que se haya visto con urgencia la necesidad de regular estas herramientas. España también participa en esta revolución, bien a través de proyectos patrios u ocupando puestos de responsabilidad en gigantes multinacionales, como el caso de Pilar Manchón, sevillana que dirige el área de Estrategia de Investigación en Inteligencia Artificial en Google.

Atraída hace años por la lingüística computacional, el área que estudia y desarrolla los modelos de lenguaje natural que han servido para dar vida a los chatbots y asistentes virtuales, ahora es una de las grandes impulsoras de la inteligencia artificial del gigante de Internet. «Siempre he pensado que la Inteligencia Artificial necesita un enfoque multidisciplinar que nos permita avanzar tecnológicamente, pero sin olvidarnos de proteger la esencia de la naturaleza humana y aprender de ella al mismo tiempo», explica a EL ESPAÑOL-Omicrono.

Hace 10 años que Manchón se mudó a Estados Unidos, donde se sorprendió al ver el escaso número de mujeres que había en puestos de responsabilidad. Una infrarrepresentación que también sufre la comunidad hispana, a pesar de ser una de las más grandes entre la población del país. «Poco a poco vamos avanzando, pero aún queda mucho por hacer», asegura.

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google Google Omicrono

En 1999, llegó a la Universidad de Stanford con una beca Fullbright. Acabó fundando su propia empresa, que vendió años después a Intel, donde paso cinco años trabajando. Antes de incorporarse a Google, en su currículum también figuran compañías como Amazon o Roku, siempre centrada en la creación de inteligencias artificiales.

Con esta amplia trayectoria en Silicon Valley, esta española tiene claro que en España «pecamos de humildad y pensamos en impacto local y crecimiento lineal», aunque de nuestro país exportaría a su actual entorno la calidad de vida y las relaciones familiares y con amigos: «me parece que juegan un papel más importante en nuestra filosofía de vida».

¿Se imaginaba cuando empezó su carrera en este ámbito el salto que han dado los modelos de lenguaje natural hasta ahora?

La verdad es que a todos los investigadores nos ha cogido por sorpresa la aceleración de lo últimos meses. Pero, hace ya algunos años, recuerdo haber utilizado en alguna charla una analogía con el principio de la palanca de Arquímedes para lanzar la siguiente predicción: «Dada la suficiente cantidad de datos y la suficiente capacidad computacional, moveremos el mundo».

Creo que todavía nos queda mucho por hacer y descubrir. Solo estamos viendo los primeros destellos de una explosión de conocimiento y avances tecnológicos como nunca antes habíamos experimentado. La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

¿Qué objetivos debe marcarse la industria tecnológica a la hora de desarrollar inteligencia artificial?

Lo primordial, en mi opinión, es centrarnos en desarrollos de impacto social y científico que nos ayuden a evolucionar hacia una sociedad más humana y segura para todos. Tenemos grandes retos frente a nosotros como el cambio climático, la cura de enfermedades o el acceso a la información y a servicios básicos en muchas partes del mundo.

La IA, más que una herramienta, es una solución en potencia a muchos de nuestros problemas. No debemos olvidar sin embargo que tanto potencial conlleva también un cierto nivel de riesgo, por lo que es fundamental ser prudentes para avanzar de manera segura.

Los chatbots basados en los nuevos modelos de lenguaje natural han sido los grandes protagonistas este año, sobre todo por su llegada a los grandes buscadores de internet. ¿Cómo usa usted Bard de Google en su día a día?

La idea de Bard es que te ayude a explorar curiosidades o poner en marcha tus ideas. El otro día, por ejemplo, estaba buscando algún sitio nuevo para llevar a mis perros a dar un paseo, y Bard me dió ideas de parques y rutas cerca de casa que permiten perros. Incluso me dió detalles sobre sitios para una caminata más larga, con espacio para que puedan correr y cansarse, rutas más difíciles…

Pilar Manchón en su presentación de Outhink de Google Madrid

Pilar Manchón en su presentación de Outhink de Google Madrid Google Omicrono

Estas IA generativas siguen cometiendo errores en los datos o la información que aportan. ¿Veremos algún día a una IA conversacional que no tenga alucinaciones?

Creo firmemente que vamos a ir viendo como estos modelos mejorarán en calidad gradualmente y las alucinaciones irán decreciendo. No es realista pensar que estas tecnologías van a ser perfectas, pero sí alcanzar niveles de fiabilidad suficientes para ser cada vez más útiles y funcionales.

Actualmente, hay muchos equipos de investigación, tanto en la industria como en el mundo académico, que estudian diversas aproximaciones para evitar las alucinaciones. En algunos casos se aboga por comprobar las fuentes originales o la veracidad de la información, en otros se apuesta por reentrenamiento de los modelos con nuevos datos, o datos sintéticos, el aprendizaje por refuerzo con la retroalimentación humana (RLHF), la integración con fuentes de información fidedignas o la combinación de varias técnicas.

Su uso a gran escala ha acelerado el debate sobre la necesidad de control y legislación de esta tecnología. ¿Qué aspectos de la IA es más urgente regular?

En mi opinión, lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales, y no la tecnología en sí. Por ejemplo, la IA que se usa para detectar el cáncer de mama en las mamografías probablemente necesite un enfoque diferente a la IA que ayuda a las personas a encontrar una ruta más ecológica para llegar a casa.

También es importante regular aquellas cuyo riesgo es incierto a medio o largo plazo. Y esto es más complejo, porque no es obvio, y los beneficios sociales y económicos a corto plazo pueden sesgar nuestra capacidad de análisis. Yo abogo por investigar más en profundidad el impacto de la IA en nuestras capacidades cognitivas individuales y en los distintos colectivos sociales en función del uso que hagan de estas herramientas.

El lenguaje natural es nuestro sistema operativo y el impacto de tecnologías que pueden manejarlo, en algunos casos mejor que nosotros mismos, es aún una incógnita que debemos resolver.

Lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales.

¿Cómo se afrontan en Google estos retos? 

El objetivo principal de los desarrollos de Google es tener un impacto social  beneficioso de forma segura y transparente para las personas, y prevenir usos inapropiados. A principios de julio, por ejemplo, anunciamos una alianza entre Anthropic, Google, Microsoft y OpenAI para promover la IA responsable.

Uno de los principios éticos fundamentales de amplio consenso es la necesidad de ser transparentes en el uso de la IA. Todo producto o servicio artificialmente generado debe ser identificado como tal. Por ejemplo, la IA generativa ha hecho más fácil que nunca crear nuevos contenidos, lo que también puede ser un problema si se crean, por ejemplo, imágenes para la desinformación.

Bard, el nuevo chatbot de Google.

Bard, el nuevo chatbot de Google. Mojahid Mottaki | Unsplash El Androide Libre

En Google hemos anunciado una herramienta llamada «Acerca de esta imagen» para ayudar a las personas a verificar si una imágen es fiable. A medida que empecemos a implementar capacidades de imagen generativa, esas imágenes tendrán una marca en el archivo original para darle contexto incluso fuera de nuestras plataformas.

Antes de poner nuestros productos y servicios a disposición del público, la prioridad ha sido siempre hacerlas lo más seguras posible, prevenir errores o efectos colaterales indeseados y anticiparnos a las necesidades de las personas. También es fundamental proteger los datos de cada cliente y garantizar que su información y valor diferencial nunca saldrán de su control.

¿Qué opinión tiene de la ley que está elaborando la Unión Europea?

Es difícil predecir cuál será la versión final ya que aún está en fase de borrador. La propuesta de la Comisión Europea es, en general, proporcionada. Hay aspectos que me parecen muy razonables y otros que requieren, en mi opinión, una evaluación más exhaustiva. Estándares y mayor concreción en casos de uso, escenarios y reglas de aplicación, por ejemplo, son importantes para que la ley no sólo tenga buenas intenciones sino también aplicación práctica.

El programa de ‘sandbox’ que se está poniendo en marcha va a ser decisivo. También es fundamental garantizar que la IA se aplique de manera segura y que sea confiable, al mismo tiempo que apoye la innovación impulsada por la IA por parte de las empresas y el progreso científico de las universidades. El objetivo debería ser mantener la capacidad de la UE de optimizar la aplicación de IA en sectores críticos.

¿El miedo a una inteligencia artificial superior a la humana es lógico? ¿Podríamos estar ante un sistema con conciencia como han apuntado algunos expertos dentro del sector?

La inteligencia y la conciencia son conceptos que se entienden de manera sencilla en un contexto humano. Sin embargo, su definición desde el punto de vista artificial o abstracto es más compleja. La inteligencia artificial ya es superior a la humana en muchos aspectos, pero no en aquellos que nosotros mismos consideramos como fundamentales desde la perspectiva de una persona sin formación específica en la materia. Cuando hablamos  por ejemplo de «sentido común», «libre albedrío» o de la «experiencia subjetiva de ser» como partes fundamentales de la inteligencia y la conciencia humana, todavía estamos muy lejos de eso.

Fuente: https://www.elespanol.com/omicrono/tecnologia/20230819/pilar-manchon-espanola-ia-google-solo-principio-explosion-tecnologia/786671561_0.html

Comparte este contenido:

Cuando los DDHH se convierten en un juego de lotería impulsado por la IA

Por: Juan Ortiz Freuler

Las aplicaciones de inteligencia artificial (IA) como ChatGPT están normalizando un giro probabilístico en la visión Occidental del mundo; este giro promueve la aceptación de la incertidumbre a través del pensamiento probabilístico y eleva la estadística y el modelado complejo como aproximaciones al conocimiento.

Con el despliegue de ChatGPT, por ejemplo, el propio lenguaje humano se replantea como un sistema de meras probabilidades, una lotería en la cual la verdad y los hechos son meros participantes.

Esto explica por qué ChatGPT mezcla de forma sistemática y confiada la verdad con ficciones plausibles, alucinaciones que se espera que aceptemos como un efecto secundario inevitable que será menos incómodo una vez que adoptemos plenamente la visión probabilística del mundo.

Este cambio hacia una visión probabilística del mundo es una lenta corriente subterránea que ha ido ganando terreno en las últimas décadas y, como tal, es a la vez más generalizada y menos tangible que gran parte del marco tecnológico que domina el ciclo de noticias. Este cambio probabilístico se basa en el cambio cuantitativo que se viene produciendo desde los años setenta tanto en el gobierno como en el mundo académico.

El enfoque probabilístico lleva décadas presente en los sistemas de scoring (por ejemplo, de crédito o de seguros) y cada vez está más presente en la vida cotidiana. En esencia, estos sistemas evalúan el comportamiento no observado de ciertos individuos proyectando sobre ellos el comportamiento observado de individuos que comparten determinadas características que el programa y los diseñadores de su sistema consideran relevantes y, por tanto, reciben el mismo trato o un trato similar.

Gracias al despliegue de sensores en los dispositivos personales, como smartphones, y al aumento del tiempo que se pasa en entornos virtuales fuertemente vigilados, la elección de las características que se utilizan para definir los límites de estos grupos construidos de manera artificial se ha vuelto cada vez más granular y abstracta.

Por ejemplo, podríamos imaginar que un modelos predictivos creara la agrupación X98899T2, que reúne a todas las personas que en algún momento han visitado un sitio web de un determinado champú, han estado en un aeropuerto una vez en los últimos seis meses, tienen entre 40 y 55 años y poseen un iPhone, siempre y cuando se demuestre estadísticamente que esta colección aparentemente aleatoria de características es buena predictora de algún otro comportamiento, como comprar un perfume de la marca X.

Las categorías que tradicionalmente han sido fundamentales para ordenar la vida humana, como la edad y el sexo, pierden relevancia a medida que estas segmentaciones abstractas, sin etiquetar y hechas a medida, destinadas a informar decisiones no humanas sino informáticas, ocupan su lugar.

Una reciente investigación de Markup reveló un archivo con 650 000 etiquetas discretas utilizadas por los anunciantes para categorizar a las personas. Para poner esta cifra en contexto, son más de dos etiquetas por cada una de las 270 000 palabras definidas en el Oxford English Dictionary.

Como resultado, el destino de algo como si recibimos o no un anuncio para un alquiler o un trabajo, pasa a estar sujeto a una compleja función que equilibra cientos de variables antes no disponibles (y a menudo datos aparentemente irrelevantes).

Con base en la combinación de estos puntos de datos que antes no estaban disponibles, estos complejos modelos nos colocan en una cohorte de personas que se considera lo suficientemente similares a nosotros  como para afirmar que su comportamiento predice el nuestro, a menudo afectándonos como si en realidad hubiéramos actuado como ellos.

Este preocupante sistema secreto se está desplegando en paralelo a un proceso de continua privatización del conocimiento en general y de las tecnologías de IA en particular.

Este giro probabilístico sacude concepciones de certeza y causalidad que han estado en el centro de nuestra cosmovisión occidental y que, quizá desde la Ilustración, promovieron la adopción del método científico.

Como tal, el profundo giro probabilístico también está desestabilizando los pilares de nuestro sistema de derechos humanos. En particular, desestabiliza la idea de que los derechos humanos son inalienables y universales.

Los derechos humanos no pueden ser inalienables cuando nuestra capacidad para ejercerlos está mediada por máquinas probabilísticas. Esto es precisamente lo que ocurre, por ejemplo, cuando los sistemas automatizados de moderación de contenidos limitan lo que podemos expresar en las redes sociales.

La normalización de esta práctica ha llevado a los legisladores de la UE a codificarla en la ley, lo cual convierte la libertad de expresión en un derecho probabilístico que, dada la cantidad de falsos positivos, entiende que nuestra capacidad para ejercer la libertad de expresión está sujeta a una lotería.

El pilar de la universalidad, a su vez, se ve amenazado por la forma en que la IA está desplazando la atención del individuo al grupo y de un enfoque en la agencia y la responsabilidad por las acciones pasadas hacia un enfoque prospectivo que busca la reducción probabilística de daños futuros.

El sistema de organización social a través de derechos que se construyó con el individuo como elemento central está en crisis porque se ha cuestionado la relevancia del conjunto de características que se colocaron bajo la etiqueta de individuo, incluida la propia idea de autonomía individual.

Por ejemplo, esta visión probabilística del mundo dará a los jueces una confianza tecnológicamente infundida en su capacidad para predecir comportamientos futuros, lo que determinará sus sentencias.

Esto no se debe únicamente a la perspectiva prospectiva, sino a que la idea de la responsabilidad personal se diluirá por la normalización de un sistema que deriva cada vez más autoridad de su capacidad para procesar percepciones a nivel de población.

Se trata de un cambio respecto a la fundamentación de la autoridad en la capacidad de estudiar y comprender al individuo subyacente, la cual ha caracterizado a la mayoría de los sistemas judiciales modernos de los últimos siglos.

Por un lado, como señala Kathrina Geddes, esta transformación podría permitirnos reconocer la naturaleza sistémica de algunos de nuestros problemas sociales. Podría ayudarnos a desplazar el juicio moral desde el individuo al conjunto global de relaciones que definen la estructura social en su conjunto.

Por otro lado, la complejidad de las herramientas que se despliegan para operar a esta escala epistémica desafían la comprensión humana y, por tanto, crean espacio para la consolidación del poder en manos de una élite cada vez más reducida e incontrolable

Una élite que se reserva el derecho a interpretar los dichos de lo que parecería estar comercializándose como nuevos dioses de Silicio y un sistema que nos obliga a participar en una lotería constante que definirá lo que vemos en Internet, qué trabajos nos ofrecen, para qué relaciones estamos disponibles y si vamos o no a la cárcel.

Si hubiera espacio para reformular los valores que subyacen a estas tecnologías para ponerlas al servicio del interés público, los gobiernos tendrían que reafirmar su legitimidad democrática como arquitectos de las relaciones sociales y sustituir los incentivos de mercado que alimentan el desarrollo tecnológico por objetivos de interés público.

Las empresas dominantes se presentan como las únicas capaces de salvar al público del grave riesgo que suponen los complejos sistemas que ellas mismas han creado y que, según afirman, son demasiado complejos para ser auditados.

A menos que adoptemos una postura activa frente a estas tecnologías, este proceso remodelará nuestra forma de entender la identidad y convertirá nuestro sistema de derechos humanos en una lotería secreta.

Este es un artículo de opinión de Juan Ortiz Freuler, doctorando en la Escuela de Comunicación y Periodismo Annenberg de la estadounidense Universidad del Sur de California y remero del movimiento tecnológico no alineado.

El autor, Juan Ortiz Freuler
El autor, Juan Ortiz Freuler
Fuentes: IPS noticias [Foto: Imagen generada por IA de una jueza probabilística que sostiene una bola de lotería. La imagen se generó a partir de la siguiente indicación: «cuadro retro futurista distópico de una jueza británica que lleva una peluca blanca y señala un paquete de tres bolas de lotería blancas que flotan sobre su mano contra un papel pintado con microchips de color verde eléctrico y rojo». La creó el autor con DALL-E; modificado por Alejandro Ospina. Imagen: Juan Ortiz Freuler / Aljandro Ospina]
Comparte este contenido:

Azahara Palomeque: La Inteligencia Artificial vapulea el futuro del trabajo. Europa

Varios estudios pronostican la desaparición de millones de puestos de trabajo como consecuencia de los diferentes usos y desarrollos de la Inteligencia Artificial. La clase media y los trabajos feminizados serían los más afectados.

Se puede afirmar sin titubeos que una de las mayores preocupaciones en los centros de poder occidentales es el futuro del trabajo. Desde quienes apuntan a las sustanciales mudanzas en el mercado laboral como consecuencia de la crisis climática, hasta los fenómenos azuzados por la COVID-19 –como la llamada ‘Gran Dimisión’– pasando por el impacto que tendrá la Inteligencia Artificial (IA), los debates no paran de sucederse. Específicamente, los efectos de la IA en el empleo ocuparon buena parte de la reunión que mantuvieron los congresistas estadounidenses en el Capitolio con Sam Altman, creador de OpenAI (la empresa que inventó ChatGPT), quien no supo detallar las disrupciones que traerá su criatura. Aunque los distintos actores políticos y económicos difieren en cuanto a los números, existe unanimidad a la hora de afirmar que habrá cambios drásticos, una gran conmoción que, dependiendo de cómo se gestione, puede acabar con millones de personas en la calle.

Millones de afectados

Los peores augurios vienen de la mano de Goldman Sachs. Según un informe reciente de la multinacional bancaria, 2/3 de los trabajos actuales en EE.UU. y en Europa podrían estar sujetos a algún tipo de automatización provocada por la IA generativa, y sería esta tecnología la causante de la pérdida de 1/4 del empleo en dichas regiones. Extrapolados los datos a nivel global, se estima que desaparecerían 300 millones de puestos de trabajo. Aunque algunos expertos apuntan a la creación de nuevas profesiones y un posible incremento de la productividad en algunos sectores, estos avances son más difíciles de predecir y dependerían tanto del desarrollo de la tecnología como del marco regulativo en que esto ocurra. En este sentido, es significativo que la nueva Ley europea sobre Inteligencia Artificial haya dejado fuera de la clasificación como “alto riesgo” el uso de estos sistemas generativos en el mercado laboral y en entornos educativos, lo cual añade más incertidumbre a un tejido social atravesado por la inflación y la guerra en Ucrania.

Mucho más detallado es el último estudio realizado por el Foro Económico Mundial (FEM), conocido como “Foro de Davos” y radicado en Suiza. FEM pronostica que un 23% del mercado mundial experimentará una sacudida debido a varios factores, entre los que destaca la IA, pero también una tendencia a la desglobalización –o relocalización, el término utilizado en la investigación medioambiental– y la transición hacia una economía verde. Así, proporciona números más halagüeños: 83 millones de puestos de trabajo serían eliminados, pero, a cambio, se crearían 69 millones a nivel global. En cualquier caso, los riesgos seguirían siendo notables, principalmente impulsados por la ralentización del crecimiento económico, una subida del coste de los insumos y la reducción del poder adquisitivo de la ciudadanía. Es relevante que en los ámbitos académicos ecologistas se estén discutiendo circunstancias similares, relacionadas con el agotamiento de los recursos naturales y las adversidades climáticas, cuestiones que no suelen tenerse en cuenta en los círculos financieros. El último libro de Gonzáles Reyes y Almazán realiza un análisis pormenorizado por sectores en un contexto de colapso ecosocial, y prevé la disminución de empleos (en el turismo, la pesca, la ganadería, etc.) bien por su carácter insostenible o el daño medioambiental que causan.

Trabajos de clase media y feminizados

La dominación del tejido productivo por parte de la IA presenta algunas novedades: a diferencia de otras épocas en que las máquinas han sustituido el trabajo manual, ahora estaríamos hablando de “tareas que requieren razonamiento, comunicación y coordinación”, asegura el informe del FEM, o, como afirma The Guardian“trabajos de clase media”. Una lectura comparativa de los documentos citados, junto a la investigación de Business Insider, nos devuelve los siguientes empleos amenazados: aquellos que requieren análisis o procesamiento de datos en el ámbito tecnológico (incluyendo programadores e informáticos); análisis de mercado o financiero (asesores fiscales, gestores, profesionales del marketing); asistentes de varios tipos; diseñadores gráficos, periodistas y creadores de contenido en general; y hasta abogados y profesores, aunque en torno a la docencia hay discrepancias, pues para el éxito de los procesos pedagógicos son importantes la interacción humana y la empatía. Además, un estudio citado por Bloomberg subraya el sesgo de género en los peligros laborales que entraña la IA, la cual podría reemplazar a miles de mujeres en puestos tradicionalmente feminizados, como el de secretaria, traductora, o personal de recursos humanos. A grandes rasgos, el análisis del mercado laboral español efectuado por FEM coincide con los sectores identificados como en decadencia internacionalmente, aunque el mayor varapalo estaría desencadenado por la caída del crecimiento global.

Ante este panorama nada alentador, cabe preguntarse, con pensadoras como Yayo Herrero, qué sentido tiene el trabajo como vía de acceso a distintos derechos sociales (sanidad, pensión) y de qué manera orientar la política hacia la obligación de “proteger personas”, no sectores económicos; o por qué las cifras de empleo siguen dominando la opinión pública en lugar de hacerlo la utilidad social del mismo, de acuerdo con David Graeber. Este último autor ya abogaba por la implementación de una Renta Básica Universal (RBU) con el objetivo de blindar cierto bienestar al ciudadano y ahorrarle el desgarro moral que conlleva dedicarse a un “trabajo de mierda”. Puede parecer mentira, pero no hace tanto que los empresarios de Silicon Valley, incluido el mismísimo Altman, abrazaban también esta medida, conscientes de la inestabilidad social que provocarían sus hazañas algorítmicas. Buscar herramientas de protección colectiva, comunitaria, y no sólo predecir la catástrofe empieza a tornarse perentorio en un mundo plagado de incertidumbres.

Fuente: https://www.lamarea.com/2023/07/12/la-inteligencia-artificial-vapulea-el-futuro-del-trabajo/

Comparte este contenido:

Costa Rica: Inteligencia artificial en la educación, oportunidad o amenaza

Por: Leiner Vargas

La reciente noticia en la Universidad de Costa Rica acerca de la penalización de estudiantes por utilizar Inteligencia Artificial (IA) en sus exámenes ha generado un debate importante: ¿Debemos prohibir o aprender a utilizar estas herramientas tecnológicas emergentes?

La IA, y en particular las herramientas de lenguaje regenerativo como ChatGPT de OpenAI, han experimentado avances exponenciales en los últimos años. Los sistemas de lenguaje artificial han demostrado una capacidad extraordinaria para procesar y generar contenido, desde responder preguntas basadas en una amplia gama de información hasta mantener conversaciones fluidas. Prohibir algo que resulta tan útil y que en medio de la mediocridad de muchas de nuestras clases y exposiciones, resulta claramente superior, generará algo aún peor, el uso abusivo de la misma.

Pero aquí yace la paradoja de nuestro tiempo, aunque estos sistemas pueden ser mal utilizados para eludir el aprendizaje y el trabajo personal, también pueden ser una herramienta poderosa para mejorar y expandir nuestra educación. En lugar de rechazarlas por completo, deberíamos explorar maneras de incorporarlas en nuestras aulas de manera responsable. Primero, es importante reconocer que cualquier tecnología tiene potencial para el abuso. En el caso de la IA, uno de los usos indebidos más evidentes es utilizarla para generar respuestas en pruebas o tareas, como se vio en la UCR. Sin embargo, la respuesta a estos desafíos no debería ser la prohibición, sino la educación sobre el uso adecuado de la tecnología y la adaptación de nuestras metodologías de enseñanza y evaluación.

Podemos hacer que las evaluaciones sean menos susceptibles a la ayuda de la IA. Podemos diseñar pruebas que evalúen el pensamiento crítico, la solución de problemas y otras habilidades que las máquinas aún no pueden replicar completamente. Podemos incorporar componentes de presentación oral y discusión en clase para evaluar la comprensión del estudiante de los temas de estudio.
https://www.mundiario.com/articulo/costa-rica/inteligencia-artificial-educacion-oportunidad-amenaza/20230711205436273765.html
Comparte este contenido:

No todo vale con la Inteligencia Artificial en la educación

Mientras no haya una legislación sobre el uso de la inteligencia artificial en la educación, son los docentes los que deben establecer límites y poner normas en sus clases. Así lo cree Carmen Navarro, docente de Secundaria, que reflexiona en este artículo sobre las consecuencias de no hacerlo.

Seguro que no imaginan a Steve Jobs (si aún estuviera entre nosotros) ni a Bill Gates dejando a sus hijos en manos de la inteligencia artificial: estos grandes gurús de la tecnología no permitían las pantallas en casa. En la actualidad, y con la irrupción masiva de la IA en la sociedad se ha vuelto a generar un intenso debate en las escuelas: ¿permitir o prohibir?

Hay que tener en cuenta que no es lo mismo la enseñanza obligatoria que el alumnado que se encuentra en la universidad. Por lo tanto, es una decisión que en el ámbito educativo no puede ser universal. Por otro lado, tampoco es válida la excusa de que ‘los estudiantes ya la están usando’ para justificar que desde la escuela se permita e, incluso, se recomiende el uso de herramientas de IA como ChatGPT para ‘ayudar’ durante la realización de tareas escolares.

‘No todo vale’

Nadie duda de la eficacia y el potencial de la aplicación de la IA en los procesos de enseñanza-aprendizaje para la personalización de la educación, la accesibilidad de los materiales, la atención a la diversidad… Sin embargo, ¿existen beneficios demostrados derivados del uso directo de estas herramientas por parte del alumnado de enseñanzas medias? En mi opinión, prohibir ciertas cosas en determinadas edades no tiene nada de malo. Ya está bien del ‘todo vale’ sin medir las consecuencias. Como docentes y como centros educativos es nuestra responsabilidad poner normas mientras llega la esperada legislación y regulación oficial de la IA. Creo en el potencial transformador de la juventud y es por esta razón que debemos proteger su derecho a cultivar la creatividad, el espíritu crítico y la inteligencia.

Inteligencia Artificial

Así, los docentes que hemos optado por ‘prohibir’ o no recomendar hemos sido tildados de antiguos mientras que el consejo de nuestros compañeros ha sido que «debemos enseñar a nuestros jóvenes a discernir entre fake e información veraz». No obstante, olvidan que la tecnología ha avanzado tanto que estamos siendo sometidos continuamente a un ‘Test de Touring’, es decir, esa especie de experimento con el que determinar si la inteligencia artificial puede imitar las respuestas humanas, de dimensiones sobrecogedoras. Por ejemplo, son muchos los artículos publicados en Internet en los que al final de los mismos aparece la siguiente afirmación: “escrito por ChatGPT” (y tantos otros generados así que ni siquiera lo mencionan). Otro ejemplo es el que le ha ocurrido a Chema Alonso, experto en ciberseguridad, que ha comentado cómo se han publicado diversos artículos demostrando la cantidad de mentiras que esta IA generativa ha inventado sobre él y que yo misma habría creído. ¿Cómo vamos a enseñar a nuestros jóvenes a discernir si ni nosotros mismos sabemos cómo hacerlo?

Descubrir lo que hay debajo de la IA

Más allá de los contenidos curriculares, la escuela debe proporcionar a los jóvenes las herramientas necesarias para preocuparse y (ocuparse) de asuntos que las máquinas nunca podrán (o al menos no por ahora): la ética, la moral, el cuidado común, el conocimiento y cumplimiento de los ODS, como puede ser el mismo cuidado del medioambiente, entre otras cuestiones.

Estoy completamente a favor de introducir la IA en la escuela, pero con un enfoque totalmente distinto al de simplemente ‘preguntar y esperar las respuestas’. Mientras los estudiantes entrenan su espíritu crítico, podemos trabajar con ellos para descubrir lo que hay debajo de estas inteligencias artificiales: qué modelos matemáticos subyacen, cómo se construye y se entrena una IA, los diagramas de flujo…, de forma que ellos mismos tomen el control de esas herramientas siendo capaces de predecir su comportamiento y adaptar su uso a sus propias necesidades.

Como docentes, seamos más inteligentes que las máquinas. En el aula dejemos que los algoritmos se encarguen de ‘lo artificial’, de manera que tengamos más espacio para lo humano: desarrollando habilidades y competencias que nos permitan afrontar como comunidad global los desafíos que nos vendrán, entrenemos la mirada apreciativa que nos ayude a descubrir en nuestros estudiantes aquellos talentos que los diferencian de los demás y que a veces ni ellos mismos saben que tienen. En definitiva, sepamos como sociedad inteligente superponer los valores, la moral y la ética a cualquier evolución y revolución tecnológica.

https://www.educaciontrespuntocero.com/opinion/no-todo-vale-inteligencia-artificial/

Comparte este contenido:
Page 3 of 48
1 2 3 4 5 48
OtrasVocesenEducacion.org