Page 3 of 48
1 2 3 4 5 48

Inteligencia digital: retos de la época

Por: Sally Burch

Internet Ciudadana entrevistó a Anita Gurumurthy y Nandini Chami, de IT for Change, India, sobre los retos a los que se enfrenta el mundo, y en particular el Sur Global, con la revolución de la inteligencia artificial. IT for Change ha elaborado varios estudios sobre tecnologías digitales, en los que, entre otras cosas, proponen el término «inteligencia digital» como concepción más amplia de este fenómeno en desarrollo. Es también la secretaría de la coalición mundial Just Net. Entrevista realizada por Sally Burch (ALAI).

1) ¿Cuál es la diferencia entre «inteligencia artificial» e «inteligencia digital»? ¿De qué manera nos ayuda el término «inteligencia digital» a comprender mejor la nueva era tecnológica?

El término inteligencia artificial desconoce los orígenes sociales de la inteligencia que produce una determinada tecnología. Mistifica la máquina. Pero el término inteligencia digital está más orientado a los sistemas. Pone de relieve la interacción entre los sistemas humanos y digitales en la resolución de problemas y la toma de decisiones, algo cada vez más habitual en el mundo de la Cuarta Revolución Industrial (4RI). El término inteligencia digital también parece tener más fundamento histórico: no implica un fetiche por las máquinas; parece reconocer la revolución de la IA como parte de una evolución más larga de las tecnologías de computación, Internet y Big Data. Esta lógica sistémica –en la que la inteligencia está integrada en las relaciones tecnosociales que componen el sistema– nos ayuda a no perder nunca de vista que el conocimiento social y el trabajo humano son la materia prima de la revolución de la inteligencia que posibilitan las nuevas facultades de la tecnología digital, en particular las tecnologías de IA.

2) Está en curso un debate internacional sobre las implicaciones de la IA, especialmente desde que se lanzó el Chat GPT4. En su opinión, ¿cuáles son las principales amenazas (y/o ventajas) de este tipo de tecnología, y qué podemos hacer al respecto, desde una perspectiva de justicia digital y comunidad?

Los milagros de la IA –incluido el fenómeno del Chat GPT– son, en efecto, trascendentales. Se trata de una coyuntura histórica muy parecida al momento Gutenberg, cuando la producción masiva de libros a través de la imprenta coadyuvó a cambios en las instituciones de la civilización. La IA puede aumentar la creatividad humana y cambiar la división social del trabajo para potenciar y transformar. Puede ser para la emancipación individual o para hacer realidad el sueño keynesiano de una vida mejor para todos. Sin embargo, el statu quo no se orienta en absoluto hacia este potencial. Hoy en día, la IA está firmemente arraigada en la lógica de la financiarización con esteroides, basada en el desprecio descarado de la dignidad humana y el bienestar de la sociedad.

La mayor amenaza que plantean las actuales trayectorias de desarrollo de la IA es la exacerbación de la crisis medioambiental. Hay nuevas evidencias que parecen indicar que la IA puede ser más un problema que una solución a nuestra lucha contra el cambio climático, la escasez de agua y el elevado consumo de energía. Algunas estimaciones sugieren que el consumo de agua para entrenar el gran modelo lingüístico GPT 3 de Open AI fue equivalente a la cantidad necesaria para llenar la torre de refrigeración de un reactor nuclear. Incluso a las start-ups y los desarrolladores de tecnología que trabajan por una industria de IA más ética y transparente les cuesta abordar el reto de la sostenibilidad. La start up HuggingFace consiguió entrenar su propio modelo lingüístico de gran tamaño BLOOM en un superordenador francés alimentado con energía nuclear, produciendo una huella de emisiones inferior a la de la mayoría de modelos de tamaño similar; pero una vez completado el entrenamiento, en la fase previa al despliegue, BLOOM emitió una huella de carbono equivalente a la de 60 vuelos entre Londres y París.

El bucle tecnológico de la IA generativa1 también ha abierto la caja de Pandora de explotación laboral. Como demostró la polémica de Sama en Kenia, los modelos lingüísticos y las herramientas de moderación de contenidos sólo pueden perfeccionarse gracias al trabajo de innumerables trabajadores de contenidos que se adentran en la basura tóxica de contenidos odiosos y violentos que provocan traumas psicológicos. El bienestar y la salud mental de los trabajadores son víctimas de la lamentable ausencia de protecciones en la cadena de valor de la inteligencia artificial para realizar trabajos de tan alto riesgo.

Una tercera preocupación que ha cobrado protagonismo en los meses posteriores a que ChatGPT tomara el mundo por asalto es el impacto a largo plazo de la revolución de la IA en el futuro del trabajo. Estudios realizados en los últimos meses por la OCDE y la OIT sugieren que la mano de obra de los países desarrollados corre un mayor riesgo inmediato de perder puestos de trabajo a causa de la automatización que permite la IA generativa; pero a largo plazo, se espera que este salto conduzca a una mayor productividad y a un aumento del PIB. La mano de obra del Sur global no se verá afectada de inmediato, pero esto no significa buenas noticias para sus perspectivas de subsistencia y bienestar a largo plazo. Si sus países quedan al margen de la IA Generativa y otros saltos tecnológicos de la IA, y se quedan atrapados en los segmentos de bajo valor de la economía –y se convierten en trabajadores temporales o soldados de a pie en la nueva 4RI, como los agricultores que cultivaban índigo en la revolución industrial británica–, lo que nos espera es un futuro económico neo-colonial que limita las opciones de la mayor parte del mundo.

El extractivismo de datos provenientes de esta mayoría mundial es lo que potencia la revolución de la IA. Y del mismo modo que el patrimonio público de la Web 2.0 fue canibalizado para el beneficio empresarial en la plataformización de Internet, frustrando la producción de conocimiento compartido y las posibilidades de puesta en común entre iguales, nos encontramos en otro momento similar en la revolución digital. La IA Generativa, en particular, amenaza con cooptar los bienes comunes del conocimiento público sin ninguna obligación de licencia para compartir/devolver a la sociedad. ¡Imaginemos una situación en la que los registros sanitarios del gobierno –datos abiertos gubernamentales– están siendo utilizados por las farmacéuticas para investigaciones patentadas sobre predicciones epidemiológicas que el gobierno se ve obligado a comprar/alquilar en una crisis sanitaria!

Los monopolios de patentes de las grandes farmacéuticas que impidieron la lucha contra el Covid deberían demostrarnos que se trata de una posibilidad muy real.

También deberíamos volver a centrarnos en la IA fundacional en lugar de en la generativa. La mayoría de la población mundial dedicada a la agricultura, la ganadería y los medios de vida relacionados con la agricultura, que dependen de los bosques y de los recursos naturales comunes, ¿puede recibir ayuda para prosperar en la era de la IA, especialmente en sus necesidades de adaptación y mitigación del cambio climático? ¿Cómo podemos habilitar modelos localizados de diagnóstico y predicción para activar alertas y estrategias a largo plazo? ¿Por qué nos limitamos a impulsar la compartición de más y más datos en direcciones que sólo parecen ayudar a las grandes empresas agrícolas y tecnológicas a integrar a la gente en condiciones extremadamente adversas en el mercado hipercapitalista de la IA? Los países en desarrollo tienen que encontrar la forma de aprovechar sus recursos de datos para su desarrollo autónomo en la revolución de la inteligencia, de forma similar a como un país como Tailandia, en Asia, se recuperó tras la crisis de los años 90 y reconstruyó su economía.

Anita Gurumurthy

Directora ejecutiva de IT for Change

3) Existe una gran preocupación por el robo de propiedad intelectual por parte de la IA, que arrastra y reutiliza datos, como la obra de artistas, sin reconocer la fuente. ¿Cómo proponen que enmarquemos este debate?

Ciertamente la IA generativa, capaz de desarrollar textos e imágenes visuales y de clonar voces, ha puesto en primer plano la cuestión del robo de la propiedad intelectual. Los responsables políticos lo abordan de diferentes maneras: China quiere controlar los flujos de información hacia la IA generativa; mientras que Japón primero quiso eliminar las solicitudes de derechos de autor en los conjuntos de datos utilizados para la IA generativa y posteriormente dio marcha atrás en su postura; la política de la UE y EE.UU. tiene ambivalencias sobre cuándo el uso legítimo cubre el entrenamiento de IA generativa. El equilibrio entre los derechos de los creadores y el uso de los recursos públicos del procomún del conocimiento para el desarrollo tecnológico sigue evolucionando.

Pasemos ahora a la perspectiva del creador. Los autores se encuentran viviendo la pesadilla de la ficción del «Gran Grammatizador Automático» de Roald Dahl, cuando la máquina de imitación imita sus estilos y voces mejor que ellos y la creación se convierte en una cadena de montaje de producción. Los derechos morales del autor o del intérprete creativo están en peligro cuando sus obras se canibalizan para entrenar a la IA generativa. También hay cuestiones de apropiación cultural, como el arte Warli indio que se subasta en Sotheby’s sin reconocer el contexto cultural de su producción por las tribus del bosque; preocupaciones que la comunidad maorí de Nueva Zelanda ha planteado e intentado abordar en el uso de su lengua y recursos lingüísticos para el desarrollo de modelos de formación. La concesión colectiva de licencias –el reconocimiento de los bienes culturales comunes de la literatura, el arte y el patrimonio cultural humano– parece importante. Podría crearse un mecanismo fiduciario para impedir la canibalización o la reutilización en violación de los bienes culturales comunes. En cuanto a la literatura y el arte, también hay que mantener el equilibrio entre los bienes comunes intelectuales como patrimonio público y común de toda la humanidad, y los derechos morales del autor. La propuesta de licencia colectiva del Gremio de Autores parece útil a este respecto. Esta propuesta dice: «El Gremio de Autores propone crear una licencia colectiva por la que una organización de gestión colectiva (OGC) concedería licencias de derechos en nombre de los autores, negociaría las tarifas con las empresas de IA y luego distribuiría el pago a los autores que se registraran en la OGC. Estas licencias podrían cubrir usos anteriores de libros, artículos y otras obras en sistemas de IA, así como usos futuros. Estos últimos no se licenciarían sin una autorización específica del autor o de otros titulares de derechos».

Nandini Chami

Directora adjunta de IT for Change

4) ¿Cuáles considera que son las principales problemáticas y propuestas relacionadas con la IA que deberían abordarse en espacios multilaterales como las Naciones Unidas, con el fin de promover la justicia digital y contrarrestar el excesivo poder de las grandes corporaciones digitales?

Hay un debate en curso, incluso en la India, sobre si la gobernanza de la IA se puede abordar adecuadamente en la escena mundial o si necesitamos respuestas a nivel nacional. Las democracias occidentales y el mundo mayoritario tienen formas diferentes de calibrar el equilibrio entre los derechos individuales y el bien social; esto se reconoce incluso en el debate sobre los derechos humanos, ya que la interpretación contextual de los derechos es extremadamente importante. Como demuestra un reciente estudio de la UNCTAD sobre los países del G20, lo que se entiende por datos personales sensibles se define de forma diferente en las distintas sociedades. Ideas de innovación centrada en el ser humano, transparencia y rendición de cuentas del mercado, trayectorias deseadas de desarrollo de la IA: necesitamos un modelo de gobernanza multiescalar en el que los derechos de las personas que se encuentran en los márgenes estén protegidos por algunas protecciones de derechos básicos y, al mismo tiempo, cada comunidad nacional pueda llegar a un proceso deliberativo para determinar cómo debe aprovechar la revolución de la IA e integrarse en la economía global respaldada por una legislación del desarrollo de la IA basada en los derechos humanos que sea justiciable. Es posible que una hiperliberalización de los mercados de servicios de datos no funcione en todos los países, ya que algunos podrían incluso beneficiarse al limitar su integración en la economía digital mundial.

(1) La IA generativa es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes y en respuesta a indicaciones. (Wikipedia)

* Anita Gurumurthy es miembro fundador y directora ejecutiva de IT for Change, donde dirige proyectos y colaboraciones de investigación con la sociedad en red, centrándose en la gobernanza, la democracia y la justicia de género, la democracia y la justicia de género.

* Nandini Chami es directora adjunta de IT for Change. Su trabajo se centra principalmente en la investigación y la promoción de políticas en los ámbitos de los derechos digitales y el desarrollo, y la economía política de los derechos de las mujeres en la sociedad de la información. Forma parte de los esfuerzos de promoción de la organización en torno a la Agenda 2030 para el Desarrollo en cuestiones de «datos para el desarrollo» y tecnologías digitales y justicia de género.

* Sally Burch es periodista angloecuatoriana. Directora Ejecutiva de ALAI. Es licenciada en Literatura por la Universidad de Warwick (Gran Bretaña) y diplomada en Periodismo por la Universidad de Concordia (Montreal, Canadá). Publica regularmente artículos sobre la mujer y la comunicación, el derecho a la información y los movimientos sociales.

Esta nota está incluida en la Revista digital Internet Ciudadana N° 10 – Octubre 2023 – ¡Otro mundo digital es posible!

Comparte este contenido:

Un buen uso de la Inteligencia Artificial puede mejorar la educación. Salman Khan

Una buena educación es la mejor herramienta para la capacitación de los más jóvenes. El futuro del aprendizaje, según el gurú educativo Salman Khan será el basado en competencias, donde no importará si lo has aprendido sentado en una silla, en la playa o en tu cocina. Sin duda un cambio importante respecto al modelo de las aulas.

Khan, pionero de la educación a distancia, se adelantó a los cambios derivados de la crisis del coronavirus en que los problemas de presencialidad obligaron a nuevas fórmulas.

Salman Khan nació en octubre de 1976 en Luisiana de padres bengalíes. Estudió en la Escuela de Negocios de Harvard y en el Instituto Tecnológico de Massachusetts. Khan obtuvo títulos universitarios en matemáticas, ingeniería eléctrica e informática, luego una maestría en informática y un MBA. Al finalizar su última carrera se desempeñó como analista financiero.

En 2004, mientras todavía trabajaba como analista financiero, Khan comenzó a grabar tutoriales de matemáticas para sus primos, que finalmente publicó en YouTube. Rápidamente se dio cuenta de que sus vídeos atraían interés gracias a la cantidad de visitas diarias. Esto lo impulsó a abandonar su profesión y dedicarse a tiempo completo a Khan Academy, una organización sin fines de lucro que él mismo creó, dedicada a la educación. Varios años más tarde, Khan Academy, en constante crecimiento y con una plantilla de unos 100 empleados, registró 42 millones de usuarios en 190 países.

Khan Academy ofrece acceso gratuito e ilimitado a una plataforma educativa de calidad que permite a cualquiera progresar a su propio ritmo.

Aunque en un principio las materias presentadas eran principalmente matemáticas y ciencias, hoy en día el contenido se ha ampliado mucho. Gracias a los educadores voluntarios, otras materias incluyen: gramática, economía, historia del arte, informática, salud, medicina y más.

En tiempo de pandemia este servicio se revalorizó enormemente. Cuando comenzó el cierre de escuelas en todo el mundo, se dieron cuenta de que se necesitaba dar un paso adelante, ya que las personas necesitarían continuidad en el aprendizaje, ya que una educación confiable y de calidad no sería del todo accesible debido al cierre.

Entonces, comenzaron a probar la capacidad de su servidor, organizando seminarios web para maestros y padres y publicando horarios diarios que ayudarían a cerrar las posibles brechas después de la fase de covid.

Ahora, con el desarrollo de nuevas tecnologías con inteligencia artificial y su infiltración en la educación, Khan Academy está desarrollando su propia IA generativa. La idea es que la herramienta sirva como tutor para los estudiantes y asistente para los profesores.

“Si usamos bien la tecnología, tendremos menos aulas donde los niños se sienten perdidos o aburridos y donde el maestro dé cátedra a los estudiantes, que es básicamente lo que sucedió en muchas escuelas durante la pandemia, con clases a través de Zoom”, asegura en una reciente entrevista para BBC Mundo.

Para el gurú negar los avances tecnológicos es una mala estrategia. El buen o mal uso de esta nueva tecnología es una extensión de las intenciones de quienes la aplican.

“En mi opinión, la mejor manera de abordar la IA en este momento es que las personas con buenas intenciones la utilicen correctamente, piensen de manera proactiva en nuevos medios de protección y traten de minimizar los riesgos. En otras palabras, no debemos escondernos, sino involucrarnos más”.

Eso no exime la necesidad de una regulación de la IA en el sector educativo para que los educadores se aseguren de que todo lo que utilizan tenga medidas de seguridad y privacidad aceptables.

“Por lo tanto, los educadores, administradores escolares y formuladores de políticas deben establecer pautas a nivel de cada región antes de elegir qué herramientas quieren utilizar” sentencia.

SALMAN KHAN
Es un educador estadounidense y fundador de Khan Academy , una plataforma educativa en línea gratuita sin fines de lucro

Un buen uso de la Inteligencia Artificial puede mejorar la educación. SALMAN KHAN

Comparte este contenido:

Mariano Narodowski: “La política intentará mantener el sistema escolar así, los cambios vendrán de la innovación y el mercado”

Por:

El docente e investigador argentino Mariano Narodowski (Buenos Aires, 1961) vaticina una transformación de los sistemas de aprendizaje de la mano de la tecnolgía para la próxima década. Exministro de Educación de la Ciudad de Buenos Aires (2007-2009) y actualmente profesor de la Universidad de Torcuato Di Tella, en la capital, se autodefine como “un educador del siglo XVII que habla mientras sus alumnos toman nota y preguntan”. En Futuros sin Escuelas. Tecnocapitalismo, impotencia reflexiva y Pansophia secuestrada (Puertabierta Ediciones, 2022), un provocador primer volumen de una serie de publicaciones de varios autores sobre el futuro de la educación, escribe: “Esta tarde se cerró la última escuela”, una advertencia de los escenarios que anticipa.

En su texto plantea una especie de dicotomía entre la tecnología educativa y la tecnología digital, la vieja tecnología versus la nueva. ¿Está llegando el final de la escuela tal y como la conocemos hasta hoy para caminar hacia un nuevo sistema en el futuro?

La modernidad europea occidental planteó desde el principio la escuela como un instrumento para la igualdad, lo que yo llamo la pansofía, o sea el saber humano para todos. Se planteó la tecnología escolar como un medio para, no como un fin en sí mismo. Por lo tanto, es totalmente razonable pensar que puede haber otros medios que puedan superar, sustituir o complementar a la tecnología escolar, sobre todo teniendo en cuenta que, si bien tuvo grandes éxitos en la historia humana (nunca como ahora tantas personas dominan la lengua escrita, por ejemplo), también es cierto que en 300 años de historia, la escuela nunca alcanzó la pansofía. Muchos países del mundo, entre los cuales están los latinoamericanos, están muy lejos de lograrla. La igualdad frente al conocimiento es sólo patrimonio de un puñado de países ricos.

¿Cuál es el mayor impacto social de la expansión de la tecnología digital en las escuelas?

En la segunda mitad del siglo XX, aparecieron tecnologías de enseñanza de transmisión del conocimiento que tienen que ver con pantallas, con redes, con inteligencia artificial (IA) que, en gran medida, presentan desafíos a la tecnología escolar. El más importante es que la tecnología escolar perdió el monopolio de la enseñanza: hasta la Segunda Guerra Mundial, el único lugar legítimo para aprender cosas eran las escuelas, mientras que hoy son un lugar más entre muchos otros. Es razonable que estas nuevas tecnologías de enseñanza se mezclen con lo escolar o puedan superarlo. Todavía estamos lejos de eso, aunque en la pandemia ya se demostró que esas tecnologías lograron -aunque no del todo bien- sustituir una parte de la escolarización.

A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación

¿La pandemia aceleró este proceso de digitalización escolar?

La pandemia evidenció los problemas de las instituciones escolares y profundizó muchos de ellos. También aceleró la incorporación de algunas tecnologías digitales y no lo hizo más porque las tecnologías digitales de la educación, en general, son del siglo XX, como el Google Classroom. Recién ahora, con el chat GPT-4, hay algunos experimentos un poco más interesantes, como Khan Academy, que sí está tratando de cambiar la lógica de lo digital aplicado a la educación. A medida que las grandes corporaciones inviertan más, mayor y más rápido se va a imponer la innovación. No creo que los cambios vengan por el lado de la política. Al contrario, la política intentará mantener al máximo el sistema escolar como lo conocemos. Los cambios vendrán del lado de la innovación tecnológica y del mercado. Va a llegar un momento en que los docentes, las familias y los propios estudiantes van a ver un cambio en sus vidas, tal y como nosotros vimos un cambio en las nuestras al incorporar los teléfonos inteligentes.

¿Esa aceleración provocada por la pandemia ha profundizado la brecha escolar digital?

Posiblemente, sí. Pero cada vez más gente tiene dispositivos porque son cada vez más baratos. Lo mismo ocurre con la conectividad, aunque eso no quiere decir que sea universal. Es probable que en una década tanto los dispositivos como la conectividad ya no sean un problema.

Hasta ahora lo ha sido. Naciones Unidas advirtió del aumento de la brecha digital por la pandemia entre niños, niñas y adolescentes, sobre todo en América Latina.

Hay una brecha y eso es innegable, pero si miramos el corto-mediano plazo hacia atrás veremos que esa brecha, sobre todo con los teléfonos inteligentes, se está acortando muchísimo de una forma aceleradísima por la reducción de precios de estos dispositivos, directamente relacionada con la lógica de mercado. Incluso la penetración de los teléfonos inteligentes en los países más pobres de África es cada vez más importante, aunque hay muchos problemas de conectividad.

Al final de su texto escribe un post scriptum en el que imagina que en 2030 “el desplazamiento de lo escolar hacia otros formatos” será “imparable”, habla del avance de las neurociencias con nano robots y chips, de los screening fetal para “exportar” a los mejores individuos a los países ricos y del cerebro como commodity. Un escenario un poco inquietante. ¿Es una exageración o caminamos hacia allá?

Hay muchos escenarios futuros: proyectar una única ucronía es un ejercicio de deshonestidad intelectual. Yo presento distintos escenarios basándome en la idea de que la defensa irrestricta de la escuela actual es un efecto de nostalgia y pensando que lo que viene van a ser distintos acoplamientos entre distintas tecnologías con el cuerpo. Entiendo que puede ser un poco inquietante, pero en toda la historia de la humanidad hubo cambios de ese tipo. El Homo Sapiens inició la lechería, el ordeñe de vacas y cabras, y eso implicó una modificación genética para que los cuerpos puedan admitir bien la lactosa; lo mismo pasó con la revolución agrícola para aceptar las harinas. No hay motivos para pensar que esos cambios evolutivos se hayan terminado. No creo que sea exagerado, depende del grado de aceleración. La sociedad capitalista es una sociedad de aceleración: necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir, sería un efecto de la nostalgia y de la defensa de la escuela en bloque, que a mí me parece incorrecta, porque la escuela siempre fue un medio, no un fin en sí mismo.

La sociedad capitalista necesita destruir lo viejo para generar lo nuevo, es parte de su propia dinámica. En el caso de la enseñanza, no hay motivo para pensar que eso no va a ocurrir

En su tesis también apunta que los docentes podrían desaparecer.

Los procesos de mecanización y automatización se dan en todas las profesiones. Algunos procesos docentes ya están automatizados, por ejemplo, plataformas adaptativas para matemáticas, los nuevos procesos de Khan Academy vinculados a la inteligencia artificial usando GPT-4. No hay motivos para pensar que esto no pueda suceder en la docencia. Los modelos actuales de inteligencia artificial no son inteligencias artificiales reflexivas, son puramente memorísticas e intuitivas y todavía no tienen capacidad de enseñar, pero todo esto avanza rápidamente y puede haber un escenario diferente.

Dice que esa extinción de los docentes podría ser debido al cambio en las relaciones, que hoy son asimétricas. ¿Lo puede explicar?

Uno de los grandes logros de la tecnología escolar es la asimetría entre el que enseña y el que aprende, que es una relación típica de la enseñanza. Pero los procesos de mecanización en el capitalismo tienden a desjerarquizar las funciones, haciéndolas más simples y entre equivalentes. La pregunta es ¿se va a perder esta organización asimétrica?

También habla del futuro de la certificación escolar.

Hay muchas instituciones de educación superior, de formación profesional o escuelas corporativas que dejaron de interesarse por los títulos o los certificados oficiales porque los adecúan al mercado y a las necesidades de la demanda. Cada vez será más propio de cada institución poder certificar por fuera de la certificación estatal. Eso es un problema para los sistemas educativos porque la certificación educativa todavía es un monopolio estatal en todo el mundo. Tenemos mecanismos como el blockchain, que son contratos digitales entre dos personas y que una vez que se suscriben ya son inviolables. Así, la tecnología escolar pierde el monopolio estatal y genera un campo para que otras tecnologías puedan interactuar. Eso tiene enormes consecuencias: es profundamente disruptivo y de alguna manera nos anticipa escenarios mucho más disgregados, menos cohesionados. Pero este es un tema muy controversial.

La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar

Si se pierde la cohesión social, una de las funciones de la educación, aumenta la desigualdad y las diferencias sociales.

No necesariamente, pero sí es probable. Hay que ver cómo se organiza esa sociedad o esa comunidad. La cohesión social ya se está perdiendo ahora porque los estados no tienen capacidad de disciplinar. Las escuelas tratan de satisfacer a la demanda y cuanto más satisfacen a la demanda, menos cohesión social hay porque se disgrega todo mucho más. Eso está pasando en todo el mundo y no me parece que la política pueda torcer este rumbo. Chile es un caso emblemático.

Cierra su propuesta con la idea de “entregarnos a lo desconocido”. ¿Hay que resignarse a lo que se viene?

Es una idea antiesencialista y anti nostálgica para entender que el futuro no necesariamente es negativo.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/07/24/mariano-narodowski-la-politica-intentara-mantener-el-sistema-escolar-asi-los-cambios-vendran-de-la-innovacion-y-el-mercado/

Comparte este contenido:

Pilar Manchón, la española tras la IA de Google: «Sólo es el principio de una explosión de tecnología»

La inteligencia artificial aspira a revolucionar el mundo. Herramientas conversacionales como ChatGPT de OpenAI y Bard de Google han llevado esta tecnología al gran público. Sin embargo, su uso se extiende en sectores tan amplios como la salud o defensa, de ahí que se haya visto con urgencia la necesidad de regular estas herramientas. España también participa en esta revolución, bien a través de proyectos patrios u ocupando puestos de responsabilidad en gigantes multinacionales, como el caso de Pilar Manchón, sevillana que dirige el área de Estrategia de Investigación en Inteligencia Artificial en Google.

Atraída hace años por la lingüística computacional, el área que estudia y desarrolla los modelos de lenguaje natural que han servido para dar vida a los chatbots y asistentes virtuales, ahora es una de las grandes impulsoras de la inteligencia artificial del gigante de Internet. «Siempre he pensado que la Inteligencia Artificial necesita un enfoque multidisciplinar que nos permita avanzar tecnológicamente, pero sin olvidarnos de proteger la esencia de la naturaleza humana y aprender de ella al mismo tiempo», explica a EL ESPAÑOL-Omicrono.

Hace 10 años que Manchón se mudó a Estados Unidos, donde se sorprendió al ver el escaso número de mujeres que había en puestos de responsabilidad. Una infrarrepresentación que también sufre la comunidad hispana, a pesar de ser una de las más grandes entre la población del país. «Poco a poco vamos avanzando, pero aún queda mucho por hacer», asegura.

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google

Pilar Manchón, Directora Sénior de Estrategia de Investigación en Google Google Omicrono

En 1999, llegó a la Universidad de Stanford con una beca Fullbright. Acabó fundando su propia empresa, que vendió años después a Intel, donde paso cinco años trabajando. Antes de incorporarse a Google, en su currículum también figuran compañías como Amazon o Roku, siempre centrada en la creación de inteligencias artificiales.

Con esta amplia trayectoria en Silicon Valley, esta española tiene claro que en España «pecamos de humildad y pensamos en impacto local y crecimiento lineal», aunque de nuestro país exportaría a su actual entorno la calidad de vida y las relaciones familiares y con amigos: «me parece que juegan un papel más importante en nuestra filosofía de vida».

¿Se imaginaba cuando empezó su carrera en este ámbito el salto que han dado los modelos de lenguaje natural hasta ahora?

La verdad es que a todos los investigadores nos ha cogido por sorpresa la aceleración de lo últimos meses. Pero, hace ya algunos años, recuerdo haber utilizado en alguna charla una analogía con el principio de la palanca de Arquímedes para lanzar la siguiente predicción: «Dada la suficiente cantidad de datos y la suficiente capacidad computacional, moveremos el mundo».

Creo que todavía nos queda mucho por hacer y descubrir. Solo estamos viendo los primeros destellos de una explosión de conocimiento y avances tecnológicos como nunca antes habíamos experimentado. La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.

¿Qué objetivos debe marcarse la industria tecnológica a la hora de desarrollar inteligencia artificial?

Lo primordial, en mi opinión, es centrarnos en desarrollos de impacto social y científico que nos ayuden a evolucionar hacia una sociedad más humana y segura para todos. Tenemos grandes retos frente a nosotros como el cambio climático, la cura de enfermedades o el acceso a la información y a servicios básicos en muchas partes del mundo.

La IA, más que una herramienta, es una solución en potencia a muchos de nuestros problemas. No debemos olvidar sin embargo que tanto potencial conlleva también un cierto nivel de riesgo, por lo que es fundamental ser prudentes para avanzar de manera segura.

Los chatbots basados en los nuevos modelos de lenguaje natural han sido los grandes protagonistas este año, sobre todo por su llegada a los grandes buscadores de internet. ¿Cómo usa usted Bard de Google en su día a día?

La idea de Bard es que te ayude a explorar curiosidades o poner en marcha tus ideas. El otro día, por ejemplo, estaba buscando algún sitio nuevo para llevar a mis perros a dar un paseo, y Bard me dió ideas de parques y rutas cerca de casa que permiten perros. Incluso me dió detalles sobre sitios para una caminata más larga, con espacio para que puedan correr y cansarse, rutas más difíciles…

Pilar Manchón en su presentación de Outhink de Google Madrid

Pilar Manchón en su presentación de Outhink de Google Madrid Google Omicrono

Estas IA generativas siguen cometiendo errores en los datos o la información que aportan. ¿Veremos algún día a una IA conversacional que no tenga alucinaciones?

Creo firmemente que vamos a ir viendo como estos modelos mejorarán en calidad gradualmente y las alucinaciones irán decreciendo. No es realista pensar que estas tecnologías van a ser perfectas, pero sí alcanzar niveles de fiabilidad suficientes para ser cada vez más útiles y funcionales.

Actualmente, hay muchos equipos de investigación, tanto en la industria como en el mundo académico, que estudian diversas aproximaciones para evitar las alucinaciones. En algunos casos se aboga por comprobar las fuentes originales o la veracidad de la información, en otros se apuesta por reentrenamiento de los modelos con nuevos datos, o datos sintéticos, el aprendizaje por refuerzo con la retroalimentación humana (RLHF), la integración con fuentes de información fidedignas o la combinación de varias técnicas.

Su uso a gran escala ha acelerado el debate sobre la necesidad de control y legislación de esta tecnología. ¿Qué aspectos de la IA es más urgente regular?

En mi opinión, lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales, y no la tecnología en sí. Por ejemplo, la IA que se usa para detectar el cáncer de mama en las mamografías probablemente necesite un enfoque diferente a la IA que ayuda a las personas a encontrar una ruta más ecológica para llegar a casa.

También es importante regular aquellas cuyo riesgo es incierto a medio o largo plazo. Y esto es más complejo, porque no es obvio, y los beneficios sociales y económicos a corto plazo pueden sesgar nuestra capacidad de análisis. Yo abogo por investigar más en profundidad el impacto de la IA en nuestras capacidades cognitivas individuales y en los distintos colectivos sociales en función del uso que hagan de estas herramientas.

El lenguaje natural es nuestro sistema operativo y el impacto de tecnologías que pueden manejarlo, en algunos casos mejor que nosotros mismos, es aún una incógnita que debemos resolver.

Lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales.

¿Cómo se afrontan en Google estos retos? 

El objetivo principal de los desarrollos de Google es tener un impacto social  beneficioso de forma segura y transparente para las personas, y prevenir usos inapropiados. A principios de julio, por ejemplo, anunciamos una alianza entre Anthropic, Google, Microsoft y OpenAI para promover la IA responsable.

Uno de los principios éticos fundamentales de amplio consenso es la necesidad de ser transparentes en el uso de la IA. Todo producto o servicio artificialmente generado debe ser identificado como tal. Por ejemplo, la IA generativa ha hecho más fácil que nunca crear nuevos contenidos, lo que también puede ser un problema si se crean, por ejemplo, imágenes para la desinformación.

Bard, el nuevo chatbot de Google.

Bard, el nuevo chatbot de Google. Mojahid Mottaki | Unsplash El Androide Libre

En Google hemos anunciado una herramienta llamada «Acerca de esta imagen» para ayudar a las personas a verificar si una imágen es fiable. A medida que empecemos a implementar capacidades de imagen generativa, esas imágenes tendrán una marca en el archivo original para darle contexto incluso fuera de nuestras plataformas.

Antes de poner nuestros productos y servicios a disposición del público, la prioridad ha sido siempre hacerlas lo más seguras posible, prevenir errores o efectos colaterales indeseados y anticiparnos a las necesidades de las personas. También es fundamental proteger los datos de cada cliente y garantizar que su información y valor diferencial nunca saldrán de su control.

¿Qué opinión tiene de la ley que está elaborando la Unión Europea?

Es difícil predecir cuál será la versión final ya que aún está en fase de borrador. La propuesta de la Comisión Europea es, en general, proporcionada. Hay aspectos que me parecen muy razonables y otros que requieren, en mi opinión, una evaluación más exhaustiva. Estándares y mayor concreción en casos de uso, escenarios y reglas de aplicación, por ejemplo, son importantes para que la ley no sólo tenga buenas intenciones sino también aplicación práctica.

El programa de ‘sandbox’ que se está poniendo en marcha va a ser decisivo. También es fundamental garantizar que la IA se aplique de manera segura y que sea confiable, al mismo tiempo que apoye la innovación impulsada por la IA por parte de las empresas y el progreso científico de las universidades. El objetivo debería ser mantener la capacidad de la UE de optimizar la aplicación de IA en sectores críticos.

¿El miedo a una inteligencia artificial superior a la humana es lógico? ¿Podríamos estar ante un sistema con conciencia como han apuntado algunos expertos dentro del sector?

La inteligencia y la conciencia son conceptos que se entienden de manera sencilla en un contexto humano. Sin embargo, su definición desde el punto de vista artificial o abstracto es más compleja. La inteligencia artificial ya es superior a la humana en muchos aspectos, pero no en aquellos que nosotros mismos consideramos como fundamentales desde la perspectiva de una persona sin formación específica en la materia. Cuando hablamos  por ejemplo de «sentido común», «libre albedrío» o de la «experiencia subjetiva de ser» como partes fundamentales de la inteligencia y la conciencia humana, todavía estamos muy lejos de eso.

Fuente: https://www.elespanol.com/omicrono/tecnologia/20230819/pilar-manchon-espanola-ia-google-solo-principio-explosion-tecnologia/786671561_0.html

Comparte este contenido:

Cuando los DDHH se convierten en un juego de lotería impulsado por la IA

Por: Juan Ortiz Freuler

Las aplicaciones de inteligencia artificial (IA) como ChatGPT están normalizando un giro probabilístico en la visión Occidental del mundo; este giro promueve la aceptación de la incertidumbre a través del pensamiento probabilístico y eleva la estadística y el modelado complejo como aproximaciones al conocimiento.

Con el despliegue de ChatGPT, por ejemplo, el propio lenguaje humano se replantea como un sistema de meras probabilidades, una lotería en la cual la verdad y los hechos son meros participantes.

Esto explica por qué ChatGPT mezcla de forma sistemática y confiada la verdad con ficciones plausibles, alucinaciones que se espera que aceptemos como un efecto secundario inevitable que será menos incómodo una vez que adoptemos plenamente la visión probabilística del mundo.

Este cambio hacia una visión probabilística del mundo es una lenta corriente subterránea que ha ido ganando terreno en las últimas décadas y, como tal, es a la vez más generalizada y menos tangible que gran parte del marco tecnológico que domina el ciclo de noticias. Este cambio probabilístico se basa en el cambio cuantitativo que se viene produciendo desde los años setenta tanto en el gobierno como en el mundo académico.

El enfoque probabilístico lleva décadas presente en los sistemas de scoring (por ejemplo, de crédito o de seguros) y cada vez está más presente en la vida cotidiana. En esencia, estos sistemas evalúan el comportamiento no observado de ciertos individuos proyectando sobre ellos el comportamiento observado de individuos que comparten determinadas características que el programa y los diseñadores de su sistema consideran relevantes y, por tanto, reciben el mismo trato o un trato similar.

Gracias al despliegue de sensores en los dispositivos personales, como smartphones, y al aumento del tiempo que se pasa en entornos virtuales fuertemente vigilados, la elección de las características que se utilizan para definir los límites de estos grupos construidos de manera artificial se ha vuelto cada vez más granular y abstracta.

Por ejemplo, podríamos imaginar que un modelos predictivos creara la agrupación X98899T2, que reúne a todas las personas que en algún momento han visitado un sitio web de un determinado champú, han estado en un aeropuerto una vez en los últimos seis meses, tienen entre 40 y 55 años y poseen un iPhone, siempre y cuando se demuestre estadísticamente que esta colección aparentemente aleatoria de características es buena predictora de algún otro comportamiento, como comprar un perfume de la marca X.

Las categorías que tradicionalmente han sido fundamentales para ordenar la vida humana, como la edad y el sexo, pierden relevancia a medida que estas segmentaciones abstractas, sin etiquetar y hechas a medida, destinadas a informar decisiones no humanas sino informáticas, ocupan su lugar.

Una reciente investigación de Markup reveló un archivo con 650 000 etiquetas discretas utilizadas por los anunciantes para categorizar a las personas. Para poner esta cifra en contexto, son más de dos etiquetas por cada una de las 270 000 palabras definidas en el Oxford English Dictionary.

Como resultado, el destino de algo como si recibimos o no un anuncio para un alquiler o un trabajo, pasa a estar sujeto a una compleja función que equilibra cientos de variables antes no disponibles (y a menudo datos aparentemente irrelevantes).

Con base en la combinación de estos puntos de datos que antes no estaban disponibles, estos complejos modelos nos colocan en una cohorte de personas que se considera lo suficientemente similares a nosotros  como para afirmar que su comportamiento predice el nuestro, a menudo afectándonos como si en realidad hubiéramos actuado como ellos.

Este preocupante sistema secreto se está desplegando en paralelo a un proceso de continua privatización del conocimiento en general y de las tecnologías de IA en particular.

Este giro probabilístico sacude concepciones de certeza y causalidad que han estado en el centro de nuestra cosmovisión occidental y que, quizá desde la Ilustración, promovieron la adopción del método científico.

Como tal, el profundo giro probabilístico también está desestabilizando los pilares de nuestro sistema de derechos humanos. En particular, desestabiliza la idea de que los derechos humanos son inalienables y universales.

Los derechos humanos no pueden ser inalienables cuando nuestra capacidad para ejercerlos está mediada por máquinas probabilísticas. Esto es precisamente lo que ocurre, por ejemplo, cuando los sistemas automatizados de moderación de contenidos limitan lo que podemos expresar en las redes sociales.

La normalización de esta práctica ha llevado a los legisladores de la UE a codificarla en la ley, lo cual convierte la libertad de expresión en un derecho probabilístico que, dada la cantidad de falsos positivos, entiende que nuestra capacidad para ejercer la libertad de expresión está sujeta a una lotería.

El pilar de la universalidad, a su vez, se ve amenazado por la forma en que la IA está desplazando la atención del individuo al grupo y de un enfoque en la agencia y la responsabilidad por las acciones pasadas hacia un enfoque prospectivo que busca la reducción probabilística de daños futuros.

El sistema de organización social a través de derechos que se construyó con el individuo como elemento central está en crisis porque se ha cuestionado la relevancia del conjunto de características que se colocaron bajo la etiqueta de individuo, incluida la propia idea de autonomía individual.

Por ejemplo, esta visión probabilística del mundo dará a los jueces una confianza tecnológicamente infundida en su capacidad para predecir comportamientos futuros, lo que determinará sus sentencias.

Esto no se debe únicamente a la perspectiva prospectiva, sino a que la idea de la responsabilidad personal se diluirá por la normalización de un sistema que deriva cada vez más autoridad de su capacidad para procesar percepciones a nivel de población.

Se trata de un cambio respecto a la fundamentación de la autoridad en la capacidad de estudiar y comprender al individuo subyacente, la cual ha caracterizado a la mayoría de los sistemas judiciales modernos de los últimos siglos.

Por un lado, como señala Kathrina Geddes, esta transformación podría permitirnos reconocer la naturaleza sistémica de algunos de nuestros problemas sociales. Podría ayudarnos a desplazar el juicio moral desde el individuo al conjunto global de relaciones que definen la estructura social en su conjunto.

Por otro lado, la complejidad de las herramientas que se despliegan para operar a esta escala epistémica desafían la comprensión humana y, por tanto, crean espacio para la consolidación del poder en manos de una élite cada vez más reducida e incontrolable

Una élite que se reserva el derecho a interpretar los dichos de lo que parecería estar comercializándose como nuevos dioses de Silicio y un sistema que nos obliga a participar en una lotería constante que definirá lo que vemos en Internet, qué trabajos nos ofrecen, para qué relaciones estamos disponibles y si vamos o no a la cárcel.

Si hubiera espacio para reformular los valores que subyacen a estas tecnologías para ponerlas al servicio del interés público, los gobiernos tendrían que reafirmar su legitimidad democrática como arquitectos de las relaciones sociales y sustituir los incentivos de mercado que alimentan el desarrollo tecnológico por objetivos de interés público.

Las empresas dominantes se presentan como las únicas capaces de salvar al público del grave riesgo que suponen los complejos sistemas que ellas mismas han creado y que, según afirman, son demasiado complejos para ser auditados.

A menos que adoptemos una postura activa frente a estas tecnologías, este proceso remodelará nuestra forma de entender la identidad y convertirá nuestro sistema de derechos humanos en una lotería secreta.

Este es un artículo de opinión de Juan Ortiz Freuler, doctorando en la Escuela de Comunicación y Periodismo Annenberg de la estadounidense Universidad del Sur de California y remero del movimiento tecnológico no alineado.

El autor, Juan Ortiz Freuler
El autor, Juan Ortiz Freuler
Fuentes: IPS noticias [Foto: Imagen generada por IA de una jueza probabilística que sostiene una bola de lotería. La imagen se generó a partir de la siguiente indicación: «cuadro retro futurista distópico de una jueza británica que lleva una peluca blanca y señala un paquete de tres bolas de lotería blancas que flotan sobre su mano contra un papel pintado con microchips de color verde eléctrico y rojo». La creó el autor con DALL-E; modificado por Alejandro Ospina. Imagen: Juan Ortiz Freuler / Aljandro Ospina]
Comparte este contenido:

Azahara Palomeque: La Inteligencia Artificial vapulea el futuro del trabajo. Europa

Varios estudios pronostican la desaparición de millones de puestos de trabajo como consecuencia de los diferentes usos y desarrollos de la Inteligencia Artificial. La clase media y los trabajos feminizados serían los más afectados.

Se puede afirmar sin titubeos que una de las mayores preocupaciones en los centros de poder occidentales es el futuro del trabajo. Desde quienes apuntan a las sustanciales mudanzas en el mercado laboral como consecuencia de la crisis climática, hasta los fenómenos azuzados por la COVID-19 –como la llamada ‘Gran Dimisión’– pasando por el impacto que tendrá la Inteligencia Artificial (IA), los debates no paran de sucederse. Específicamente, los efectos de la IA en el empleo ocuparon buena parte de la reunión que mantuvieron los congresistas estadounidenses en el Capitolio con Sam Altman, creador de OpenAI (la empresa que inventó ChatGPT), quien no supo detallar las disrupciones que traerá su criatura. Aunque los distintos actores políticos y económicos difieren en cuanto a los números, existe unanimidad a la hora de afirmar que habrá cambios drásticos, una gran conmoción que, dependiendo de cómo se gestione, puede acabar con millones de personas en la calle.

Millones de afectados

Los peores augurios vienen de la mano de Goldman Sachs. Según un informe reciente de la multinacional bancaria, 2/3 de los trabajos actuales en EE.UU. y en Europa podrían estar sujetos a algún tipo de automatización provocada por la IA generativa, y sería esta tecnología la causante de la pérdida de 1/4 del empleo en dichas regiones. Extrapolados los datos a nivel global, se estima que desaparecerían 300 millones de puestos de trabajo. Aunque algunos expertos apuntan a la creación de nuevas profesiones y un posible incremento de la productividad en algunos sectores, estos avances son más difíciles de predecir y dependerían tanto del desarrollo de la tecnología como del marco regulativo en que esto ocurra. En este sentido, es significativo que la nueva Ley europea sobre Inteligencia Artificial haya dejado fuera de la clasificación como “alto riesgo” el uso de estos sistemas generativos en el mercado laboral y en entornos educativos, lo cual añade más incertidumbre a un tejido social atravesado por la inflación y la guerra en Ucrania.

Mucho más detallado es el último estudio realizado por el Foro Económico Mundial (FEM), conocido como “Foro de Davos” y radicado en Suiza. FEM pronostica que un 23% del mercado mundial experimentará una sacudida debido a varios factores, entre los que destaca la IA, pero también una tendencia a la desglobalización –o relocalización, el término utilizado en la investigación medioambiental– y la transición hacia una economía verde. Así, proporciona números más halagüeños: 83 millones de puestos de trabajo serían eliminados, pero, a cambio, se crearían 69 millones a nivel global. En cualquier caso, los riesgos seguirían siendo notables, principalmente impulsados por la ralentización del crecimiento económico, una subida del coste de los insumos y la reducción del poder adquisitivo de la ciudadanía. Es relevante que en los ámbitos académicos ecologistas se estén discutiendo circunstancias similares, relacionadas con el agotamiento de los recursos naturales y las adversidades climáticas, cuestiones que no suelen tenerse en cuenta en los círculos financieros. El último libro de Gonzáles Reyes y Almazán realiza un análisis pormenorizado por sectores en un contexto de colapso ecosocial, y prevé la disminución de empleos (en el turismo, la pesca, la ganadería, etc.) bien por su carácter insostenible o el daño medioambiental que causan.

Trabajos de clase media y feminizados

La dominación del tejido productivo por parte de la IA presenta algunas novedades: a diferencia de otras épocas en que las máquinas han sustituido el trabajo manual, ahora estaríamos hablando de “tareas que requieren razonamiento, comunicación y coordinación”, asegura el informe del FEM, o, como afirma The Guardian“trabajos de clase media”. Una lectura comparativa de los documentos citados, junto a la investigación de Business Insider, nos devuelve los siguientes empleos amenazados: aquellos que requieren análisis o procesamiento de datos en el ámbito tecnológico (incluyendo programadores e informáticos); análisis de mercado o financiero (asesores fiscales, gestores, profesionales del marketing); asistentes de varios tipos; diseñadores gráficos, periodistas y creadores de contenido en general; y hasta abogados y profesores, aunque en torno a la docencia hay discrepancias, pues para el éxito de los procesos pedagógicos son importantes la interacción humana y la empatía. Además, un estudio citado por Bloomberg subraya el sesgo de género en los peligros laborales que entraña la IA, la cual podría reemplazar a miles de mujeres en puestos tradicionalmente feminizados, como el de secretaria, traductora, o personal de recursos humanos. A grandes rasgos, el análisis del mercado laboral español efectuado por FEM coincide con los sectores identificados como en decadencia internacionalmente, aunque el mayor varapalo estaría desencadenado por la caída del crecimiento global.

Ante este panorama nada alentador, cabe preguntarse, con pensadoras como Yayo Herrero, qué sentido tiene el trabajo como vía de acceso a distintos derechos sociales (sanidad, pensión) y de qué manera orientar la política hacia la obligación de “proteger personas”, no sectores económicos; o por qué las cifras de empleo siguen dominando la opinión pública en lugar de hacerlo la utilidad social del mismo, de acuerdo con David Graeber. Este último autor ya abogaba por la implementación de una Renta Básica Universal (RBU) con el objetivo de blindar cierto bienestar al ciudadano y ahorrarle el desgarro moral que conlleva dedicarse a un “trabajo de mierda”. Puede parecer mentira, pero no hace tanto que los empresarios de Silicon Valley, incluido el mismísimo Altman, abrazaban también esta medida, conscientes de la inestabilidad social que provocarían sus hazañas algorítmicas. Buscar herramientas de protección colectiva, comunitaria, y no sólo predecir la catástrofe empieza a tornarse perentorio en un mundo plagado de incertidumbres.

Fuente: https://www.lamarea.com/2023/07/12/la-inteligencia-artificial-vapulea-el-futuro-del-trabajo/

Comparte este contenido:

Costa Rica: Inteligencia artificial en la educación, oportunidad o amenaza

Por: Leiner Vargas

La reciente noticia en la Universidad de Costa Rica acerca de la penalización de estudiantes por utilizar Inteligencia Artificial (IA) en sus exámenes ha generado un debate importante: ¿Debemos prohibir o aprender a utilizar estas herramientas tecnológicas emergentes?

La IA, y en particular las herramientas de lenguaje regenerativo como ChatGPT de OpenAI, han experimentado avances exponenciales en los últimos años. Los sistemas de lenguaje artificial han demostrado una capacidad extraordinaria para procesar y generar contenido, desde responder preguntas basadas en una amplia gama de información hasta mantener conversaciones fluidas. Prohibir algo que resulta tan útil y que en medio de la mediocridad de muchas de nuestras clases y exposiciones, resulta claramente superior, generará algo aún peor, el uso abusivo de la misma.

Pero aquí yace la paradoja de nuestro tiempo, aunque estos sistemas pueden ser mal utilizados para eludir el aprendizaje y el trabajo personal, también pueden ser una herramienta poderosa para mejorar y expandir nuestra educación. En lugar de rechazarlas por completo, deberíamos explorar maneras de incorporarlas en nuestras aulas de manera responsable. Primero, es importante reconocer que cualquier tecnología tiene potencial para el abuso. En el caso de la IA, uno de los usos indebidos más evidentes es utilizarla para generar respuestas en pruebas o tareas, como se vio en la UCR. Sin embargo, la respuesta a estos desafíos no debería ser la prohibición, sino la educación sobre el uso adecuado de la tecnología y la adaptación de nuestras metodologías de enseñanza y evaluación.

Podemos hacer que las evaluaciones sean menos susceptibles a la ayuda de la IA. Podemos diseñar pruebas que evalúen el pensamiento crítico, la solución de problemas y otras habilidades que las máquinas aún no pueden replicar completamente. Podemos incorporar componentes de presentación oral y discusión en clase para evaluar la comprensión del estudiante de los temas de estudio.
https://www.mundiario.com/articulo/costa-rica/inteligencia-artificial-educacion-oportunidad-amenaza/20230711205436273765.html
Comparte este contenido:
Page 3 of 48
1 2 3 4 5 48