Page 2 of 48
1 2 3 4 48

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias

Por: Juan Manuel García *

Repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

*Analista de Derechos Digitales

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias – Por Juan Manuel García

Comparte este contenido:

América Latina ante la inteligencia artificial

Por: Juan Manuel García

Cierra el 2023 con muchas novedades en cuanto a la regulación de la implementación de sistemas de inteligencia artificial (IA). En esta columna, repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

Fuente: https://www.derechosdigitales.org/22881/america-latina-ante-la-inteligencia-artificial-mapeo-de-iniciativas-regulatorias-en-la-region/

Comparte este contenido:

Mundo: Así la inteligencia artificial ayuda a detectar material de abuso sexual infantil en línea

Mundo/08-12-2023/Autoría y Fuente: andina.pe

Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual.

Los datos y la inteligencia artificial para su análisis puede salvar niños que son víctimas de abuso sexual. Solo en Estados Unidos se recibieron más de 88 millones de archivos reportados en los que menores de edad eran víctimas de abuso sexual, según el Centro Nacional de Niños Explotados y Desaparecidos en el 2022. Descubre cómo la tecnología es utilizada para detectar y denunciar a los pedófilos y abusadores.

«Como profesionales en tecnología tenemos el poder de acabar con las pesadillas de niños (que son abusados)», dijo la Dra. Rebecca Portnoff, jefa de ciencia de datos en Thorn, quien fue invitada en la serie de conferencias AWS re:Invent 2023.  En los últimos cinco años, se reporta un aumento del 329% en archivos de material de abuso sexual infantil (CSAM).

Thorn es una ONG fundada por los actores Ashton Kutcher y Demi Moore, que desarrolló el software Spotlight para detectar imágenes o videos de pornografía infantil. Con esta tecnología se ha logrado identificar al menos 9 niños cada día que son presuntas víctimas de abuso sexual.

Esta organización también lanzó Safer, un software basado en la tecnología de Amazon Web Services (AWS) que es utilizado por las empresas para evitar que en sus plataformas en la nube se registre pornografía infantil.

A la fecha, este programa es empleado por empresas como GoDaddy, que aloja miles de sitios web; Imgur, que permite subir fotos; Vimeo, que facilita el almacenamiento de videos; entre otras. Todas estas plataformas tienen el potencial riesgo de que malos usuarios suban contenido ilegal como pornografía infantil. 

Lo cierto es que los depredadores en línea vienen utilizando tecnologías novedosas, como los chatbots, para atraer a menores de edad en internet. De 2021 a 2022, se detectó un 82 % de aumento en los informes de incitación para realizar actos sexuales con menores como víctimas en Estados Unidos.

Eso no es todo. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en material de abuso sexual infantil generado por computadora usando IA y otras tecnologías.

«Estos no son solo archivos, son niños pidiendo ayuda desesperadamente», alertó Portnoff.  «La inteligencia artificial y el machine learning hace la diferencia», dijo, recordando que comenzaron a trabajar en la plataforma en el 2019, cuando ya se estudiaba el uso de redes neuronales convolucionales para detectar pornografía infantil.

«Construimos un clasificador que actúa como un magneto poderoso para encontrar nuevos archivos de abuso infantil», agregó. Para que esta herramienta sea utilizada por las plataformas tecnológicas donde se almacena contenido se emplea Amazon ECR para distribuir el modelo IA entrenado.

También se utiliza Amazon EKS para mejorar el algoritmo y Amazon S3 para recibir retroalimentación como falsos positivos de parte de las compañías tecnológicas, y así afinar aún más la detección.

Inteligencia artificial para acabar con el abuso infantil

Para ello, Safer usa la herramienta basada en hashing y matching, algoritmos que pueden  detectar material de abuso sexual infantil e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como una huella digital para cada contenido.

Estos algoritmos se apoyan de inteligencia artificial y machine learning para comparar el contenido detectado con material previamente denunciado. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Safer es una gran base de datos que agrega más de 29 millones de valores hash conocidos para este contenido ilícito. También permite a las empresas de tecnología compartir listas hash entre sí (ya sea bajo su nombre o de forma anónima) ampliando aún más la cantidad de datos para así interrumpir la propagación de material de abuso sexual de niñas, niños y adolescentes.

En 2022, Safer analizó más de 42,1 mil millones de imágenes y videos y se encontraron 520,000 archivos de abuso en las plataformas. Hasta la fecha, Safer ha ayudado a identificar 2.8 millones de archivos de presunto contenido ilícito, según el informe Emerging Online Trends in Child Sexual Abuse 2023.

Fuente e Imagen: https://andina.pe/agencia/noticia-asi-inteligencia-artificial-ayuda-a-detectar-material-abuso-sexual-infantil-linea-965333.aspx

Comparte este contenido:

Leonardo Durán Vivas: La IA y su impacto en las universidades

Hay que tener muy en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar las brechas conceptuales identificadas en los jóvenes y estudiantes

 

La inteligencia artificial (IA) es una de las mayores tendencias tecnológicas en el mundo, es el tercer término más buscado hoy en Google y es la mayor revolución tech este año en el planeta.

 

Su impacto en todas las industrias y sectores es indiscutible y la academia no es la excepción. Esta herramienta ha permeado a todas las universidades del país y la manera de hacer las clases o de evaluar a los estudiantes. Asimismo, hoy representa un gran desafío para las Instituciones de Educación Superior (IES), ya que promete revolucionar la forma como tradicionalmente aprenden los alumnos. Ante estos cambios hay dos caminos; uno, asustarse y salir corriendo, es decir, desconocer el avance de la IA y querer tapar el sol con una sola mano; o prepararse para aprender continuamente de esta herramienta con el propósito de saber utilizarla. Usted elige.

 

Si la decisión gira en torno a empoderarse de esta solución tecnológica para que no lo coja desprevenido, como dicen por ahí, “con los pantalones abajo”, entonces es mejor que vaya conociendo los modelos generativos de IA como GPT o Bard, los cuales están a un clic de distancia para los estudiantes. Esta herramienta, para muchas personas conocida como un robot automatizado, busca dar la mejor respuesta en el menor tiempo posible. En otras palabras, Chat GPT está retando a los profesores y docentes a apropiarse de la inteligencia artificial y a conocer todas sus ventajas para modernizar su pedagogía y didáctica con el fin de no quedarse atrás.

 

Al mismo tiempo, tenga en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar brechas conceptuales identificadas en los jóvenes. Es decir, que ayudan a los estudiantes aprender a más rápido y fácilmente. Estos avances, que para muchos generan temor, para otros se han convertido en una oportunidad de repensar la forma en que se dinamizan las clases hoy en las universidades, abriendo múltiples formas de aprender para las comunidades académicas. Ahora, si usted es de los que piensa que la inteligencia artificial es solo para los que dictan clase o estudian carreras Tech, está muy equivocado, pues la IA no solo es un tema que se está integrando en programas de ingeniería, sino que también está siendo incluido en las materias de pregrados de humanidades, ciencias sociales o ciencias económicas y administrativas. Sin embargo, es importante aclarar que la influencia de esta herramienta en los pénsum académicos se está dando de manera gradual, pues lo que finalmente se busca es responder a las necesidades de la industria y del mercado laboral con conocimientos y competencias en tecnología que estén a la vanguardia y los cuales se pueden enseñar desde la academia.

 

¿Y qué decir de la evaluación y cómo la IA está impactando este proceso? Acá sin duda hay un enorme potencial de la inteligencia artificial, pues su implementación está facilitando que los procesos para calificar a los alumnos sean más dinámicos, precisos, imparciales y, sobre todo, personalizados. Por ejemplo, actualmente algunas universidades del país están implementando análisis predictivos para identificar a aquellos estudiantes que están en riesgo de deserción, lo que permite a los profesores intervenir de manera anticipada. Eso sin contar que ya se están desarrollando recursos didácticos que facilitan la gamificación, la detección del plagio, las retroalimentaciones instantáneas y la generación de evaluaciones personalizadas, entre otros avances que, poco a poco, se están incorporando a los nuevos métodos evaluativos gracias a la IA.

 

Fuente: https://www.larepublica.co/internet-economy/la-ia-y-su-impacto-en-las-universidades-3738114

Comparte este contenido:

Docentes y tecnología en el siglo XXI

Por: Manuel Alberto Navarro Weckmann

 

La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos.

“El objetivo real de la educación es darle alas a la mente humana”. William Butler Yeats

 

En pleno siglo XXI, con un sinfín de avances tecnológicos revolucionando nuestras vidas en todas las áreas, la escuela se encuentra en una encrucijada. Surge un debate sobre el rumbo que debe tomar en un contexto donde la inteligencia artificial y las nuevas tecnologías están transformando rápidamente nuestra sociedad. Algunos argumentan que la escuela debe abrazar estos avances y transformarse profundamente, mientras que otros creen que es el momento de repensarla y preservar su esencia humana, incluso alejándola de estas tecnologías.

Frente a este desafío, es crucial comprender que, en cualquier momento de la historia, es propicio reflexionar sobre nuestro camino y buscar opciones que nos acerquen a nuestras aspiraciones. En este contexto, resulta esencial reconocer que la presencia de los docentes frente a las aulas sigue siendo más relevante que nunca. En un mundo en constante evolución tecnológica, es su cercanía humana la que nos permite atender a nuestra naturaleza y comprender que somos la razón de nuestra existencia.

En estos tiempos de avances y retos tecnológicos, el papel del personal docente adquiere una importancia fundamental. Son ellos quienes nos invitan a la reflexión, al entendimiento y a la comprensión, guiándonos en nuestro aprendizaje social. Su cercanía y dedicación nos permiten establecer vínculos comunitarios que fomentan el desarrollo individual y colectivo.

La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos. Su labor abarca la formación de ciudadanos críticos, creativos y éticos, capaces de enfrentar los desafíos de un mundo en constante cambio. Ellos nos enseñan a analizar, cuestionar y colaborar, dotándonos de herramientas para comprender y dar sentido a la información que nos rodea.

Si bien las tecnologías pueden brindarnos acceso a una gran cantidad de información y recursos educativos, es el docente quien nos guía en el proceso de filtrar, analizar y aplicar dicho conocimiento de manera significativa. Su experiencia y sensibilidad nos permiten entender la relevancia de los contenidos académicos en el contexto de nuestras vidas y de la sociedad en la que vivimos.

En este sentido, el personal docente es fundamental para cultivar una educación humanizada que promueva valores como la empatía, la solidaridad y el respeto. Son ellos quienes nos inspiran a ser seres humanos conscientes, capaces de pensar críticamente y actuar de manera responsable en un mundo cada vez más interconectado.

 

Por tanto, en tiempos de avances y retos tecnológicos, no debemos olvidar la importancia del personal docente. Su presencia y compromiso son indispensables para aspirar a una mejor humanidad. La escuela debe ser un espacio de encuentro, diálogo y aprendizaje donde se cultive el desarrollo integral de las personas, combinando el potencial de la tecnología con la esencia humana que solo los docentes pueden transmitir. Solo a través de su dedicación y compromiso podremos construir un mundo mejor, donde la tecnología sea una herramienta al servicio de la humanidad y no un fin en sí misma. Porque la educación es el camino…

Fuente de la información e imagen:  https://profelandia.com

Comparte este contenido:

Entrevista al neurocientífico argentino Mariano Sigman «No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

Por: Antonio Martínez Ron 

El científico argentino aborda el tema de moda en su libro ‘Artificial’, convencido de que debemos tratar a la IA “como a una musa y no como a un adversario”

El desarrollo acelerado de la inteligencia artificial generativa, y su capacidad para mantener conversaciones aparentemente inteligentes o crear contenidos audiovisuales, se ha convertido en uno de los temas candentes sobre los que todo el mundo tiene una opinión. El neurocientífico Mariano Sigman y el tecnólogo Santiago Bilinkis abordan la cuestión en el libro Artificial (Debate, 2023), un ensayo en el que aportan una amplia variedad de ángulos desde los que formarse un juicio fundamentado sobre lo que nos espera en el futuro.

Lejos de los mensajes apocalípticos y del optimismo acrítico que abunda en estos días, los argumentos de Sigman y Bilinkis se centran en las amenazas y posibilidades reales que nos brinda la tecnología, a la que conciben como un instrumento del que podemos sacar provecho o convertir en un arma. Al margen de los riesgos, que los hay, los autores prefieren poner el foco en el papel que pueden jugar estas nuevas herramientas como potenciadores de nuestra creatividad y nuestras capacidades, como una especie de entrenador virtual o una mente complementaria. Charlamos con Mariano Sigman en Madrid, con su libro recién salido del horno.

Dicen ustedes que nuestros días como la especie más inteligente del planeta parecen estar contados, ¿eso es bueno o malo? 

Bueno, hay que matizar que una cosa es que estén contados y otra que falte poco. Sabemos que va a pasar, pero otra cosa es que sea inminente.

El desarrollo de la IA generativa ha producido la sensación de que hay un gran cambio, e incluso se habla de una “bomba de inteligencia”. ¿Hasta qué punto es una amenaza?

Lo que hace distintiva a esta tecnología es que, a diferencia de otras, tiene cierta autonomía. Porque un lápiz no decide escribir y una bomba no decide dispararse. Una inteligencia artificial (IA), en cambio, toma sus propias decisiones, por supuesto, sobre un marco para el que está programada. Eso le da algo que nosotros reconocemos como un “sentido de agencia” y muchas decisiones involucran una observación sobre sí mismas, y en eso empiezan a parecerse al intelecto humano. Y si es capaz de crear copias similares a sí misma, pero con diferencias que la hagan más apta, también empieza a parecerse a una especie, un colectivo que puede tomar sus propias decisiones.

Lo que temen es lo que se llama una Inteligencia Artificial General (IAG). ¿Qué es exactamente una IAG? ¿Una especie de nuevo dios?

El vínculo con la IA está repleto de exageraciones, de enfados y también de adoraciones desmedidas, una tendencia a ponerla en el lugar de un dios. Y de ninguna manera es así, la IA toma decisiones y está en nosotros decidir si tienen valor o no.

Hay estudios que dicen que nos cuesta mucho trabajo llevarle la contraria a una IA, ¿en eso ya nos tiene sometidos?

La IA genera todo tipo de proyecciones e imágenes mentales en cuanto la nombras. También hay un enorme manto de ignorancia, que viene de no haber interactuado con ella. Esto es parte de lo que quiero resolver en el libro, creo que metafóricamente la IA es como la selva, que es un lugar peligroso, pero fascinante, lleno de vida. Si sabes apreciarla, una vez que entras en ese mundo tan extraño, hay todo un espacio de fascinación. Creo que a la IA no hay que tenerle ni tanto miedo ni tanto respeto o admiración.

Creo que a la IA no hay que tenerle ni tanto miedo ni tanta admiración

Hay líderes de opinión como Yuval Noah Harari que dicen cosas muy alarmantes, como que la IA puede poner en peligro la democracia o que ha hackeado nuestro sistema operativo, que es el lenguaje. ¿Está de acuerdo?

Bueno, puede pasar. Pero la historia humana está llena de hackeos de todo tipo, toda la historia está llena de tragedias, no necesitamos IA para destruir nuestros principios y valores, nos bastamos a nosotros mismos. Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular.

Es muy interesante la relación psicológica que tenemos con la inteligencia artificial. ¿Se ha sorprendido a sí mismo alguna vez celebrando un fallo de la IA como una victoria humana?

Ja, ja. Yo no, pero soy raro y sé que le pasa a todo el mundo. Cuando Deep Blue le ganó a ajedrez a Kasparov, muchos se lo tomaron como la derrota de la humanidad. Yo nunca lo vi así. Para mí fue una victoria de la humanidad contra la humanidad, de nuestra capacidad de abstraer, de hacer programas, de hacer computadoras contra nuestra capacidad de razonar a cerebro desnudo.

A algunos de esos errores de la IA se les llama alucinaciones. ¿Estamos creando una inteligencia con nuestros mismos defectos?

En general uno empatiza con lo imperfecto. La perfección te maravilla, pero uno conecta con lo vulnerable. Por eso en las películas de Hollywood el héroe resbala, patina y es frágil.

Pero cuando una IA consigue liar a un humano para saltarse un CAPTCHA convenciéndole de que es una persona ciega, de la empatía pasamos al terror.

Bueno, en ese sentido, la IA es como los niños, que aprenden muy bien a hacer trampa y que primero tienen que saltarse ciertas reglas para aprender luego el costo de eso. Como pasa con ellos, el aprendizaje es mucho más que aplicar reglas literales, siempre tienes que entender las excepciones y los matices.

¿El peligro es que interpreten las cosas demasiado literalmente?

Eso se puede compensar, porque las nuevas redes neuronales en realidad no funcionan como programas. Lo que incorporan son un conjunto de reglas que coexisten y en ese sentido se parecen mucho a nuestro cerebro. Nuestro cerebro funciona así. O sea, tú tienes hambre y tienes ganas de comer, pero sabes que no le puedes robar la comida al otro.

Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular

Además de conversar, la IA nos asusta todavía más cuando se pone a hacer arte. ¿Nos hará repensar todo lo que sabemos sobre creatividad?

Toda la creatividad humana está montada a hombros de gigantes. Hay un documental de Orson Wells que se llama F de Fake, donde él justamente cuestiona quién es el autor de algo. Porque no es una cuestión tan clara. ¿Quién ha hecho la catedral de Chartres? Al final había uno que era el que ponía la última piedra, pero ¿era el autor?

Al final, ¿las máquinas se van a poder dedicar al empleo creativo y el trabajo duro nos va a tocar a los humanos?

Yo sé que es inevitable tener una reacción negativa hacia la IA, pero creo que hay que mirar esto con un poco más de curiosidad, y considerarla como una herramienta con la que trabajar, o una musa, más que como un adversario.

Muchas de las creaciones de la inteligencia artificial, sobre todo en audiovisual, tienen un aspecto onírico. ¿Es como si estuviéramos creando una mente capaz de soñar por nosotros?

No es solo capaz de soñar, sino que es capaz de plasmar nuestros sueños. Y esa es la idea clave. Deberíamos pensar en la IA como algo que te permite llegar a lugares que antes eran imposibles para ti. Una herramienta que te permite ir a un sitio.

El uso no detectable de la IA en el arte o en los trabajos del colegio, ¿nos conduce hacia un mundo de impostores? 

En realidad eso no es nuevo. Las fake news nos acompañan desde hace mucho tiempo. De hecho, esta mezcla de realidad y ficción nos acompaña desde los tiempos de La Ilíada. Y una manera de vincularse con GPT es establecer con ella una conversación como hacía Sócrates. Cuando tú quieres pensar algo, necesitas un interlocutor.

Un interlocutor que a veces te suelta tonterías…

Bueno, no puedes pedirle peras al olmo. GPT no es un proveedor de verdades. Lo que tú tienes que saber es qué es lo que te puede dar y qué es lo que no te puede dar.

¿Es un sparring?

Exacto. Si tú te lo tomas como alguien con el que puedes conversar o contrastar ideas, puede que te sirva para pensar las preguntas correctas, para ver alguna idea que luego incorporas. Hay que tener una visión más amplia de la inteligencia artificial, hay humanos que hacen daño a través de ella, pero también puede generar mucho esplendor. Hace poco le enseñé a mi madre cómo funcionaba y fue emocionante ver su reacción. Fue como cuando ella me llevó por primera vez a ver el mar. Por otro lado, es interesante preguntarnos ¿por qué genera tanta emoción la inteligencia artificial? Aquí hay una paradoja: la gente lo ve como algo frío, y sin embargo despierta todo tipo de emociones. Esta es la ironía.

Hay una paradoja: la gente ve la IA como algo frío y sin embargo despierta todo tipo de emociones

Si le ofrecen la posibilidad de regenerar un familiar fallecido en el mundo virtual mediante IA, ¿lo aceptaría?

Yo adoraba a mi abuelo. Se murió cuando yo tenía veintipocos años. Si pudiera recrear su voz y los cuentos que me contaba, sí lo haría. Pero creo que a mí no me gustaría verlo, porque no me resultaría creíble.

En el libro advierten de que no han utilizado ChatGPT, pero ¿una inteligencia artificial podría haber escrito un libro como este?

No, todavía no. Aún no está a la altura de hacer algo así, pero eso puede ser una cuestión de tiempo. No sé si dentro de dos años, cinco o diez. No creo que haya ninguna limitación para que un día le des toda la información y le pidas un libro con tus ideas y con tu estilo y te lo dé. Y no solo eso, es posible que llegue un día en el que tú le des una instrucción en la que le digas “hazme la película que quiero ver” y te la ofrezca.

Fuente: https://www.eldiario.es/sociedad/mariano-sigman-entrevista-inteligencia-artificial-destruirnos_128_10606005.html

Comparte este contenido:

Inteligencia digital: retos de la época

Por: Sally Burch

Internet Ciudadana entrevistó a Anita Gurumurthy y Nandini Chami, de IT for Change, India, sobre los retos a los que se enfrenta el mundo, y en particular el Sur Global, con la revolución de la inteligencia artificial. IT for Change ha elaborado varios estudios sobre tecnologías digitales, en los que, entre otras cosas, proponen el término «inteligencia digital» como concepción más amplia de este fenómeno en desarrollo. Es también la secretaría de la coalición mundial Just Net. Entrevista realizada por Sally Burch (ALAI).

1) ¿Cuál es la diferencia entre «inteligencia artificial» e «inteligencia digital»? ¿De qué manera nos ayuda el término «inteligencia digital» a comprender mejor la nueva era tecnológica?

El término inteligencia artificial desconoce los orígenes sociales de la inteligencia que produce una determinada tecnología. Mistifica la máquina. Pero el término inteligencia digital está más orientado a los sistemas. Pone de relieve la interacción entre los sistemas humanos y digitales en la resolución de problemas y la toma de decisiones, algo cada vez más habitual en el mundo de la Cuarta Revolución Industrial (4RI). El término inteligencia digital también parece tener más fundamento histórico: no implica un fetiche por las máquinas; parece reconocer la revolución de la IA como parte de una evolución más larga de las tecnologías de computación, Internet y Big Data. Esta lógica sistémica –en la que la inteligencia está integrada en las relaciones tecnosociales que componen el sistema– nos ayuda a no perder nunca de vista que el conocimiento social y el trabajo humano son la materia prima de la revolución de la inteligencia que posibilitan las nuevas facultades de la tecnología digital, en particular las tecnologías de IA.

2) Está en curso un debate internacional sobre las implicaciones de la IA, especialmente desde que se lanzó el Chat GPT4. En su opinión, ¿cuáles son las principales amenazas (y/o ventajas) de este tipo de tecnología, y qué podemos hacer al respecto, desde una perspectiva de justicia digital y comunidad?

Los milagros de la IA –incluido el fenómeno del Chat GPT– son, en efecto, trascendentales. Se trata de una coyuntura histórica muy parecida al momento Gutenberg, cuando la producción masiva de libros a través de la imprenta coadyuvó a cambios en las instituciones de la civilización. La IA puede aumentar la creatividad humana y cambiar la división social del trabajo para potenciar y transformar. Puede ser para la emancipación individual o para hacer realidad el sueño keynesiano de una vida mejor para todos. Sin embargo, el statu quo no se orienta en absoluto hacia este potencial. Hoy en día, la IA está firmemente arraigada en la lógica de la financiarización con esteroides, basada en el desprecio descarado de la dignidad humana y el bienestar de la sociedad.

La mayor amenaza que plantean las actuales trayectorias de desarrollo de la IA es la exacerbación de la crisis medioambiental. Hay nuevas evidencias que parecen indicar que la IA puede ser más un problema que una solución a nuestra lucha contra el cambio climático, la escasez de agua y el elevado consumo de energía. Algunas estimaciones sugieren que el consumo de agua para entrenar el gran modelo lingüístico GPT 3 de Open AI fue equivalente a la cantidad necesaria para llenar la torre de refrigeración de un reactor nuclear. Incluso a las start-ups y los desarrolladores de tecnología que trabajan por una industria de IA más ética y transparente les cuesta abordar el reto de la sostenibilidad. La start up HuggingFace consiguió entrenar su propio modelo lingüístico de gran tamaño BLOOM en un superordenador francés alimentado con energía nuclear, produciendo una huella de emisiones inferior a la de la mayoría de modelos de tamaño similar; pero una vez completado el entrenamiento, en la fase previa al despliegue, BLOOM emitió una huella de carbono equivalente a la de 60 vuelos entre Londres y París.

El bucle tecnológico de la IA generativa1 también ha abierto la caja de Pandora de explotación laboral. Como demostró la polémica de Sama en Kenia, los modelos lingüísticos y las herramientas de moderación de contenidos sólo pueden perfeccionarse gracias al trabajo de innumerables trabajadores de contenidos que se adentran en la basura tóxica de contenidos odiosos y violentos que provocan traumas psicológicos. El bienestar y la salud mental de los trabajadores son víctimas de la lamentable ausencia de protecciones en la cadena de valor de la inteligencia artificial para realizar trabajos de tan alto riesgo.

Una tercera preocupación que ha cobrado protagonismo en los meses posteriores a que ChatGPT tomara el mundo por asalto es el impacto a largo plazo de la revolución de la IA en el futuro del trabajo. Estudios realizados en los últimos meses por la OCDE y la OIT sugieren que la mano de obra de los países desarrollados corre un mayor riesgo inmediato de perder puestos de trabajo a causa de la automatización que permite la IA generativa; pero a largo plazo, se espera que este salto conduzca a una mayor productividad y a un aumento del PIB. La mano de obra del Sur global no se verá afectada de inmediato, pero esto no significa buenas noticias para sus perspectivas de subsistencia y bienestar a largo plazo. Si sus países quedan al margen de la IA Generativa y otros saltos tecnológicos de la IA, y se quedan atrapados en los segmentos de bajo valor de la economía –y se convierten en trabajadores temporales o soldados de a pie en la nueva 4RI, como los agricultores que cultivaban índigo en la revolución industrial británica–, lo que nos espera es un futuro económico neo-colonial que limita las opciones de la mayor parte del mundo.

El extractivismo de datos provenientes de esta mayoría mundial es lo que potencia la revolución de la IA. Y del mismo modo que el patrimonio público de la Web 2.0 fue canibalizado para el beneficio empresarial en la plataformización de Internet, frustrando la producción de conocimiento compartido y las posibilidades de puesta en común entre iguales, nos encontramos en otro momento similar en la revolución digital. La IA Generativa, en particular, amenaza con cooptar los bienes comunes del conocimiento público sin ninguna obligación de licencia para compartir/devolver a la sociedad. ¡Imaginemos una situación en la que los registros sanitarios del gobierno –datos abiertos gubernamentales– están siendo utilizados por las farmacéuticas para investigaciones patentadas sobre predicciones epidemiológicas que el gobierno se ve obligado a comprar/alquilar en una crisis sanitaria!

Los monopolios de patentes de las grandes farmacéuticas que impidieron la lucha contra el Covid deberían demostrarnos que se trata de una posibilidad muy real.

También deberíamos volver a centrarnos en la IA fundacional en lugar de en la generativa. La mayoría de la población mundial dedicada a la agricultura, la ganadería y los medios de vida relacionados con la agricultura, que dependen de los bosques y de los recursos naturales comunes, ¿puede recibir ayuda para prosperar en la era de la IA, especialmente en sus necesidades de adaptación y mitigación del cambio climático? ¿Cómo podemos habilitar modelos localizados de diagnóstico y predicción para activar alertas y estrategias a largo plazo? ¿Por qué nos limitamos a impulsar la compartición de más y más datos en direcciones que sólo parecen ayudar a las grandes empresas agrícolas y tecnológicas a integrar a la gente en condiciones extremadamente adversas en el mercado hipercapitalista de la IA? Los países en desarrollo tienen que encontrar la forma de aprovechar sus recursos de datos para su desarrollo autónomo en la revolución de la inteligencia, de forma similar a como un país como Tailandia, en Asia, se recuperó tras la crisis de los años 90 y reconstruyó su economía.

Anita Gurumurthy

Directora ejecutiva de IT for Change

3) Existe una gran preocupación por el robo de propiedad intelectual por parte de la IA, que arrastra y reutiliza datos, como la obra de artistas, sin reconocer la fuente. ¿Cómo proponen que enmarquemos este debate?

Ciertamente la IA generativa, capaz de desarrollar textos e imágenes visuales y de clonar voces, ha puesto en primer plano la cuestión del robo de la propiedad intelectual. Los responsables políticos lo abordan de diferentes maneras: China quiere controlar los flujos de información hacia la IA generativa; mientras que Japón primero quiso eliminar las solicitudes de derechos de autor en los conjuntos de datos utilizados para la IA generativa y posteriormente dio marcha atrás en su postura; la política de la UE y EE.UU. tiene ambivalencias sobre cuándo el uso legítimo cubre el entrenamiento de IA generativa. El equilibrio entre los derechos de los creadores y el uso de los recursos públicos del procomún del conocimiento para el desarrollo tecnológico sigue evolucionando.

Pasemos ahora a la perspectiva del creador. Los autores se encuentran viviendo la pesadilla de la ficción del «Gran Grammatizador Automático» de Roald Dahl, cuando la máquina de imitación imita sus estilos y voces mejor que ellos y la creación se convierte en una cadena de montaje de producción. Los derechos morales del autor o del intérprete creativo están en peligro cuando sus obras se canibalizan para entrenar a la IA generativa. También hay cuestiones de apropiación cultural, como el arte Warli indio que se subasta en Sotheby’s sin reconocer el contexto cultural de su producción por las tribus del bosque; preocupaciones que la comunidad maorí de Nueva Zelanda ha planteado e intentado abordar en el uso de su lengua y recursos lingüísticos para el desarrollo de modelos de formación. La concesión colectiva de licencias –el reconocimiento de los bienes culturales comunes de la literatura, el arte y el patrimonio cultural humano– parece importante. Podría crearse un mecanismo fiduciario para impedir la canibalización o la reutilización en violación de los bienes culturales comunes. En cuanto a la literatura y el arte, también hay que mantener el equilibrio entre los bienes comunes intelectuales como patrimonio público y común de toda la humanidad, y los derechos morales del autor. La propuesta de licencia colectiva del Gremio de Autores parece útil a este respecto. Esta propuesta dice: «El Gremio de Autores propone crear una licencia colectiva por la que una organización de gestión colectiva (OGC) concedería licencias de derechos en nombre de los autores, negociaría las tarifas con las empresas de IA y luego distribuiría el pago a los autores que se registraran en la OGC. Estas licencias podrían cubrir usos anteriores de libros, artículos y otras obras en sistemas de IA, así como usos futuros. Estos últimos no se licenciarían sin una autorización específica del autor o de otros titulares de derechos».

Nandini Chami

Directora adjunta de IT for Change

4) ¿Cuáles considera que son las principales problemáticas y propuestas relacionadas con la IA que deberían abordarse en espacios multilaterales como las Naciones Unidas, con el fin de promover la justicia digital y contrarrestar el excesivo poder de las grandes corporaciones digitales?

Hay un debate en curso, incluso en la India, sobre si la gobernanza de la IA se puede abordar adecuadamente en la escena mundial o si necesitamos respuestas a nivel nacional. Las democracias occidentales y el mundo mayoritario tienen formas diferentes de calibrar el equilibrio entre los derechos individuales y el bien social; esto se reconoce incluso en el debate sobre los derechos humanos, ya que la interpretación contextual de los derechos es extremadamente importante. Como demuestra un reciente estudio de la UNCTAD sobre los países del G20, lo que se entiende por datos personales sensibles se define de forma diferente en las distintas sociedades. Ideas de innovación centrada en el ser humano, transparencia y rendición de cuentas del mercado, trayectorias deseadas de desarrollo de la IA: necesitamos un modelo de gobernanza multiescalar en el que los derechos de las personas que se encuentran en los márgenes estén protegidos por algunas protecciones de derechos básicos y, al mismo tiempo, cada comunidad nacional pueda llegar a un proceso deliberativo para determinar cómo debe aprovechar la revolución de la IA e integrarse en la economía global respaldada por una legislación del desarrollo de la IA basada en los derechos humanos que sea justiciable. Es posible que una hiperliberalización de los mercados de servicios de datos no funcione en todos los países, ya que algunos podrían incluso beneficiarse al limitar su integración en la economía digital mundial.

(1) La IA generativa es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes y en respuesta a indicaciones. (Wikipedia)

* Anita Gurumurthy es miembro fundador y directora ejecutiva de IT for Change, donde dirige proyectos y colaboraciones de investigación con la sociedad en red, centrándose en la gobernanza, la democracia y la justicia de género, la democracia y la justicia de género.

* Nandini Chami es directora adjunta de IT for Change. Su trabajo se centra principalmente en la investigación y la promoción de políticas en los ámbitos de los derechos digitales y el desarrollo, y la economía política de los derechos de las mujeres en la sociedad de la información. Forma parte de los esfuerzos de promoción de la organización en torno a la Agenda 2030 para el Desarrollo en cuestiones de «datos para el desarrollo» y tecnologías digitales y justicia de género.

* Sally Burch es periodista angloecuatoriana. Directora Ejecutiva de ALAI. Es licenciada en Literatura por la Universidad de Warwick (Gran Bretaña) y diplomada en Periodismo por la Universidad de Concordia (Montreal, Canadá). Publica regularmente artículos sobre la mujer y la comunicación, el derecho a la información y los movimientos sociales.

Esta nota está incluida en la Revista digital Internet Ciudadana N° 10 – Octubre 2023 – ¡Otro mundo digital es posible!

Comparte este contenido:
Page 2 of 48
1 2 3 4 48