Page 1 of 47
1 2 3 47

Nuevos dioses, viejas supersticiones

Por:  Por Jorge Majfud 

Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 “experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco”. (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)

Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.

En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a la prehistoria de las técnicas de reconocimiento facial, denunciadas, por lo menos, desde el año en 2009.

Con un sistema diferente al logaritmo, las IA se parecen a niños superdotados de cinco años: aprenden de sus mayores humanos y, aunque pueden desarrollar su propia personalidad, no se distinguen mucho de sus progenitores y actúan en consecuencia, en casos de formas más radicales sin ninguna creatividad.

A modo de especulación, en 2015 escribí la novela Silicona 5.0 para abordar este problema sobre una serie de muñecas sexuales con capacidad de terapeutas y de asesinas, debido a los traumas de la Eva humana usada para su comercialización. Una mujer cosificada por su cultura, alimentando la existencia de una cosa humanizada con aspecto de mujer. Más recientemente, se usó la colección de 600 ensayos publicados en majfud.org por su sistematicidad y consistencia humana desde 1999 para desarrollar otra IA. Algo que me inquieta profundamente, pero que no puedo evitar.

A principios de 2024, otra IA produjo un escándalo internacional al crear imágenes de soldados nazis de la Alemania de Hitler con rostros morenos y asiáticos. ¿A qué se debió esta contradicción con lo que señalamos antes? Aparentemente, las IA fueron instruidas para ser “políticamente correctas” insertando diversidad en donde nunca la hubo. Otra vez, la micropolítica rebelde haciéndole el juego a la macro política del establishment. Así, árabes barbudos vestidos de soldados alemanes perseguían judíos; mujeres negras arrojaban bombas atómicas sobre Hiroshima y Nueva York; gays y lesbianas dirigían el FBI de Hoover para perseguir gays y lesbianas sospechosos de ser comunistas; y los nativos del Tercer Mundo invadían y saqueaban Europa y Estados Unidos y luego masacraban a su población hasta lograr imponer dictaduras militares en Londres, París y Washington. Porque hay que prevenir el racismo promoviendo la diversidad.

Veamos un ejemplo más digerible. Durante la Semana Santa de este mismo año, hubo una proliferación de retratos de Jesús creados por la Inteligencia Artificial. Los retratos de ChatGPT muestran a hombres de ojos marrones y piel más morena que los clásicos retratos de los museos de Europa y de las modestas casitas de África y América Latina. No en pocas casas piadosos cristianos le rezaron por años a una fotografía de Jim Caviezel o de Robert Powell. No pocos “cristianos verdaderos” se ofenderían con la sola idea de inclinarse ante una imagen realista del africano San Agustín, también retratado por siglos como un santo llegado de algún pueblo esloveno.

Aunque algunos lo encontrarán más realista que el David de Miguel Ángel o el Jesús de Leonardo da Vinci, también los nuevos retratos de Jesús pintados por ChatGPT tienen un fuerte prejuicio etnocéntrico, porque fueron alimentados con ese material de la historia eurocéntrica más el maquillaje de la diversidad epidérmica (también eurocéntrica). Aunque aquí las AI se aleja unos centímetros del Jesús caucásico de ojos celestes tipo Robert Powell (angelical, confiable, higiénico y desarrollado), continúa muy lejos del aspecto facial de los habitantes del Medio Oriente de hace 2000 años. No deja de ser el rostro de un hombre caucásico luego de unas largas vacaciones en Cancún.

Lo de pobre también se le quitó en la vestimenta. La pulcritud y la calidad de sus túnicas revelan prejuicios de clase, otra vez negando y contradiciendo la realidad de un carpintero de Galilea veinte siglos atrás, alguien que viajaba en burro y que tenía por amigos pescadores y mujeres de las clases más humildes, con excepción de una sola.

Ahora, cada tanto leemos artículos sobre lo qué piensa la Inteligencia Artificial de la existencia humana, de cómo será el mundo del futuro o de cómo era el mundo hace mil o diez mil años. “¿Qué dice la IA sobre el mundo en 2040?” “¿Cómo se veía una cena en el Imperio Romano según IA? “La IA predice que en 2050 seremos todos felices”, “La IA revela los cinco hábitos para un matrimonio feliz” ―algo tan confiable como los consejos de un sacerdote católico.

Las IA tienen algo en común con los dioses anteriores: son metahumanos. Su credibilidad radica en que se asume que no dependen de los criterios de los creyentes, mortales de un día. No tienen “bias” (prejuicios). Como sea, es indiscutible que tienen algo en común: si no son ambos creaciones humanas, sin duda están hechos a nuestra imagen y semejanza, como esos dioses llenos de pasiones que, en nombre del Amor Universal condenan a su propias creaciones al infierno, no por haber hecho algo inmoral, como arrojar una bomba atómica sobre una ciudad o por haber promovido una guerra genocida, sino por no haber rezado de la forma indicada o por tener creencias equivocadas sobre el más allá.

Otra similitud: las IA son leídas y escuchadas con una profunda superstición: si lo dice una super inteligencia, debe ser cierto. O lo más aproximado a la realidad posible. Es algo más allá de la comprensión humana. Pero la Inteligencia Artificial no es una gran inteligencia. No aún. Es solo un niño con un conocimiento y una velocidad de procesamiento más allá de los límites humanos. Claro que los humanos no somos mucho mejores. Seguimos procesando pensamientos y creencias como en tiempo de las estepas del cálido Sur y de las cavernas del frío Norte. Cuando no creemos historias imposibles creemos en dioses virtuales.

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.

Fuente de la información e imagen:  https://rebelion.org

Comparte este contenido:

Estados Unidos: Solo el 11% de las universidades puede ofrecer un salario competitivo a los investigadores, revela encuesta

Los intentos de atraer y retener talento académico se ven obstaculizados por la incapacidad de las universidades de ofrecer compensaciones monetarias competitivas con las investigaciones financiadas por empresas.

Las universidades luchan por competir con la industria en materia de remuneración económica por las investigaciones que se deben llevar a cabo respecto a los avances tecnológicos que surgen al momento. Sin embargo, una encuesta reveló que apenas un 11% de la academia pueden afrontar el reto económico que tienen frente a lo que prometen las empresas.

 

De acuerdo con la encuesta global realizada por la editorial Elsevier a 115 líderes académicos y financiadores, un 75% de los líderes académicos cree que abordar los desafíos asociados con la atracción y retención de talentos es una alta prioridad para ellos. Y aunque el 93% de los encuestados dice que necesita más financiación para atraer a los mejores talentos, apenas uno de cada 10 líderes académicos dice sentirse bien preparado para enfrentar los desafíos de brindar un salario competitivo.

 

Si ya desde antes este fenómeno era tendencia, desde la pandemia los investigadores tienen un mayor poder de negociación y, en ocasiones, optan por abandonar las universidades para buscar empleos mejor remunerados en el sector privado.

 

Desde la pandemia de COVID-19, los investigadores tienen mejores oportunidades de elección laboral (Imagen Ilustrativa Infobae)

 

En ese sentido, Nick Fowler, director académico de Elsevier, dijo a Times Higher Education (THE) que las universidades enfrentan una “guerra por el talento” y que algunas corren el riesgo de descubrir que “cuando pierden talento entran en una espiral negativa donde su reputación se daña y se vuelve más difícil atraer a los académicos”.

 

En el reporte de la editorial, un líder académico de las Américas dijo que “luchan por reclutar a las mejores personas y, por otro lado, se corre el riesgo de perderlas en sectores industriales donde tienen una gran demanda”. Lo anterior lo ejemplificó con la inteligencia artificial, en donde la academia quiere que se toquen temas de índole social, donde se consideren repercusiones, y sus alcances éticos, sin embargo, la industria continua pagando a los académicos para avanzar en sus aplicaciones y generaciones.

 

“Si se toma un área como la IA generativa, la mayoría de las personas más importantes han dejado sus puestos académicos para trabajar en la industria. Eso es cierto en las mejores universidades de Estados Unidos y en Cambridge, Oxford, UCL e Imperial, por lo que he visto”, expuso el líder académico.

 

Según el informe, las instituciones de América del Norte generalmente pueden ofrecer salarios más “atractivos” que cualquier otra región, lo que deja a las de otras partes del mundo incapaces de competir financieramente. Sin embargo, los líderes académicos de América central y Sudamérica a menudo todavía no se sienten preparados para ofrecer paquetes competitivos.

Fuente: https://www.infobae.com/educacion/2024/03/27/solo-el-11-de-las-universidades-puede-ofrecer-un-salario-competitivo-a-los-investigadores-revela-encuesta/

 

Comparte este contenido:

Sora, la nueva herramienta de IA: ¿qué beneficios trae para la educación?

La irrupción de la inteligencia artificial en las aulas es un hecho y Sora llegará a este campo con sus pros y contras.

Comparte este contenido:

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias

Por: Juan Manuel García *

Repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

*Analista de Derechos Digitales

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias – Por Juan Manuel García

Comparte este contenido:

América Latina ante la inteligencia artificial

Por: Juan Manuel García

Cierra el 2023 con muchas novedades en cuanto a la regulación de la implementación de sistemas de inteligencia artificial (IA). En esta columna, repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

Fuente: https://www.derechosdigitales.org/22881/america-latina-ante-la-inteligencia-artificial-mapeo-de-iniciativas-regulatorias-en-la-region/

Comparte este contenido:

Mundo: Así la inteligencia artificial ayuda a detectar material de abuso sexual infantil en línea

Mundo/08-12-2023/Autoría y Fuente: andina.pe

Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual.

Los datos y la inteligencia artificial para su análisis puede salvar niños que son víctimas de abuso sexual. Solo en Estados Unidos se recibieron más de 88 millones de archivos reportados en los que menores de edad eran víctimas de abuso sexual, según el Centro Nacional de Niños Explotados y Desaparecidos en el 2022. Descubre cómo la tecnología es utilizada para detectar y denunciar a los pedófilos y abusadores.

«Como profesionales en tecnología tenemos el poder de acabar con las pesadillas de niños (que son abusados)», dijo la Dra. Rebecca Portnoff, jefa de ciencia de datos en Thorn, quien fue invitada en la serie de conferencias AWS re:Invent 2023.  En los últimos cinco años, se reporta un aumento del 329% en archivos de material de abuso sexual infantil (CSAM).

Thorn es una ONG fundada por los actores Ashton Kutcher y Demi Moore, que desarrolló el software Spotlight para detectar imágenes o videos de pornografía infantil. Con esta tecnología se ha logrado identificar al menos 9 niños cada día que son presuntas víctimas de abuso sexual.

Esta organización también lanzó Safer, un software basado en la tecnología de Amazon Web Services (AWS) que es utilizado por las empresas para evitar que en sus plataformas en la nube se registre pornografía infantil.

A la fecha, este programa es empleado por empresas como GoDaddy, que aloja miles de sitios web; Imgur, que permite subir fotos; Vimeo, que facilita el almacenamiento de videos; entre otras. Todas estas plataformas tienen el potencial riesgo de que malos usuarios suban contenido ilegal como pornografía infantil. 

Lo cierto es que los depredadores en línea vienen utilizando tecnologías novedosas, como los chatbots, para atraer a menores de edad en internet. De 2021 a 2022, se detectó un 82 % de aumento en los informes de incitación para realizar actos sexuales con menores como víctimas en Estados Unidos.

Eso no es todo. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en material de abuso sexual infantil generado por computadora usando IA y otras tecnologías.

«Estos no son solo archivos, son niños pidiendo ayuda desesperadamente», alertó Portnoff.  «La inteligencia artificial y el machine learning hace la diferencia», dijo, recordando que comenzaron a trabajar en la plataforma en el 2019, cuando ya se estudiaba el uso de redes neuronales convolucionales para detectar pornografía infantil.

«Construimos un clasificador que actúa como un magneto poderoso para encontrar nuevos archivos de abuso infantil», agregó. Para que esta herramienta sea utilizada por las plataformas tecnológicas donde se almacena contenido se emplea Amazon ECR para distribuir el modelo IA entrenado.

También se utiliza Amazon EKS para mejorar el algoritmo y Amazon S3 para recibir retroalimentación como falsos positivos de parte de las compañías tecnológicas, y así afinar aún más la detección.

Inteligencia artificial para acabar con el abuso infantil

Para ello, Safer usa la herramienta basada en hashing y matching, algoritmos que pueden  detectar material de abuso sexual infantil e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como una huella digital para cada contenido.

Estos algoritmos se apoyan de inteligencia artificial y machine learning para comparar el contenido detectado con material previamente denunciado. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Safer es una gran base de datos que agrega más de 29 millones de valores hash conocidos para este contenido ilícito. También permite a las empresas de tecnología compartir listas hash entre sí (ya sea bajo su nombre o de forma anónima) ampliando aún más la cantidad de datos para así interrumpir la propagación de material de abuso sexual de niñas, niños y adolescentes.

En 2022, Safer analizó más de 42,1 mil millones de imágenes y videos y se encontraron 520,000 archivos de abuso en las plataformas. Hasta la fecha, Safer ha ayudado a identificar 2.8 millones de archivos de presunto contenido ilícito, según el informe Emerging Online Trends in Child Sexual Abuse 2023.

Fuente e Imagen: https://andina.pe/agencia/noticia-asi-inteligencia-artificial-ayuda-a-detectar-material-abuso-sexual-infantil-linea-965333.aspx

Comparte este contenido:

Leonardo Durán Vivas: La IA y su impacto en las universidades

Hay que tener muy en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar las brechas conceptuales identificadas en los jóvenes y estudiantes

 

La inteligencia artificial (IA) es una de las mayores tendencias tecnológicas en el mundo, es el tercer término más buscado hoy en Google y es la mayor revolución tech este año en el planeta.

 

Su impacto en todas las industrias y sectores es indiscutible y la academia no es la excepción. Esta herramienta ha permeado a todas las universidades del país y la manera de hacer las clases o de evaluar a los estudiantes. Asimismo, hoy representa un gran desafío para las Instituciones de Educación Superior (IES), ya que promete revolucionar la forma como tradicionalmente aprenden los alumnos. Ante estos cambios hay dos caminos; uno, asustarse y salir corriendo, es decir, desconocer el avance de la IA y querer tapar el sol con una sola mano; o prepararse para aprender continuamente de esta herramienta con el propósito de saber utilizarla. Usted elige.

 

Si la decisión gira en torno a empoderarse de esta solución tecnológica para que no lo coja desprevenido, como dicen por ahí, “con los pantalones abajo”, entonces es mejor que vaya conociendo los modelos generativos de IA como GPT o Bard, los cuales están a un clic de distancia para los estudiantes. Esta herramienta, para muchas personas conocida como un robot automatizado, busca dar la mejor respuesta en el menor tiempo posible. En otras palabras, Chat GPT está retando a los profesores y docentes a apropiarse de la inteligencia artificial y a conocer todas sus ventajas para modernizar su pedagogía y didáctica con el fin de no quedarse atrás.

 

Al mismo tiempo, tenga en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar brechas conceptuales identificadas en los jóvenes. Es decir, que ayudan a los estudiantes aprender a más rápido y fácilmente. Estos avances, que para muchos generan temor, para otros se han convertido en una oportunidad de repensar la forma en que se dinamizan las clases hoy en las universidades, abriendo múltiples formas de aprender para las comunidades académicas. Ahora, si usted es de los que piensa que la inteligencia artificial es solo para los que dictan clase o estudian carreras Tech, está muy equivocado, pues la IA no solo es un tema que se está integrando en programas de ingeniería, sino que también está siendo incluido en las materias de pregrados de humanidades, ciencias sociales o ciencias económicas y administrativas. Sin embargo, es importante aclarar que la influencia de esta herramienta en los pénsum académicos se está dando de manera gradual, pues lo que finalmente se busca es responder a las necesidades de la industria y del mercado laboral con conocimientos y competencias en tecnología que estén a la vanguardia y los cuales se pueden enseñar desde la academia.

 

¿Y qué decir de la evaluación y cómo la IA está impactando este proceso? Acá sin duda hay un enorme potencial de la inteligencia artificial, pues su implementación está facilitando que los procesos para calificar a los alumnos sean más dinámicos, precisos, imparciales y, sobre todo, personalizados. Por ejemplo, actualmente algunas universidades del país están implementando análisis predictivos para identificar a aquellos estudiantes que están en riesgo de deserción, lo que permite a los profesores intervenir de manera anticipada. Eso sin contar que ya se están desarrollando recursos didácticos que facilitan la gamificación, la detección del plagio, las retroalimentaciones instantáneas y la generación de evaluaciones personalizadas, entre otros avances que, poco a poco, se están incorporando a los nuevos métodos evaluativos gracias a la IA.

 

Fuente: https://www.larepublica.co/internet-economy/la-ia-y-su-impacto-en-las-universidades-3738114

Comparte este contenido:
Page 1 of 47
1 2 3 47