Page 1 of 47
1 2 3 47

México: El aprendizaje y la inteligencia artificial

El aprendizaje y la inteligencia artificial

 

Este artículo forma parte de alguna de las reflexiones que compartí en una entrevista que me realizaron y que forma parte de un estudio coordinado por una universidad de Perú, que está orientada a recoger los imaginarios de los investigadores e intelectuales iberoamericanos de las Ciencias Sociales con respecto a la inteligencia artificial (IA).

No soy especialista en la temática, pero basándome en mi experiencia educativa, expresé algunas ideas que ahora comparto sobre la IA, porque pienso que en todos los espacios formativos es necesario reflexionar en que la humanidad y la forma de vida ha cambiado y que uno de los principales agentes de cambio es la IA, que llega para transformar todos los ámbitos sociales, por lo que la educación no puede estar ajena si tenemos presente la mejora del mundo global.

Valoro  los grandes avances que en los diversos campos del conocimiento ha incidido, por ejemplo: en la medicina, ya que hoy es posible la detección precoz del cáncer y del Alzheimer, los diagnósticos sobre diferentes enfermedades y el diseño y elaboración de prótesis entre algunos; en los deportes controlando distintos tipos de entrenamiento y ajustándola a los diferentes deportes y personas; en ingeniería para el control de calidad, en la automatización de procesos complejos, para la  seguridad etc.

Pero para lograr esos avances no ha sido suficiente tener acceso a la tecnología como tal, sino que hay que apropiarse de ella y eso requiere formación, para que la tecnología disponible sea asimilada dentro de un conjunto de prácticas culturalmente organizadas, por ejemplo, si solo se les indica a las profesoras y a los profesores que empleen la tecnología, pero no hay un proceso formativo de acompañamiento, seguimiento y monitoreo, ¿cómo le hacen?

Los educadores en específico, requerimos de diversas formas de filtrar la información y encontrar nuevas herramientas para optimizar nuestro trabajo, donde el diseño y las prácticas innovadoras de la IA abre un nuevo campo por explorar. Pero, ¿qué se considera una IA? Según Modi (2021) cuando está estructurada de tres componentes: aprendizaje automático, aprendizaje profundo y aprendizaje por refuerzo.

El primer componente es el aprendizaje automático, basado principalmente en algoritmos donde una máquina trabaja a través de datos y acciones previas (como autocompletar formularios o predecir texto en el móvil):  el segundo refiere al aprendizaje profundo, donde  los comandos de funcionamiento se inspiran en la estructura y función del cerebro humano (como la conducción de automóvil sin conductor) y el último, el aprendizaje por refuerzo, que refiere a la toma de decisiones por parte de la máquina de forma secuencial, es decir, según lo que se desea maximizar, utiliza el comando de entrada y salida ( como los robots que juegan futbol).

Hace poco leí un artículo (Santos Corral et al, 2023) que hablaba sobre la Estrategias de vinculación de Huawei en el mundo, dentro del contexto actual de competencia entre China Estados Unidos y que se relacionan con la IA. Países como el nuestro, que no cuentan con la infraestructura necesaria, requieren del apoyo de grandes empresas que hasta ahora habían sido estadounidenses y donde actualmente, las empresas chinas tienen un papel destacado en el mercado global.

De ahí que Huawei dispute la entrada de equipos y software en los países latinoamericanos a partir de la vinculación del personal universitario alrededor de todo el mundo, para que las herramientas diseñadas por esta empresa se fijen en el imaginario y se legitimen entre quienes trabajan en los distintos temas de IA.

Estas alianzas de vinculación con las universidades consiste en acercarse a los académicos para que ellos lleven las herramientas de Huawei a la academia y las empresas, nada sencillo cuando se requiere de conciliar las expectativas y la flexibilización que cada uno de los académicos tiene sobre la IA, empleando la capacitación y el apoyo de investigadores para que sea utilizada en diferentes proyectos para que,   finalmente,  sea posible transferir los productos derivados del trabajo con IA a diversos usuarios, como por ejemplo, a los grupos vulnerables.

Lo anterior es sumamente complejo, porque requiere de la vinculación de conocimientos tanto técnicos como sociales, específicamente porque se requiere de la formación en habilidades, herramientas y capacidades para el uso de plataformas relacionadas con la IA, lo que precisa de la necesidad de integrar equipos interdisciplinarios que modifiquen su forma de trabajo y articulen esfuerzos.

Lo que es un hecho es que la IA es una herramienta que puede contribuir a potencializar distintos campos del conocimiento y que   si bien, la tecnología de IA parte de los planteamientos de las ciencias exactas, sólo tiene sentido si se construye desde las ciencias sociales, porque entonces es posible aportar elementos vinculados a la diversidad de los problemas sociales que ahora prevalecen.

Hay varias cosas que destacar dentro de esta temática: primero, ser vista como un instrumento que contribuye a la solución de problemas tan demandantes en nuestro tiempo como la salud, el cambio climático, la desigualdad social, la pertinencia educativa etc. Segundo, que esté diseñada en el conocimiento de las necesidades técnicas, sociales y simbólicas de quienes usarán esta tecnología para que tenga más posibilidades de ser útil y significativa. Y tercero, que el empleo de ella tenga ante sí los dilemas éticos relacionados con la información que se tiene acerca de los hechos, nuestras experiencias en situaciones semejantes, los intereses personales y, sobre todo, los valores y principios que están implicados en su empleo.

Si bien es cierto que la mucha de la información cotidiana está plagada de noticias falsas o que difaman o desacreditan a las personas, no tiene que ver específicamente con la IA, o las redes sociales o la tecnología, más bien tiene que ver con la manipulación que algunos seres humanos hacen de ellas para instalar imaginarios sociales que promueven conductas poco éticas y hasta delictivas que se relacionan  con los intereses, el manejo del poder y de la riqueza de algunos grupos y personas, lo que es inaceptable, tomando en cuenta que el valor de cualquier tecnología, incluyendo la IA, tiene que ver con el aprendizaje y la legitimidad.

Referencias
Santos Corral, María Josefa, Gortari Rabiela, Rebeca de, y Lopátegui, Marco. (2023). Construir vinculación desde la Inteligencia Artificial: Análisis de una alianza interinstitucional. Entreciencias: diálogos en la sociedad del conocimiento11 (25),
Modi, A. (2021). Una introducción rápida a la inteligencia artificial (IA) y sus componentes. (A quick introduction to Artificial Intelligence (AI) and its components)

Comparte este contenido:

No se puede luchar contra la guerra y el genocidio si no politizamos su tecnología

ENRIQUE DÍEZ-GUTIÉRREZ | MAURO JARQUÍN RAMÍREZ

No se puede luchar contra la guerra y el genocidio si no politizamos su tecnología

La Inteligencia Artificial (IA) ha desembarcado en las universidades públicas. Departamentos y Facultades de todo el mundo han asumido y normalizado la incorporación y el uso de la IA de origen y control privado, respondiendo de forma casi automática a las campañas de marketing de grandes empresas y start-ups con el fin de “no quedarse atrás”.

 

Aprender a utilizar esta tecnología dentro de los marcos establecidos por los proveedores privados, así como su incorporación a la docencia, se ha convertido en un imperativo para enfrentar los “retos del siglo XXI”, que prioritariamente están determinados, cada vez más, por las necesidades y demandas de los mercados.

 

Esta narrativa dominante, “eficientista” y economicista, es extensiva a las distintas formas de tecnología digital en la educación superior y ha generado tal consenso y tal urgencia que, pese a enclaves críticos relevantes al interior de las universidades, de forma general se han dejado de lado consideraciones sobre las condiciones sociales e ideológicas de la producción de dicha tecnología (ONU, 2024).

 

No se ha cuestionado que la producción de IA está enmarcada en una cosmovisión del mundo específica, ni que está condicionada por un conjunto de prioridades económicas, políticas, ideológicas y sociales que la definen y la orientan. No se ha considerado el proceso social mediante el cual el “conocimiento producido socialmente” es extraído con el fin de ampliar las bases de datos que dan vida a dicha tecnología. Con ello, tampoco se han discutido las consecuencias del enriquecimiento corporativo a costa de la expropiación de la información colectiva.

 

En el ámbito universitario, el análisis de la IA se ha sustraído de su historia y contexto. Presentada como una herramienta lista para ser utilizada, sin considerar su condición de articulación técnica condicionada históricamente y fundada en el trabajo humano. Una tecnología que generalmente la comprendemos poco y aún menos la podemos controlar (Innerarity, 2019).

 

Plantear esto resulta clave porque, pese a que la discusión en torno a la IA ocupa paulatinamente un mayor espacio en la academia, esto no ha sido suficiente para lograr una pausa, un respiro, a nivel comunitario e institucional, que permita plantear una serie de preguntas y discusiones previas a su adopción. Esto incluso en un contexto global en el cual se ha demostrado el uso de la IA en procesos tales como el engaño de masas (Piacente, 2024), la desinformación (Perotti, 2024) e incluso el genocidio (Raiss, 2024), en los cuales el interés por la acumulación ha condicionado no solo el uso de la tecnología, sino también su diseño.

 

La pausa propuesta podría ser útil para superar los marcos interpretativos que se nos han impuesto en torno al desarrollo y el uso de tecnología digital en educación, los cuales aluden a los lugares comunes -aunque no por ello irrelevantes- respecto a los potenciales sesgos (sexo-genéricos, étnicos, de clase, etc.) en los resultados de la IA generativa, así como un potencial uso no ético de la misma, expresado, por ejemplo, en el fraude académico. Las condiciones sociales de la producción y distribución de dicha tecnología, donde confluye la explotación laboral, el impacto ambiental, la “caja negra” de sus algoritmos y el control de un reducido conjunto de megaempresas corporativas sobre sus condiciones de producción y uso, deben ser discutidas, porque la IA está afectando procesos fundamentales de la vida en común, tanto al interior de las Universidades, como fuera de ellas.

 

En este momento, resulta importante cuestionarnos la posibilidad de que, tal vez, la IA sea “una forma sofisticada de controlar las actividades y modificar las subjetividades de las personas a fin de incrementar las ganancias económicas” (Reyes, 2023) y de consolidar formas de opresión, y no únicamente una herramienta que el mundo de la ciencia ha desarrollado para “hacer nuestra vida más fácil” por medio de encargarse de tareas repetitivas y que consumen demasiado tiempo.

 

Genocidio en Palestina asistido por IA

 

Un ejemplo del nivel de impunidad epistémica que ha logrado la IA, así como de sus mecanismos de funcionamiento y del poder de las compañías proveedoras, es la invisibilidad de la cual ha gozado su uso respecto al genocidio palestino.

 

Como ha sido documentado, la IA ha tenido un papel relevante en el apartheid y el genocidio contra el pueblo palestino (Mhajne, 2023; Abraham, 2024; Gould et al., 2024). En mayo de 2021, el periódico The Jerusalem Post publicaba que la escalada de las fuerzas militares israelíes contra Hamás, denominada “Operation Guardian of the Walls”, era la primera guerra guiada por IA (Ahronheim, 2021). Los militares israelíes habían establecido una IA que centralizaba todos los datos sobre los grupos armados en Gaza, en un sistema que establecía los ataques a efectuar.

 

En 2023 Amnistía Internacional publicó el informe “Apartheid automatizado: cómo se fragmenta, segrega y controla a la población palestina mediante el reconocimiento facial”. En este, explicaba que tales instrumentos tecnológicos han sido usados para violar los derechos humanos y potenciar la guerra. Así, el apartheid de Palestina y la represión en Gaza se habían convertido en un «laboratorio» en el que experimentar con este tipo de prácticas (Amnistía Internacional, 2023; López, 2024).

 

Posteriormente, en abril de 2024, las revistas israelíes +972 Magazine y Local Call publicaron un reportaje sobre Lavender, una IA que opera a través de un avanzado sistema estadístico, el cual ha “asistido” los bombardeos israelíes en Gaza, con poca supervisión humana y un alto nivel de permisividad de personas asesinadas (Abraham, 2024) con lo cual ha mostrado una “tasa de error” muy alta que ha terminado con la vida de miles de personas y destruido infraestructura básica. Dicho programa se ha articulado con otras formas de IA para impulsar el actual genocidio del ejército israelí en la Franja de Gaza.

 

Resulta problemático que, pese al conocimiento público del uso bélico de la IA cada vez más extendido, así como a un generalizado rechazo de la campaña bélica israelí en medios universitarios del mundo, la discusión política global sobre la importancia de la tecnología y su rol se encuentre evidentemente desatendida. Esto contrasta con episodios históricos previos, donde una parte relevante del movimiento estudiantil desarrolló una crítica no únicamente a la violencia sobre los pueblos, el neocolonialismo y la guerra, sino también a las condiciones tecnológicas de su realización. En cierta medida, esto puede responder al nivel de integración que la tecnología digital ha logrado en nuestra vida cotidiana, con lo cual se ha despojado de todo vestigio de política, lucha o proceso social subyacente a su producción.

 

Protesta social y universidades. De Vietnam a Palestina

 

La brutalidad del ataque israelí sobre la población palestina, la sistemática violación de derechos humanos y los niveles de masacre continuada de población indefensa, generaron que la indignación mostrada a nivel global mediante movilizaciones masivas se expresara también en los campus universitarios.

 

El asesinato de más de 36.000 palestinos hasta el mes de abril de 2024, entre ellos más de 14.500 niños y niñas, así como la destrucción de cientos de escuelas y todas las universidades (Red Universitaria por Palestina, 2024), la devastación de viviendas, infraestructuras sanitarias, mezquitas y lugares patrimoniales palestinos, provocó el estallido de una “revuelta universitaria”. Manifestaciones, movilizaciones, tomas de campus, denuncias públicas, exigencias de suspensión de acuerdos y colaboración en investigaciones con el régimen israelí a los rectorados y autoridades académicas, jornadas de discusión y debate público en la calle y en las aulas, etc., fueron parte del abanico de estrategias y planes de acción definidos para intervenir políticamente en el debate sobre la situación palestina, y buscar así frenar la avanzada bélica de muerte y sufrimiento.

 

La irrupción del activismo universitario se extendió paulatinamente en distintas partes del mundo, con una participación importante también en Estados Unidos, donde a comienzos de mayo casi 3.000 estudiantes y personal académico de 61 campus habían sido detenidos (Rubin et al., 2024). En España, la policía irrumpió violentamente en los campus para desalojar acampadas universitarias, pese a que distintas universidades respaldaban institucionalmente las propuestas estudiantiles. En México, también colectivos estudiantiles, con su epicentro en la Universidad Nacional Autónoma de México (UNAM), decidieron organizar acampadas por Palestina, además de foros informativos y de discusión con la participación de la academia, estudiantes y otros integrantes de las comunidades universitarias.

 

A la luz de la revuelta universitaria estadounidense, que tomaba lugar también en otras partes del mundo, un periodista del New York Times apuntó que tal situación podía “evocar los fantasmas de 1968” (Blow, 2024) refiriéndose a la protesta estudiantil contra la guerra de Vietnam. Una lectura que fue compartida en otros medios y espacios de debate, identificando paralelismos entre el activismo universitario contra la masacre del pueblo palestino y el movimiento estudiantil contra la intervención estadounidense en Vietnam (Helmore, 2024; Rees, 2024).

 

No obstante, entre otros elementos contextuales, es posible identificar una diferencia fundamental entre ambas experiencias: el lugar que ocupa en la crítica a la campaña bélica la problematización de sus condiciones tecnológicas de desarrollo. En este ámbito, ha sido posible ver cómo, pese al uso sistemático de tecnología de punta por parte del ejército israelí, persiste una clara ausencia de discusión en torno al papel que ha jugado, en este caso, la IA. Un caso significativo si consideramos que al menos una parte de las protestas estudiantiles respecto a Vietnam se centraron en la tecnología usada para su desarrollo.

 

Si la campaña bélica de Israel es la primera guerra asistida por IA, la guerra de Vietnam fue la primera guerra en la historia asistida por eletronic data. Tal como explica Fisher (1988) hacia 1968, Estados Unidos había instalado computadoras en Saigón, con data procedente de Vietnam del Sur, el cual iba a ser utilizado para analizar cada faceta de la guerra mediante la cuantificación de procesos diversos, con lo cual se podían hacer análisis y recomendaciones bélicas. Esta inclusión de computadoras también en el ámbito bélico se llevaba a cabo en un contexto en el cual la burocratización de la sociedad estadounidense iba de la mano con la incorporación de tecnologías para la gestión y el control, una tendencia que paulatinamente se consolidaba también en la universidad.

 

Los efectos de la guerra contribuyeron a agudizar el malestar causado por la tecnificación y burocratización de la sociedad y las universidades, un proceso al cual los estudiantes críticamente se referían como La Máquina. La problematización de dicha metáfora de funcionamiento de la sociedad condujo a que en las universidades los estudiantes se rebelaran contra las técnicas que alcanzaban cada vez mayor presencia. Así, los estudiantes optaron por quemar las tarjetas perforadas -un instrumento muy utilizado en el momento para organizar procesos administrativos- tanto de matrícula como de reclutamiento, en protestas contra la guerra en Vietnam (Lubar, 1992). Grupos de estudiantes organizados gritaban “¡Paremos la máquina de guerra!”. Otros, de los cuales algunos derivaron en la consolidación del movimiento hippie, simplemente no querían formar parte de dicha máquina, y optaban por renunciar a la vida en la sociedad moderna. Otros más denunciaban: “¡Nuestras vidas están manipuladas por máquinas IBM” (Lubar, 1992, p. 54).

 

La tecnología se comprendía poco a poco en tanto una expresión del control que sometía tanto a la universidad como a los pueblos y estaba vigente en el proceso colonial. Mueller (2021) recuerda cómo, mientras la rebelión estudiantil contra la guerra en Vietnam crecía, también lo hacían las acciones contra las computadoras ubicadas en los campus, tanto a nivel discursivo como en términos de acción directa. Explica que Old Mole, una publicación estudiantil de Cambridge, Massachusetts, escribió en un artículo de 1969, titulado Let’s smash MIT: “El MIT no es un centro de investigación científica y social al servicio de la humanidad. Es parte de la maquinaria de guerra de EE.UU.”. Lo anterior estaba acompañado de actos como ocupaciones y tomas de centros, incendios o ataques físicos a centros de computación, tal como sucedió en Syracuse University, University of Wisconsin, NYU o Stanford.

 

Sectores importantes del movimiento estudiantil contra la guerra de Vietnam, consideraron importante el análisis y la acción frente a una técnica y tecnología que posibilitaba la opresión y habilitaba procesos como el colonialismo y el militarismo. Plantearon en llevar la discusión más allá de los resultados de la guerra, y desarrollaron una crítica práctica en torno a los medios tecnológicos de despliegue bélico, la cual al día de hoy resulta tanto pertinente como necesaria.

 

Politizar la tecnología en las universidades

 

Luchar contra la guerra y el genocidio desde las universidades requiere discutir profundamente no solo sus resultados sino también su aristas tecnológicas. Más aún, responder a las necesidades vitales del siglo XXI, conlleva que el sistema educativo sea un espacio de reflexión crítica y conocimiento sobre la tecnología en nuestra vida cotidiana, y no únicamente un espacio adaptativo respecto a los intereses de quienes la controlan.

 

Por su lado, la universidad pública no puede ser un espacio pasivo de conquista para una novedad tecnológica y sus compañías desarrolladoras. Es preciso superar el fetichismo tecnológico de ver en la IA esencialmente una herramienta disponible para utilizarla a placer, y con ello avanzar hacia consideraciones relevantes sobre los efectos de su producción, su distribución y su consumo en nuestra vida cotidiana y en el trabajo que realizamos día con día en las universidades.

 

La tecnología digital -y paulatinamente la IA- ha logrado un status de naturalidad, normalidad y habitualidad y se ha consolidado como una parte inherente e indispensable del entorno y la acción humana a tal punto que es difícil marcar límites respecto al acto de usarla, o terminar siendo usados por quienes la controlan. Se ha convertido en un enclave a menudo invisible de generación de ganancias, reproducción ideológica y creación de condiciones de ordenamiento social.

 

De forma acrítica, cursos, cátedras y capacitaciones en IA, así como en competencias digitales se ofrecen y se establecen continuamente. La academia, profesoras y profesores nos afanamos por incorporar la última novedad en su campo de investigación y docente, adoptando un discurso de modernización revestido de innovación para “adaptar la universidad al siglo XXI”. Las instituciones de educación superior invitan a docentes y estudiantes a formarse y profesionalizarse en el uso de herramientas de IA, sin un cuestionamiento ni un debate sistemático sobre el sentido y la finalidad de dicha tecnología. Cada vez se ofertan más cursos de actualización tecnológica en mercancías educativas (software o hardware) cuya utilidad educativa aún no resulta clara, pero que son impulsadas por campañas publicitarias fundadas en un discurso que ha logrado llegar al sentido común en el sector educativo.

 

Consideramos que, frente a una coyuntura de expansión corporativa en la política y educación globales, resulta un imperativo la politización de la tecnología en nuestras universidades, así como la creación de un debate amplio en torno a su finalidad y su sentido, lo cual debe conducirnos a plantear, entre otras cosas, también el control democrático y transparente y su regulación pública y abierta. No se trata de maquillar ese control con organismos o regulaciones paliativas como la reciente Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuya misión de vigilar la aplicación de esta tecnología y sus efectos en empresas e instituciones públicas, como se puede hacer con los alimentos o los medicamentos, supuestamente serviría para “avanzar hacia una IA confiable y ética”. Tenemos que caminar hacia una discusión plural que nos conduzca, en un primer momento, a una mayor transparencia en la implantación de la IA y hacia su auditoría (Castillo, 2024).

 

Politizar la tecnología implica, también, discutir las condiciones sociales y los actores implicados en su producción. Esto nos remite a pugnar por cambios en los mecanismos de toma de decisiones y formas de gobernanza que alteren la tradicional distribución de poderes en esa toma de decisiones (Subirats, 2016). Politizar la tecnología es tener acceso público y democrático para auditar sus algoritmos y tener capacidad de impedir que se sigan utilizando si reproducen discriminaciones, vulneran los derechos humanos o se utilizan para fines bélicos o genocidios como el de Gaza. Politizar la tecnología es decidir para qué la queremos, cómo utilizarla, y al servicio de qué fines sociales y políticos. En definitiva, esto se vincula a la apuesta por un control social y democrático, orientado al bien común, de una tecnología que actualmente está condicionando nuestra forma de pensar, relacionarnos, actuar, estudiar y construir el mundo que habitamos.

 

Mauro Rafael Jarquín Ramírez es profesor de la Universidad Nacional Autónoma de México y Enrique Javier Díez Gutiérrez de la Universidad de León (España).

 

Referencias:

 

Abraham, Y. (2024, abril 5). Lavender & Where’s Daddy: How Israel Used AI to Form Kill Lists & Bomb Palestinians in Their Homes. Democracy Now. https://bit.ly/3Rl9O8l

 

Amnistía Internacional (2023, mayo 2). Apartheid automatizado: Cómo se fragmenta, segrega y controla a la población palestina en los TPO mediante el reconocimiento facial. Amnistía Internacional. https://bit.ly/3RrqqLB

 

Blow, Ch. M. (2024, abril 24). The Ghost of the 1968 Antiwar Movement Has Returned. The New York Times. https://bit.ly/45kccC4

 

Castillo, C. del (2024, junio 19). La Agencia de Supervisión de la Inteligencia Artificial echa a andar entre quejas por dar de lado a la sociedad civil. El Diario.es https://acortar.link/pg2kQn

 

Fisher, D. (1988). Computers, electronic data and the Vietnam War, Archivaria, 26, 18-32.

 

Gould, L., Arentze, L. & Holjtink, M. (2024, mayo 2). Gaza war: artificial intelligence is changing the speed of targeting and scale of civilian harm in unprecedented ways, The Conversation, https://acortar.link/g3gUxX

 

Helmore, E. (2024, abril 29). Echoes of Vietnam era as pro-Palestinian student protests roil US campuses. The Guardian. https://bit.ly/3VBXseA

 

Innerarity, D. (2019, marzo 11). Lo digital es lo político. La Vanguardia. https://bit.ly/3VoM4RQ

 

López, V. (2024). Israel usa la inteligencia artificial como arma para afianzar el «apartheid» en Gaza. Público. https://acortar.link/Jbq0GW

 

Lubar, S. (1992). Do not fold, spindle or mutilate: A cultural history of the Punch Card, Journal of American Culture, 15(4), 43-55.

 

Mhajne, A. (2023, noviembre 2). Israel’s AI revolution: From innovation to occupation, Carnegie Endowment for International Peace, https://acortar.link/hgYPgn

 

Mueller (2021). Breaking Things at Work: The Luddites Are Right About Why You Hate Your Job. Verso.

 

ONU (2024). La militarización de la inteligencia artificial y el género. ONU. https://acortar.link/pGrrBc

 

Piacente, P. J. (2024, mayo 13). La IA ya es una maestra de la mentira y el engaño. Levante. https://bit.ly/3x4jRb3

 

Perotti, E. (2024, febrero 27). Desinformación e inteligencia artificial: ¿la revolución industrial? World Association of New Publishers. https://bit.ly/3xghli0

 

Raiss, A. (2024, junio 6). ‘Digital kill chains’: The dark side of tech in warfare. The Cradle. https://bit.ly/3yXQPdP

 

Red Universitaria por Palestina. (2024). Universidad, Gaza y genocidio: una ecología de guerra. Red Universitaria por Palestina. https://acortar.link/cgmWk2

 

Rees, J. (2024, mayo 18). The crucial difference between the Gaza and Vietnam student protests. Middle East Eye. https://bit.ly/4aYMdBk

 

Reyes, C. (2023). La inteligencia artificial no es neutral, El Viejo Topo, Julio-Agosto, Núm. 426/427

 

Rubin, A., Beheraj, K., Lysik, T., & Chase, W. (2024, mayo 10). Mapped: Where pro-Palestinian student protesters have been arrested. Axios. https://bit.ly/45hZBPT

 

Subirats, J. (2016). Internet y democracia. Politizar la transformación tecnológica. Gaceta Sindical, 27, 61-72.

https://vientosur.info/inteligencia-artificial-y-universidades-no-se-puede-luchar-contra-la-guerra-y-el-genocidio-si-no-politizamos-su-tecnologia/

 

Comparte este contenido:

Nuevos dioses, viejas supersticiones

Por:  Por Jorge Majfud 

Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 “experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco”. (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)

Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.

En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a la prehistoria de las técnicas de reconocimiento facial, denunciadas, por lo menos, desde el año en 2009.

Con un sistema diferente al logaritmo, las IA se parecen a niños superdotados de cinco años: aprenden de sus mayores humanos y, aunque pueden desarrollar su propia personalidad, no se distinguen mucho de sus progenitores y actúan en consecuencia, en casos de formas más radicales sin ninguna creatividad.

A modo de especulación, en 2015 escribí la novela Silicona 5.0 para abordar este problema sobre una serie de muñecas sexuales con capacidad de terapeutas y de asesinas, debido a los traumas de la Eva humana usada para su comercialización. Una mujer cosificada por su cultura, alimentando la existencia de una cosa humanizada con aspecto de mujer. Más recientemente, se usó la colección de 600 ensayos publicados en majfud.org por su sistematicidad y consistencia humana desde 1999 para desarrollar otra IA. Algo que me inquieta profundamente, pero que no puedo evitar.

A principios de 2024, otra IA produjo un escándalo internacional al crear imágenes de soldados nazis de la Alemania de Hitler con rostros morenos y asiáticos. ¿A qué se debió esta contradicción con lo que señalamos antes? Aparentemente, las IA fueron instruidas para ser “políticamente correctas” insertando diversidad en donde nunca la hubo. Otra vez, la micropolítica rebelde haciéndole el juego a la macro política del establishment. Así, árabes barbudos vestidos de soldados alemanes perseguían judíos; mujeres negras arrojaban bombas atómicas sobre Hiroshima y Nueva York; gays y lesbianas dirigían el FBI de Hoover para perseguir gays y lesbianas sospechosos de ser comunistas; y los nativos del Tercer Mundo invadían y saqueaban Europa y Estados Unidos y luego masacraban a su población hasta lograr imponer dictaduras militares en Londres, París y Washington. Porque hay que prevenir el racismo promoviendo la diversidad.

Veamos un ejemplo más digerible. Durante la Semana Santa de este mismo año, hubo una proliferación de retratos de Jesús creados por la Inteligencia Artificial. Los retratos de ChatGPT muestran a hombres de ojos marrones y piel más morena que los clásicos retratos de los museos de Europa y de las modestas casitas de África y América Latina. No en pocas casas piadosos cristianos le rezaron por años a una fotografía de Jim Caviezel o de Robert Powell. No pocos “cristianos verdaderos” se ofenderían con la sola idea de inclinarse ante una imagen realista del africano San Agustín, también retratado por siglos como un santo llegado de algún pueblo esloveno.

Aunque algunos lo encontrarán más realista que el David de Miguel Ángel o el Jesús de Leonardo da Vinci, también los nuevos retratos de Jesús pintados por ChatGPT tienen un fuerte prejuicio etnocéntrico, porque fueron alimentados con ese material de la historia eurocéntrica más el maquillaje de la diversidad epidérmica (también eurocéntrica). Aunque aquí las AI se aleja unos centímetros del Jesús caucásico de ojos celestes tipo Robert Powell (angelical, confiable, higiénico y desarrollado), continúa muy lejos del aspecto facial de los habitantes del Medio Oriente de hace 2000 años. No deja de ser el rostro de un hombre caucásico luego de unas largas vacaciones en Cancún.

Lo de pobre también se le quitó en la vestimenta. La pulcritud y la calidad de sus túnicas revelan prejuicios de clase, otra vez negando y contradiciendo la realidad de un carpintero de Galilea veinte siglos atrás, alguien que viajaba en burro y que tenía por amigos pescadores y mujeres de las clases más humildes, con excepción de una sola.

Ahora, cada tanto leemos artículos sobre lo qué piensa la Inteligencia Artificial de la existencia humana, de cómo será el mundo del futuro o de cómo era el mundo hace mil o diez mil años. “¿Qué dice la IA sobre el mundo en 2040?” “¿Cómo se veía una cena en el Imperio Romano según IA? “La IA predice que en 2050 seremos todos felices”, “La IA revela los cinco hábitos para un matrimonio feliz” ―algo tan confiable como los consejos de un sacerdote católico.

Las IA tienen algo en común con los dioses anteriores: son metahumanos. Su credibilidad radica en que se asume que no dependen de los criterios de los creyentes, mortales de un día. No tienen “bias” (prejuicios). Como sea, es indiscutible que tienen algo en común: si no son ambos creaciones humanas, sin duda están hechos a nuestra imagen y semejanza, como esos dioses llenos de pasiones que, en nombre del Amor Universal condenan a su propias creaciones al infierno, no por haber hecho algo inmoral, como arrojar una bomba atómica sobre una ciudad o por haber promovido una guerra genocida, sino por no haber rezado de la forma indicada o por tener creencias equivocadas sobre el más allá.

Otra similitud: las IA son leídas y escuchadas con una profunda superstición: si lo dice una super inteligencia, debe ser cierto. O lo más aproximado a la realidad posible. Es algo más allá de la comprensión humana. Pero la Inteligencia Artificial no es una gran inteligencia. No aún. Es solo un niño con un conocimiento y una velocidad de procesamiento más allá de los límites humanos. Claro que los humanos no somos mucho mejores. Seguimos procesando pensamientos y creencias como en tiempo de las estepas del cálido Sur y de las cavernas del frío Norte. Cuando no creemos historias imposibles creemos en dioses virtuales.

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.

Fuente de la información e imagen:  https://rebelion.org

Comparte este contenido:

Estados Unidos: Solo el 11% de las universidades puede ofrecer un salario competitivo a los investigadores, revela encuesta

Los intentos de atraer y retener talento académico se ven obstaculizados por la incapacidad de las universidades de ofrecer compensaciones monetarias competitivas con las investigaciones financiadas por empresas.

Las universidades luchan por competir con la industria en materia de remuneración económica por las investigaciones que se deben llevar a cabo respecto a los avances tecnológicos que surgen al momento. Sin embargo, una encuesta reveló que apenas un 11% de la academia pueden afrontar el reto económico que tienen frente a lo que prometen las empresas.

 

De acuerdo con la encuesta global realizada por la editorial Elsevier a 115 líderes académicos y financiadores, un 75% de los líderes académicos cree que abordar los desafíos asociados con la atracción y retención de talentos es una alta prioridad para ellos. Y aunque el 93% de los encuestados dice que necesita más financiación para atraer a los mejores talentos, apenas uno de cada 10 líderes académicos dice sentirse bien preparado para enfrentar los desafíos de brindar un salario competitivo.

 

Si ya desde antes este fenómeno era tendencia, desde la pandemia los investigadores tienen un mayor poder de negociación y, en ocasiones, optan por abandonar las universidades para buscar empleos mejor remunerados en el sector privado.

 

Desde la pandemia de COVID-19, los investigadores tienen mejores oportunidades de elección laboral (Imagen Ilustrativa Infobae)

 

En ese sentido, Nick Fowler, director académico de Elsevier, dijo a Times Higher Education (THE) que las universidades enfrentan una “guerra por el talento” y que algunas corren el riesgo de descubrir que “cuando pierden talento entran en una espiral negativa donde su reputación se daña y se vuelve más difícil atraer a los académicos”.

 

En el reporte de la editorial, un líder académico de las Américas dijo que “luchan por reclutar a las mejores personas y, por otro lado, se corre el riesgo de perderlas en sectores industriales donde tienen una gran demanda”. Lo anterior lo ejemplificó con la inteligencia artificial, en donde la academia quiere que se toquen temas de índole social, donde se consideren repercusiones, y sus alcances éticos, sin embargo, la industria continua pagando a los académicos para avanzar en sus aplicaciones y generaciones.

 

“Si se toma un área como la IA generativa, la mayoría de las personas más importantes han dejado sus puestos académicos para trabajar en la industria. Eso es cierto en las mejores universidades de Estados Unidos y en Cambridge, Oxford, UCL e Imperial, por lo que he visto”, expuso el líder académico.

 

Según el informe, las instituciones de América del Norte generalmente pueden ofrecer salarios más “atractivos” que cualquier otra región, lo que deja a las de otras partes del mundo incapaces de competir financieramente. Sin embargo, los líderes académicos de América central y Sudamérica a menudo todavía no se sienten preparados para ofrecer paquetes competitivos.

Fuente: https://www.infobae.com/educacion/2024/03/27/solo-el-11-de-las-universidades-puede-ofrecer-un-salario-competitivo-a-los-investigadores-revela-encuesta/

 

Comparte este contenido:

Sora, la nueva herramienta de IA: ¿qué beneficios trae para la educación?

La irrupción de la inteligencia artificial en las aulas es un hecho y Sora llegará a este campo con sus pros y contras.

Comparte este contenido:

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias

Por: Juan Manuel García *

Repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

*Analista de Derechos Digitales

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias – Por Juan Manuel García

Comparte este contenido:

América Latina ante la inteligencia artificial

Por: Juan Manuel García

Cierra el 2023 con muchas novedades en cuanto a la regulación de la implementación de sistemas de inteligencia artificial (IA). En esta columna, repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/201921/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

Fuente: https://www.derechosdigitales.org/22881/america-latina-ante-la-inteligencia-artificial-mapeo-de-iniciativas-regulatorias-en-la-region/

Comparte este contenido:
Page 1 of 47
1 2 3 47