La irrupción de la inteligencia artificial en las aulas es un hecho y Sora llegará a este campo con sus pros y contras.
Por Ricardo Parada
Sora es una inteligencia artificial que puede generar vídeos a partir de texto y fue creada por OpenAI, la misma compañía que desarrolló ChatGPT. Esta herramienta es una de las innovaciones más impresionantes y prometedoras en el campo de la inteligencia artificial generativa, abriendo un mundo de posibilidades para la creación de vídeos, tanto para fines educativos, artísticos, informativos o de entretenimiento.
La herramienta podría tener muchas aplicaciones en el ámbito educativo, por ejemplo: crear contenidos audiovisuales para ilustrar conceptos, procesos, fenómenos o hechos históricos de forma atractiva y personalizada; animar imágenes fijas para darles vida y profundidad, como mapas, diagramas, obras de arte o fotografía; completar o ampliar vídeos existentes con información adicional, efectos especiales o transiciones fluidas.
Igualmente, se puede aprovechar en las aulas educativas para generar vídeos interactivos que se adapten a las respuestas y necesidades de los alumnos, ofreciendo feedback que fomente la creatividad y la expresión de los alumnos, permitiéndoles crear sus propios vídeos a partir de sus ideas, textos o imágenes.
Sin embargo, como cualquier tecnología, esta también podría tener sus ventajas y desventajas. A continuación, se presentan algunos de los pros y los contras de Sora en el campo educativo.
Pros de Sora en la educación
Puede mejorar el aprendizaje de los alumnos, al ofrecerles contenidos visuales que capten su atención, estimulen su curiosidad y faciliten su comprensión.
Permitirá diversificar las formas de enseñar y aprender, al permitir a los profesores y a los alumnos crear y compartir vídeos adaptados a sus objetivos, estilos y ritmos de aprendizaje.
Reducir el tiempo y el esfuerzo que implica la producción de vídeos, al generarlos automáticamente a partir de textos simples y breves, sin necesidad de conocimientos técnicos o recursos costosos.
Potenciar la colaboración y la comunicación entre los miembros de la comunidad educativa, al facilitar el intercambio de vídeos entre profesores, alumnos, padres y otros agentes educativos.
Contribuir al desarrollo de competencias transversales, como la creatividad, el pensamiento crítico, la alfabetización mediática o la ciudadanía digital, al involucrar a los alumnos en la creación y el consumo de vídeos.
Contras de Sora en el campo educativo
Se pueden generar vídeos falsos o engañosos al manipular imágenes, sonidos o voces, que puedan inducir a error o confusión a los espectadores, o que puedan vulnerar derechos de autor o de imagen.
Estimular una dependencia o una sobreexposición a los vídeos, al hacer que los alumnos se acostumbren a recibir la información de forma visual y pasiva, sin desarrollar otras habilidades o hábitos de estudio.
Aumentar la brecha digital educativa, al no estar al alcance de todos los centros, profesores o alumnos, debido a limitaciones de acceso, de infraestructura o de formación.
En conclusión, Sora es una herramienta de inteligencia artificial que puede revolucionar el campo de la creación de vídeos educativos al ofrecer múltiples beneficios y oportunidades para el aprendizaje. Sin embargo, también implica riesgos y desafíos que hay que tener en cuenta y afrontar con prudencia y criterio. Por ello, sería necesario que profesores, alumnos, padres de familia y demás involucrados se formen, informen y responsabilicen del uso adecuado y ético de Sora, para que se establezcan mecanismos de regulación, supervisión y evaluación de esta tecnología para que se pueda aprovechar todo el potencial de esta IA, sin perder de vista el sentido y el valor de la educación.
Repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.
Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.
De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.
A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.
Estrategias de IA
Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.
Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.
Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.
Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.
Discusiones legislativas para la regulación de la IA
Brasil
Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/2019, 21/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.
El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.
Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.
Chile
La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.
Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).
Costa Rica
El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.
Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.
Rumbos posibles
La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.
También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.
Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.
Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.
Cierra el 2023 con muchas novedades en cuanto a la regulación de la implementación de sistemas de inteligencia artificial (IA). En esta columna, repasamos un poco de la trayectoria normativa latinoamericana: desde las estrategias de IA, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente en algunos países de la región.
Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.
De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.
A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.
Estrategias de IA
Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.
Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.
Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.
Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.
Discusiones legislativas para la regulación de la IA
Brasil
Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/2019, 21/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.
El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.
Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.
Chile
La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.
Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).
Costa Rica
El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.
Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.
Rumbos posibles
La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.
También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.
Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.
Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.
Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual.
Los datos y la inteligencia artificial para su análisis puede salvar niños que son víctimas de abuso sexual. Solo en Estados Unidos se recibieron más de 88 millones de archivos reportados en los que menores de edad eran víctimas de abuso sexual, según el Centro Nacional de Niños Explotados y Desaparecidos en el 2022. Descubre cómo la tecnología es utilizada para detectar y denunciar a los pedófilos y abusadores.
«Como profesionales en tecnología tenemos el poder de acabar con las pesadillas de niños (que son abusados)», dijo la Dra. Rebecca Portnoff, jefa de ciencia de datos en Thorn, quien fue invitada en la serie de conferencias AWS re:Invent 2023. En los últimos cinco años, se reporta un aumento del 329% en archivos de material de abuso sexual infantil (CSAM).
Thorn es una ONG fundada por los actores Ashton Kutcher y Demi Moore, que desarrolló el software Spotlight para detectar imágenes o videos de pornografía infantil. Con esta tecnología se ha logrado identificar al menos 9 niños cada día que son presuntas víctimas de abuso sexual.
Esta organización también lanzó Safer, un software basado en la tecnología de Amazon Web Services (AWS) que es utilizado por las empresas para evitar que en sus plataformas en la nube se registre pornografía infantil.
A la fecha, este programa es empleado por empresas como GoDaddy, que aloja miles de sitios web; Imgur, que permite subir fotos; Vimeo, que facilita el almacenamiento de videos; entre otras. Todas estas plataformas tienen el potencial riesgo de que malos usuarios suban contenido ilegal como pornografía infantil.
Lo cierto es que los depredadores en línea vienen utilizando tecnologías novedosas, como los chatbots, para atraer a menores de edad en internet. De 2021 a 2022, se detectó un 82 % de aumento en los informes de incitación para realizar actos sexuales con menores como víctimas en Estados Unidos.
Eso no es todo. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en material de abuso sexual infantil generado por computadora usando IA y otras tecnologías.
«Estos no son solo archivos, son niños pidiendo ayuda desesperadamente», alertó Portnoff. «La inteligencia artificial y el machine learning hace la diferencia», dijo, recordando que comenzaron a trabajar en la plataforma en el 2019, cuando ya se estudiaba el uso de redes neuronales convolucionales para detectar pornografía infantil.
«Construimos un clasificador que actúa como un magneto poderoso para encontrar nuevos archivos de abuso infantil», agregó. Para que esta herramienta sea utilizada por las plataformas tecnológicas donde se almacena contenido se emplea Amazon ECR para distribuir el modelo IA entrenado.
También se utiliza Amazon EKS para mejorar el algoritmo y Amazon S3 para recibir retroalimentación como falsos positivos de parte de las compañías tecnológicas, y así afinar aún más la detección.
Inteligencia artificial para acabar con el abuso infantil
Para ello, Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual infantil e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como una huella digital para cada contenido.
Estos algoritmos se apoyan de inteligencia artificial y machine learning para comparar el contenido detectado con material previamente denunciado. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.
Safer es una gran base de datos que agrega más de 29 millones de valores hash conocidos para este contenido ilícito. También permite a las empresas de tecnología compartir listas hash entre sí (ya sea bajo su nombre o de forma anónima) ampliando aún más la cantidad de datos para así interrumpir la propagación de material de abuso sexual de niñas, niños y adolescentes.
En 2022, Safer analizó más de 42,1 mil millones de imágenes y videos y se encontraron 520,000 archivos de abuso en las plataformas. Hasta la fecha, Safer ha ayudado a identificar 2.8 millones de archivos de presunto contenido ilícito, según el informe Emerging Online Trends in Child Sexual Abuse 2023.
Fuente e Imagen: https://andina.pe/agencia/noticia-asi-inteligencia-artificial-ayuda-a-detectar-material-abuso-sexual-infantil-linea-965333.aspx
Hay que tener muy en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar las brechas conceptuales identificadas en los jóvenes y estudiantes
La inteligencia artificial (IA) es una de las mayores tendencias tecnológicas en el mundo, es el tercer término más buscado hoy en Google y es la mayor revolución tech este año en el planeta.
Su impacto en todas las industrias y sectores es indiscutible y la academia no es la excepción. Esta herramienta ha permeado a todas las universidades del país y la manera de hacer las clases o de evaluar a los estudiantes. Asimismo, hoy representa un gran desafío para las Instituciones de Educación Superior (IES), ya que promete revolucionar la forma como tradicionalmente aprenden los alumnos. Ante estos cambios hay dos caminos; uno, asustarse y salir corriendo, es decir, desconocer el avance de la IA y querer tapar el sol con una sola mano; o prepararse para aprender continuamente de esta herramienta con el propósito de saber utilizarla. Usted elige.
Si la decisión gira en torno a empoderarse de esta solución tecnológica para que no lo coja desprevenido, como dicen por ahí, “con los pantalones abajo”, entonces es mejor que vaya conociendo los modelos generativos de IA como GPT o Bard, los cuales están a un clic de distancia para los estudiantes. Esta herramienta, para muchas personas conocida como un robot automatizado, busca dar la mejor respuesta en el menor tiempo posible. En otras palabras, Chat GPT está retando a los profesores y docentes a apropiarse de la inteligencia artificial y a conocer todas sus ventajas para modernizar su pedagogía y didáctica con el fin de no quedarse atrás.
Al mismo tiempo, tenga en cuenta que gracias a la IA hoy existen más formas de hacer seguimiento y contenido didáctico que permiten cerrar brechas conceptuales identificadas en los jóvenes. Es decir, que ayudan a los estudiantes aprender a más rápido y fácilmente. Estos avances, que para muchos generan temor, para otros se han convertido en una oportunidad de repensar la forma en que se dinamizan las clases hoy en las universidades, abriendo múltiples formas de aprender para las comunidades académicas. Ahora, si usted es de los que piensa que la inteligencia artificial es solo para los que dictan clase o estudian carreras Tech, está muy equivocado, pues la IA no solo es un tema que se está integrando en programas de ingeniería, sino que también está siendo incluido en las materias de pregrados de humanidades, ciencias sociales o ciencias económicas y administrativas. Sin embargo, es importante aclarar que la influencia de esta herramienta en los pénsum académicos se está dando de manera gradual, pues lo que finalmente se busca es responder a las necesidades de la industria y del mercado laboral con conocimientos y competencias en tecnología que estén a la vanguardia y los cuales se pueden enseñar desde la academia.
¿Y qué decir de la evaluación y cómo la IA está impactando este proceso? Acá sin duda hay un enorme potencial de la inteligencia artificial, pues su implementación está facilitando que los procesos para calificar a los alumnos sean más dinámicos, precisos, imparciales y, sobre todo, personalizados. Por ejemplo, actualmente algunas universidades del país están implementando análisis predictivos para identificar a aquellos estudiantes que están en riesgo de deserción, lo que permite a los profesores intervenir de manera anticipada. Eso sin contar que ya se están desarrollando recursos didácticos que facilitan la gamificación, la detección del plagio, las retroalimentaciones instantáneas y la generación de evaluaciones personalizadas, entre otros avances que, poco a poco, se están incorporando a los nuevos métodos evaluativos gracias a la IA.
La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos.
“El objetivo real de la educación es darle alas a la mente humana”. William Butler Yeats
En pleno siglo XXI, con un sinfín de avances tecnológicos revolucionando nuestras vidas en todas las áreas, la escuela se encuentra en una encrucijada. Surge un debate sobre el rumbo que debe tomar en un contexto donde la inteligencia artificial y las nuevas tecnologías están transformando rápidamente nuestra sociedad. Algunos argumentan que la escuela debe abrazar estos avances y transformarse profundamente, mientras que otros creen que es el momento de repensarla y preservar su esencia humana, incluso alejándola de estas tecnologías.
Frente a este desafío, es crucial comprender que, en cualquier momento de la historia, es propicio reflexionar sobre nuestro camino y buscar opciones que nos acerquen a nuestras aspiraciones. En este contexto, resulta esencial reconocer que la presencia de los docentes frente a las aulas sigue siendo más relevante que nunca. En un mundo en constante evolución tecnológica, es su cercanía humana la que nos permite atender a nuestra naturaleza y comprender que somos la razón de nuestra existencia.
En estos tiempos de avances y retos tecnológicos, el papel del personal docente adquiere una importancia fundamental. Son ellos quienes nos invitan a la reflexión, al entendimiento y a la comprensión, guiándonos en nuestro aprendizaje social. Su cercanía y dedicación nos permiten establecer vínculos comunitarios que fomentan el desarrollo individual y colectivo.
La presencia de los docentes en el aula trasciende la simple transmisión de conocimientos. Su labor abarca la formación de ciudadanos críticos, creativos y éticos, capaces de enfrentar los desafíos de un mundo en constante cambio. Ellos nos enseñan a analizar, cuestionar y colaborar, dotándonos de herramientas para comprender y dar sentido a la información que nos rodea.
Si bien las tecnologías pueden brindarnos acceso a una gran cantidad de información y recursos educativos, es el docente quien nos guía en el proceso de filtrar, analizar y aplicar dicho conocimiento de manera significativa. Su experiencia y sensibilidad nos permiten entender la relevancia de los contenidos académicos en el contexto de nuestras vidas y de la sociedad en la que vivimos.
En este sentido, el personal docente es fundamental para cultivar una educación humanizada que promueva valores como la empatía, la solidaridad y el respeto. Son ellos quienes nos inspiran a ser seres humanos conscientes, capaces de pensar críticamente y actuar de manera responsable en un mundo cada vez más interconectado.
Por tanto, en tiempos de avances y retos tecnológicos, no debemos olvidar la importancia del personal docente. Su presencia y compromiso son indispensables para aspirar a una mejor humanidad. La escuela debe ser un espacio de encuentro, diálogo y aprendizaje donde se cultive el desarrollo integral de las personas, combinando el potencial de la tecnología con la esencia humana que solo los docentes pueden transmitir. Solo a través de su dedicación y compromiso podremos construir un mundo mejor, donde la tecnología sea una herramienta al servicio de la humanidad y no un fin en sí misma. Porque la educación es el camino…
El científico argentino aborda el tema de moda en su libro ‘Artificial’, convencido de que debemos tratar a la IA “como a una musa y no como a un adversario”
El desarrollo acelerado de la inteligencia artificial generativa, y su capacidad para mantener conversaciones aparentemente inteligentes o crear contenidos audiovisuales, se ha convertido en uno de los temas candentes sobre los que todo el mundo tiene una opinión. El neurocientífico Mariano Sigman y el tecnólogo Santiago Bilinkis abordan la cuestión en el libro Artificial (Debate, 2023), un ensayo en el que aportan una amplia variedad de ángulos desde los que formarse un juicio fundamentado sobre lo que nos espera en el futuro.
Lejos de los mensajes apocalípticos y del optimismo acrítico que abunda en estos días, los argumentos de Sigman y Bilinkis se centran en las amenazas y posibilidades reales que nos brinda la tecnología, a la que conciben como un instrumento del que podemos sacar provecho o convertir en un arma. Al margen de los riesgos, que los hay, los autores prefieren poner el foco en el papel que pueden jugar estas nuevas herramientas como potenciadores de nuestra creatividad y nuestras capacidades, como una especie de entrenador virtual o una mente complementaria. Charlamos con Mariano Sigman en Madrid, con su libro recién salido del horno.
Dicen ustedes que nuestros días como la especie más inteligente del planeta parecen estar contados, ¿eso es bueno o malo?
Bueno, hay que matizar que una cosa es que estén contados y otra que falte poco. Sabemos que va a pasar, pero otra cosa es que sea inminente.
El desarrollo de la IA generativa ha producido la sensación de que hay un gran cambio, e incluso se habla de una “bomba de inteligencia”. ¿Hasta qué punto es una amenaza?
Lo que hace distintiva a esta tecnología es que, a diferencia de otras, tiene cierta autonomía. Porque un lápiz no decide escribir y una bomba no decide dispararse. Una inteligencia artificial (IA), en cambio, toma sus propias decisiones, por supuesto, sobre un marco para el que está programada. Eso le da algo que nosotros reconocemos como un “sentido de agencia” y muchas decisiones involucran una observación sobre sí mismas, y en eso empiezan a parecerse al intelecto humano. Y si es capaz de crear copias similares a sí misma, pero con diferencias que la hagan más apta, también empieza a parecerse a una especie, un colectivo que puede tomar sus propias decisiones.
Lo que temen es lo que se llama una Inteligencia Artificial General (IAG). ¿Qué es exactamente una IAG? ¿Una especie de nuevo dios?
El vínculo con la IA está repleto de exageraciones, de enfados y también de adoraciones desmedidas, una tendencia a ponerla en el lugar de un dios. Y de ninguna manera es así, la IA toma decisiones y está en nosotros decidir si tienen valor o no.
La IA genera todo tipo de proyecciones e imágenes mentales en cuanto la nombras. También hay un enorme manto de ignorancia, que viene de no haber interactuado con ella. Esto es parte de lo que quiero resolver en el libro, creo que metafóricamente la IA es como la selva, que es un lugar peligroso, pero fascinante, lleno de vida. Si sabes apreciarla, una vez que entras en ese mundo tan extraño, hay todo un espacio de fascinación. Creo que a la IA no hay que tenerle ni tanto miedo ni tanto respeto o admiración.
Creo que a la IA no hay que tenerle ni tanto miedo ni tanta admiración
Hay líderes de opinión como Yuval Noah Harari que dicen cosas muy alarmantes, como que la IA puede poner en peligro la democracia o que ha hackeado nuestro sistema operativo, que es el lenguaje. ¿Está de acuerdo?
Bueno, puede pasar. Pero la historia humana está llena de hackeos de todo tipo, toda la historia está llena de tragedias, no necesitamos IA para destruir nuestros principios y valores, nos bastamos a nosotros mismos. Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular.
Es muy interesante la relación psicológica que tenemos con la inteligencia artificial. ¿Se ha sorprendido a sí mismo alguna vez celebrando un fallo de la IA como una victoria humana?
Ja, ja. Yo no, pero soy raro y sé que le pasa a todo el mundo. Cuando Deep Blue le ganó a ajedrez a Kasparov, muchos se lo tomaron como la derrota de la humanidad. Yo nunca lo vi así. Para mí fue una victoria de la humanidad contra la humanidad, de nuestra capacidad de abstraer, de hacer programas, de hacer computadoras contra nuestra capacidad de razonar a cerebro desnudo.
A algunos de esos errores de la IA se les llama alucinaciones. ¿Estamos creando una inteligencia con nuestros mismos defectos?
En general uno empatiza con lo imperfecto. La perfección te maravilla, pero uno conecta con lo vulnerable. Por eso en las películas de Hollywood el héroe resbala, patina y es frágil.
Pero cuando una IA consigue liar a un humano para saltarse un CAPTCHA convenciéndole de que es una persona ciega, de la empatía pasamos al terror.
Bueno, en ese sentido, la IA es como los niños, que aprenden muy bien a hacer trampa y que primero tienen que saltarse ciertas reglas para aprender luego el costo de eso. Como pasa con ellos, el aprendizaje es mucho más que aplicar reglas literales, siempre tienes que entender las excepciones y los matices.
¿El peligro es que interpreten las cosas demasiado literalmente?
Eso se puede compensar, porque las nuevas redes neuronales en realidad no funcionan como programas. Lo que incorporan son un conjunto de reglas que coexisten y en ese sentido se parecen mucho a nuestro cerebro. Nuestro cerebro funciona así. O sea, tú tienes hambre y tienes ganas de comer, pero sabes que no le puedes robar la comida al otro.
Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular
Además de conversar, la IA nos asusta todavía más cuando se pone a hacer arte. ¿Nos hará repensar todo lo que sabemos sobre creatividad?
Toda la creatividad humana está montada a hombros de gigantes. Hay un documental de Orson Wells que se llama F de Fake, donde él justamente cuestiona quién es el autor de algo. Porque no es una cuestión tan clara. ¿Quién ha hecho la catedral de Chartres? Al final había uno que era el que ponía la última piedra, pero ¿era el autor?
Al final, ¿las máquinas se van a poder dedicar al empleo creativo y el trabajo duro nos va a tocar a los humanos?
Yo sé que es inevitable tener una reacción negativa hacia la IA, pero creo que hay que mirar esto con un poco más de curiosidad, y considerarla como una herramienta con la que trabajar, o una musa, más que como un adversario.
Muchas de las creaciones de la inteligencia artificial, sobre todo en audiovisual, tienen un aspecto onírico. ¿Es como si estuviéramos creando una mente capaz de soñar por nosotros?
No es solo capaz de soñar, sino que es capaz de plasmar nuestros sueños. Y esa es la idea clave. Deberíamos pensar en la IA como algo que te permite llegar a lugares que antes eran imposibles para ti. Una herramienta que te permite ir a un sitio.
El uso no detectable de la IA en el arte o en los trabajos del colegio, ¿nos conduce hacia un mundo de impostores?
En realidad eso no es nuevo. Las fake news nos acompañan desde hace mucho tiempo. De hecho, esta mezcla de realidad y ficción nos acompaña desde los tiempos de La Ilíada. Y una manera de vincularse con GPT es establecer con ella una conversación como hacía Sócrates. Cuando tú quieres pensar algo, necesitas un interlocutor.
Un interlocutor que a veces te suelta tonterías…
Bueno, no puedes pedirle peras al olmo. GPT no es un proveedor de verdades. Lo que tú tienes que saber es qué es lo que te puede dar y qué es lo que no te puede dar.
¿Es un sparring?
Exacto. Si tú te lo tomas como alguien con el que puedes conversar o contrastar ideas, puede que te sirva para pensar las preguntas correctas, para ver alguna idea que luego incorporas. Hay que tener una visión más amplia de la inteligencia artificial, hay humanos que hacen daño a través de ella, pero también puede generar mucho esplendor. Hace poco le enseñé a mi madre cómo funcionaba y fue emocionante ver su reacción. Fue como cuando ella me llevó por primera vez a ver el mar. Por otro lado, es interesante preguntarnos ¿por qué genera tanta emoción la inteligencia artificial? Aquí hay una paradoja: la gente lo ve como algo frío, y sin embargo despierta todo tipo de emociones. Esta es la ironía.
Hay una paradoja: la gente ve la IA como algo frío y sin embargo despierta todo tipo de emociones
Si le ofrecen la posibilidad de regenerar un familiar fallecido en el mundo virtual mediante IA, ¿lo aceptaría?
Yo adoraba a mi abuelo. Se murió cuando yo tenía veintipocos años. Si pudiera recrear su voz y los cuentos que me contaba, sí lo haría. Pero creo que a mí no me gustaría verlo, porque no me resultaría creíble.
En el libro advierten de que no han utilizado ChatGPT, pero ¿una inteligencia artificial podría haber escrito un libro como este?
No, todavía no. Aún no está a la altura de hacer algo así, pero eso puede ser una cuestión de tiempo. No sé si dentro de dos años, cinco o diez. No creo que haya ninguna limitación para que un día le des toda la información y le pidas un libro con tus ideas y con tu estilo y te lo dé. Y no solo eso, es posible que llegue un día en el que tú le des una instrucción en la que le digas “hazme la película que quiero ver” y te la ofrezca.
OtrasVocesenEducacion.org existe gracias al esfuerzo voluntario e independiente de un pequeño grupo de docentes que decidimos soñar con un espacio abierto de intercambio y debate.
¡Ayúdanos a mantener abiertas las puertas de esta aula!