Page 1 of 2
1 2

Siervos de la IA o el retorno de Robespierre

Por: Alejandro Marcó del Pont 

La gran red algorítmica que se esconde en la nube guía nuestro comportamiento de una forma magníficamente lucrativa para su propietario

Con la inteligencia artificial (IA) han surgido varios desafíos, entre ellos la transformación de los paradigmas laborales, económicos y sociales. Uno de los debates más relevantes en este sentido es cómo un ingreso universal podría reemplazar el salario tradicional, así como las implicaciones de su financiamiento y la redistribución del ingreso.

Estas decisiones no son simples y están rodeadas de intereses. El eje central de esta disputa de poder es, como siempre, el Estado. Si el Estado es fuerte, puede actuar como mediador y corregir las desigualdades económicas que surgirán si la automatización beneficia únicamente a los dueños de la IA. Si el control de la IA recae en el sector privado, podríamos ver un modelo económico donde la automatización beneficiará solo a las élites, sin generar empleo ni estimular el consumo, debilitando así al Estado.

Los dueños de la IA, las grandes empresas tecnológicas, se convertirían en los principales receptores de las ganancias al explotar los beneficios derivados del uso de IA sin necesidad de pagar salarios tradicionales. El Ingreso Universal se propone como una alternativa al salario tradicional, ofreciendo a los ciudadanos un ingreso fijo para cubrir sus necesidades básicas, independientemente de si trabajan o no. Sin embargo, sin un sistema de redistribución adecuado, esta medida podría no solucionar las desigualdades económicas provocadas por la automatización, sino agravarlas.

Como ya exploramos en nuestro artículo anterior, titulado “IA, la última batalla del cerebro entre explotadores y veneradores del mercado”, esta idea se alinea con el análisis que Karl Polanyi hace en “La gran transformación”, una obra fundamental para entender el desarrollo del capitalismo moderno y su impacto en la sociedad. Con la aparición del capitalismo moderno, la economía se independizó de la sociedad, dando lugar a lo que Polanyi llama una «sociedad de mercado», un mercado autorregulado inventado por el Estado.

El alambramiento de los bienes comunales en Inglaterra durante los siglos XVIII y XIX, conocido como “enclosures”, privatizó tierras comunes y expulsó a los campesinos, creando una mano de obra asalariada dependiente. De manera análoga, en la actualidad, el control de las infraestructuras digitales —como datos, algoritmos y plataformas— está reemplazando a los medios de producción tradicionales. Así, los gigantes tecnológicos han acumulado un poder similar al de los terratenientes de antaño.

En su libro “El tecnofeudalismo”, Yanis Varoufakis expone la transformación del capitalismo en una nueva fase, analizando cómo las grandes plataformas digitales, como Google, Amazon, Apple y Facebook, han alterado las reglas del juego económico tradicional y cómo el capital ya no está en manos de los productores o las fábricas, sino que se ha desplazado hacia el «capital en la nube». Aquí, la nube representa las infraestructuras digitales, los algoritmos y las bases de datos que dominan la economía actual. Estos son los nuevos «señores feudales», que controlan los flujos de información y comercio globales y los usuarios son esencialmente «vasallos» que producen valor para las plataformas sin recibir compensación directa.

Durante la Edad Media, la Iglesia jugaba un papel central en la vida cotidiana, incluidas las cuestiones relacionadas con el registro de personas. Los nacimientos, matrimonios y defunciones eran registrados por la Iglesia. Estos registros eclesiásticos actuaban como una forma de control social y, al mismo tiempo, como una manera de certificar los momentos clave en la vida de las personas. El cambio hacia el control estatal sobre el registro civil se dio de manera gradual, vinculado a la consolidación del Estado moderno y al proceso de secularización. Así, el Estado paso a tener el monopolio de los poderosos símbolos que nos legitiman como ciudadanos con derechos: pasaportes, certificados de nacimiento o el documento nacional de identidad.

En la actualidad el Estado está perdiendo, dentro de otras, esa potestad. Resulta increíble que nuestra identidad digital no sea nuestra ni del Estado. «Dispersada por innumerables mundos digitales de propiedad privada, tiene muchos dueños, ninguno de los cuales somos nosotros: un banco privado posee tus códigos de identificación y todo tu historial de compras. Facebook está íntimamente familiarizado con quién —y qué— te gusta. X recuerda cada pequeña idea que ha llamado tu atención. Apple y Google saben mejor que tú lo que ves, lees, compras, con quién te reúnes, cuándo y dónde. «Algún gran conglomerado fintech te ayudará a verificar tu identidad o, lo que es lo mismo, a comprobar que tú eres… quién eres».

Si la IA reemplaza a una parte significativa del trabajo humano, surge un problema: ¿quién consumirá los bienes y servicios que produce la IA si la mayoría de los trabajadores humanos han sido desplazados y no tienen ingresos suficientes para consumir? ¿Quién pagará impuestos? El hecho de que la IA no consuma no significa que los ingresos no existan; simplemente quiere decir que los beneficios de los productos o servicios que genera son apropiados directamente por los dueños de la tecnología. Aquí es donde el Ingreso Universal Básico podría entrar en juego y permitiría seguir participando como consumidores en la economía.

Para los dueños de las IA, apropiarse del Estado es central porque el rol de este último es clave para garantizar que los ciudadanos tengan acceso a los recursos necesarios para vivir. Es decir, recaudar ingresos para financiar un ingreso universal. Esto podría incluir impuestos progresivos sobre la riqueza, los ingresos derivados del uso de la IA, y sobre las ganancias corporativas, especialmente en sectores altamente automatizados.

Para la propiedad de la IA se podrían establecer marcos regulatorios que aseguren que los beneficios derivados de ella no queden solo en manos de las grandes corporaciones, sino que se redistribuyan de manera justa entre la población, ya sea a través de impuestos, derechos de uso o propiedad pública de ciertas tecnologías. O implementar mecanismos de asignación de ingresos, donde el Estado distribuiría directamente el Ingreso Universal Básico a cada ciudadano, garantizando una base económica mínima, independientemente de su participación en el mercado laboral. Este ingreso podría reemplazar parcialmente los sistemas tradicionales de bienestar social, que actualmente están vinculados al empleo.

Aunque el rol del Estado es fundamental, este enfoque también enfrenta varios desafíos, el primero es que el ingreso universal es apoyado y pretendido tanto por el progresismo de izquierda como por Silicon Valley, lo que lo vuelve ampliamente discutible. Uno de los mayores retos, con la regulación de la IA es la sostenibilidad fiscal que requeriría una planificación cuidadosa para asegurar que el Estado pueda mantener su sostenibilidad fiscal a largo plazo de manera que no se debilite su capacidad para distribuir ingresos de manera efectiva.

En una economía donde la IA reemplaza el trabajo humano, sus dueños se convertirían en los principales generadores de ingresos y, por lo tanto, en los principales sujetos de tributación. El Estado tendría que implementar nuevos impuestos sobre la propiedad de la IA, como impuestos sobre datos y gravámenes sobre el capital y las grandes corporaciones tecnológicas, para asegurar una redistribución equitativa de la renta.

En resumen, el futuro del trabajo y la economía en la era de la IA dependerá del papel que asuma el Estado. Si opta por una política redistributiva y reguladora, podríamos evitar un tecnofeudalismo que concentre el poder en las élites tecnológicas. Aunque el Ingreso Universal es controversial, podría ser una solución viable si se implementa de manera que no comprometa la capacidad fiscal del Estado.

Fuente: https://eltabanoeconomista.wordpress.com/2024/10/20/siervos-de-la-ia-o-el-retorno-de-robespierre/

Comparte este contenido:

Los Premios Nobel de este año demuestran por qué la IA va a cambiar la ciencia por completo

La inteligencia artificial ha sido una herramienta clave para lograr varios de los descubrimientos científicos galardonados con el Premio Nobel de este año. ¿Es este el primer paso hacia el primer nobel no humano?

Los Premios Nobel en física y química de 2024 nos han permitido asomarnos al futuro de la ciencia. La inteligencia artificial (IA) ha sido fundamental para los descubrimientos galardonados con ambos premios. Lo que lleva a preguntarse qué pensaría Alfred Nobel, el fundador de los premios, de todo esto.

Veremos con toda seguridad muchas más medallas Nobel entregadas a investigadores que utilizaron herramientas de inteligencia artificial. Mientras esto sucede, podemos encontrar que los métodos científicos galardonados por el comité del Nobel se apartan de categorías sencillas como «física», «química» y “fisiología o medicina”. También podemos ver que los antecedentes científicos de los galardonados mantienen una conexión más vaga con estas categorías. El premio de física de este año recayó en el estadounidense John Hopfield, de la Universidad de Princeton y el británico Geoffrey Hinton, de la Universidad de Toronto. Si bien Hopfield es físico, Hinton estudió psicología experimental antes de gravitar hacia la IA.

El premio de química lo compartieron el bioquímico David Baker, de la Universidad de Washington, y los informáticos Demis Hassabis y John Jumper, ambos de Google DeepMind en el Reino Unido.

Existe una estrecha conexión entre los avances basados ​​en la IA premiados en las categorías de física y química. Hinton ayudó a desarrollar un método utilizado por DeepMind para hacer predecir la forma de las proteínas. Los galardonados en física, en particular Hinton, sentaron las bases del poderoso campo conocido como aprendizaje automático. Este es un subconjunto de la IA que se ocupa de algoritmos, conjuntos de reglas para realizar tareas computacionales específicas. El trabajo de Hopfield no se utiliza particularmente en la actualidad, pero el algoritmo de retropropagación (coinventado por Hinton) ha tenido un tremendo impacto sobre muchas ciencias y tecnologías diferentes. Se trata de redes neuronales, un modelo de informática que imita la estructura y función del cerebro humano para procesar datos. La retropropagación permite a los científicos entrenar enormes redes neuronales. Si bien el comité del Nobel hizo todo lo posible para conectar este influyente algoritmo con la física, es justo decir que el vínculo no es directo.

 

El anuncio de los ganadores del Premio Nobel de Física 2024, John J. Hopfield y Geoffrey E. Hinton. (EFE – Christine Olsson)

Entrenar un sistema de aprendizaje automático implica exponerlo a grandes cantidades de datos, a menudo de Internet. El avance de Hinton finalmente permitió el entrenamiento de sistemas como GPT (la tecnología detrás de ChatGPT) y los algoritmos de IA AlfaGo y AlfaFold, desarrollado por Google DeepMind. Por tanto, el impacto de la retropropagación ha sido enorme.

AlphaFold 2 de DeepMind resolvió un problema de hace 50 años: predecir las estructuras complejas de las proteínas a partir de sus componentes moleculares, los aminoácidos. Cada dos años, desde 1994, los científicos organizan un concurso para encontrar la mejor manera de predecir las estructuras y formas de las proteínas a partir de las secuencias de sus aminoácidos. El concurso se llama Evaluación crítica de predicción de estructuras (CASP). En los últimos concursos, los ganadores de CASP han utilizado alguna versión de AlphaFold de DeepMind. Por lo tanto, se puede trazar una línea directa entre la retropropagación de Hinton y el avance AlphaFold 2 de Google DeepMind. David Baker utilizó un programa informático llamado Rosetta para lograr la difícil hazaña de construir nuevos tipos de proteínas. Tanto el enfoque de Baker como el de DeepMind tienen un enorme potencial para aplicaciones futuras. Atribuir crédito siempre ha sido un aspecto controvertido de los Premios Nobel. Solo un máximo de tres investigadores pueden compartir un Nobel. Pero los grandes avances científicos son colaborativos. Los artículos científicos pueden tener 10, 20, 30 autores o más. Más de un equipo podría contribuir a los descubrimientos galardonados por el comité del Nobel.

Este año es posible que tengamos más debates sobre la atribución de la investigación sobre el algoritmo de retropropagación, que ha sido reivindicada por varios investigadores, así como sobre la atribución general de un descubrimiento a un campo como la física. Ahora tenemos una nueva dimensión del problema de la atribución. Cada vez es menos claro si siempre seremos capaces de distinguir entre las contribuciones de los científicos humanos y las de sus colaboradores artificiales: las herramientas de inteligencia artificial que ya están ayudando a ampliar los límites de nuestro conocimiento.

En el futuro, ¿podremos ver a las máquinas ocupar el lugar de los científicos y a los humanos desempeñar un papel de apoyo? Si es así, tal vez la herramienta de inteligencia artificial obtenga el principal Premio Nobel y los humanos necesiten su propia categoría.

https://www.elconfidencial.com/tecnologia/novaceno/2024-10-11/inteligencia-artificial-premio-nobel-ciencia-futuro-investigacion_3981159/

 

Comparte este contenido:

Manuel Area-Moreira: “La legislación prohibicionista de la tecnología móvil en las aulas es un error”

Por: Regina de Miguel

Prohibir el uso de la tecnología en el aula no protegerá a los menores de sus efectos dañinos; es necesario formar en su uso para que los estudiantes desarrollen una actitud crítica y responsable. Así lo cree Manuel Area-Moreira, que ha hablado de este y otros temas en esta entrevista.

El uso de las pantallas en las aulas ha ocasionado en los últimos tiempos una importante división entre aquellos que las defienden y los que que están en contra de ellas: mientras que los primeros destacan que se fomenta un aprendizaje personalizado, se desarrollan habilidades digitales o se garantiza el acceso a una mayor cantidad de recursos educativos, los segundos hablan de que los dispositivos tecnológicos afectan a la concentración o generan dependencia. Manuel Area-Moreira, catedrático de Tecnología Educativa de la Universidad de La Laguna (Tenerife) e investigador principal del Laboratorio de Educación y Nuevas Tecnologías (EDULLAB), defiende que lo que hay que hacer es formar a los estudiantes para que desarrollen un espíritu crítico, y sean capaces de interactuar con la tecnología, en especial con la inteligencia artificial, de un modo eficaz y seguro.

Pregunta: ¿Qué opina del acalorado debate que ha habido en redes y medios de comunicación en los últimos meses sobre el uso de tecnología en las aulas?

Respuesta: Hay demasiado ruido mediático y mucha confusión en este debate. Es comprensible el malestar y preocupación de las familias y de los docentes ante los efectos nocivos provocados por la sobreutilización de las pantallas por niños y adolescentes, pero considero que es un error la legislación prohibicionista de la tecnología móvil en las aulas. Lo preocupante (y criticable) es que este conjunto de regulaciones administrativas se plantea sin que ofrezcan simultáneamente medidas de actuación educativa ante los problemas enunciados. Subyace la creencia, ingenua a todas luces, que vetando o proscribiendo la presencia de las tecnologías móviles en los espacios escolares se protegerá, de forma casi mágica, a los menores de edad de los efectos dañinos de dichos dispositivos. Tampoco existe ninguna evidencia científica que impidiendo el uso de la tecnología en las aulas el alumnado mejorará su aprendizaje, o que evitará sus efectos negativos como son la tecnoadicción, el consumo de contenidos inapropiados o el ciberbullying. Estas prácticas nocivas de uso de la tecnología por adolescentes ocurren en el tiempo extraescolar, no en los centros educativos. En otras palabras, prohibir los móviles en las aulas no es la solución pedagógica más adecuada.

«Los docentes deben formar a los estudiantes como personas que tienen un equilibrio emocional para usar de manera consciente y autorregulada las redes sociales»

P: ¿Qué habilidades necesita desarrollar el profesorado ante la progresiva digitalización de las aulas? 

R: Todo docente, además de dominar el contenido o conocimiento que enseña, debe ser competente didácticamente, es decir, ser capaz de crear las condiciones para facilitar la adquisición del conocimiento por el alumnado. Tiene que ser, asimismo, competente digitalmente y poseer los saberes y las capacidades para utilizar la tecnología con fines pedagógicos. Esta competencia digital consiste en crear materiales didácticos en formato digital, planificar y desarrollar proyectos y actividades de aprendizaje a través de los recursos de Internet, tutorización y evaluar a su alumnado empleando las herramientas tecnológicas, autoformarse y colaborar online con otros colegas docentes, entre otras.

P: ¿Y los desafíos a los que se enfrenta?

R: El principal desafío docente es formar a su alumnado para que sean personas competentes, cultas y críticas que sepan desenvolverse exitosamente en la complejidad cultural y técnica de la sociedad digital. Esto es lo que se conoce como la formación o alfabetización para el desarrollo de la competencia digital del alumnado. Esta competencia no consiste solo en que los estudiantes aprendan a manejar aparatos tecnológicos y software, sino en desarrollar las habilidades intelectuales de alto nivel cognitivo (crear, analizar, comparar, seleccionar, reelaborar) que les permitan interactuar con la información y el conocimiento disponible en el ciberespacio. También debe formarse al alumnado para que sea un sujeto con actitudes, valores y compromiso con los demás. Paralelamente también implica formarles como personas con equilibrio emocional para el uso consciente y autorregulado de las redes sociales y tecnológicas.

Manuel Area-Moreira

P: ¿Qué limitaciones percibe en el uso de las tecnologías en estos momentos?

R: Más que limitaciones, diría que existen usos disfuncionales de la tecnología como son la excesiva dependencia y cantidad de tiempo conectados a la misma por parte de los menores de edad, el acceso a contenidos perniciosos o nocivos (violencia, pornografía, apuestas, acosos, etc.), difusión acelerada del narcisismo o exhibición pública de la vida privada, el consumo y aceptación acrítica de ideas y noticias falseadas… Todo esto son fenómenos preocupantes ante el sobreuso de las redes tecnológicas y necesitan respuestas educativas tanto desde las escuelas como desde los hogares.

P: ¿Cómo introduciría las TIC para garantizar un aprendizaje significativo y personalizado? 

R: Hace ya tiempo que sabemos que las TIC, por sí solas, no generan automáticamente aprendizaje en los estudiantes. Ocurre si detrás de la introducción de las TIC en el aula, el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial. Esto supone articular planificaciones y metodologías didácticas donde se le pida al alumnado que sea un creador de objetos digitales de conocimiento (en formato texto, vídeo, audio…) que pueden compartirse y difundirse en Internet, favoreciendo el trabajo colaborativo y grupal tanto con sus compañeros de clase como con estudiantes de otros centros.  Las TIC deben ser utilizadas, didácticamente como recursos que facilitan y permiten al alumnado ser creadores del conocimiento y no meros consumidores del contenido que les proporcionen las pantallas.

«Las TIC garantizan un aprendizaje significativo y personalizado si el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial»

P: ¿Qué hay que tener en cuenta a la hora de elegir plataformas y herramientas digitales?

R: En la selección de plataformas o herramientas digitales para ser empleadas educativamente debemos estar atentos a que las mismas cumplan una serie de requisitos básicos de respeto a la privacidad de los datos e informaciones personales. Necesitamos plataformas y herramientas digitales que no se apropien y exploten comercialmente los datos generados por los agentes educativos, sino que las mismas sean transparentes y estén al servicio de las necesidades del profesorado y alumnado.

P:¿Qué tecnologías tendrán un impacto mayor en la educación en los próximos años?

R: No soy profeta, pero es predecible que las tecnologías denominadas inteligentes son las que se extenderán e impactarán en los próximos años tanto en nuestra sociedad como en el ámbito educativo. Conceptos como las analíticas del aprendizaje, la tutorización automatizada, la personalización o individualización del aprendizaje, la automatización de los procesos instructivos… probablemente empezarán a estar generalizados en el campo educativo. Asimismo, creo que se producirá un aumento de las modalidades formativas híbridas que supongan una mezcla o combinación de situaciones de enseñanza presencial con espacios de aprendizaje virtuales.

P: En el caso de la inteligencia artificial. ¿Cómo puede esta tecnología mejorar el proceso de enseñanza y aprendizaje? ¿Cuáles son los retos más inmediatos que debe abordar?

R: Actualmente existen numerosas promesas, expectativas y herramientas sobre las aplicaciones de la Inteligencia artificial (IA) en la educación. De hecho, es muy fácil localizar actualmente en Internet cientos de apps que permiten a los docentes y al alumnado de forma automatizada y fácil crear imágenes, generar videos e infografías, traducir idiomas, elaborar resúmenes, redactar ensayos, planificar proyectos, etc.

«El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas»

Mi punto de vista es que nos falta o carecemos de un planteamiento o modelo de actuación educativa para integrar didácticamente estas herramientas inteligentes en los procesos de enseñanza. No tiene sentido pedir a los estudiantes las mismas tareas intelectuales que se les solicitaba en los tiempos previos a la IA, ya que estas máquinas se las resuelven en poco tiempo y no suponen un esfuerzo cognitivo relevante en el aprendizaje.

El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas. Por ello los nuevos retos formativos son que el alumnado aprenda a formular preguntas y sepa dar las instrucciones necesarias a la IA para que les ofrezca respuestas necesarias y apropiadas para resolver problemas específicos. Que el alumnado aprenda a desarrollar una actitud y de análisis crítico ante las respuestas que proporcione una IA y dialogue con la misma; que sepa que esta tecnología comete errores y por tanto debe verificarse la información que proporciona; y tome conciencia que es una herramienta de apoyo, pero que lo relevante son las personas quienes generan el conocimiento.

Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/manuel-area-moreira/

Comparte este contenido:

Ciencia, ética e IA: un decálogo para una integración responsable

Por: Melissa Guerra Jáuregui

En el Research Lab del IFE, el R4C-IRG Grupo de Investigación Interdisciplinar: Pensamiento complejo para todos y la Unidad de Tecnología Educativa, elaboró un conjunto de buenas prácticas para la integración responsable de la IA en ciencia. Conoce más sobre la relación de la ética y la investigación aquí.

El rol de la Inteligencia Artificial (IA) dentro del campo científico ha revolucionado la forma de hacer ciencia. Gracias a ésta, se ha facilitado y optimizado el trabajo en la investigación científica, desde la automatización de procesos, el análisis de grandes cantidades de datos o patrones, hasta nuevas formas de gestionar, crear y examinar infinidad de recursos.

Los avances en la tecnología han permitido que la interacción humano-máquina sea más sencilla con la implementación de comandos (prompts), sin tener la necesidad de saber sobre programación avanzada.

Sin embargo, existen preocupaciones sobre el uso de la IA en el ámbito científico (así como en muchas áreas), por ejemplo, la integridad en investigación, el uso y la privacidad de los datos, entre otras. Por tanto, la ética se convierte en un imperativo para crear lineamientos sobre el uso honesto y responsable de la inteligencia artificial.

La IA como potenciador de la investigación científica

Actualmente, se considera a la IA como una herramienta imprescindible dentro del quehacer científico. Dentro del cúmulo de actividades que se pueden realizar con esta tecnología dentro del campo de investigación, se encuentran las siguientes:

  • Escritura académica.
  • Gestión, análisis, modelado e interpretación de datos.
  • Elaboración de tablas e imágenes.
  • Corrección de estilo (tono, estilo, etc.), traducción y parafraseo.
  • Simulaciones.
  • Búsqueda y organización de recursos.
  • Generador de títulos y palabras clave.

A tal efecto, la Universidad de Galileo ha creado la guía “Cómo utilizar ChatGPT para la investigación científica: Prompts efectivos”. Este manual práctico, didáctico y robusto se enfoca en la creación de prompts especializados para potenciar la investigación científica mediante la IA generativa.

Estas y otras herramientas impulsan el avance en el área de la investigación, mismas que conforme pasa el tiempo se mejoran en diseño, desarrollo y despliegue para asegurar versiones actualizadas y optimizadas para los end-users de estos instrumentos tecnológicos.

De acuerdo con Rocael Hernández-Rizzardini, Director del GES (Galileo Educational System) de la Universidad Galileo:

 

“La diversidad de herramientas de IA Generativa, provee al investigador actual de una tecnología para acelerar los diversos procesos científicos, muchos de los cuales previamente se hacían con una asistencia computacional básica, pero ahora se proveen capacidades para rápido análisis de contexto profundo, conectar información que antes estaba dispersa, y asistir con IA los diversos procesos de investigación”.

Por tanto, es fundamental que se planteen estrategias, que tengan una base ética y de legalidad, para que los procesos y el mismo conocimiento científico no se vea afectado por las implicaciones de la IA, perpetuando el progreso de la ciencia y el bienestar de la humanidad.

Recomendaciones para implementar IA en investigación

Estas son las recomendaciones elaboradas por el R4C-IRG Grupo de Investigación Interdisciplinar: Pensamiento complejo para todos y la Unidad de Tecnología Educativa del Instituto para el Futuro de la Educación (IFE) sobre el uso de la IA generativa en el quehacer científico:

  1. Garantizar la integridad científica y ética al emplear IA en la investigación: se debe considerar como una herramienta auxiliar, pero no como una solución definitiva.
  2. Asegurar la confidencialidad de datos personales y cumplir con las normativas globales de protección de estos: se debe realizar durante todo el proceso de su uso.
  3. Efectuar un análisis crítico de los datos generados por IA: mediante elreconocimiento de sus limitaciones técnicas y la influencia de la calidad de los prompts en los resultados.
  4. Verificar y validar rigurosamente la información obtenida: asegurar la validez y la relevancia de los resultados, y asumiendo la responsabilidad en su interpretación y aplicación.
  5. Documentar detalladamente los métodos y herramientas utilizados: especificar claramente la autoría y el grado de contribución de la IA en los resultados de la investigación.
  6. Actuar activamente para identificar, reducir y evitar sesgos en la investigación: promover un uso íntegro y responsable de esta tecnología.
  7. Mantenerse continuamente actualizado sobre los avances en IA: diversificar la experimentación con herramientas, y fomentar su uso creativo y efectivo en la investigación.
  8. Realizar revisiones periódicas y adaptaciones de las normativas de IA: se debe asegurar una alineación continua de los principios éticos con la integridad científica.
  9. Fomentar la colaboración interdisciplinaria para enriquecer el intercambio de conocimientos: aprovechar la sinergia entre la IA y el conocimiento humano.
  10. Compartir activamente fuentes de IA relevantes para la investigación y ofrecer formación a otros investigadores sobre su aplicación efectiva.

Es importante destacar que la inteligencia artificial contiene en sí un entorno fluctuante, por lo que su diseño, desarrollo e implementación seguirá en constante crecimiento, así como la adaptación de los lineamientos éticos. Es inevitable pensar que esta tecnología no irrumpa en todas las esferas que atañen al ser humano.

En este sentido, Nacho Despujol de la Universitat Politècnica de València, menciona lo siguiente:

 

“La evolución de las herramientas de inteligencia artificial ha entrado en una fase de crecimiento exponencial con lo que, quien no esté preparado para incorporarlas, estará en una importante desventaja en un plazo muy breve, pero, como toda herramienta nueva de gran potencia, su uso inadecuado conlleva riesgos importantes, por lo que es imprescindible sentar unas bases adecuadas para empezar lo antes posible de forma correcta”.

Por ende, la forma de realizar investigación se ha reformulado gracias a la IA, por lo que es necesario reflexionar y accionar sobre las implicaciones éticas que esto conlleva.

Ética, ciencia e IA

Para entender el campo de la ética y la inteligencia artificial (AI ethics) se debe comprender un concepto que le brindó las bases a esta nueva disciplina: la ética de las máquinas (machine ethics or machine morality).

Esta noción se refiere a la creación y adhesión de las máquinas a los principios éticos durante los procesos de toma de decisiones. Aborda las cuestiones del estatus moral de las máquinas, es decir, si se les debe atribuir derechos legales y morales. Su esencia es de carácter interdisciplinario y multidisciplinario, esto al estar dentro del dominio de la ética de la tecnología (technology ethics).

¿Por qué es importante la ética en la ciencia?

Los esfuerzos por incorporar la ética dentro del campo tecnológico, y más en una era en donde los sistemas se vuelven más pragmáticos, automáticos e inteligentes, se debe a que existe una necesidad de regulación y acción ante una gran variedad de nuevos retos, entre los cuales se encuentran los siguientes:

  • Privacidad y vigilancia
  • Manipulación de la conducta
  • Opacidad y falta de transparencia
  • Sesgos (sistemático, modelado, exclusión, interpretación, etc.)
  • Interacciones humano-máquina
  • Impacto en el campo laboral
  • Ética de las máquinas
  • Estatus moral de las máquinas/sistemas inteligentes
  • Singularidad tecnológica

Integraciones éticas

Generales

Existen múltiples modelos que buscan la integración de la ética en el dominio de las máquinas y los sistemas inteligentes:

En la investigación científica

A raíz de la integración de la inteligencia artificial en la investigación científica surgen nuevos dilemas éticos y de integridad que deben estudiarse en profundidad. Del mismo modo, se debe analizar el impacto que los sesgos en los algoritmos puedan tener sobre el conocimiento científico.

Miguel Morales, Director del área de Educación Digital de la Universidad de Galileo, expone que:

 

“La implementación de la IA en la investigación debe ser guiada por principios éticos sólidos, que aseguren la integridad, la equidad y la responsabilidad en todas las etapas del proceso investigativo. Solo así podremos confiar plenamente en los hallazgos generados y en su capacidad para contribuir positivamente a la sociedad”.

Por ende, para responder a estos desafíos éticos (sesgos, integridad, responsabilidad, etc.), los sistemas inteligentes deben priorizar que su desarrollo y diseño se enfoque en la transparencia, así como en su capacidad de ser explicable (explainable AI) y auditable.

Además, se debe considerar el término de la gobernanza ética de la IA (AI ethical governance), puesto que se requieren lineamientos y reglas que puedan ser flexibles y adaptables para guiar el desarrollo e implementación responsable y exitoso de la tecnología, asegurando el progreso y el conocimiento.

La integración de la ética en la investigación científica es un proceso que requiere de colaboración en diversas áreas. Por tanto, demanda un enfoque con educación, transparencia, responsabilidad y participación proactiva.

El impacto de la IA en las publicaciones científicas

Las instituciones y los equipos de investigación deben tomar en cuenta las nuevas normas y lineamientos editoriales sobre el uso de la IA en investigación, puesto que cada editorial tiene distintos grados de aceptación y uso en sus publicaciones. Esto con el fin de promover la legalidad, ética e integridad del trabajo científico.

Es imperativa la actualización y la noción de estas nuevas modificaciones para que las y los investigadores conozcan los alcances y limitaciones del uso de la IA para ciertas casas editoriales científicas.

La finalidad de estas regulaciones demarca la preocupación de la comunidad científica por la búsqueda de los marcos legales, éticos y de integridad dentro de la investigación con IA.


La integración de la IA con la ciencia es un campo amplio que debe ser explorado y empleado con fines benéficos para la humanidad. Se requiere de responsabilidad, transparencia, así como de principios éticos y académicos para su despliegue sea en pro de la investigación, alineado al marco de la legalidad.

Tampoco hay que olvidar que, gracias a su exponencial crecimiento, se debe tener una mente flexible que pueda seguir el paso de su avance y de los cambios que esto pueda traer al campo científico.

Fuente de la información e imagen:  https://observatorio.tec.mx

Comparte este contenido:

Educatrónica, autonomía comunitaria y sociedad sustentable

Lev M. Velázquez Barriga[1]

Es la primera vez en dos décadas que, siendo docente de tele-secundaria, dispongo de una televisión inteligente y un decodificador de señal para la programación de educación a distancia (EDUSAT), aunque sin internet wifi y con dificultades para acceder a la red insostenible del móvil personal. En ninguno de los centros escolares he contado con una computadora para uso pedagógico; por supuesto, no soy la excepción de los profesores y las escuelas rurales, más bien parece la regla.

En estas circunstancias, en las que las escuelas no han superado del todo las carencias de infraestructura de la tercera revolución industrial: microelectrónica, informática computacional e internet; ya están bien adentrados otros avances mundiales, científico tecnológicos de cuarta generación, que nos colocan frente a nuevas necesidades, retos y debates; los de la educatrónica, robótica e inteligencia artificial.

Sobre los tres tópicos anteriores, se desarrolló un curso-taller interinstitucional CREFAL, SEP, SEE y el IISUE-UNAM[2], al que asistimos docentes de educación básica y después alumnos de comunidades. Ciertamente se trató de un trayecto de formación donde se apremió más lo práctico que la teoría; no obstante, se pueden hacer algunas reflexiones propias y referir otras que fueron colocadas por el equipo de asesores, como posicionamientos epistémicos personales y orientaciones éticas y pedagógicas del grupo de investigadores de la UNAM.

Partimos de la necesidad de aprender de origen los lenguajes, principios y bases de la programación, robótica y la IA para el desarrollo autónomo de las tecnologías convergentes; es decir, en la independencia de los intereses mercantiles y rentables de las Big Tech[3], cuyas orientaciones fundamentales son la alfabetización 3.0 y 4.0 para el consumismo de la estantería material  y digital de Lego, Google for Education y otros mega corporativos.

Estas empresas del edunegocio, no son las únicas, pero sí las más presentes en la recolonización cultural escolar, cuyo territorio fue invadido en décadas anteriores por el enfoque de estandarización basado en competencias del Banco Mundial y de la administración gerencial escolar de la OCDE. Antes como ahora, estamos ante ese latente proceso de privatización silenciosa de la educación, a través de modelos empresariales de aprendizaje, transferencias de las economías familiares y salarios docentes a la adquisición de ferretería tecnológica, que no deja de tener un sentido instrumental u operacional de la educación y la tecnología.

Uno de los modelos pedagógicos de la privatización silenciosa más recurridos por las narrativas de multilaterales, organismos empresariales y gubernamentales, es el STEM; que para expiarse de culpas o exfoliarse de críticas, por su clara filiación al reduccionismo productivista de las empresas hegemónicas del capitalismo de la era digital, se ha propuesto agregar a este acrónimo anglosajón la A de arte y la H de humanidades; sin embargo, esto no cambia las nociones que los mega corporativos del imperio norteamericano GATAM (con inclusión de Tesla) o del este asiático BATX[4] que, tras el reseteo mundial de la educación in/pos pandémico, expanden con mayor intensidad la idea de que es urgente formar un tipo de capital humano apropiado para las economías conectadas en sus (recalco el posesivo en plural) plataformas online.

De ahí que, las alianzas estatales con sus instituciones públicas de educación superior, sea un imperativo necesario para fomentar la autodeterminación del bien común en sus sectores estratégicos tecnológicos; además, porque es posible recurrir a experiencias y construcciones propias de metodologías del aprendizaje y el desarrollo de habilidades que han sido pensadas en contextos para la resolución de necesidades humanas y endógenas; cuando esto sucede, las comunidades de aprendizaje que se apropian de los lenguajes y las bases de las ingenierías convergentes, son capaces de crear propuestas utilizando materiales accesibles, reciclables, incluso, resignificando tecnologías comunitarias, justo como sucedió en este curso con los docentes de educación básica.

Para separarse de la noción consumista de lo social, que reduce al ser y la naturaleza como insumos rentables, una vía del pensamiento epistémico es la del “homo complexus, veritas complexa”[5]; entonces, la educatrónica no tendría como objetivo crear robots o la programación de algoritmos, sino el desarrollo integral de la persona, la comprensión y el abordaje de la realidad a partir del diálogo de conocimientos y saberes, para crear soluciones posibles a problemáticas planteadas por una comunidad local/global o propuestas de bienestar social, teniendo como puente estas nuevas tecnologías.

Aquí, podemos abrir otro debate: el lugar para la enunciación de la verdad y la construcción del conocimiento y su validez, tampoco son los dispositivos de las Big Tech ni las inteligencias artificiales o los buscadores digitales de información; todos ellos se producen también desde un territorio político e ideológico de clase social, en tanto burguesías hegemónicas y emergentes del capitalismo cognitivo, digital y de plataformas. Cada sociedad plurinacional o comunidad, que es capaz de tejer alianzas con sus instituciones educativas públicas, saberes e intereses propios, puede tomar otro sentido común, en el que el conocimiento se enuncia y se valida desde el territorio de la soberanía histórico, cultural y científica de los pueblos, por encima de las oligarquías económicas.

Pese a las agendas globales para un mundo mejor, tal es el caso de los ODS[6],  discutidas y supuestamente promovidas por estos oligarcas de la tecnología que se reúnen en el Foro Económico Mundial, no sólo evaden educar para una economía solidaria, tampoco lo hacen para una ciudadanía de paz y la sustentabilidad planetaria, sin pobreza ni deterioro ambiental; baste ver los anaqueles de juguetería, repletos de lego y marvel, que son para el desarrollo de habilidades STEM, pero construyendo máquinas robóticas de guerra.

Si el actual modelo educativo de nuestro país, quiere construir una verdadera Nueva Escuela Mexicana, debería seguir fortaleciendo estas alianzas públicas, tomar distancia de la privatización silenciosa de propuestas de desarrollo tecnológico empresarial (como el STEM) y recuperar las propias, continuar con el impulso a los trayectos de formación que den sentido a la autonomía profesional de los maestros y la autodeterminación de las comunidades.

 

Referencias

[1] Doctor en Pedagogía Crítica y profesor rural de telesecundaria. Como @levmx666 en la red social X.

[2] Centro de Cooperación Regional para la Educación de Adultos en América Latina y el Caribe (CREFAL); Secretaría de Educación Pública (SEP); Secretaría de Educación en el Estado de Michoacán (SEE); Instituto de Investigaciones sobre la Universidad y la Educación de la Universidad Nacional Autónoma de México (IISUE-UNAM).

[3] Big Tech  (Gigantes Tecnológicos).

[4] Acrónimos en español: Ciencias Tecnología Ingeniería Matemáticas (STEM);  Google Amazon Tesla Apple Microsoft Meta (GATAM) y Baidu Alibaba Tencent Xiaomi (BATX).

[5] Hombre complejo, realidad compleja.

[6] Objetivos de Desarrollo Sostenible (ODS).

Comparte este contenido:

Mundo: Así la inteligencia artificial ayuda a detectar material de abuso sexual infantil en línea

Mundo/08-12-2023/Autoría y Fuente: andina.pe

Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual.

Los datos y la inteligencia artificial para su análisis puede salvar niños que son víctimas de abuso sexual. Solo en Estados Unidos se recibieron más de 88 millones de archivos reportados en los que menores de edad eran víctimas de abuso sexual, según el Centro Nacional de Niños Explotados y Desaparecidos en el 2022. Descubre cómo la tecnología es utilizada para detectar y denunciar a los pedófilos y abusadores.

«Como profesionales en tecnología tenemos el poder de acabar con las pesadillas de niños (que son abusados)», dijo la Dra. Rebecca Portnoff, jefa de ciencia de datos en Thorn, quien fue invitada en la serie de conferencias AWS re:Invent 2023.  En los últimos cinco años, se reporta un aumento del 329% en archivos de material de abuso sexual infantil (CSAM).

Thorn es una ONG fundada por los actores Ashton Kutcher y Demi Moore, que desarrolló el software Spotlight para detectar imágenes o videos de pornografía infantil. Con esta tecnología se ha logrado identificar al menos 9 niños cada día que son presuntas víctimas de abuso sexual.

Esta organización también lanzó Safer, un software basado en la tecnología de Amazon Web Services (AWS) que es utilizado por las empresas para evitar que en sus plataformas en la nube se registre pornografía infantil.

A la fecha, este programa es empleado por empresas como GoDaddy, que aloja miles de sitios web; Imgur, que permite subir fotos; Vimeo, que facilita el almacenamiento de videos; entre otras. Todas estas plataformas tienen el potencial riesgo de que malos usuarios suban contenido ilegal como pornografía infantil. 

Lo cierto es que los depredadores en línea vienen utilizando tecnologías novedosas, como los chatbots, para atraer a menores de edad en internet. De 2021 a 2022, se detectó un 82 % de aumento en los informes de incitación para realizar actos sexuales con menores como víctimas en Estados Unidos.

Eso no es todo. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en material de abuso sexual infantil generado por computadora usando IA y otras tecnologías.

«Estos no son solo archivos, son niños pidiendo ayuda desesperadamente», alertó Portnoff.  «La inteligencia artificial y el machine learning hace la diferencia», dijo, recordando que comenzaron a trabajar en la plataforma en el 2019, cuando ya se estudiaba el uso de redes neuronales convolucionales para detectar pornografía infantil.

«Construimos un clasificador que actúa como un magneto poderoso para encontrar nuevos archivos de abuso infantil», agregó. Para que esta herramienta sea utilizada por las plataformas tecnológicas donde se almacena contenido se emplea Amazon ECR para distribuir el modelo IA entrenado.

También se utiliza Amazon EKS para mejorar el algoritmo y Amazon S3 para recibir retroalimentación como falsos positivos de parte de las compañías tecnológicas, y así afinar aún más la detección.

Inteligencia artificial para acabar con el abuso infantil

Para ello, Safer usa la herramienta basada en hashing y matching, algoritmos que pueden  detectar material de abuso sexual infantil e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como una huella digital para cada contenido.

Estos algoritmos se apoyan de inteligencia artificial y machine learning para comparar el contenido detectado con material previamente denunciado. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Safer es una gran base de datos que agrega más de 29 millones de valores hash conocidos para este contenido ilícito. También permite a las empresas de tecnología compartir listas hash entre sí (ya sea bajo su nombre o de forma anónima) ampliando aún más la cantidad de datos para así interrumpir la propagación de material de abuso sexual de niñas, niños y adolescentes.

En 2022, Safer analizó más de 42,1 mil millones de imágenes y videos y se encontraron 520,000 archivos de abuso en las plataformas. Hasta la fecha, Safer ha ayudado a identificar 2.8 millones de archivos de presunto contenido ilícito, según el informe Emerging Online Trends in Child Sexual Abuse 2023.

Fuente e Imagen: https://andina.pe/agencia/noticia-asi-inteligencia-artificial-ayuda-a-detectar-material-abuso-sexual-infantil-linea-965333.aspx

Comparte este contenido:

República Dominicana: Profesor, usted no sabe de eso. Mejor pregúntele a Merejo

América Central/República Dominicana/19-05-2023/Autoría: GERARDO ROA OGANDO/Fuente: acento.com.do

Nuestro autor observa diferentes formas en que la sociedad ha vivido transida, concepto que conceptualiza como “abatimiento, preocupación, angustia, miedo, tristeza, intranquilidad en lo económico, en lo político y en lo social”, etcétera (pág. 65).

Decenas de artículos nacionales e internacionales se están publicando sobre los avances de la llamada inteligencia artificial. Algunos de esos textos muestran cierto rechazo a lo inevitable. Otros muestran resentimientos ante dichos avances y se atreven a predecir un final catastrófico para la humanidad, final motivado por la inteligencia artificial. Con estas actitudes los articulistas radicalmente escépticos ignoran que existe un discurso sobre el cibermundo que merece ser leído antes de opinar, discurso que en nuestro país ha sido merecedor de un premio nacional de ensayo científico, cuyo autor es el más importante exponente del tema en la región del Caribe, el filósofo nuestro, Andrés Merejo (PhD).

Recientemente, nuestro autor publicó, en la Academia de Ciencias de la RD, el libro, Cibermundo transido: Enredo gris de pospandemia, guerra y ciberguerra (2023).Se trata de un ensayo de cuatro capítulos que de forma íntegra constituye una muestra del producto reflexivo del pensamiento de su autor, quien ha observado con ojo crítico cada uno de los conceptos que viene publicando desde hace más de veinte años. Por eso, ese libro, a mi juicio, es sólo un estadio dentro del sistema-discurso que este sagaz investigador dominicano ha construido sobre la base de lecturas y observaciones asiduas al fenómeno que con el correr del tiempo ha convertido en objeto de su reflexión.

No es para menos. Andrés Merejo creció en tiempos en que las dos grandes superpotencias mundiales; entiéndase, Estados Unidos de América y la Unión de Repúblicas Socialistas Soviéticas; protagonizaron la llamada Guerra fría, en tanto lucha ideológica y discursiva, posterior a la Segunda Guerra Mundial, que buscó la imposición a nivel planetario de un único sistema de gobernanza, es decir, capitalismo, versus comunismo, respectivamente, en lo económico, en lo político y en lo social.

Si bien para aquel entonces no era posible hablar de ciberguerra, la observación que hace Merejo de las principales guerras, pestes y descubrimientos tecnológicos que han pintado la historia de la humanidad, especialmente durante el siglo XX, constituye un insumo importante para la elaboración de su propio discurso, el cual también es el resultado de sus años de vida en los Estados Unidos.

Sabemos de fuente primaria que en 1984 Andrés Merejo, en plena Guerra Fría, protestó frente al Capitolio junto a su hermano Jesús Merejo y a su cuñada Edita González, en contra del proyecto armamentista y nuclear que estaba propulsando el presidente Ronald Reagan. Con esa manifestación, nuestro autor evidenció, desde su juventud, un alto sentido de compromiso social y humano, testimonio que ha quedado impreso en las páginas que integran este interesante libro.

El libro Cibermundo transido es un análisis crítico del discurso de la guerra y de la ciberguerra. No es una mera descripción de los significantes y otros elementos periféricos a la expresión de la realidad cibermundo.

La firma del Tratado de Washington, materializada el cuatro de abril de 1949, con la que se dio forma a la Organización del Tratado del Atlántico Norte (OTAN) y que inicialmente estuvo compuesta por Bélgica, Canadá, Dinamarca, Francia, Islandia, Italia, Luxemburgo, Noruega, Países Bajos, Portugal, Reino Unido y Estados Unidos no es ignorado por nuestro autor, como tampoco lo es el desaparecido Tratado de Amistad, Colaboración y Asistencia Mutua, conocido popularmente como pacto de Varsovia, cuya firma tuvo lugar el 14 de mayo de 1955. Asimismo, nuestro autor fue testigo de la disolución de la URSS, sus principales causas y consecuencias, así como de las diferentes estrategias bélicas usadas por las grandes potencias en sus luchas por el control planetario, en desmedro del ser humano y de su hábitat.

En su obra, Merejo observa con preocupación cómo pese a los avances científicos las grandes potencias de la humanidad han vivido históricamente de crisis en crisis, generada por las guerras, las pestes y, sobre todo, por la falta de compasión y altruismo que sobrepasa la expresividad propia de un mero discurso ético. “No parecen aprender de lecciones del pasado, sino que están repitiendo conductas y formas de pensamientos totalitarios que se consideraban superados”, afirma Merejo.

Nuestro autor observa diferentes formas en que la sociedad ha vivido transida, concepto que conceptualiza como “abatimiento, preocupación, angustia, miedo, tristeza, intranquilidad en lo económico, en lo político y en lo social”, etcétera (pág. 65). En ese sentido, la historia de la humanidad parece otorgarle la razón a don Andrés Merejo.

El libro Cibermundo transido es un análisis crítico del discurso de la guerra y de la ciberguerra. No es una mera descripción de los significantes y otros elementos periféricos a la expresión de la realidad cibermundo. Tampoco es un desahogo ante la impotencia de no comprender los tiempos actuales, grises y confusos. Todo lo contrario, se trata de un discurso que todo el que se sienta inquieto por los avances de la tecnología de última generación (Incluyendo los diferentes modelos de la llamada inteligencia artificial) debe leer, antes de arriesgarse a asumir posturas que denoten resentimientos sobre nuevas realidades que deberían ser aprendidas e integradas al quehacer educativo de los docentes y estudiantes.

Gerardo Roa Ogando en Acento.com.do

Fuente e Imagen: https://acento.com.do/cultura/profesor-usted-no-sabe-de-eso-mejor-preguntele-a-merejo-9199991.html

Comparte este contenido:
Page 1 of 2
1 2