Page 2 of 4
1 2 3 4

Silvia Leal: “La Inteligencia Artificial y las experiencias inmersivas provocarán una revolución en la educación”

Por: Regina de Miguel

La ciencia y la tecnología son dos de las pasiones de Silvia Leal, experta internacional en tendencias de futuro. Con ella hemos hablado, entre otras cuestiones, de los retos a los que se enfrenta el sistema educativo y las tecnologías que lo transformarán.

Doctora en Sociología; asesora de la Comisión Europea en estrategia digital; autora del libro ‘Y de repente… llegó el metaverso’ y del podcast ‘Tendencias con Silvia Leal’; y una de las 10 expertas más influyentes de España durante tres años seguidos según el ránking ‘Mujeres Top 100’. Así es Silvia Leal, experta internacional en tendencias de futuro, tecnología y metaverso que además ha tenido su propio programa de ciencia y tecnología en la 2 de TVE, ‘La Cuarta Revolución’.

Con una larga trayectoria en el mundo empresarial y académico, Silvia se ha convertido además en una destacada conferenciante gracias a sus habilidades para hablar en público y conectar con su audiencia. Crítica con el papel de las familias y los centros educativos a la hora de las niñas cuenten con más referentes en los campos científicos y tecnológicos, apuesta por una transformación en la educación y la incorporación de tecnologías como la Inteligencia Artificial o las experiencias inmersivas que hagan que el aprendizaje sea más personalizado y de mayor impacto.

Pregunta: ¿Cuáles considera que serán las tendencias tecnológicas que transformarán la educación en los próximos 5 años? ¿Y en 10 años?

Respuesta: En mi opinión, hay dos tendencias que se seguirán introduciendo poco a poco, porque ya están en ello, pero que acabarán provocando una revolución: la Inteligencia Artificial y las experiencias inmersivas (realidad virtual, aumentada, mixta y metaverso). Los motivos son sencillos. En el caso de la primera, porque permite personalizar el aprendizaje y porque el impacto en el tiempo de estudio y la satisfacción personal son clarísimos. Y respecto a la segunda, porque son tecnologías capaces de generar experiencias de alto impacto imposibles de olvidar. Pero, además, hay que tener en cuenta que se complementan muy bien con el ocio de las nuevas generaciones. Por ello, son herramientas que permiten formar a los estudiantes de forma muy eficaz mientras sienten que están disfrutando.

Silvia Leal

P: Hace unos meses parecía que ‘el futuro pasaba por el metaverso’, pero la irrupción de una herramienta de IA como ChatGPT ha hecho que parezca que ya no existe. ¿Qué recorrido tendrán una y otra en el entorno educativo?

R: El metaverso sigue ahí a tope, lo que sucede es que los medios de comunicación buscan otras noticias y esa se ‘ha quemado’ ya. No hay que olvidar que el metaverso y los nuevos mundos virtuales son mucho más que Meta y Mark Zuckerberg, y al resto de proveedores no les está yendo precisamente mal con esta apuesta. Por si fuera poco, aunque hablamos de metaverso, lo cierto es que no es nada nuevo, sino la fusión de una serie de tecnologías como la realidad virtual, aumentada o mixta con el 5G o la gamificación. Así que, si no hay quien las frene de forma individual, ¿qué nos debería llevar a pensar lo contrario al unirse?

Respecto a ChatGPT sucederá lo mismo. No es algo nuevo. Google ya estaba haciendo cosas parecidas con su Inteligencia Artificial: hace algunos años anunciaron que escribía poemas e incluso partituras musicales. La diferencia está sobre todo en el salto de calidad, y en que ahora somos conscientes de que debemos estar muy alerta a los retos y a las oportunidades que nos traen tecnologías como esta a la educación de nuestros hijos.

«Debemos estar muy alerta a los retos y oportunidades que nos trae la tecnología para la educación de nuestros hijos»

P: Como una de las mujeres más influyentes de España, ¿cree que las niñas tienen suficientes referentes y libertad para elegir su futuro profesional sin estereotipos?

R: Por desgracia creo que aún no somos conscientes de lo mucho que nos queda por avanzar, pero me siento optimista. Hace unos días mi hija de 12 años preguntó a ChatGPT qué profesión elegiría si fuera un humano y le dijo que sería ingeniera, así que mi hija (que ya lo estaba pensando) cada día lo tiene más claro. ¡Y ChatGPT se ha convertido así en un nuevo referente para ella! Pero volviendo a la pregunta, tenemos pocos referentes y los medios de comunicación son los que realmente tendrían la clave para marcar un antes y un después en este escenario, porque estamos viendo que desde las familias y los colegios sigue siendo complicado, aunque es imprescindible que no bajen la guardia y sigan en ello.

P: ¿Cómo atraería este futuro talento femenino para despertar su interés por la ciencia y la tecnología?

R: Todos conocemos la famosa serie de televisión ‘Urgencias’. Marcó una época porque desde que se estrenó se crearon muchos otros formatos con una trama parecida, ¿no es cierto? Pero, ¿cuántos saben por qué se creó? Fue porque en Estados Unidos hacían falta médicos y a alguien le pareció la mejor solución para lograrlo. ¡Y dio en el clavo! Por ello, me aseguraría que en la actualidad se creasen un par de series con este objetivo. También fomentaría que se hiciera para las redes que, al fin y al cabo, es su espacio natural. Creo que, de hecho, no tardaría en funcionar.

«El problema del mercado laboral es que cambia a velocidad de vértigo y es muy complicado adaptarse a su ritmo. No obstante, hay que seguir trabajando en ello y en las vocaciones»

P: ¿Qué opina del sistema educativo actual y cuáles son los principales retos a los que se enfrenta?

R: Como madre de dos hijos, uno de 13 años y otra de 12 años, creo que efectivamente tiene que cambiar y seguir incorporando tecnologías como la inteligencia artificial o las experiencias inmersivas; tecnologías que hagan que el aprendizaje sea más personalizado y de mayor impacto. Sin embargo, debo decir también que están muy motivados y, que se lo pasan muy bien en clase, por lo que no tengo ninguna duda de que se están dando pasos relevantes.

P: El componente tecnológico tiene cada vez más peso en la enseñanza, pero no podemos olvidarnos del relacionado con la parte de las emociones, que es igual de importante. ¿Cómo se pueden equilibrar ambos?  

R: No entiendo a qué se debe esa costumbre de enfrentar ambos. Es como decir que por meter música habría que quitar deporte, o que las clases de inglés restarían horas de matemáticas. Estamos en un mundo en el que no es suficiente saber tecnología, ni tampoco tener una buena inteligencia emocional; hacen falta las dos.

Silvia Leal

P: ¿Prepara el sistema educativo actual a los estudiantes para su futuro profesional? ¿Qué se podría mejorar?

R: El problema del mercado laboral es que va muy rápido, cambia a velocidad de vértigo y es muy complicado adaptarse a su ritmo. No obstante, efectivamente, hay que seguir trabajando en ello y, sobre todo, en las vocaciones. No puede ser que las ingenierías tengan en muchas universidades problemas para llenarse. Y, desde luego, hay que generar mucha vocación STEM entre nuestras niñas.

Estamos en un mundo en el que no es suficiente saber tecnología, ni tampoco tener una buena inteligencia emocional; hacen falta las dos”

P:  Se habla (y mucho) de que el alumnado debe fomentar sus habilidades digitales pensando en su futura incorporación al mercado laboral. Además de estas, ¿qué otras habilidades deben trabajar y desarrollar?

R: Como mencionamos antes, es fundamental la inteligencia emocional, pero también hay que desarrollar mucho la creatividad o el espíritu crítico. Pero si me tuviera que quedar con una sola cosa diría que la clave está en la “orientación al aprendizaje”. Es necesario asumir que necesitamos formarnos a lo largo de toda la vida y que, de hecho, se trata de algo positivo que nos permitirá desarrollarnos y aportar mucho más lo que, sin duda, repercutirá sobre nuestro éxito personal y profesional.

Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/silvia-leal/

Comparte este contenido:

ChatGPT: ¿Inteligencia, estupidez o malicia artificiales?

Por: Marc-André Miserez

Tiene respuesta para todo y habla como un libro abierto. El bot conversacional de OpenAI es el abanderado de una nueva era de la inteligencia artificial. Pero los expertos advierten que todavía está muy lejos de un cerebro humano y carece de marco legal.

¿Quién puede escapar a la ola del ChatGPT? Desde su lanzamiento hace cuatro meses, la prensa le ha dedicado —solo en Suiza— una media de 10 artículos diarios (contabilizados en el agregador de medios smd.ch). Si a esto añadimos todo lo que le han dedicado la radio, la televisión, los medios en línea y las redes sociales, podemos afirmar que pocas veces un producto se ha beneficiado de una campaña de lanzamiento —totalmente gratis— como esta.

Los comentarios —exagerados al principio— enseguida, a medida que la máquina revelaba sus defectos y los peligros que plantea para la fiabilidad de la información y la protección de los datos de quien lo utiliza, se volvieron tensos.

El 29 de marzo, un millar de expertos en tecnología redactaron una peticiónEnlace externo para que empresas y gobiernos suspendan durante seis meses el desarrollo de la inteligencia artificial (IA). Alegan “riesgos importantes para la humanidad”. Entre ellos están Steve Wozniak, cofundador de Apple, y Elon Musk, uno de los fundadores de OpenAIEnlace externo, la empresa que desarrolla ChatGPT.

Tres días después, el Garante italiano para la Protección de Datos —la autoridad nacional italiana de protección de datos— decidió bloquear el acceso al prototipo. AcusaEnlace externo a ChatGPT de recopilar y almacenar información para entrenar sus algoritmos sin ninguna base legal. La autoridad ha pedido a OpenAI que —en un plazo de 20 días— comunique las medidas adoptadas para remediar esta situación. De lo contrario, se enfrenta a una multa de hasta 20 millones de euros.

Europol —la agencia europea de policía encargada de la lucha contra la delincuencia en la Unión Europea— el 27 de marzo en un informeEnlace externo (en inglés) ya indicaba su preocupación por que los ciberdelincuentes puedan utilizar ChatGPT.

>> “No es de extrañar que, tras el prematuro lanzamiento de ChatGPT y la carrera a la baja en materia de seguridad provocada por Microsoft, Google o Facebook, GPT-4 esté fuera de juego”. Dice El Mahdi El Mhamdi, profesor en la Escuela Politécnica de París, que hizo su tesis en la EPFL de Lausana bajo la dirección de Rachid Guerraoui, y es una de las voces críticas contra la falta de regulación en torno a la inteligencia artificial. En este artículo se menciona a ambos.

¿Puede ser tan peligroso el chatbot? Con su interfaz sobria hasta la simplicidad y su amabilidad un tanto afectada —como ya ocurría con Siri, Cortana, OK Google y otros— no lo parece.

Para entenderlo mejor, hay que examinar qué es esta máquina y, sobre todo, qué no es.

¿Cerebro electrónico? En absoluto

Cuando se le pregunta, ChatGPT no esconde su condición: “Como programa informático, soy, sobre todo, diferente a un cerebro humano”. Y luego explica que puede procesar cantidades masivas de datos de manera mucho más rápida que una persona, que su memoria no olvida nada, pero que carece de inteligencia emocional, de conciencia de sí mismo, de inspiración, de pensamiento creativo y de capacidad para tomar decisiones independientes.

Se debe a que la propia arquitectura de la inteligencia artificial nada tiene que ver con la del cerebro, como de manera brillante se describe en un libro que se publicará el 13 de abril (en francés): 1000 CerveauxEnlace externo [1000 cerebros]. El libro es el resultado del trabajo reciente de los equipos de Jeff Hawkins, ingeniero informático estadounidense que en los 90 fue uno de los padres de Palm, un asistente personal de bolsillo que presagió el teléfono inteligente. En la actualidad, Hawkins trabaja como neurocientífico y está al frente de la empresa de inteligencia artificial Numenta.

Una de las ideas principales del libro es que el cerebro crea puntos de referencia, cientos de miles de “mapas” de todo lo que conocemos, que modifica constantemente con la información que recibe de nuestros sentidos. Una IA, en cambio, no tiene ni ojos ni oídos y se alimenta solo de los datos que se le proporcionan, que permanecen fijos y no evolucionan.

Ni siquiera sabe qué es un gato

Hawkins ilustra sus palabras con ejemplos sencillos. Una IA que etiqueta imágenes es capaz, por ejemplo, de reconocer un gato. Pero no sabe que es un animal, que tiene cola, patas y pulmones, que algunos humanos prefieren los gatos a los perros, o que el gato ronronea o se le cae el pelo. En otras palabras: la máquina sabe mucho menos de gatos que un niño de cinco años.

Y ¿por qué? Porque el niño ya ha visto un gato, lo ha acariciado, lo ha escuchado ronronear, y toda esta información ha enriquecido el “mapa” del gato que tiene en su cerebro. Mientras que un bot conversacional, como ChatGPT, únicamente se basa en secuencias de palabras y en la probabilidad de que aparezcan unas junto a otras.

>> Lê Nguyên Hoang, coautor de los libros de El Mahdi El Mhamdi y Rachid Guerraoui (citados más abajo), expone en este vídeo cuál es —en su opinión— el verdadero peligro de ChatGPT. [En francés]

Alan Turing —el brillante matemático británico que sentó las bases de la informática— ya predijo hace más de 70 años estos límites de la IA, tal y como se construye hoy en día. En 1950, en su artículo Computing Machinery and Intelligence [Maquinaria informática e inteligencia], Turing ya vio que si queríamos construir una máquina que pensara, no sería suficiente con programarla para hacer deducciones a partir de masas de datos. La inteligencia artificial —para merecer realmente su nombre— también tendrá que poder razonar por inducción, es decir, partir de un caso particular para llegar a una generalización. Y todavía estamos muy lejos de ello.

Bien dicho y a menudo cierto

Rachid Guerraoui dirige el Laboratorio de Sistemas de Información Distribuida de la Escuela Politécnica Federal de Lausana (EPFL). Junto con Lê Nguyên Hoang, su colega que dirige el canal de Youtube Science4AllEnlace externo, en 2020 publicó Turing à la plageEnlace externo – l’IA dans un transat [Turing en la playa: la IA en una tumbona], un libro cuyo editor promete que, tras leerlo, “no se mirará [no miraremos] el ordenador de la misma manera”.

«La mayoría de las veces, lo que dice es cierto. Sin embargo, también comete grandes errores. Así que no hay que fiarse ciegamente de él».

Rachid Guerraoui, EPFLEnd of insertion

Para Guerraoui, uno de los mayores riesgos de ChatGPT es el exceso de confianza. “La mayoría de las veces, lo que dice es cierto, o al menos está tan bien escrito que parece totalmente cierto. Pero también suele cometer grandes errores. Así que no hay que fiarse ciegamente de él”. Por desgracia, no todo el mundo tiene el espíritu crítico necesario para cuestionar lo que dice la máquina, sobre todo cuando lo manifiesta claramente, sin errores ortográficos ni gramaticales.

“Otro peligro que veo es que quita responsabilidad a la gente”, prosigue el profesor. “Lo utilizarán incluso las empresas. Pero ¿quién es la fuente? ¿Quién es responsable si la información que proporciona plantea problemas? No está nada claro”.

¿Teme Guerraoui que la IA sustituya a periodistas, escritores e incluso al profesorado, como se dice? Todavía no, pero cree que “algunos trabajos pueden cambiar. El profesor o el periodista se encargará de verificar y cotejar las fuentes, porque la máquina va a ofrecer un texto que parecerá verosímil y que la mayoría de las veces será cierto. Pero habrá que comprobarlo todo”.

Hay que regularlo con urgencia

“El gran desafío actual para la IA no es el rendimiento, sino la gobernanza, la regulación y la necesidad de fiabilidad”, argumenta El Mahdi El Mhamdi, antiguo estudiante de doctorado en la EPFL y en la actualidad profesor de Matemáticas y Ciencia de Datos en la Escuela Politécnica de París.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso».

El Mahdi El Mhamdi, Escuela Politécnica de ParisEnd of insertion

En 2019 publicó —también junto a Lê Nguyên Hoang— Le fabuleux chantierEnlace externo – rendre l’intelligence artificielle robustement bénéfique [La fabulosa obra en construcción: hacer que la inteligencia artificial sea fuertemente beneficiosa] un libro que aborda los peligros de los llamados algoritmos de recomendación, que permiten a las redes sociales proponernos contenidos que supuestamente nos interesan en función de nuestro perfil. El Mhamdi no esperó a ChatGPT para denunciar el impacto de estos algoritmos en “el caos informativo de nuestras sociedades”.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso. Cuando veo el entusiasmo sin reservas por esta herramienta, incluso entre colegas, me pregunto si vivimos en el mismo planeta”, advierte el profesor. Recuerda los escándalos de recopilación masiva de datos de Cambridge Analytica o la proliferación de programas espía —como Pegasus— que pueden instalarse secretamente en los teléfonos móviles.

El Mhamdi admite que ChatGPT puede ser una buena herramienta de trabajo, pero señala que la ciencia que ha permitido su creación “es el resultado de un cúmulo de lo que han publicado miles de investigadores en la última década, y también de colosales recursos de ingeniería, así como del trabajo muy cuestionado éticamente de pequeñas manos mal pagadas en Kenia” (ver el recuadro más abajo).

Al final, para él, “el verdadero genio de OpenAI no está en la ciencia que hay detrás de ChatGPT, sino en el marketing, delegado en un público entusiasmado con el artilugio”. Un público y unos medios de comunicación, cabría añadir, volviendo al principio de este artículo. Es cierto, todo el mundo habla de ello, pero ¿ha visto usted alguna vez un anuncio de ChatGPT?

Texto adaptado del francés por Lupe Calvo

Fuente de la información e imagen: https://www.swissinfo.ch

Fotografía: swissinfo.  Cuando se le pregunta, ChatGPT responde: “No hay límite de edad para hablar conmigo”. Aunque nadie —ni menores ni personas adultas— debe tomarse al pie de la letra todo lo que dice. Copyright 2023 The Associated Press. All Rights Reserved.

Comparte este contenido:

La Inteligencia artificial y el Chat GPT: ¿Pueden cambiar las reglas del juego?

POR: MICHAEL ROBERTS

La gran contradicción del capitalismo es que al aumentar la productividad del trabajo a través de más máquinas (Inteligencia Artificial por ejemplo) se reduce la rentabilidad del capital. Esto conduce a crisis regulares y recurrentes de producción, inversión y empleo, de intensidad y duración crecientes.

Chat GPT se promueve como una revolución en la «inteligencia artificial» (IA) y ha conquistado el mundo de los medios y la tecnología desde su lanzamiento a fines de 2022.

Según OpenAI , ChatGPT es «una inteligencia artificial entrenada para ayudar en una variedad de tareas». Más específicamente, es un modelo de lenguaje (LLM) diseñado para producir texto similar al humano y conversar con personas, de ahí el «Chat» en ChatGPT.

El termino GPT significa algo así como “Generador Transformador Pre-entrenado”. Los modelos GPT son entrenados previamente por desarrolladores humanos y luego aprender por sí mismos y generan cantidades cada vez mayores de conocimiento, entregando ese conocimiento de una manera aceptable para los humanos a través de un chat .

En la práctica, esto significa que cuando se hace una consulta o solicitud – introduciéndola en un cuadro de texto del chat- la Inteligencia Artificial (IA) procesa esta solicitud y responde en función de la información que tiene disponible. Puede hacer muchas tareas, desde mantener una conversación hasta escribir un examen completo; desde hacer un logotipo de marca hasta componer música. Mucho más que un simple motor de búsqueda tipo Google o Wikipedia, se afirma.

Los desarrolladores humanos están trabajando para aumentar la «inteligencia» de los GPT. La versión actual de GPT es 3.5 y la 4.0 saldrá a finales de este año. Y se rumorea que ChatGPT-5 podría lograr ‘inteligencia general artificial’ (AGI). Esto significa que podría pasar la prueba de Turing, que es una prueba que determina si una computadora puede comunicarse de una manera que no se puede distinguir de un ser humano.

¿Serán las LLM un cambio de juego para el capitalismo en esta década? ¿Podrán estas máquinas de autoaprendizaje aumentar la productividad del trabajo a un ritmo sin precedentes y así sacar a las principales economías de su actual ‘larga depresión’ de bajo PIB real, baja inversión, poco crecimiento de los ingresos para salir de la pobreza? Esta es lo que afirman algunos de ‘tecno-optimistas’ que dominan los medios de comunicación.

Tratemos de responder a estas interrogantes.

Primero, ¿qué tan buenas y precisas son las versiones actuales de Chat GPT? Bueno, no mucho, todavía. Hay muchos «hechos» sobre el mundo en los que los humanos no están de acuerdo. Una búsqueda regular permite comparar esas versiones y considerar sus fuentes. En cambio, un modelo de lenguaje podría intentar calcular algún tipo de promedio de cada opinión en la que se ha entrenado, que a veces es lo que se desea, pero generalmente no es lo que necesitamos.

Chat GPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Aquí hay algunos ejemplos.

Le pregunté a Chat GPT 3.5: ¿quién es el economista marxista Michael Roberts? Esta fue la respuesta.

Esto es mayormente correcto, pero también está mal en algunas cuestiones (no diré cuáles).

Luego le pedí que revisara mi libro, The Long Depression. Esto es lo que dijo:

Su respuesta es una reseña o sinopsis muy ‘general’ de mi libro, pero omite el núcleo de la tesis del libro: el papel de la rentabilidad en las crisis del capitalismo. Por qué, no lo sé.

Así que hice esta pregunta sobre la ley de rentabilidad de Marx:

Nuevamente, esto es correcto en términos generales, pero solo en términos generales. La respuesta realmente no permite la comprensión de la ley. De hecho, no es mejor que la Wikipedia. Por supuesto, puede profundizar más para obtener respuestas más detalladas. Pero esto requiere un largo camino por recorrer antes que sea capaz de reemplazar la investigación y el análisis humano.

Luego está la cuestión de la productividad del trabajo y los puestos de trabajo. Los economistas de Goldman Sachs estiman que si la tecnología cumpliera su promesa, traería una «perturbación significativa» al mercado laboral, exponiendo a 300 millones de trabajadores a la automatización en las principales economías capitalistas. Los abogados y el personal administrativo estarían entre los que corren mayor riesgo de volverse redundantes (y probablemente los economistas). Calculan que aproximadamente dos tercios de los trabajos Estados Unidos  y Europa están expuestos a algún grado de automatización por la IA, según los datos sobre las tareas que normalmente realizan miles de trabajadores.

La mayoría de las personas verían automatizada casi la mitad de su carga de trabajo y probablemente continuarían en sus puesto, con una parte de tiempo libre para actividades más productivas.

Los economistas de Goldman Sachs calculan que en EE. UU., la IA se aplicaría al 63% de la fuerza laboral. Un 30 % adicional que trabaja en trabajos físicos o al aire libre no se vería afectado, aunque su trabajo podría ser susceptible a otras formas de automatización.

Concluyeron: “Nuestros hallazgos revelan que con la introducción de las LLM alrededor del 80 % de la fuerza laboral de los EE. UU. podría verse afectada un 10 % de sus tareas laborales, mientras que un 19 % vería afectado su trabajo en un 50 % …”

Con el acceso a un LLM, del 15 % de los trabajadores en los EE. UU. se podría completar las tareas significativamente más rápido y con el mismo nivel de calidad. Al incorporar software y herramientas construidos sobre LLM, la IA aumentaría su participación en las tareas de los trabajadores entre 47-56%.

Alrededor del 7 % de los trabajadores estadounidenses tienen trabajos en los que al menos la mitad de sus tareas podrían realizarse mediante la Inteligencia Artificial  y son vulnerables al reemplazo. A nivel mundial, dado que los trabajos manuales representan una mayor parte del empleo en el mundo en desarrollo, Goldman Sachs estima que la IA podría realizar alrededor de una quinta parte del trabajo, o, dicho de otra manera afectaría a 300 millones de puestos de trabajo a tiempo completo en las grandes economías.

Estas previsiones de pérdida de empleo no son nada nuevo.   En publicaciones anteriores , describí varios pronósticos sobre la cantidad de trabajos que se perderán debido a los robots y la IA durante la próxima década. Parece ser enorme; y no solo en el trabajo manual en las fábricas sino también en el llamado trabajo de cuello blanco.

Está en la esencia de la acumulación capitalista que los trabajadores se enfrentarán continuamente a la pérdida de su trabajo por la inversión capitalista en máquinas. La sustitución del trabajo humano por máquinas comenzó a principios de la Revolución Industrial Británica en la industria textil, y la automatización desempeñó un papel importante en la industrialización estadounidense durante el siglo XIX. La rápida mecanización de la agricultura a partir de mediados del siglo XIX es otro ejemplo de automatización.

Como explicó Engels en “La condición de la clase obrera en Inglaterra” (1844) la mecanización no solo eliminó puestos de trabajo, a menudo también creó nuevos puestos de trabajo en nuevos sectores. Y Marx en la década de 1850 en los Grundrisse definió el proceso de esta manera:

“Los hechos reales, que son disfrazados por el optimismo de los economistas, son estos: los trabajadores, cuando son expulsados ​​del taller por la maquinaria, son arrojados al mercado de trabajo. Su presencia en el mercado de trabajo aumenta el número de fuerzas de trabajo que están a disposición de la explotación capitalista… el efecto de la maquinaria, que ha sido representado como una compensación para la clase obrera, es, por el contrario, un flagelo espantoso . …. Tan pronto como la maquinaria ha liberado una parte de los trabajadores empleados en una determinada rama de la industria, los trabajadores de reserva también son desviados hacia nuevos canales de empleo y son absorbidos por otras ramas; mientras tanto, las víctimas originales, durante el período de transición, en su mayor parte pasan hambre y perecen.” . La importancia de esta párrafo es que anticipa que la automatización significa más empleos precarios y una creciente desigualdad.

Hasta ahora, la mecanización todavía ha requerido mano de obra humana para iniciarla y mantenerla. Pero, ¿ahora nos estamos moviendo hacia la toma de control de todas las tareas (especialmente aquellas que requieren complejidad e ideas) con las llamadas LLM? ¿Significará esto un aumento dramático en la productividad del trabajo de tal manera que el capitalismo tenga una oportunidad de sobrevivir?

Si las LLM pueden reemplazar el trabajo humano y, por lo tanto, aumentar drásticamente la tasa de plusvalía, pero sin un fuerte aumento en los costos de inversión de la maquinaria física (lo que Marx llamó una composición orgánica creciente del capital), entonces tal vez la rentabilidad promedio del capital no retroceda de sus limites actuales.

Goldman Sachs afirma que los sistemas de IA «generativos» como Chat GPT podrían provocar un auge de la productividad que eventualmente aumentaría el PIB mundial anual en un 7% durante una década. Si la inversión corporativa en IA siguiera creciendo a un ritmo similar al de la década de 1990, la inversión en IA de EE. UU. por sí sola podría acercarse al 1 % del PIB estadounidense para 2030.

No entraré en cómo GS obtiene estos resultados, porque estos deducciones son solo  conjeturas. Pero, incluso si aceptamos estos resultados, ¿son un salto tan exponencial?

Según las últimas previsiones del Banco Mundial, el crecimiento global disminuirá en aproximadamente un tercio de la tasa que prevaleció en la primera década de este siglo, a solo un 2,2% anual. Y el FMI sitúa la tasa de crecimiento promedio en un 3% anual durante el resto de esta década.

Si añadimos el pronóstico de Goldman Sachs acerca del impacto de las LLM, obtenemos alrededor de 3.0-3.5% al ​​año para el crecimiento del PIB real mundial, sin tener en cuenta el crecimiento de la población. En otras palabras, el impacto probable no sería mejor que el promedio visto desde la década de 1990. Eso nos recuerda las famosas palabras del economista Robert Solow en 1987: “la era de las computadoras estaba en todas partes excepto en las estadísticas de productividad”.

El economista estadounidense Daren Acemoglu agrega que no todas las tecnologías de automatización aumentan la productividad del trabajo. Esto se debe a que las empresas introducen principalmente la automatización en áreas que pueden aumentar la rentabilidad, como el marketing, la contabilidad o la tecnología de combustibles fósiles, pero no aumentan la productividad de la economía en su conjunto ni satisfacen las necesidades sociales.

Las Big Tech tiene un enfoque particular de los negocios y sus tecnologías se centran en el uso de algoritmos para reemplazar a los humanos. No es casualidad que empresas como Google estén empleando menos de una décima parte de la cantidad de trabajadores que solían tener grandes empresas, como General Motors, en el pasado. Esto es consecuencia del modelo de negocio de las Big Tech, que no se basa en crear puestos de trabajo sino en automatizarlos.

Este es el modelo de negocio para la IA bajo el capitalismo. Pero otra cosa seria con medios de producción automatizados de propiedad común, hay muchas aplicaciones de IA que, podrían aumentar las capacidades humanas y crear nuevas actividades en educación, atención médica  y en la fabricación.

Acemoglu propone: “en lugar de utilizar la IA para ayudar con las tareas y  sustituir  los profesores por algoritmos , deberíamos invertir el uso de la IA para desarrollar métodos de enseñanza más individualizados y centrados en el estudiante que estén calibrados para las fortalezas y debilidades específicas de diferentes grupos de alumnos. Dichas tecnologías darían lugar a la contratación de más docentes con nuevas habilidades, yendo así exactamente en la dirección de crear nuevos puestos de trabajo centrados en nuevas tareas”.

Y en lugar de reducir los empleos y los medios de subsistencia de los humanos, la IA bajo propiedad y planificación comunes podría reducir las horas de trabajo humano para todos.

Y luego está la cuestión del aumento de la rentabilidad proporcionado por la tecnología de IA: si la inversión LLM requiere menos medios físicos de producción y reduce los costos de capital, la pérdida de fuerza de trabajo humana podría ser aún mayor. Entonces, la ley de la rentabilidad de Marx aún se aplicaría. Es la gran contradicción del capitalismo que al aumentar la productividad del trabajo a través de más máquinas (IA) reduce la rentabilidad del capital. Esto conduce a crisis regulares y recurrentes de producción, inversión y empleo, de intensidad y duración crecientes.

Finalmente, está la cuestión de la inteligencia. Microsoft argumenta que la inteligencia es una «capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de forma abstracta, comprender ideas complejas, ilustrarse rápidamente y aprender de la experiencia». Microsoft insinúa que las LLM pronto podrían obtener esta «inteligencia generalizada» y superar la capacidad humana de pensar.

Pero también aquí, hay mucho escepticismo para los ingenieros de Microsoft. “El modelo Chat GPT es ingente, pero no lo suficientemente grande como para retener todos los datos exactos que encuentra en su conjunto de entrenamiento. Puede producir una respuesta convincente a cualquier cosa, pero eso no significa que esté reflejando hechos reales en sus respuestas. Siempre hay que mantenerse escéptico y verificar lo que dice. Los modelos de lenguaje también son famosos por «alucinar», por inventar nuevos hechos que se ajustan a la estructura de la oración a pesar de no tener ninguna base en los datos subyacentes.   Esto claramente no es muy alentador.

Guglielmo Carchedi nos da una razón fundamental para negar que la IA pueda reemplazar a la ‘inteligencia’ humana: “las máquinas se comportan según las reglas de la lógica formal. A diferencia de los humanos, las máquinas son estructuralmente incapaces de comportarse de acuerdo con las reglas del pensamiento dialéctico. Solo los humanos hacen eso” El capitalismo en el siglo XXI , p167).

Aquí está la respuesta de Chat GPT a una pregunta sobre la dialéctica:

¿Puede A ser igual a A y al mismo tiempo ser diferente de A? “No, no es posible que A sea igual a A y al mismo tiempo sea diferente de A. Esto sería una contradicción en los términos, ya que la afirmación “A es igual a A” es una tautología y siempre verdadera, mientras que la afirmación “A es diferente de A” es una contradicción y siempre falsa. Por lo tanto, estas dos afirmaciones no pueden ser ambas verdaderas al mismo tiempo”.

Las máquinas no pueden pensar en cambios potenciales y cualitativos. El nuevo conocimiento proviene de la capacidad de innovaciones (humanas), no de la extensión del conocimiento existente (máquinas). Solo la inteligencia humana es social y puede ver el potencial de cambio, en particular el cambio social, que conduce a una vida mejor para la humanidad y la naturaleza.

Fuente de la información e imagen: https://observatoriocrisis.com

Comparte este contenido:

Más allá del plagio: las otras grandes amenazas de las IA generativas

Por:  Karina Fuerte

Olvídate del plagio, conoce otras amenazas del uso de ChatGPT y otras IA generativas que son mucho más significativas y tendrán un impacto en el futuro de la educación.

Esta semana leí dos reflexiones muy interesantes sobre el uso de ChatGPT y otras inteligencias artificiales (IA) generativas en el aula. La primera es de Hong Yang, publicada en Nature. En este artículo, Yang explica por qué decidió empezar a usar las IA generativas y los grandes modelos de lenguaje (LLM por sus siglas en inglés) en sus clases y explica por qué las universidades deben incluirlas en sus programas de estudio. “Mis estudiantes pronto se graduarán y empezarán a trabajar, y sus empleadores podrían pedirles que trabajen con modelos de inteligencia artificial. Si no saben cómo usarlos correctamente, podría frenarlos. No podemos evitar que los estudiantes usen calculadoras o Internet, y no podremos evitar que usen ChatGPT. Es mejor entender la herramienta y tratar de integrarla en la enseñanza”, escribe Yang, profesor de ciencias ambientales y copresidente de la red Black, Asian and Minority Ethnic de la Universidad de Reading, Reino Unido.

La segunda lectura, escrita por Collin Bjork y publicada en The Conversation, exhorta a las escuelas y universidades a no entrar en pánico por la llegada de las AI generativas, particularmente en el ámbito del plagio académico, en su lugar, nos invita a pensar en otras amenazas mucho más significativas que pueden afectar otros temas como la equidad en la educación. “En lugar de preocuparse demasiado por el plagio, los educadores se beneficiarían de prepararse para otras desigualdades de la IA, las cuales se muestran en la última versión de OpenAI: GPT-4”, advierte Bjork, profesor titular en la Universidad de Massey.

Ambos artículos tocan puntos muy importantes, aunque con enfoques diferentes. Por un lado, Yang se centra en el porqué es esencial cambiar los métodos de evaluación tradicionales de manera que los estudiantes (y los docentes) aprendan a usar estas herramientas como apoyo para sus proyectos. En su caso, pidió a los estudiantes que además de escribir ensayos, den una presentación oral de 10 minutos para compartir sus hallazgos. “Este enfoque no solo reduce las posibilidades de plagio, sino que también hace que el proceso de evaluación sea más interactivo y atractivo”, señala el profesor.

Por su parte, Collin Bjork explica que la cuarta versión de ChatGPT, aunque es más segura y precisa, ahora tiene un costo de US$20 al mes. Si bien este puede ser un precio insignificante para muchas personas (sobre todo por lo que puede ofrecer), para muchas otras personas pagar veinte dólares al mes solo para usar esta herramienta es impensable. Abriendo así una brecha digital significativa que apenas está iniciando, pues con el tiempo esta brecha podría ampliarse cada vez más. “Esta brecha digital coloca a los estudiantes y las instituciones educativas en dos bandos. Aquellos con suficientes recursos para disfrutar de los beneficios de las herramientas de IA. Y aquellos sin la misma flexibilidad financiera que se quedan atrás”, señala Bjork.

Ambos autores coinciden en que las IA generativas pueden tener un impacto negativo en áreas como la diversidad y la inclusión de las instituciones educativas. Yang da el ejemplo de cómo pidió a ChatGPT que le diera una lista de libros sobre cambio climático y sus autores, especificándole a la IA que la lista de libros se la diera «independientemente de la raza y el idioma». El resultado fue decepcionante, pues todas las lecturas recomendadas de ChatGPT habían sido escritas en inglés, “nueve de los diez autores eran blancos y nueve de los diez autores eran hombres”, señaló Yang por lo que advierte a los lectores que “el uso de información de libros y sitios web antiguos para capacitar a los LLM puede conducir a representaciones sesgadas e inexactas de las perspectivas de las personas en comunidades marginadas, al tiempo que amplifica las voces de quienes están en posiciones de poder”.

En la misma línea, Collin Bjork advierte que las IA pueden perpetuar el dominio global del inglés a expensas de otros idiomas, “especialmente los idiomas orales e indígenas”. Este es un tema al que como comunidad educativa debemos prestar mucha atención ahora y en los próximos años, ya que los grandes modelos de lenguaje (LLM) aprenden de conjuntos de datos en línea con poco contenido indígena y una cantidad abrumadora de contenido en inglés. “Estas amenazas son importantes porque las herramientas de inteligencia artificial pronto se incorporarán a Microsoft Office, los motores de búsqueda y otras plataformas de aprendizaje”, advierte Bjork.

Ambas reflexiones me parecieron muy interesantes y refrescantes, ya que no se concentraban en el plagio como única amenaza y punto crítico del uso de inteligencias artificiales generativas como ChatGPT. En lo personal, me preocupa que el uso de estas herramientas perpetúe el statu quo y el dominio de los grupos de poder, minimizando todavía más las voces de las minorías y de los grupos históricamente oprimidos.

Me gustaría conocer su punto de vista sobre estas problemáticas. ¿Habías pensado en estas otras amenazas de las IA? Más allá del plagio, ¿qué otras desventajas destacas del uso de estas herramientas?

Por último, si quieres continuar con la conversación sobre este tema, te invito a unirte al Diálogo: “El impacto del ChatGPT y las IA generativas en la educación superior”, que se llevará a cabo este martes 18 de abril a las 9:00 a.m., hora central de México (GMT-6) a través de Facebook Live. En esta edición de Diálogos, expertos del Tec de Monterrey, la Universitat Oberta de Catalunya (UOC) y la Pontificia Universidad Católica del Perú (PUCP) hablarán sobre los aspectos positivos y los retos que conlleva la utilización estas herramientas.

Hasta la próxima semana.

Karina Fuerte
*Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

El potencial de ChatGPT para transformar la educación positivamente

Por Rubí Román

Conoce algunas herramientas y soluciones de inteligencia artificial que puedes explorar e integrar en tu clase, así como la relevancia de la ética en el uso de la inteligencia artificial dentro de la academia.

En este artículo encontrarás un resumen del webinar con herramientas y soluciones de inteligencia artificial que puedes explorar e integrar en tu clase. También encontrarás los consejos e ideas más relevantes que nos compartieron las docentes Reyna y Selene en esta sesión. Si no tuviste oportunidad de asistir en vivo al webinar, puedes consultar la grabación y compartirla con tus colegas. Te adelanto que contiene mucha información para reflexionar sobre las prácticas docentes actuales que sin duda se transforman y evolucionan más rápido de lo que pensamos.

“La misión de una inteligencia artificial siempre debe ser para engrandecer al ser humano, para acompañarlo y hacer más agradable las labores que realiza de manera cotidiana”. – Reyna Martínez.

Ante el surgimiento de herramientas con inteligencia artificial como fue el lanzamiento de ChatGPT a finales del año 2022, las reacciones han sido muy diversas, algunas de ellas de sorpresa, euforia, incredulidad, miedo o incluso de prohibición en algunas instituciones educativas. Sin embargo, la profesora Martínez nos compartió que en el campo de la educación nos sorprenderemos aún más, al saber que las tecnologías con inteligencia artificial pueden convertirse en nuestras mejores aliadas para la labor docente proporcionándonos una creatividad asistida. De tal manera que podemos utilizar mejor nuestro tiempo de creación de contenido de una manera más efectiva para generar experiencias de aprendizaje más personalizadas y efectivas.

La ética en el uso de la inteligencia artificial para la educación

En esta sesión, nuestras exponentes nos compartieron que docentes y líderes académicos necesitan dialogar y debatir sobre cómo utilizar plataformas de inteligencia artificial en la academia, con el fin de generar acuerdos y estrategias más convenientes para la educación. También, se deben revisar los reglamentos actuales en las instituciones educativas que hablen sobre la integridad académica para que, de ser necesario, lleguen a una nueva definición de plagio y a una nueva definición de copia. Asimismo, mencionaron que debemos hacer una revaloración del proceso en enseñanza-aprendizaje. De acuerdo con la profesora Martínez se debe trabajar en una educación basada en competencias y en una evaluación basada en competencias, pero haciendo énfasis en el proceso más que en el resultado.

La ética en el uso de la inteligencia artificial es otro punto muy relevante que como docentes debemos fomentar y generar el diálogo con nuestros estudiantes. En este sentido, es importante recordarles a los estudiantes lo siguiente:

  • Las soluciones de inteligencia artificial son solo herramientas para su aprendizaje.
  • Este tipo de herramientas no son con el fin de hacer sus tareas, de ser así sus competencias se verían afectadas y comprometidas.
  • Conocer el uso correcto de la inteligencia artificial dentro y fuera de la clase.
  • Utilizar la inteligencia artificial a favor de los demás y no en contra, sobre todo aplicando siempre un pensamiento crítico.
  • Que sepan que este tipo de soluciones puede ser su asistente educativo personal utilizándolo correctamente.
  • Iniciar cuanto antes los debates éticos sobre la inteligencia artificial.

En el año 2021, la UNESCO publicó un documento donde plantean siete ejes éticos y de responsabilidad social para guiar el desarrollo e implementación de la IA. La profesora Martinez nos invitó en el webinar a leer este documento para estar más informados y preparados. También exhortó a que en las instituciones educativas se aborde el tema del valor de la ética en el uso de la inteligencia artificial.

  1. La universidad
  2. La justicia y la equidad
  3. La transparencia
  4. La inclusión
  5. La responsabilidad
  6. La privacidad y la seguridad
  7. La corporación internacional

Las herramientas con inteligencia artificial seguirán evolucionando y debemos conocerlas y adaptarlas para mejorar nuestra enseñanza, fortalecer el pensamiento crítico en nuestros estudiantes y fortalecer los valores éticos en el aprendizaje de nuestros estudiantes.

“Como docentes debemos saber cómo generar los mejores prompts para lo que hacemos en nuestras clases y enseñar a nuestros estudiantes a dar buenas indicaciones a la inteligencia artificial”. – Reyna Martínez.

Herramientas basadas en Inteligencia artificial para el aprendizaje

El ChatGPT de la empresa Open AI no es la única herramienta basada en inteligencia artificial. Existen otras empresas que también trabajan en el desarrollo de soluciones con IA.

  • Microsoft (Bing/Chat)
  • Open AI (ChatGPT/Dall-E)
  • Google (Chrome/Bard)
  • Comunidad Open Source LAION
  • Amazon (Amazon AI)
  • IBM (IBM Watson)
  • Meta (LlaMA)
  • Baidu (Baidu Research AI Group)
  • Alibaba (Alibaba DAMO Academy)
  • Intel (Intel AI)
  • NVIDIA (NVIDIA Deep Learning AI)

Las inteligencias artificiales trabajan a partir de una instrucción de texto llamada Prompt. Incluso ya se habla sobre la importancia de diseñar una carrera de ingeniería en indicaciones (Prompt Engineering). Como docentes debemos conocer cómo generar los mejores prompts para lo que hacemos en nuestras clases y enseñar a nuestros estudiantes a dar buenas indicaciones a la inteligencia artificial. A continuación, se presentan algunos programas o soluciones basadas en inteligencia artificial que nos pueden ayudar para las actividades de la clase.

  • Texto: ChatGPT, Jaspe, Article Forge, Anyword
  • Imágenes: Stable Diffusion, Mid Journey, DALL-E, Starryai, Simplified
  • Voz: Synthesys, Speechelo, Murf, LOvo, Synthe susa
  • Video: Pictory, In Video, Lumen5
  • Juegos: Unity, Unreal Engine, GameMaker

Las inteligencias artificiales ya forman parte de nuestras vidas y nosotros las debemos moldear de forma positiva para la educación y nuestra vida diaria. La rápida evolución de la IA nos exige una reacción rápida y asertiva en el área educativa.

Revive este webinar. Si tu idioma nativo no es el español puedes activar la traducción instantánea subtitulada de YouTube incluida en este artículo. Para activar esta opción selecciona en YouTube la opción Subtítulos (aparecerán los subtítulos en español) posteriormente selecciona la opción Configuración ->Subtítulos -> Traducir automáticamente y selecciona el idioma que prefieras.

Webinar Observatorio del Instituto para el Futuro de la Educación del Tec de Monterrey.
Comparte este contenido:

La inteligencia artificial en la encrucijada: qué hay detrás del ruido sobre ChatGPT

Por: Pablo Jiménez Arandia

La popularización y el hype en torno al software generador de textos ha llevado los riesgos de la IA al debate público. Voces expertas reclaman que su desarrollo se aleje de una vez por todas del afán de lucro.

“Creemos que la inteligencia artificial prácticamente no tiene límites cuando de hecho es extremadamente limitada”. Ramón López de Mántaras describe así en un artículo reciente qué podemos esperar de una tecnología que desde hace semanas está en boca de todos. De Mántaras no es precisamente un cualquiera: el científico catalán, profesor del CSIC, investiga este campo desde la década de 1970 y ha sido premiado por asociaciones de investigadores en todo el mundo. “Y lo que es muy importante: [la IA] no tiene nada que ver con la inteligencia humana”.

En noviembre pasado la compañía estadounidense OpenAI lanzó la última versión de ChatGPT, un software de generación de textos al que cualquiera puede acceder sin coste aparente —los usuarios sí han de ceder a la empresa datos como su edad o teléfono móvil, además de la información ofrecida durante la conversación—. A partir de la pregunta o indicación adecuadas, la herramienta es capaz de devolver un texto generalmente bien escrito y coherente. Aunque si la charla se complica es fácil que el programa caiga en errores en sus respuestas.

La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos?
Desde su lanzamiento los usuarios mundiales de este programa se han disparado. También los titulares en los medios de comunicación especulando sobre las supuestas capacidades de este producto para replicar la inteligencia y creatividad humanas. Algunas empresas incluso han justificado despidos bajo el argumento de que esta rama de la IA puede ya llevar a cabo tareas hasta ahora hechas por trabajadores de carne y hueso.

Las grandes tecnológicas de Silicon Valley están tirando del carro de esta perfecta campaña de marketing. Microsoft, tras inyectar 10.000 millones de dólares en OpenAI, ya ha anunciado que integrará ChatGPT en su buscador Bing. Mientras que Google hará lo mismo con Bard, su propio chatbot generativo. Su objetivo, según han declarado, es ir incorporando versiones de esta tecnología a otros de sus servicios, desde el correo electrónico a los procesadores de texto que diariamente usan millones de personas en todo el mundo.

Los riesgos de los “loros estocásticos”
La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos?

Citando al filósofo de la ciencia Daniel Dennet, De Mántaras explica que lo que ChatGPT y otras herramientas similares tienen “no es inteligencia sino habilidades sin comprensión”. Estas habilidades se podrían comparar por ejemplo con el montaje de un tren de juguete en el que hay que acertar la posición en la que va cada vagón del tren que queremos ensamblar.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase. Pero carecen de referencia alguna sobre el significado de cada una.

Son por tanto sistemas —en palabras de De Mántaras— “muy hábiles llevando a cabo tareas concretas” pero que no comprenden nada sobre la naturaleza de estas tareas, “debido a la ausencia de conocimientos generales sobre el mundo”. Esta habilidad para encadenar palabras se construye a partir de patrones detectados en la ingente cantidad de información con la que estos programas han sido entrenados.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase
En 2021 varias investigadoras publicaron un artículo sobre los peligros de estos modelos de lenguaje, a los que bautizaron como “loros estocásticos”. O lo que es lo mismo, máquinas capaces de repetir aquello que han observado muchas veces, pero sin atender a su veracidad.

En el texto las autoras, entre otras recomendaciones, exigían un mayor cuidado al trabajar las bases de datos con las que estos algoritmos se construyen y no volcar en ellos toda la información presente en Internet —precisamente lo que hace ChatGPT—. O realizar pruebas controladas de los sistemas antes de abrirlos al público, para asegurarse de que su uso no infringe daños o va en contra de los valores éticos de quien lo impulsa.

En las últimas semanas, al mismo tiempo que la IA generativa ganaba terreno en las conversaciones en el ascensor, el trabajo o el bar, se ha sucedido también un goteo de historias inquietantes en torno a la utilización de estos programas.

En EE UU, un profesor universitario explicó a comienzos de abril a The Washington Post cómo se sintió después de que ChatGPT le acusara de haber abusado de un alumno en un viaje de estudios. Algo que, en el mundo real, nunca ocurrió. El programa incluso usó como fuente de su acusación un artículo del citado medio. Un artículo, de nuevo, que nunca ha existido. “Fue bastante escalofriante”, aseguró el docente. “Una acusación de este tipo es increíblemente dañina”.

Su capacidad para vestir como cierta información engañosa o directamente falsa no es la única preocupación en torno a estas tecnologías. También lo es el impacto que su uso pueda tener en contextos determinados o frente a personas vulnerables. En Bélgica, un ciudadano se quitó la vida después de mantener largas conversaciones con un bot de IA que le envió mensajes confusos.

El argumento habitual de las tecnológicas creadoras de estos productos es que estamos todavía ante modelos en fase de desarrollo, cuya precisión y fiabilidad irá mejorando con su uso. Pero cada vez más voces piden que en ese mientras tanto los gobiernos fijen límites o directamente prohíban su uso.

Italia ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuario
Este último paso es el que ha tomado la agencia italiana de protección de datos. El país transalpino ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuarios —y que sirven para su entrenamiento— se ajusta a la ley europea.

Entre otros argumentos el regulador alega que la información suministrada por la aplicación no siempre es verídica —lo que ”da lugar a un tratamiento inexacto de los datos personales”— y critica que no haya un control real de la edad de los usuarios que la utilizan, abriendo la puerta a “la exposición de los menores a respuestas totalmente inadecuadas con respecto a su nivel de desarrollo y autoconocimiento”. A pesar de que OpenAI desaconseja su uso entre menores de 13 años, cualquiera puede acceder a la aplicación.

España podría seguir los pasos de Italia en las próximas semanas. La agencia española de protección de datos (AEPD) ha pedido a la Unión Europea que evalúe las implicaciones de ChatGPT en la privacidad de los usuarios. La AEPD entiende que las operaciones de procesamiento global que “pueden tener un impacto significativo en los derechos de las personas y requieren decisiones coordinadas a nivel europeo”, señaló un portavoz de la agencia.

¿Qué camino seguir?
El debate sobre cómo aplacar los riesgos de la IA no es nuevo. Desde hace años investigadores, activistas y comunidades afectadas por estas tecnologías alertan sobre sus peligros. Estos no se reducen a los errores o imprecisiones que el software pueda cometer, sino que incluyen cuestiones relacionadas con las decisiones humanas detrás de su diseño y quién toma éstas —casi siempre grandes corporaciones occidentales en busca del máximo lucro—.

Los efectos negativos de la IA han sido ampliamente documentados. Y van desde el deterioro de los derechos laborales de trabajadores en todo el mundo a la datificación de los sistemas de control en las fronteras que castigan a la población migrante. Los gobiernos también usan herramientas de este tipo para castigar a las capas sociales más pobres y policías y empresas insisten en utilizar el reconocimiento facial, una técnica poco precisa que discrimina a las personas por su origen étnico.

A finales de marzo la controvertida organización Future of Life Institute publicó una carta abierta reclamando una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4”, la última versión del popular algoritmo. La misiva, que ya lleva cerca de 20.000 adhesiones, incluyó la firma de un variado grupo de personalidades. Entre ellas la del segundo hombre más rico del mundo, Elon Musk, uno de los fundadores e inversores de OpenAI. De Mántaras, además de otros muchos investigadores de prestigio, también figura en la lista.

Los firmantes reclaman un desarrollo seguro de estas herramientas y que no se abran al público hasta garantizar que sus efectos serán positivos para la ciudadanía global. Y advierten de la “carrera sin control” en la que han entrado los grandes laboratorios de IA para crear “poderosas mentes digitales que nadie —ni siquiera sus creadores— puede entender, predecir o controlar de forma fiable”.

La carta en cuestión ha sido ampliamente recogida en medios de comunicación de todo el mundo. Pero también ha recibido matizaciones y críticas desde algunas de las voces que más tiempo llevan remando a favor de un desarrollo ético de la IA.

The Distributed Artificial Intelligence Instiute (DAIR), fundado por la investigadora Timnit Gebru —ex miembro del equipo ético de Google, de donde fue despedida por sus denuncias contra la discriminación de la compañía, y una de las autoras del artículo sobre los “loros estocásticos”—, ha respondido criticando que la carta alimenta “el alarmismo y el hype” en torno a estas herramientas y deja de lado los “daños reales” que el despliegue de estos sistemas ya infringe en la actualidad.

Desde diversos sectores atribuyen a estos chats conversacionales una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan
Para Gebru y el resto de autoras el lenguaje utilizado en la carta “infla las capacidades de los sistemas automatizados y los antropormofiza”, engañando a la gente “haciéndole creer que hay un ser sensible” detrás de estos modelos. Esto “induce a confiar acríticamente en los resultados de sistemas como ChatGPT” y les atribuye una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan.

“La actual carrera hacia ‘experimentos de IA’ cada vez más potentes no es un camino preestablecido en el que nuestra única elección es la velocidad a la que correr, sino un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y decisiones de las empresas deben estar reguladas para proteger los derechos e intereses de las personas”, concluyen.

Fuente de la información e imagen:  https://www.elsaltodiario.com

Comparte este contenido:

CII-OVE: Herramientas con IA que todo docente debe conocer

Luz Palomino/CII-OVE 

Aunque la Inteligencia Artificial ha vuelto a ponerse de moda en el entorno educativo con la irrupción de ChatGPT, es una tecnología que se utiliza desde hace años en forma de programas y aplicaciones que la incorporan para apoyar la labor docente y facilitar las tareas automáticas.

El mundo académico y la inteligencia artificial (IA) están cada vez más entrelazados y, a medida que la IA siga avanzando, es probable que los académicos continúen explorando su potencial o expresando su preocupación por los riesgos que conlleva.

El ChatGPT No es la única Inteligencia Artificial que esta revolucionando el mundo educativo. Te mostramos otras herramientas de IA que todo docente debe conocer.

Midjourney.com Crea imágenes a partir de peticiones textuales mas sorprendente y realista que hay ahora mismo

Synthesia Crea videos a partir de textos planos. Los videos pueden ser en hasta 120 idiomas diferentes.

AvatarAI Crea avatares fotorrealistas a partir de tus fotos

Copy.ai IA basada en ChatGPT disenada para ayudarte a crear todo tipo de textos

Comparte este contenido:
Page 2 of 4
1 2 3 4