Page 7 of 47
1 5 6 7 8 9 47

La Unesco clama por ética urgente para la inteligencia artificial

Por: Inter Press Service

Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco pidió este viernes 31 la implementación inmediata del marco ético global sobre esa materia.

“El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.

La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias.

“Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.

La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología.

Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.

“El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”: Audrey Azoulay.

La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales.

Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos.

Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.

En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva.

Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.

La Recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.

También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.

Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.

Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.

La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.

Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. .

Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.

El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.

Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.

Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.

Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.

Fuente de la información e imagen: https://ipsnoticias.net

Comparte este contenido:

¿Quién dominará? ¿El ser humano o la máquina?

Franklin González*

“Desde mi perspectiva, el peligro no está en que una entidad extraña hable a través de nuestra tecnología, nos controle y destruya. Para mí el peligro es que usemos la tecnología para volvernos mutuamente ininteligibles y que nos volvamos locos, si quieres, de una forma en la que no nos comportemos con el suficiente entendimiento e interés para sobrevivir, por lo que moriríamos de locura, esencialmente”.(Jaron Lanier, escritor, informático y compositor de música clásica estadounidense).

 

En estas reflexiones queremos insistir sobre lo ya mencionado en otras oportunidades sobre un debate de total actualidad que tiene que ver con el futuro del ser humano, relacionado con el papel que está jugando la tecnología y, en particular, la máquina. Parece ser un tema para la filosofía de los tiempos actuales.

Hemos afirmado y recalcado en varios escritos que la tecnología no es buena o mala en sí misma; ella está sujeta a la ética de los que la utilizan.

Matrix

En la película de ciencia ficción, Matrix, escrita y dirigida por las hermanas Wachowski (Lily y Lana) (1999), se reflexiona sobre la humanidad y las razones que pueden llevarla a la ruina. Se muestra un futuro sin esperanza para los humanos, que agotaron los recursos del planeta y destruyeron el sol y donde terminan esclavizados por las máquinas que ellos mismos crearon.

También se da cuenta de la relación con la tecnología y la separación del cuerpo y la mente, cada vez mayor por el avance de la robótica y la realidad virtual. Se consideraba que la libertad realmente no era más que un algoritmo predecible dentro de un programa informático, bien alejado de convertirse en una realidad, al menos en el corto plazo. Se hablaba del año 2199.

En la película, se hace referencia a la aventura de Neo, un joven hacker, que es convocado por el movimiento de resistencia liderado por Morfeo quien lucha contra la dominación de los seres humanos por las máquinas. Morfeo le ofrece dos pastillas de diferentes colores: la azul, que significará continuar en la ilusión o la roja, con la que descubrirá la verdad.

Ante esta disyuntiva, el protagonista escoge la píldora roja y despierta en una cápsula. Es así como descubre que la raza humana está dominada por la inteligencia artificial y vive atrapada en un programa de ordenador que sirve solo como una fuente de energía. Neo se da cuenta de que la resistencia cree que él es el Elegido: una especie de mesías que liberará a la humanidad de la esclavitud de la Matrix.

Aunque dude de su destino, a lo largo de todo el camino, aprende a superar las reglas de simulación. Consigue salvar a Morfeo, que había sido secuestrado, y derrota al agente Smith tras un duelo en el que demuestra su valía como guerrero y confirma que es el Elegido.

Hoy, en el mundo, están ocurriendo hechos, acontecimientos, que hacen dudar del tiempo establecido. La pandemia provocada por el Covid19 aceleró el proceso de automatización en muchos sectores, como el de servicios, la construcción, la medicina, la alimentación, la defensa o la industria aeroespacial. La robotización avanza aceleradamente. Esto no afecta sólo al trabajo (teletrabajo) sino que también incide determinantemente en las formas de vida. Las máquinas, parece que se han independizado, y son ellas las que se imponen por encima de los seres humanos e invaden su intimidad. No hay espacio humano sin la presencia, por ejemplo, de los gadgets.
De allí que se sostenga que, dentro de pocos años, existirán unos amigos «robots» que estén en las casas, interactuarán con sus habitantes y serán una especie de «paño de lágrimas» para sus problemas, padeceres, dolores, angustias y emociones.

La máquina se impone

En dos deportes, con incidencia mundial, la máquina está imponiéndose. Veamos.
En el futbol, el llamado «deporte rey», la máquina resulta ser la que marca la pauta. Sus decisiones son inapelables y puede decidir quién gana o quién pierde, quedando los árbitros subordinados a su decisión. El llamado VAR, esto es, Asistencia al Árbitro por Video (en inglés, Video Assistant Refeee), constituye un sistema altamente preciso implementado por la Federación Internacional de Fútbol (FIFA), con el fin de eliminar los diferentes errores arbitrales, intencionales o no. Tanto es así que hoy no hay partido de fútbol que se realice sin esta novedosa modalidad.

¿Cómo funciona el VAR? Consiste en una serie de cámaras cuyas imágenes son evaluadas en una habitación con monitores por parte de árbitros FIFA que determinan la decisión a tomar por parte de los árbitros y jueces de línea de un encuentro. En este caso, es una máquina al servicio del deporte rey la que, sobre las jugadas «polémicas» o “dudosas”, dictamina la validez o no de una jugada.

¿En qué caso decide el VAR? En casi todo. Por ejemplo, cuando hay un gol decretado así por el árbitro, se revisan potenciales situaciones de infracción a las leyes del juego como «fuera de lugar», «mano» u otras contravenciones. En el caso de «penalti», se revisa si la decisión de sancionar o no el cobro de “pena máxima» se ha tomado correctamente. Así mismo, se examinan jugadas tanto dentro del área como cerca de ella; se vigila si la expulsión de un jugador ha sido correcta o no;  e incluso, cuando un árbitro muestra una tarjeta a un jugador que no había cometido ninguna infracción, éste está obligado a enmendar el error.

El otro caso tiene que ver con el beisbol, donde los árbitros no son los que hacen cumplir las “reglas del juego” que los mismos seres humanos acordaron y redactaron.
Ya, desde hace algunos años, las Ligas Mayores de Béisbol instauraron la repetición instantánea (revisión por video), y lo hicieron, además, de manera progresiva. Primero, comenzaron en el año 2008 con la repetición únicamente para los cuadrangulares; pero luego, y a partir de 2014, le dieron a los mánagers el derecho de cuestionar o desafiar (challenge), primero en 30 segundos; y a partir de 2020, en 20 segundos ciertas decisiones arbitrales en los que ellos no estaban de acuerdo y con el beneficio de la repetición instantánea. Ante una situación de esta índole, se acude a ver la jugada en un video (una máquina) y allí se toma la decisión final.

Vemos así que, ante una decisión arbitral, se acude a la máquina, a la tecnología, y esta como si tuviera vida propia, decide si la jugada decretada por el árbitro es correcta o no. Las jugadas sujetas a revisión son: jonrón, dobletes por regla, interferencia por un fanático, decisiones arbitrales por jugadas en los límites del terreno de juego (por ejemplo, pelotas capturadas en las gradas por un jugador a la defensiva, determinación de la bola muerta), forzado en base (excepto la jugada de toque al pisar la segunda base en medio de la ejecución de un doble play), robos de base y movimiento del lanzador para sacar out a un corredor en una almohadilla, determinar si una bola pasó en zona buena o mala en las líneas de los jardines, atrapadas a la defensiva difíciles de determinar en los jardines, bateador golpeado por el lanzamiento de un pitcher hacia la goma (home), el tiempo de juego (para captar si un corredor anota antes de un tercer out), tocar una base (requiere apelación), por ejemplo, advertir cuando un corredor pisa o no una base, dos jugadores en una base al mismo tiempo, etc., determinar si un corredor pasó a otro en las bases, para precisar registros (conteo de bolas y strikes a un bateador en su turno ofensivo, número de outs en un inning, anotación de carreras y otras situaciones).

Si el jugador llegó quieto o no a la base respectiva o si el jonrón fue real o no, eso queda en manos de unas repeticiones de la jugada.

Un mánager puede solicitar la revisión de una jugada al expresar verbalmente al jefe del equipo de árbitros que trabaja en el partido su intención de retar o impugnar, en el momento preciso, la decisión de un umpire, especificando exactamente qué parte de la misma quiere retar o impugnar.

Cada manager puede retar hasta dos jugadas durante un mismo partido. Después del comienzo del séptimo inning el jefe del equipo de umpires puede optar por invocar la repetición instantánea, para revisar una decisión arbitral. En esa circunstancia, el jefe de los árbitros no está obligado a invocar la repetición instantánea si es solicitada por un mánager.

Como un agregado a esto, digamos que en este deporte no sólo estamos en presencia del domino de la máquina sobre el ser humano, sino también de la modulación de conductas negativas, que en el beisbol se han convertido en algo absolutamente normal. Ahora, se permite libremente y a la luz de todo el mundo, que los jugadores utilicen las famosas “chuletas”, similares a las utilizadas en nuestros recintos educativos, cuando se realizaban exámenes y se hacía uso de ellas, por parte de los estudiantes. Obviamente, las consecuencias eran realmente negativas y el acto podía significar la reprobación en la respectiva asignatura. Pero resulta que en este deporte hoy es lícito que cualquier jugador que esté a la defensiva (cubriendo), haga uso de ese “medio” para alcanzar un fin, que es lograr el poner out al jugador que se encuentra al bate.

Como se puede observar, en el beisbol, pocas decisiones están quedando a discreción de los árbitros; pero lo más llamativo de todo es que ya se comenta que pronto se tendrá un robot cantando las bolas y los strikes en la llamada goma (home).

Sobre la Inteligencia Artificial

En estos tiempos se está hablando de la Inteligencia Artificial (IA), que será algo así como la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Es una tecnología que parecía no solamente misteriosa y esotérica, sino también lejana. Sin embargo, su presencia se hace cada vez más frecuente en nuestro día a día, a todas horas, y sigue ganando terreno en muchas actividades del quehacer científico-tecnológico actual.

Con la inteligencia artificial se plantea un escenario en el que, con el paso del tiempo, algunos trabajos podrían hacerse obsoletos para que sean ejecutadas por el ser humano.

Ya se dice abiertamente que la IA está reemplazando a trabajadores profesionales. Se menciona que para 2025 se tiene previsto que cerca de 85 millones de puestos de trabajo, en medianas y grandes empresas, serán desplazados y suplantados por inteligencia artificial.

La entidad financiera estadounidense Goldman Sachs sostiene que la inteligencia artificial podría ocasionar una disrupción en el mercado laboral que afectaría a 300 millones de empleos en todo el mundo y que el avance en inteligencia artificial podría conducir a la automatización de una cuarta parte del trabajo realizado en Estados Unidos y Europa, mientras que alrededor de las dos terceras partes de los trabajos actuales están expuestos a un grado de automatización.

Se está hablando, con mucha insistencia, de que 5 tipos de trabajo están en peligro y podrían desaparecer para dar paso a la inteligencia artificial. Por ejemplo, en Educación, se asegura que la inteligencia artificial es capaz de darle materiales eficientes de aprendizaje al alumno sin tener contacto con el docente. Al respecto, ya existen muchas compañías de IA interesadas en invertir en herramientas educativas. Se dice que ChatGPT, desarrollado por la empresa OpenAI en 2022, puede dar clases.

También se sostiene que el Machine Learning, rama de la inteligencia artificial, también ayudaría a revolucionar el sistema educativo tal y como lo conocemos en virtud de que puede recomendar contenidos a los alumnos.

La ventaja para los profesores o profesionales de la educación, advierten los especialistas, es que con el uso de la inteligencia artificial el docente puede dejar tareas administrativas de lado además de centrarse en la calidad del aprendizaje. De igual manera, se señala que las actividades relacionadas con el Periodismo también están en peligro, por cuanto, la inteligencia artificial ha demostrado ser muy eficiente a la hora de recolección de datos, análisis y búsqueda de patrones. Por tal motivo, algunas empresas están prescindiendo de periodistas para sustituirlos por inteligencia artificial. Se afirma que en el año 2020 cerca 50 periodistas fueron despedidos de Microsoft. Sin embargo, no todo está perdido para los periodistas, ya que aún herramientas como ChatGPT tienen que precisar la verificación de su información. Se habla de que la inteligencia artificial también ha puesto en evidencia que en un futuro el Diseño Gráfico como profesión podría desaparecer ya que ChatGPT tiene la capacidad de crear imágenes personalizadas a partir de las necesidades de los usuarios.

Del mismo modo, se prevé que el sector financiero y sus actividades concomitantes se verán desplazadas por la inteligencia artificial al poder detectar y gestionar fraudes, además de que puede brindar servicios de asesoramiento financiero las 24 horas del día y buscar clientes potenciales sin necesidad de intervención humana. En este sentido, se predice que la inteligencia artificial les ahorraría a los bancos cerca de 447 mil millones de dólares (más 8 de ocho billones de pesos) en el 2023.

Al igual que con Diseño Gráfico, quien trabaje en Ingeniería en Software podría verse afectado por la inteligencia artificial por su posibilidad de escribir códigos, desarrollar páginas web y crear experiencias de usuario altamente eficaces.

Dicho lo anterior sobre la IA, todo suena aterrador. Por eso, se dice que la falta de control y la ausencia de protocolos de seguridad aterroriza a muchas de las mentes que la idearon, promovieron y apostaron por su expansión. De allí que un grupo de expertos y ejecutivos de la industria tecnológica estén, mediante una carta, pidiendo, al menos por seis meses, que se detenga el entrenamiento de los poderosos sistemas de IA, argumentando que se trata de una potencial amenaza para la humanidad.
Entre esos expertos se encuentra, nada más y nada menos, que Elon Musk, fundador de SpaceX, Neuralink y OpenAI; el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind.

Estos señores aseguran que los laboratorios que trabajan con esta tecnología están en “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores pueden comprender, predecir o controlar de forma fiable”. Así que solicitan con urgencia que las empresas que desarrollan este tipo de programas “pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4”.

Pero la cosa es seria

Tan seria es la cosa que se informa que la empresa Facebook ha tenido que desconectar dos robots bautizados como Bob y Alice tras descubrir que habían desarrollado un lenguaje propio incomprensible para los seres humanos. Se trata de un sistema de inteligencia artificial que la compañía había puesto en marcha.

Se dijo que en los primeros días, el sistema de inteligencia artificial de Facebook funcionó a la perfección; sin embargo, la Unidad de Investigación descubrió que los robots Alice y Bob emitían mensajes sin sentido: se trataba de un lenguaje evolucionado e ininteligible para las personas pero sí para los robots.

Dhruv Batra, miembro del equipo de investigación de IA en Facebook, explicó que «los agentes se desviaron de un lenguaje comprensible y crearon unas palabras en código por ellos mismos», ya que, según las conclusiones del estudio, nuestra especie utiliza demasiados términos inservibles para una negociación.

La compañía decidió apagar ambos robots ante la perplejidad por ver que se les estaba escapando de su capacidad.

Conclusión
Con toda propiedad afirmamos: no hubo que esperar hasta 2199, como se dice en la película Matrix, para que la máquina terminara dominando al ser humano hasta ahora en varios campos.

En virtud de lo expuesto, son pertinentes las siguientes preguntas:

¿Quién terminará dominando nuestro complejo mundo: las máquinas o nosotros los seres humanos? ¿Es posible que las máquinas terminen siendo más inteligentes que los seres humanos? Y si eso acontece, ¿qué ocurrirá con nosotros? ¿Podremos vivir sin ellas?

Si con las tecnologías actuales se están planteando enormes riesgos y se habla de algo aterrador, ¿qué pasará con la tecnología del futuro?

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?

¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?

¿Qué pasará con el amor, los sentimientos, los pareceres, los dolores, los sabores y sinsabores, aspectos propios de los seres humanos? ¿Se trasladarán a las máquinas?
Hay quienes sostienen que el que trabaja como una máquina, piensa como una máquina, siente como una máquina; entonces ¿se le puede exigir gobernar como un humano?

Amanecerá y veremos.

*Sociólogo, Doctor en Ciencias Sociales, Con dos postdoctorados. Ex director de la Escuela de Estudios Internacionales de la UCV. Profesor de Postgrado en la UCV, en el Instituto de Altos Estudios Diplomáticos “Pedro Gual” del Ministerio del Poder Popular para Relaciones Exteriores, en la Universidad Militar Bolivariana de Venezuela y en el Instituto de Investigación y Postgrado de la Escuela Nacional de la Magistratura. Fue embajador en Polonia, Uruguay y Grecia, Analista nacional e internacional.

 

 

 

Comparte este contenido:

ChatGPT y educación: ¿un nuevo enemigo o aliado de los profesores?

¿Cómo luchar contra una aplicación en apariencia indetectable que es capaz de generar, en menos de un minuto, una redacción de 600 palabras sobre la energía nuclear, las crisis migratorias del siglo XX o la desigualdad de género, y hacerlo además con un lenguaje completamente natural? La irrupción de la inteligencia artificial generativa en el ámbito educativo está dando sus primeros pasos y ya ha supuesto un auténtico vuelco en todo el mundo. Cuando, a finales de 2022, OpenAI lanzó el popular ChatGPT, un sistema de inteligencia artificial capaz de generar textos originales, contestar preguntas y resolver multitud de tareas, les bastó cinco días para superar el millón de usuarios, y los 100 millones en apenas dos meses. Ante el peligro de una herramienta que facilita el plagio y las trampas, las alarmas en escuelas y universidades no tardaron en sonar, hasta el punto de que ya son muchos los casos (el Estado de Nueva York y las escuelas de Seattle, en EE UU, y las universidades australianas son solo unos pocos ejemplos) en los que se optó rápidamente por prohibir su uso.

La pregunta, sin embargo, no es si este fenómeno puede contenerse, sino más bien de qué manera incorporar su uso de forma productiva: según una reciente encuesta de Impact Research, un tercio de los estudiantes estadounidenses de entre 12 y 17 años, y el 51 % de los docentes, utilizan ya esta herramienta (un porcentaje que llega al 69 % en el caso de los profesores latinos o negros), ya sea para planificar sus clases, encontrar actividades creativas o elaborar un conocimiento de base con el que empezar sus lecciones. Sus conclusiones no pueden ser mejores: el 89 % de los enseñantes y el 79 % de los alumnos que han usado ChatGPT piensan que el impacto ha sido francamente positivo. La ola es imparable: Microsoft ha anunciado ya la incorporación de su propia IA generativa, Copilot, al Office 365; y Standford ha lanzado Alpaca, una IA basada en el ChatGPT de código abierto. “Ni los estudiantes, ni los profesores ni los periodistas volverán a empezar algo con una página en blanco; se lo pedirán al ChatGPT”, aventura Guillem García Brustenga, experto del eLearning Innovation Center de la UOC.

Luchar contra el plagio

En lugar de entregar un texto copiado o memorizado de la Wikipedia, señala García, el profesor puede pedirles que hagan una infografía, que lo contextualicen con su realidad o que usen portafolios para documentar su proceso de aprendizaje, desde el momento en que no saben nada hasta el que saben mucho. “Paradójicamente, la incorporación de la IA a través de herramientas como ChatGPT nos va a obligar a reflexionar en profundidad sobre qué es lo que queremos hacer, cómo lo queremos hacer, cómo lo vamos a evaluar y qué tipo de competencias queremos cultivar”, sostiene Joaquín Rodríguez, director de Diseño, Innovación y Tecnologías para el Aprendizaje de la Institución Educativa SEK. Y es que, en lugar de intentar prohibir su uso, sugiere incorporarlo a la enseñanza como punto de partida de discusiones y debates en el aula: “Yo les pediría a los alumnos que la utilizaran y que le hicieran preguntas. Y toda esa información que nos da la IA la pondría después sobre la mesa en el aula, para someterla a escrutinio, debate y crítica por parte de los estudiantes. Que reflexionen sobre ella y aprendan a sintetizar su contenido, a profundizar y a contrastar las diferentes respuestas que obtengan… Deben estar seguros de sus aciertos, sus limitaciones y los sesgos que pueda tener”.

Ahí está, precisamente, uno de los mayores peligros de ChatGPT: la asunción de veracidad, porque nunca reconocerá que no está diciendo la verdad sobre algo. “Uno de los errores de ChatGPT es que tiene lo que se conoce como “alucinaciones”: tiene siempre pretensiones de verdad, por lo que, si no sabe algo, se lo inventa”, advierte Rodríguez. Por eso, desde el punto de vista pedagógico, recomienda preservar y reforzar competencias cognitivas fundamentales como, por ejemplo, la capacidad de verificación y de evaluación de cualquier enunciado que te de una inteligencia artificial; tener presente que la responsabilidad final sobre los dictámenes de una IA sigue siendo humana (se puede usar la IA en una consulta médica, pero la responsabilidad del diagnóstico recaerá siempre sobre el facultativo); y hacer un uso crítico, productivo y ético de las tecnologías.

Reinventar el papel del profesor

El vuelco que ha supuesto la llegada de la inteligencia artificial supone un reto ante el cual las instituciones educativas no pueden, ni deben, mirar hacia otro lado. “Una asunción más o menos acrítica de la tecnología, es decir, dejar que cada uno haga lo que le parezca, llevaría a un caos incontrolado. Por eso, es necesario aceptarlo meditadamente, que es la postura que nosotros, de momento, asumimos”, explica Rodríguez. Y eso pasa, necesariamente, por facilitar un cambio radical en el rol que el profesor tiene dentro del aula. “El papel del docente tendría que haber cambiado hace mucho tiempo. Cuando yo estudié, el profesor era quien tenía el conocimiento; yo iba a clase, él [o ella] me contaba cosas y luego me decía: “Ahora repítelo”. Pero eso ya no es así: cuando el conocimiento está en todas partes, no tiene sentido que yo vaya a clase solamente para escuchar a alguien que me lee lo que yo puedo buscar por mi cuenta”, afirma García.

Para el experto de la UOC, el rol del profesor tiene que ser el de “alguien que me ayude a interpretar esa información y a aprender con ella. En el mundo del ChatGPT, será lo mismo, y este docente que explicaba algo que él mismo había leído en un libro, tendrá que cambiar”. Y lo mismo sucede con la evaluación: en vez de pedir que los alumnos repitan lo que les han dicho, será necesario preguntar de otra forma, “hacer trabajos colaborativos o incluso pruebas orales que pueden realizarse de forma síncrona o asíncrona, en las que los estudiantes se graben respondiendo a una pregunta, razonando o explicando qué le ha preguntado al chat”, añade.

Mientras empresas como TurnItIn, especializadas precisamente en detectar el plagio en trabajos académicos, afirman estar trabajando ya en el desarrollo de una herramienta capaz de detectar el uso de IA generativas, los expertos se muestran escépticos: “Como mucho, podría analizar algo de ChatGPT y afirmar, con un 80 % de probabilidades, que es una IA. Pero yo no puedo suspender a nadie por esto. Además, si tú coges el texto de la IA, lo cambias y lo haces tuyo, eso ya no lo puede detectar nadie. Es un tema complejo”, sostiene García.

Desafíos en el mundo laboral

Si algo llevamos escuchando mucho tiempo es que la inteligencia artificial vendría para sustituir al ser humano en aquellas tareas y oficios más mecanizados. Sin embargo, las aplicaciones de IA generativas como ChatGPT o Copilot demuestran que tampoco permanecerán ajenas a las profesiones más creativas. “Son capaces de desarrollar (y ejecutar) código por sí mismas, y de desarrollar textos y novelas completas. Ya hay editoriales basadas en inteligencia artificial, o libros que se están subiendo a Amazon; y si tú les pides que te hagan un cuadro al estilo de Picasso o Monet, también lo harán. Por eso, una de las preguntas más importantes que se plantean ahora es la de qué competencias será necesario desarrollar”, plantea Rodríguez.

Ahora bien, ¿será capaz la IA de quitarnos puestos de trabajo? Para García Brustenga, no será exactamente así: “Yo creo que no es la inteligencia artificial la que nos quitará esos puestos; más bien serán los profesionales que sepan utilizar las inteligencias artificiales los que quitarán trabajo a aquellos que no las sepan usar. Ese es el verdadero tema. Por eso, tenemos que formar a los futuros profesionales a la vez que reciclarnos nosotros, para saber hacer uso de todas estas herramientas; y aun así, sufriremos por la velocidad del cambio. No será la tecnología por sí sola la que nos quite el trabajo”.

Fuente: https://elpais.com/economia/formacion/2023-03-30/chatgpt-y-educacion-un-nuevo-enemigo-o-aliado-de-los-profesores.html

 

Comparte este contenido:

De la educación tradicional a la educación con inteligencia artificial: ¿cómo tomar una postura frente a ChatGPT?

En una jornada de reflexión organizada por Ticmas para abordar unos de los debates más urgentes de la educación, tres expertos debatieron sobre cómo la IA puede mejorar la enseñanza y el aprendizaje.

“Inteligencia artificial: ¿aliada o amenaza?”. Este fue el título de la jornada exclusiva que organizó Ticmasen el Alvear Palace Hotel, en la que asistieron más de 80 directivos de colegios de la Argentina. Los paneles abordaron diversos enfoques con los que reflexionar los desafíos y las nuevas posibilidades que la IA abre en el ámbito educativo. En una de las actividades del día, Gustavo Brey (docente de ITBA), Mariano Yacovino (Director de Educación de Microsoft Argentina), Mariano Ruani (Director en Instituto Baikal) hablaron del paso necesario —e inevitable— que va de la educación tradicional a la educación con inteligencia artificial.

Coordinados por Astrid de Herrera, líder estratégica de ABP en Ticmas, los tres expertos asumieron el desafío de tomar una postura frente a ChatGPT: cómo puede la Inteligencia Artificial mejorar la enseñanza y el aprendizaje, cuáles son los desafíos éticos y de privacidad, y cuál es el rol de docentes, directivos y familias.

Gustavo Brey, docente de ITBA (foto: Adrián Escandar)
Gustavo Brey, docente de ITBA (foto: Adrián Escandar)

“Pensar que ChatGPT va a reemplazar a los docentes o va a hacer que los chicos se copien no va”, dijo Brey. “Ya no se puede pensar que la calculadora es un problema para la matemática o que Google y Wikipediason el terror de los docentes”. Brey contó que su experiencia con ChatGPT lo llevó a mejorar sus parciales, porque aún cuando creía que los suyos tenían un grado de excelencia que provocaba que los estudiantes piensen y relacionen las respuestas, la inteligencia artificial lo aprobó. “Eso me hizo levantar la vara como docente”, dijo. “Hoy la inteligencia artificial me permite optimizar un montón de cuestiones de la docenciay me da más tiempo para la creatividad y para sostener la parte emocional con los alumnos”.

“La discusión que estamos teniendo hoy aquí”, dijo Yacovino, “está pasando en cualquier entidad educativa del mundo. Yo creo que la Inteligencia Artificial es una herramienta súper poderosa. Nos va a ayudar no sólo a ahorrar el tiempo preparando las clases y en generar experiencias de aprendizaje más interactivas, sino que va a hacer que la educación se adapte a la necesidad de cada uno. Esta herramienta nos va a ayudar a crear clases más interactivas y personalizadas. ¿Cómo nos vamos a ir adaptando? Vamos a ir aprendiendo en el camino”.

Mariano Yacovino (Director de Educación de Microsoft Argentina)
Mariano Yacovino (Director de Educación de Microsoft Argentina)

Mariano Ruani también destacó que la IA brinda la posibilidad de ser más creativos, porque uno puede ayudarse a pensar actividades más entretenidas y consultar otras experiencias. Pero está claro que ChatGPT necesita estar acompañado por un maestro. “Tiene determinados riesgos que hay que conocer”, dijo, y habló, entre otras cosas, del sesgo, la falta de contextualización y la “alucinación” en las respuestas —contenidos equivocados que requieren de una recepción crítica para reconocerlos como tales—. “Muchos piensan cómo nos van a hacer trampa los chicos”, dijo, “y para mí es cómo la usamos para mejorar el aprendizaje, para que los chicos sean mejores, más creativos y aprendan mejor. Después veremos cómo los evaluamos”.

Actualmente hay dos grandes posturas a nivel educativo: hay instituciones que prohíben el uso y hay otros enfoques en los que se alienta —casi se obliga— su uso. “Esos docentes reconocen que los alumnos son mucho mejores que si no la usan”, dijo Ruani, “y, además, va a estar en toda la sociedad: no aprender a usarla es negarle una oportunidad a los chicos”.

Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)
Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)

Los límites de ChatGPT está en las sutilezas. Yacovino pidió hacer la prueba y preguntarle, por ejemplo, cuántas bananas se pueden comer en ayunas. La IA respondió que no hay un número fijo, cuando la pregunta era capciosa y la respuesta era clara: sólo una. Después de esa banana ya no hay ayuno.

“Nosotros vemos la computación como algo determinístico y esto es probabilístico”, explicó Ruani. “Todas las respuestas tienen determinada probabilidad de ser ciertas. Por eso ChatGPT aprueba un examen, pero lo hace con ocho, nunca con diez. El problema es que cuando hablamos con una computadora le empezamos a creer. Si la primera vez está bien, la segunda también, ya a la quinta no chequeás más y por ahí te dijo cualquier cosa. El problema es que cuando se equivoca, se puede equivocar por una barbaridad”.

“La AI tiene que ver más con buscar patrones en los datos y clasificarlos. Si el modelo está mal entrenado, puede tener errores”, dijo Brey, que además destacó que la tecnología no está todavía capacitada para suplir a Google. “Pero”, dijo, “esta es la punta del iceberg”.

https://www.infobae.com/educacion/2023/03/21/de-la-educacion-tradicional-a-la-educacion-con-inteligencia-artificial-como-tomar-una-postura-frente-a-chatgpt/

Comparte este contenido:

CII-OVE: 5 aplicaciones con inteligencia artificial que puedes utilizar en la educación gratis.

Luz Palomino/CII-OVE

Queremos comenzar por el concepto de lo que define la IA el cual ha cambiado con el tiempo, pero en el fondo siempre ha existido la idea de construir máquinas que sean capaces de pensar como humanos.

Después de todo, los seres humanos han demostrado ser especialmente capaces de interpretar el mundo que nos rodea y utilizar la información que recogemos para lograr el cambio.

Por lo tanto, puede pensarse que la inteligencia artificial simula la capacidad de pensamiento abstracto, creativo y deductivo, y particularmente la capacidad de aprender, utilizando la lógica digital y binaria de los ordenadores.

Expertos la definen como: 

La IA es habilidad de los ordenadores para hacer actividades que normalmente requieren inteligencia humana. – Lasse P. Rouhiainen, experto en IA y Blockchain.

El objetivo de la IA es que los ordenadores hagan la misma clase de cosas que puede hacer la mente. – Margaret A. Boden, experta en Informática y autora del libro Inteligencia Artificial.

Podemos notar que ambas definiciones coinciden en que la inteligencia artificial busca realizar procesos similares a los de un ser humano, es decir, su “mente” está diseñada para pensar con autonomía.

Pero ¿realmente la inteligencia artificial puede “pensar” como nosotros? Según los expertos, aunque existen sistemas avanzados que pueden imitar a los humanos, hasta el momento no existen máquinas que puedan razonar como nosotros, ya que nuestros procesos cognitivos son distintos.

La inteligencia Artificial en el sector educativo

El vínculo entre la IA y la educación consiste en tres ámbitos: aprender con la IA (por ejemplo, utilizando las herramientas de IA en las aulas), aprender sobre la IA (sus tecnologías y técnicas) y prepararse para la IA (por ejemplo, permitir que todos los ciudadan@s comprendan la repercusión potencial de la IA en la vida humana). La inteligencia artificial (IA) tiene la capacidad de hacer frente a algunos de los mayores desafíos que afronta, hoy en día, el ámbito de la educación, de desarrollar prácticas de enseñanza y aprendizaje innovadoras.

Te presentamos algunas aplicaciones de IA que puedes usar en la educación: 

  • Deep L

Esta herramienta traduce automáticamente textos y archivos hasta en 26 idiomas, sin perder su significado. Es intuitivo y fácil de usar y, además, es gratuito para el usuario habitual. Se puede acceder online para traducciones de hasta 5000 caracteres o integrarlo en el ordenador con la versión PRO.

El software inteligente es muy útil para redactores ya que aumenta su productividad al máximo. Tiene un glosario que permite corregir las palabras directamente en el texto de terminado, lo que resulta increíblemente cómodo y productivo.

https://www.deepl.com/es/translator/files

  • Craiyon (antes conocido como DALL-E Mini)

Esta herramienta es más conocida por su primer nombre, “DALL-E Mini”. Pero, en realidad, no está asociado con DALL-E, el sistema de IA abierto que genera imágenes realistas a partir de instrucciones de lenguaje natural (actualmente cerrado al público y con una larga lista de espera).

“DALL-E Mini” es un proyecto independiente alojado en Hugging Face y que ahora ha sido relanzado con un nuevo sitio web: Craiyon. Lo que lo hace especial es que está basado en el enfoque de imágenes a partir de texto de DALL-E, pero es de acceso abierto y gratuito.

No es ninguna sorpresa que esta herramienta haya surgido en junio de 2022 como fuente líder de memes de AI. Lo único que necesitas para empezar es abrir el sitio web y escribir un texto que se convierte en una instrucción para la IA, que examina su base de datos para evaluar la orden y “crear” un nuevo conjunto de nueve imágenes relevantes. Es la herramienta más sencilla y accesible de esta lista.

https://www.craiyon.com/#

  • Deep Dream Generator

Esta herramienta, basada en la tecnología de Google, se ha vuelto viral en varias ocasiones a lo largo de los años, gracias a su capacidad de “soñar” a partir de las imágenes que se cargan. “Soñar” es la palabra que usan los desarrolladores para describir el efecto surrealista y arremolinado que resulta cuando el modelo analiza y busca patrones en una imagen.

Actualmente, es fácil registrarse en Deep Dream Generator y empezar a editar imágenes con este efecto onírico. Obtendrás una cantidad de energía informática gratis cada hora, pero puedes suscribirte a los paquetes de pago si quieres crear más de lo que te permite el límite.

Para una transferencia de estilo neuronal básica (en la que una imagen adopta el estilo de otra), solo tienes que cargar tu imagen y elegir un estilo de su biblioteca o añadir una segunda imagen de la que imitarlo.

También puedes cargar tu imagen y seleccionar la opción deep dream para conseguir un resultado psicodélico. Cuando se genere la imagen, podrás editar cosas como la intensidad del estilo.

  •  Wombo: tiene una Inteligencia Artificial incorporada que genera dibujos en base a una frase que le escribamos.

https://dream.ai

  • Quick, draw

En español significa ‘dibujo rápido’ y es un juego creado por Google que reta a realizar un dibujo de seis objetos con el ratón en menos de 20 segundos. Este programa posee una red neuronal de 322 imágenes. Cada una de ellas tiene alrededor de 120.000 dibujos hechos por personas (reales) que han servido de entrenamiento para averiguar si mientras se dibuja el objeto pintado corresponde al solicitado.

https://quickdraw.withgoogle.com/

 

Comparte este contenido:

Mundo: OpenAI lanza nueva versión de ChatGPT para ciertas tareas

Mundo/17-03-2023/Autor: Agencia AFP/Fuente: www.elsalvador.com

La start-up californiana presentó este martes 14 de marzo la GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

La start-up californiana OpenAI, que lanzó con gran éxito a finales de 2022 la interfaz ChatGPT, capaz de generar todo tipo de textos bajo demanda, presentó este martes GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

«GPT-4 es un gran modelo multimedia, menos hábil que los humanos en muchos escenarios de la vida real, pero tan bueno como los humanos en muchos contextos profesionales y académicos», dijo la compañía en un comunicado.

«Por ejemplo, aprobó el examen para convertirse en abogado con una puntuación tan buena como el 10% superior. La versión anterior, GPT 3.5, estaba al nivel del 10% de los menos buenos», agregó.

OpenAI, que ha recibido miles de millones de dólares de Microsoft, se ha consolidado así como líder en IA generativa con sus modelos de generación de texto, pero también de imágenes, con su programa DALL-E.

Su jefe, Sam Altman, explicó recientemente que ahora está trabajando en la llamada inteligencia artificial «general», es decir, programas con capacidades cognitivas humanas.

«Nuestra misión es garantizar que la IA general, los sistemas de IA más inteligentes que los humanos en general, beneficien a toda la humanidad», dijo en el blog de la compañía el 24 de febrero.

Las capacidades multimedia son un paso en esa dirección.

ChatGPT de Open AI Foto de referencia / Archivo AFP
Foto de referencia / Archivo AFP

A diferencia de las versiones anteriores, GPT-4 está dotado de visión: puede procesar texto pero también imágenes. Sin embargo, solo genera texto.

OpenAI también señala que, a pesar de sus capacidades, GPT-4 tiene «limitaciones similares» a sus predecesores. «Todavía no es completamente confiable (inventa hechos y comete errores de razonamiento)».

La compañía anunció que ha contratado a más de 50 expertos para evaluar los nuevos peligros que podrían surgir, por ejemplo para la ciberseguridad, además de los ya conocidos (generación de consejos peligrosos, código informático defectuoso, información falsa, etc.).

Fuente e Imagen: https://www.elsalvador.com/entretenimiento/tecnologia/tecnologia-openai-lanza-nueva-version-de-chatgpt/1046872/2023/

Comparte este contenido:

La alarmante visión de Noam Chomsky sobre la Inteligencia Artificial de ChatGPT

Por: Alexis Paiva Mack

 

El reconocido lingüista y filósofo escribió un artículo junto a dos especialistas, en el que compartió su visión sobre los avances que se han presentado en el campo de la inteligencia artificial. Acá, los motivos de por qué Noam Chomsky mira con escepticismo la tecnología de programas como ChatGPT, entre otros.

Para los interesados en el ámbito de la tecnología, aplicaciones de inteligencia artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de OpenAI, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

.

Computador. Foto referencial: CU.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja —al menos ahora— a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

Noam Chomsky: su alarmante visión sobre la Inteligencia Artificial de ChatGPT

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.

“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.

Noam Chomsky. Foto: Uli Deck / AP.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (…) sino crear explicaciones”.

La “capacidad crítica” de los programas que funcionan con IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

“Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

“Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: ‘La manzana cae’. Eso es una descripción. Una predicción podría haber sido la afirmación: ‘caerá si abro la mano’. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como ‘cualquier objeto de este tipo caería’, más la cláusula adicional ‘debido a la fuerza de la gravedad’ o ‘debido a la curvatura del espacio-tiempo’”.

De esta manera, añadieron que “eso es una explicación causal: ‘la manzana no habría caído de no ser por la fuerza de la gravedad’ (…) eso es pensar”.

Ilustración de Isaac Newton. Foto referencial: Mary Evans Picture Library.

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

“ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La perspectiva moral desde la Inteligencia Artificial

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

Robot. Foto referencial: Yo, robot (película).

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

Fuente de la información e imagen: https://www.latercera.com

Comparte este contenido:
Page 7 of 47
1 5 6 7 8 9 47