Page 2 of 4
1 2 3 4

La Inteligencia artificial y el Chat GPT: ¿Pueden cambiar las reglas del juego?

POR: MICHAEL ROBERTS

La gran contradicción del capitalismo es que al aumentar la productividad del trabajo a través de más máquinas (Inteligencia Artificial por ejemplo) se reduce la rentabilidad del capital. Esto conduce a crisis regulares y recurrentes de producción, inversión y empleo, de intensidad y duración crecientes.

Chat GPT se promueve como una revolución en la «inteligencia artificial» (IA) y ha conquistado el mundo de los medios y la tecnología desde su lanzamiento a fines de 2022.

Según OpenAI , ChatGPT es «una inteligencia artificial entrenada para ayudar en una variedad de tareas». Más específicamente, es un modelo de lenguaje (LLM) diseñado para producir texto similar al humano y conversar con personas, de ahí el «Chat» en ChatGPT.

El termino GPT significa algo así como “Generador Transformador Pre-entrenado”. Los modelos GPT son entrenados previamente por desarrolladores humanos y luego aprender por sí mismos y generan cantidades cada vez mayores de conocimiento, entregando ese conocimiento de una manera aceptable para los humanos a través de un chat .

En la práctica, esto significa que cuando se hace una consulta o solicitud – introduciéndola en un cuadro de texto del chat- la Inteligencia Artificial (IA) procesa esta solicitud y responde en función de la información que tiene disponible. Puede hacer muchas tareas, desde mantener una conversación hasta escribir un examen completo; desde hacer un logotipo de marca hasta componer música. Mucho más que un simple motor de búsqueda tipo Google o Wikipedia, se afirma.

Los desarrolladores humanos están trabajando para aumentar la «inteligencia» de los GPT. La versión actual de GPT es 3.5 y la 4.0 saldrá a finales de este año. Y se rumorea que ChatGPT-5 podría lograr ‘inteligencia general artificial’ (AGI). Esto significa que podría pasar la prueba de Turing, que es una prueba que determina si una computadora puede comunicarse de una manera que no se puede distinguir de un ser humano.

¿Serán las LLM un cambio de juego para el capitalismo en esta década? ¿Podrán estas máquinas de autoaprendizaje aumentar la productividad del trabajo a un ritmo sin precedentes y así sacar a las principales economías de su actual ‘larga depresión’ de bajo PIB real, baja inversión, poco crecimiento de los ingresos para salir de la pobreza? Esta es lo que afirman algunos de ‘tecno-optimistas’ que dominan los medios de comunicación.

Tratemos de responder a estas interrogantes.

Primero, ¿qué tan buenas y precisas son las versiones actuales de Chat GPT? Bueno, no mucho, todavía. Hay muchos «hechos» sobre el mundo en los que los humanos no están de acuerdo. Una búsqueda regular permite comparar esas versiones y considerar sus fuentes. En cambio, un modelo de lenguaje podría intentar calcular algún tipo de promedio de cada opinión en la que se ha entrenado, que a veces es lo que se desea, pero generalmente no es lo que necesitamos.

Chat GPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Aquí hay algunos ejemplos.

Le pregunté a Chat GPT 3.5: ¿quién es el economista marxista Michael Roberts? Esta fue la respuesta.

Esto es mayormente correcto, pero también está mal en algunas cuestiones (no diré cuáles).

Luego le pedí que revisara mi libro, The Long Depression. Esto es lo que dijo:

Su respuesta es una reseña o sinopsis muy ‘general’ de mi libro, pero omite el núcleo de la tesis del libro: el papel de la rentabilidad en las crisis del capitalismo. Por qué, no lo sé.

Así que hice esta pregunta sobre la ley de rentabilidad de Marx:

Nuevamente, esto es correcto en términos generales, pero solo en términos generales. La respuesta realmente no permite la comprensión de la ley. De hecho, no es mejor que la Wikipedia. Por supuesto, puede profundizar más para obtener respuestas más detalladas. Pero esto requiere un largo camino por recorrer antes que sea capaz de reemplazar la investigación y el análisis humano.

Luego está la cuestión de la productividad del trabajo y los puestos de trabajo. Los economistas de Goldman Sachs estiman que si la tecnología cumpliera su promesa, traería una «perturbación significativa» al mercado laboral, exponiendo a 300 millones de trabajadores a la automatización en las principales economías capitalistas. Los abogados y el personal administrativo estarían entre los que corren mayor riesgo de volverse redundantes (y probablemente los economistas). Calculan que aproximadamente dos tercios de los trabajos Estados Unidos  y Europa están expuestos a algún grado de automatización por la IA, según los datos sobre las tareas que normalmente realizan miles de trabajadores.

La mayoría de las personas verían automatizada casi la mitad de su carga de trabajo y probablemente continuarían en sus puesto, con una parte de tiempo libre para actividades más productivas.

Los economistas de Goldman Sachs calculan que en EE. UU., la IA se aplicaría al 63% de la fuerza laboral. Un 30 % adicional que trabaja en trabajos físicos o al aire libre no se vería afectado, aunque su trabajo podría ser susceptible a otras formas de automatización.

Concluyeron: “Nuestros hallazgos revelan que con la introducción de las LLM alrededor del 80 % de la fuerza laboral de los EE. UU. podría verse afectada un 10 % de sus tareas laborales, mientras que un 19 % vería afectado su trabajo en un 50 % …”

Con el acceso a un LLM, del 15 % de los trabajadores en los EE. UU. se podría completar las tareas significativamente más rápido y con el mismo nivel de calidad. Al incorporar software y herramientas construidos sobre LLM, la IA aumentaría su participación en las tareas de los trabajadores entre 47-56%.

Alrededor del 7 % de los trabajadores estadounidenses tienen trabajos en los que al menos la mitad de sus tareas podrían realizarse mediante la Inteligencia Artificial  y son vulnerables al reemplazo. A nivel mundial, dado que los trabajos manuales representan una mayor parte del empleo en el mundo en desarrollo, Goldman Sachs estima que la IA podría realizar alrededor de una quinta parte del trabajo, o, dicho de otra manera afectaría a 300 millones de puestos de trabajo a tiempo completo en las grandes economías.

Estas previsiones de pérdida de empleo no son nada nuevo.   En publicaciones anteriores , describí varios pronósticos sobre la cantidad de trabajos que se perderán debido a los robots y la IA durante la próxima década. Parece ser enorme; y no solo en el trabajo manual en las fábricas sino también en el llamado trabajo de cuello blanco.

Está en la esencia de la acumulación capitalista que los trabajadores se enfrentarán continuamente a la pérdida de su trabajo por la inversión capitalista en máquinas. La sustitución del trabajo humano por máquinas comenzó a principios de la Revolución Industrial Británica en la industria textil, y la automatización desempeñó un papel importante en la industrialización estadounidense durante el siglo XIX. La rápida mecanización de la agricultura a partir de mediados del siglo XIX es otro ejemplo de automatización.

Como explicó Engels en “La condición de la clase obrera en Inglaterra” (1844) la mecanización no solo eliminó puestos de trabajo, a menudo también creó nuevos puestos de trabajo en nuevos sectores. Y Marx en la década de 1850 en los Grundrisse definió el proceso de esta manera:

“Los hechos reales, que son disfrazados por el optimismo de los economistas, son estos: los trabajadores, cuando son expulsados ​​del taller por la maquinaria, son arrojados al mercado de trabajo. Su presencia en el mercado de trabajo aumenta el número de fuerzas de trabajo que están a disposición de la explotación capitalista… el efecto de la maquinaria, que ha sido representado como una compensación para la clase obrera, es, por el contrario, un flagelo espantoso . …. Tan pronto como la maquinaria ha liberado una parte de los trabajadores empleados en una determinada rama de la industria, los trabajadores de reserva también son desviados hacia nuevos canales de empleo y son absorbidos por otras ramas; mientras tanto, las víctimas originales, durante el período de transición, en su mayor parte pasan hambre y perecen.” . La importancia de esta párrafo es que anticipa que la automatización significa más empleos precarios y una creciente desigualdad.

Hasta ahora, la mecanización todavía ha requerido mano de obra humana para iniciarla y mantenerla. Pero, ¿ahora nos estamos moviendo hacia la toma de control de todas las tareas (especialmente aquellas que requieren complejidad e ideas) con las llamadas LLM? ¿Significará esto un aumento dramático en la productividad del trabajo de tal manera que el capitalismo tenga una oportunidad de sobrevivir?

Si las LLM pueden reemplazar el trabajo humano y, por lo tanto, aumentar drásticamente la tasa de plusvalía, pero sin un fuerte aumento en los costos de inversión de la maquinaria física (lo que Marx llamó una composición orgánica creciente del capital), entonces tal vez la rentabilidad promedio del capital no retroceda de sus limites actuales.

Goldman Sachs afirma que los sistemas de IA «generativos» como Chat GPT podrían provocar un auge de la productividad que eventualmente aumentaría el PIB mundial anual en un 7% durante una década. Si la inversión corporativa en IA siguiera creciendo a un ritmo similar al de la década de 1990, la inversión en IA de EE. UU. por sí sola podría acercarse al 1 % del PIB estadounidense para 2030.

No entraré en cómo GS obtiene estos resultados, porque estos deducciones son solo  conjeturas. Pero, incluso si aceptamos estos resultados, ¿son un salto tan exponencial?

Según las últimas previsiones del Banco Mundial, el crecimiento global disminuirá en aproximadamente un tercio de la tasa que prevaleció en la primera década de este siglo, a solo un 2,2% anual. Y el FMI sitúa la tasa de crecimiento promedio en un 3% anual durante el resto de esta década.

Si añadimos el pronóstico de Goldman Sachs acerca del impacto de las LLM, obtenemos alrededor de 3.0-3.5% al ​​año para el crecimiento del PIB real mundial, sin tener en cuenta el crecimiento de la población. En otras palabras, el impacto probable no sería mejor que el promedio visto desde la década de 1990. Eso nos recuerda las famosas palabras del economista Robert Solow en 1987: “la era de las computadoras estaba en todas partes excepto en las estadísticas de productividad”.

El economista estadounidense Daren Acemoglu agrega que no todas las tecnologías de automatización aumentan la productividad del trabajo. Esto se debe a que las empresas introducen principalmente la automatización en áreas que pueden aumentar la rentabilidad, como el marketing, la contabilidad o la tecnología de combustibles fósiles, pero no aumentan la productividad de la economía en su conjunto ni satisfacen las necesidades sociales.

Las Big Tech tiene un enfoque particular de los negocios y sus tecnologías se centran en el uso de algoritmos para reemplazar a los humanos. No es casualidad que empresas como Google estén empleando menos de una décima parte de la cantidad de trabajadores que solían tener grandes empresas, como General Motors, en el pasado. Esto es consecuencia del modelo de negocio de las Big Tech, que no se basa en crear puestos de trabajo sino en automatizarlos.

Este es el modelo de negocio para la IA bajo el capitalismo. Pero otra cosa seria con medios de producción automatizados de propiedad común, hay muchas aplicaciones de IA que, podrían aumentar las capacidades humanas y crear nuevas actividades en educación, atención médica  y en la fabricación.

Acemoglu propone: “en lugar de utilizar la IA para ayudar con las tareas y  sustituir  los profesores por algoritmos , deberíamos invertir el uso de la IA para desarrollar métodos de enseñanza más individualizados y centrados en el estudiante que estén calibrados para las fortalezas y debilidades específicas de diferentes grupos de alumnos. Dichas tecnologías darían lugar a la contratación de más docentes con nuevas habilidades, yendo así exactamente en la dirección de crear nuevos puestos de trabajo centrados en nuevas tareas”.

Y en lugar de reducir los empleos y los medios de subsistencia de los humanos, la IA bajo propiedad y planificación comunes podría reducir las horas de trabajo humano para todos.

Y luego está la cuestión del aumento de la rentabilidad proporcionado por la tecnología de IA: si la inversión LLM requiere menos medios físicos de producción y reduce los costos de capital, la pérdida de fuerza de trabajo humana podría ser aún mayor. Entonces, la ley de la rentabilidad de Marx aún se aplicaría. Es la gran contradicción del capitalismo que al aumentar la productividad del trabajo a través de más máquinas (IA) reduce la rentabilidad del capital. Esto conduce a crisis regulares y recurrentes de producción, inversión y empleo, de intensidad y duración crecientes.

Finalmente, está la cuestión de la inteligencia. Microsoft argumenta que la inteligencia es una «capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de forma abstracta, comprender ideas complejas, ilustrarse rápidamente y aprender de la experiencia». Microsoft insinúa que las LLM pronto podrían obtener esta «inteligencia generalizada» y superar la capacidad humana de pensar.

Pero también aquí, hay mucho escepticismo para los ingenieros de Microsoft. “El modelo Chat GPT es ingente, pero no lo suficientemente grande como para retener todos los datos exactos que encuentra en su conjunto de entrenamiento. Puede producir una respuesta convincente a cualquier cosa, pero eso no significa que esté reflejando hechos reales en sus respuestas. Siempre hay que mantenerse escéptico y verificar lo que dice. Los modelos de lenguaje también son famosos por «alucinar», por inventar nuevos hechos que se ajustan a la estructura de la oración a pesar de no tener ninguna base en los datos subyacentes.   Esto claramente no es muy alentador.

Guglielmo Carchedi nos da una razón fundamental para negar que la IA pueda reemplazar a la ‘inteligencia’ humana: “las máquinas se comportan según las reglas de la lógica formal. A diferencia de los humanos, las máquinas son estructuralmente incapaces de comportarse de acuerdo con las reglas del pensamiento dialéctico. Solo los humanos hacen eso” El capitalismo en el siglo XXI , p167).

Aquí está la respuesta de Chat GPT a una pregunta sobre la dialéctica:

¿Puede A ser igual a A y al mismo tiempo ser diferente de A? “No, no es posible que A sea igual a A y al mismo tiempo sea diferente de A. Esto sería una contradicción en los términos, ya que la afirmación “A es igual a A” es una tautología y siempre verdadera, mientras que la afirmación “A es diferente de A” es una contradicción y siempre falsa. Por lo tanto, estas dos afirmaciones no pueden ser ambas verdaderas al mismo tiempo”.

Las máquinas no pueden pensar en cambios potenciales y cualitativos. El nuevo conocimiento proviene de la capacidad de innovaciones (humanas), no de la extensión del conocimiento existente (máquinas). Solo la inteligencia humana es social y puede ver el potencial de cambio, en particular el cambio social, que conduce a una vida mejor para la humanidad y la naturaleza.

Fuente de la información e imagen: https://observatoriocrisis.com

Comparte este contenido:

Más allá del plagio: las otras grandes amenazas de las IA generativas

Por:  Karina Fuerte

Olvídate del plagio, conoce otras amenazas del uso de ChatGPT y otras IA generativas que son mucho más significativas y tendrán un impacto en el futuro de la educación.

Esta semana leí dos reflexiones muy interesantes sobre el uso de ChatGPT y otras inteligencias artificiales (IA) generativas en el aula. La primera es de Hong Yang, publicada en Nature. En este artículo, Yang explica por qué decidió empezar a usar las IA generativas y los grandes modelos de lenguaje (LLM por sus siglas en inglés) en sus clases y explica por qué las universidades deben incluirlas en sus programas de estudio. “Mis estudiantes pronto se graduarán y empezarán a trabajar, y sus empleadores podrían pedirles que trabajen con modelos de inteligencia artificial. Si no saben cómo usarlos correctamente, podría frenarlos. No podemos evitar que los estudiantes usen calculadoras o Internet, y no podremos evitar que usen ChatGPT. Es mejor entender la herramienta y tratar de integrarla en la enseñanza”, escribe Yang, profesor de ciencias ambientales y copresidente de la red Black, Asian and Minority Ethnic de la Universidad de Reading, Reino Unido.

La segunda lectura, escrita por Collin Bjork y publicada en The Conversation, exhorta a las escuelas y universidades a no entrar en pánico por la llegada de las AI generativas, particularmente en el ámbito del plagio académico, en su lugar, nos invita a pensar en otras amenazas mucho más significativas que pueden afectar otros temas como la equidad en la educación. “En lugar de preocuparse demasiado por el plagio, los educadores se beneficiarían de prepararse para otras desigualdades de la IA, las cuales se muestran en la última versión de OpenAI: GPT-4”, advierte Bjork, profesor titular en la Universidad de Massey.

Ambos artículos tocan puntos muy importantes, aunque con enfoques diferentes. Por un lado, Yang se centra en el porqué es esencial cambiar los métodos de evaluación tradicionales de manera que los estudiantes (y los docentes) aprendan a usar estas herramientas como apoyo para sus proyectos. En su caso, pidió a los estudiantes que además de escribir ensayos, den una presentación oral de 10 minutos para compartir sus hallazgos. “Este enfoque no solo reduce las posibilidades de plagio, sino que también hace que el proceso de evaluación sea más interactivo y atractivo”, señala el profesor.

Por su parte, Collin Bjork explica que la cuarta versión de ChatGPT, aunque es más segura y precisa, ahora tiene un costo de US$20 al mes. Si bien este puede ser un precio insignificante para muchas personas (sobre todo por lo que puede ofrecer), para muchas otras personas pagar veinte dólares al mes solo para usar esta herramienta es impensable. Abriendo así una brecha digital significativa que apenas está iniciando, pues con el tiempo esta brecha podría ampliarse cada vez más. “Esta brecha digital coloca a los estudiantes y las instituciones educativas en dos bandos. Aquellos con suficientes recursos para disfrutar de los beneficios de las herramientas de IA. Y aquellos sin la misma flexibilidad financiera que se quedan atrás”, señala Bjork.

Ambos autores coinciden en que las IA generativas pueden tener un impacto negativo en áreas como la diversidad y la inclusión de las instituciones educativas. Yang da el ejemplo de cómo pidió a ChatGPT que le diera una lista de libros sobre cambio climático y sus autores, especificándole a la IA que la lista de libros se la diera «independientemente de la raza y el idioma». El resultado fue decepcionante, pues todas las lecturas recomendadas de ChatGPT habían sido escritas en inglés, “nueve de los diez autores eran blancos y nueve de los diez autores eran hombres”, señaló Yang por lo que advierte a los lectores que “el uso de información de libros y sitios web antiguos para capacitar a los LLM puede conducir a representaciones sesgadas e inexactas de las perspectivas de las personas en comunidades marginadas, al tiempo que amplifica las voces de quienes están en posiciones de poder”.

En la misma línea, Collin Bjork advierte que las IA pueden perpetuar el dominio global del inglés a expensas de otros idiomas, “especialmente los idiomas orales e indígenas”. Este es un tema al que como comunidad educativa debemos prestar mucha atención ahora y en los próximos años, ya que los grandes modelos de lenguaje (LLM) aprenden de conjuntos de datos en línea con poco contenido indígena y una cantidad abrumadora de contenido en inglés. “Estas amenazas son importantes porque las herramientas de inteligencia artificial pronto se incorporarán a Microsoft Office, los motores de búsqueda y otras plataformas de aprendizaje”, advierte Bjork.

Ambas reflexiones me parecieron muy interesantes y refrescantes, ya que no se concentraban en el plagio como única amenaza y punto crítico del uso de inteligencias artificiales generativas como ChatGPT. En lo personal, me preocupa que el uso de estas herramientas perpetúe el statu quo y el dominio de los grupos de poder, minimizando todavía más las voces de las minorías y de los grupos históricamente oprimidos.

Me gustaría conocer su punto de vista sobre estas problemáticas. ¿Habías pensado en estas otras amenazas de las IA? Más allá del plagio, ¿qué otras desventajas destacas del uso de estas herramientas?

Por último, si quieres continuar con la conversación sobre este tema, te invito a unirte al Diálogo: “El impacto del ChatGPT y las IA generativas en la educación superior”, que se llevará a cabo este martes 18 de abril a las 9:00 a.m., hora central de México (GMT-6) a través de Facebook Live. En esta edición de Diálogos, expertos del Tec de Monterrey, la Universitat Oberta de Catalunya (UOC) y la Pontificia Universidad Católica del Perú (PUCP) hablarán sobre los aspectos positivos y los retos que conlleva la utilización estas herramientas.

Hasta la próxima semana.

Karina Fuerte
*Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

El potencial de ChatGPT para transformar la educación positivamente

Por Rubí Román

Conoce algunas herramientas y soluciones de inteligencia artificial que puedes explorar e integrar en tu clase, así como la relevancia de la ética en el uso de la inteligencia artificial dentro de la academia.

En este artículo encontrarás un resumen del webinar con herramientas y soluciones de inteligencia artificial que puedes explorar e integrar en tu clase. También encontrarás los consejos e ideas más relevantes que nos compartieron las docentes Reyna y Selene en esta sesión. Si no tuviste oportunidad de asistir en vivo al webinar, puedes consultar la grabación y compartirla con tus colegas. Te adelanto que contiene mucha información para reflexionar sobre las prácticas docentes actuales que sin duda se transforman y evolucionan más rápido de lo que pensamos.

“La misión de una inteligencia artificial siempre debe ser para engrandecer al ser humano, para acompañarlo y hacer más agradable las labores que realiza de manera cotidiana”. – Reyna Martínez.

Ante el surgimiento de herramientas con inteligencia artificial como fue el lanzamiento de ChatGPT a finales del año 2022, las reacciones han sido muy diversas, algunas de ellas de sorpresa, euforia, incredulidad, miedo o incluso de prohibición en algunas instituciones educativas. Sin embargo, la profesora Martínez nos compartió que en el campo de la educación nos sorprenderemos aún más, al saber que las tecnologías con inteligencia artificial pueden convertirse en nuestras mejores aliadas para la labor docente proporcionándonos una creatividad asistida. De tal manera que podemos utilizar mejor nuestro tiempo de creación de contenido de una manera más efectiva para generar experiencias de aprendizaje más personalizadas y efectivas.

La ética en el uso de la inteligencia artificial para la educación

En esta sesión, nuestras exponentes nos compartieron que docentes y líderes académicos necesitan dialogar y debatir sobre cómo utilizar plataformas de inteligencia artificial en la academia, con el fin de generar acuerdos y estrategias más convenientes para la educación. También, se deben revisar los reglamentos actuales en las instituciones educativas que hablen sobre la integridad académica para que, de ser necesario, lleguen a una nueva definición de plagio y a una nueva definición de copia. Asimismo, mencionaron que debemos hacer una revaloración del proceso en enseñanza-aprendizaje. De acuerdo con la profesora Martínez se debe trabajar en una educación basada en competencias y en una evaluación basada en competencias, pero haciendo énfasis en el proceso más que en el resultado.

La ética en el uso de la inteligencia artificial es otro punto muy relevante que como docentes debemos fomentar y generar el diálogo con nuestros estudiantes. En este sentido, es importante recordarles a los estudiantes lo siguiente:

  • Las soluciones de inteligencia artificial son solo herramientas para su aprendizaje.
  • Este tipo de herramientas no son con el fin de hacer sus tareas, de ser así sus competencias se verían afectadas y comprometidas.
  • Conocer el uso correcto de la inteligencia artificial dentro y fuera de la clase.
  • Utilizar la inteligencia artificial a favor de los demás y no en contra, sobre todo aplicando siempre un pensamiento crítico.
  • Que sepan que este tipo de soluciones puede ser su asistente educativo personal utilizándolo correctamente.
  • Iniciar cuanto antes los debates éticos sobre la inteligencia artificial.

En el año 2021, la UNESCO publicó un documento donde plantean siete ejes éticos y de responsabilidad social para guiar el desarrollo e implementación de la IA. La profesora Martinez nos invitó en el webinar a leer este documento para estar más informados y preparados. También exhortó a que en las instituciones educativas se aborde el tema del valor de la ética en el uso de la inteligencia artificial.

  1. La universidad
  2. La justicia y la equidad
  3. La transparencia
  4. La inclusión
  5. La responsabilidad
  6. La privacidad y la seguridad
  7. La corporación internacional

Las herramientas con inteligencia artificial seguirán evolucionando y debemos conocerlas y adaptarlas para mejorar nuestra enseñanza, fortalecer el pensamiento crítico en nuestros estudiantes y fortalecer los valores éticos en el aprendizaje de nuestros estudiantes.

“Como docentes debemos saber cómo generar los mejores prompts para lo que hacemos en nuestras clases y enseñar a nuestros estudiantes a dar buenas indicaciones a la inteligencia artificial”. – Reyna Martínez.

Herramientas basadas en Inteligencia artificial para el aprendizaje

El ChatGPT de la empresa Open AI no es la única herramienta basada en inteligencia artificial. Existen otras empresas que también trabajan en el desarrollo de soluciones con IA.

  • Microsoft (Bing/Chat)
  • Open AI (ChatGPT/Dall-E)
  • Google (Chrome/Bard)
  • Comunidad Open Source LAION
  • Amazon (Amazon AI)
  • IBM (IBM Watson)
  • Meta (LlaMA)
  • Baidu (Baidu Research AI Group)
  • Alibaba (Alibaba DAMO Academy)
  • Intel (Intel AI)
  • NVIDIA (NVIDIA Deep Learning AI)

Las inteligencias artificiales trabajan a partir de una instrucción de texto llamada Prompt. Incluso ya se habla sobre la importancia de diseñar una carrera de ingeniería en indicaciones (Prompt Engineering). Como docentes debemos conocer cómo generar los mejores prompts para lo que hacemos en nuestras clases y enseñar a nuestros estudiantes a dar buenas indicaciones a la inteligencia artificial. A continuación, se presentan algunos programas o soluciones basadas en inteligencia artificial que nos pueden ayudar para las actividades de la clase.

  • Texto: ChatGPT, Jaspe, Article Forge, Anyword
  • Imágenes: Stable Diffusion, Mid Journey, DALL-E, Starryai, Simplified
  • Voz: Synthesys, Speechelo, Murf, LOvo, Synthe susa
  • Video: Pictory, In Video, Lumen5
  • Juegos: Unity, Unreal Engine, GameMaker

Las inteligencias artificiales ya forman parte de nuestras vidas y nosotros las debemos moldear de forma positiva para la educación y nuestra vida diaria. La rápida evolución de la IA nos exige una reacción rápida y asertiva en el área educativa.

Revive este webinar. Si tu idioma nativo no es el español puedes activar la traducción instantánea subtitulada de YouTube incluida en este artículo. Para activar esta opción selecciona en YouTube la opción Subtítulos (aparecerán los subtítulos en español) posteriormente selecciona la opción Configuración ->Subtítulos -> Traducir automáticamente y selecciona el idioma que prefieras.

Webinar Observatorio del Instituto para el Futuro de la Educación del Tec de Monterrey.
Comparte este contenido:

La inteligencia artificial en la encrucijada: qué hay detrás del ruido sobre ChatGPT

Por: Pablo Jiménez Arandia

La popularización y el hype en torno al software generador de textos ha llevado los riesgos de la IA al debate público. Voces expertas reclaman que su desarrollo se aleje de una vez por todas del afán de lucro.

“Creemos que la inteligencia artificial prácticamente no tiene límites cuando de hecho es extremadamente limitada”. Ramón López de Mántaras describe así en un artículo reciente qué podemos esperar de una tecnología que desde hace semanas está en boca de todos. De Mántaras no es precisamente un cualquiera: el científico catalán, profesor del CSIC, investiga este campo desde la década de 1970 y ha sido premiado por asociaciones de investigadores en todo el mundo. “Y lo que es muy importante: [la IA] no tiene nada que ver con la inteligencia humana”.

En noviembre pasado la compañía estadounidense OpenAI lanzó la última versión de ChatGPT, un software de generación de textos al que cualquiera puede acceder sin coste aparente —los usuarios sí han de ceder a la empresa datos como su edad o teléfono móvil, además de la información ofrecida durante la conversación—. A partir de la pregunta o indicación adecuadas, la herramienta es capaz de devolver un texto generalmente bien escrito y coherente. Aunque si la charla se complica es fácil que el programa caiga en errores en sus respuestas.

La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos?
Desde su lanzamiento los usuarios mundiales de este programa se han disparado. También los titulares en los medios de comunicación especulando sobre las supuestas capacidades de este producto para replicar la inteligencia y creatividad humanas. Algunas empresas incluso han justificado despidos bajo el argumento de que esta rama de la IA puede ya llevar a cabo tareas hasta ahora hechas por trabajadores de carne y hueso.

Las grandes tecnológicas de Silicon Valley están tirando del carro de esta perfecta campaña de marketing. Microsoft, tras inyectar 10.000 millones de dólares en OpenAI, ya ha anunciado que integrará ChatGPT en su buscador Bing. Mientras que Google hará lo mismo con Bard, su propio chatbot generativo. Su objetivo, según han declarado, es ir incorporando versiones de esta tecnología a otros de sus servicios, desde el correo electrónico a los procesadores de texto que diariamente usan millones de personas en todo el mundo.

Los riesgos de los “loros estocásticos”
La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos?

Citando al filósofo de la ciencia Daniel Dennet, De Mántaras explica que lo que ChatGPT y otras herramientas similares tienen “no es inteligencia sino habilidades sin comprensión”. Estas habilidades se podrían comparar por ejemplo con el montaje de un tren de juguete en el que hay que acertar la posición en la que va cada vagón del tren que queremos ensamblar.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase. Pero carecen de referencia alguna sobre el significado de cada una.

Son por tanto sistemas —en palabras de De Mántaras— “muy hábiles llevando a cabo tareas concretas” pero que no comprenden nada sobre la naturaleza de estas tareas, “debido a la ausencia de conocimientos generales sobre el mundo”. Esta habilidad para encadenar palabras se construye a partir de patrones detectados en la ingente cantidad de información con la que estos programas han sido entrenados.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase
En 2021 varias investigadoras publicaron un artículo sobre los peligros de estos modelos de lenguaje, a los que bautizaron como “loros estocásticos”. O lo que es lo mismo, máquinas capaces de repetir aquello que han observado muchas veces, pero sin atender a su veracidad.

En el texto las autoras, entre otras recomendaciones, exigían un mayor cuidado al trabajar las bases de datos con las que estos algoritmos se construyen y no volcar en ellos toda la información presente en Internet —precisamente lo que hace ChatGPT—. O realizar pruebas controladas de los sistemas antes de abrirlos al público, para asegurarse de que su uso no infringe daños o va en contra de los valores éticos de quien lo impulsa.

En las últimas semanas, al mismo tiempo que la IA generativa ganaba terreno en las conversaciones en el ascensor, el trabajo o el bar, se ha sucedido también un goteo de historias inquietantes en torno a la utilización de estos programas.

En EE UU, un profesor universitario explicó a comienzos de abril a The Washington Post cómo se sintió después de que ChatGPT le acusara de haber abusado de un alumno en un viaje de estudios. Algo que, en el mundo real, nunca ocurrió. El programa incluso usó como fuente de su acusación un artículo del citado medio. Un artículo, de nuevo, que nunca ha existido. “Fue bastante escalofriante”, aseguró el docente. “Una acusación de este tipo es increíblemente dañina”.

Su capacidad para vestir como cierta información engañosa o directamente falsa no es la única preocupación en torno a estas tecnologías. También lo es el impacto que su uso pueda tener en contextos determinados o frente a personas vulnerables. En Bélgica, un ciudadano se quitó la vida después de mantener largas conversaciones con un bot de IA que le envió mensajes confusos.

El argumento habitual de las tecnológicas creadoras de estos productos es que estamos todavía ante modelos en fase de desarrollo, cuya precisión y fiabilidad irá mejorando con su uso. Pero cada vez más voces piden que en ese mientras tanto los gobiernos fijen límites o directamente prohíban su uso.

Italia ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuario
Este último paso es el que ha tomado la agencia italiana de protección de datos. El país transalpino ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuarios —y que sirven para su entrenamiento— se ajusta a la ley europea.

Entre otros argumentos el regulador alega que la información suministrada por la aplicación no siempre es verídica —lo que ”da lugar a un tratamiento inexacto de los datos personales”— y critica que no haya un control real de la edad de los usuarios que la utilizan, abriendo la puerta a “la exposición de los menores a respuestas totalmente inadecuadas con respecto a su nivel de desarrollo y autoconocimiento”. A pesar de que OpenAI desaconseja su uso entre menores de 13 años, cualquiera puede acceder a la aplicación.

España podría seguir los pasos de Italia en las próximas semanas. La agencia española de protección de datos (AEPD) ha pedido a la Unión Europea que evalúe las implicaciones de ChatGPT en la privacidad de los usuarios. La AEPD entiende que las operaciones de procesamiento global que “pueden tener un impacto significativo en los derechos de las personas y requieren decisiones coordinadas a nivel europeo”, señaló un portavoz de la agencia.

¿Qué camino seguir?
El debate sobre cómo aplacar los riesgos de la IA no es nuevo. Desde hace años investigadores, activistas y comunidades afectadas por estas tecnologías alertan sobre sus peligros. Estos no se reducen a los errores o imprecisiones que el software pueda cometer, sino que incluyen cuestiones relacionadas con las decisiones humanas detrás de su diseño y quién toma éstas —casi siempre grandes corporaciones occidentales en busca del máximo lucro—.

Los efectos negativos de la IA han sido ampliamente documentados. Y van desde el deterioro de los derechos laborales de trabajadores en todo el mundo a la datificación de los sistemas de control en las fronteras que castigan a la población migrante. Los gobiernos también usan herramientas de este tipo para castigar a las capas sociales más pobres y policías y empresas insisten en utilizar el reconocimiento facial, una técnica poco precisa que discrimina a las personas por su origen étnico.

A finales de marzo la controvertida organización Future of Life Institute publicó una carta abierta reclamando una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4”, la última versión del popular algoritmo. La misiva, que ya lleva cerca de 20.000 adhesiones, incluyó la firma de un variado grupo de personalidades. Entre ellas la del segundo hombre más rico del mundo, Elon Musk, uno de los fundadores e inversores de OpenAI. De Mántaras, además de otros muchos investigadores de prestigio, también figura en la lista.

Los firmantes reclaman un desarrollo seguro de estas herramientas y que no se abran al público hasta garantizar que sus efectos serán positivos para la ciudadanía global. Y advierten de la “carrera sin control” en la que han entrado los grandes laboratorios de IA para crear “poderosas mentes digitales que nadie —ni siquiera sus creadores— puede entender, predecir o controlar de forma fiable”.

La carta en cuestión ha sido ampliamente recogida en medios de comunicación de todo el mundo. Pero también ha recibido matizaciones y críticas desde algunas de las voces que más tiempo llevan remando a favor de un desarrollo ético de la IA.

The Distributed Artificial Intelligence Instiute (DAIR), fundado por la investigadora Timnit Gebru —ex miembro del equipo ético de Google, de donde fue despedida por sus denuncias contra la discriminación de la compañía, y una de las autoras del artículo sobre los “loros estocásticos”—, ha respondido criticando que la carta alimenta “el alarmismo y el hype” en torno a estas herramientas y deja de lado los “daños reales” que el despliegue de estos sistemas ya infringe en la actualidad.

Desde diversos sectores atribuyen a estos chats conversacionales una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan
Para Gebru y el resto de autoras el lenguaje utilizado en la carta “infla las capacidades de los sistemas automatizados y los antropormofiza”, engañando a la gente “haciéndole creer que hay un ser sensible” detrás de estos modelos. Esto “induce a confiar acríticamente en los resultados de sistemas como ChatGPT” y les atribuye una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan.

“La actual carrera hacia ‘experimentos de IA’ cada vez más potentes no es un camino preestablecido en el que nuestra única elección es la velocidad a la que correr, sino un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y decisiones de las empresas deben estar reguladas para proteger los derechos e intereses de las personas”, concluyen.

Fuente de la información e imagen:  https://www.elsaltodiario.com

Comparte este contenido:

CII-OVE: Herramientas con IA que todo docente debe conocer

Luz Palomino/CII-OVE 

Aunque la Inteligencia Artificial ha vuelto a ponerse de moda en el entorno educativo con la irrupción de ChatGPT, es una tecnología que se utiliza desde hace años en forma de programas y aplicaciones que la incorporan para apoyar la labor docente y facilitar las tareas automáticas.

El mundo académico y la inteligencia artificial (IA) están cada vez más entrelazados y, a medida que la IA siga avanzando, es probable que los académicos continúen explorando su potencial o expresando su preocupación por los riesgos que conlleva.

El ChatGPT No es la única Inteligencia Artificial que esta revolucionando el mundo educativo. Te mostramos otras herramientas de IA que todo docente debe conocer.

Midjourney.com Crea imágenes a partir de peticiones textuales mas sorprendente y realista que hay ahora mismo

Synthesia Crea videos a partir de textos planos. Los videos pueden ser en hasta 120 idiomas diferentes.

AvatarAI Crea avatares fotorrealistas a partir de tus fotos

Copy.ai IA basada en ChatGPT disenada para ayudarte a crear todo tipo de textos

Comparte este contenido:

ChatGPT y educación: ¿un nuevo enemigo o aliado de los profesores?

¿Cómo luchar contra una aplicación en apariencia indetectable que es capaz de generar, en menos de un minuto, una redacción de 600 palabras sobre la energía nuclear, las crisis migratorias del siglo XX o la desigualdad de género, y hacerlo además con un lenguaje completamente natural? La irrupción de la inteligencia artificial generativa en el ámbito educativo está dando sus primeros pasos y ya ha supuesto un auténtico vuelco en todo el mundo. Cuando, a finales de 2022, OpenAI lanzó el popular ChatGPT, un sistema de inteligencia artificial capaz de generar textos originales, contestar preguntas y resolver multitud de tareas, les bastó cinco días para superar el millón de usuarios, y los 100 millones en apenas dos meses. Ante el peligro de una herramienta que facilita el plagio y las trampas, las alarmas en escuelas y universidades no tardaron en sonar, hasta el punto de que ya son muchos los casos (el Estado de Nueva York y las escuelas de Seattle, en EE UU, y las universidades australianas son solo unos pocos ejemplos) en los que se optó rápidamente por prohibir su uso.

La pregunta, sin embargo, no es si este fenómeno puede contenerse, sino más bien de qué manera incorporar su uso de forma productiva: según una reciente encuesta de Impact Research, un tercio de los estudiantes estadounidenses de entre 12 y 17 años, y el 51 % de los docentes, utilizan ya esta herramienta (un porcentaje que llega al 69 % en el caso de los profesores latinos o negros), ya sea para planificar sus clases, encontrar actividades creativas o elaborar un conocimiento de base con el que empezar sus lecciones. Sus conclusiones no pueden ser mejores: el 89 % de los enseñantes y el 79 % de los alumnos que han usado ChatGPT piensan que el impacto ha sido francamente positivo. La ola es imparable: Microsoft ha anunciado ya la incorporación de su propia IA generativa, Copilot, al Office 365; y Standford ha lanzado Alpaca, una IA basada en el ChatGPT de código abierto. “Ni los estudiantes, ni los profesores ni los periodistas volverán a empezar algo con una página en blanco; se lo pedirán al ChatGPT”, aventura Guillem García Brustenga, experto del eLearning Innovation Center de la UOC.

Luchar contra el plagio

En lugar de entregar un texto copiado o memorizado de la Wikipedia, señala García, el profesor puede pedirles que hagan una infografía, que lo contextualicen con su realidad o que usen portafolios para documentar su proceso de aprendizaje, desde el momento en que no saben nada hasta el que saben mucho. “Paradójicamente, la incorporación de la IA a través de herramientas como ChatGPT nos va a obligar a reflexionar en profundidad sobre qué es lo que queremos hacer, cómo lo queremos hacer, cómo lo vamos a evaluar y qué tipo de competencias queremos cultivar”, sostiene Joaquín Rodríguez, director de Diseño, Innovación y Tecnologías para el Aprendizaje de la Institución Educativa SEK. Y es que, en lugar de intentar prohibir su uso, sugiere incorporarlo a la enseñanza como punto de partida de discusiones y debates en el aula: “Yo les pediría a los alumnos que la utilizaran y que le hicieran preguntas. Y toda esa información que nos da la IA la pondría después sobre la mesa en el aula, para someterla a escrutinio, debate y crítica por parte de los estudiantes. Que reflexionen sobre ella y aprendan a sintetizar su contenido, a profundizar y a contrastar las diferentes respuestas que obtengan… Deben estar seguros de sus aciertos, sus limitaciones y los sesgos que pueda tener”.

Ahí está, precisamente, uno de los mayores peligros de ChatGPT: la asunción de veracidad, porque nunca reconocerá que no está diciendo la verdad sobre algo. “Uno de los errores de ChatGPT es que tiene lo que se conoce como “alucinaciones”: tiene siempre pretensiones de verdad, por lo que, si no sabe algo, se lo inventa”, advierte Rodríguez. Por eso, desde el punto de vista pedagógico, recomienda preservar y reforzar competencias cognitivas fundamentales como, por ejemplo, la capacidad de verificación y de evaluación de cualquier enunciado que te de una inteligencia artificial; tener presente que la responsabilidad final sobre los dictámenes de una IA sigue siendo humana (se puede usar la IA en una consulta médica, pero la responsabilidad del diagnóstico recaerá siempre sobre el facultativo); y hacer un uso crítico, productivo y ético de las tecnologías.

Reinventar el papel del profesor

El vuelco que ha supuesto la llegada de la inteligencia artificial supone un reto ante el cual las instituciones educativas no pueden, ni deben, mirar hacia otro lado. “Una asunción más o menos acrítica de la tecnología, es decir, dejar que cada uno haga lo que le parezca, llevaría a un caos incontrolado. Por eso, es necesario aceptarlo meditadamente, que es la postura que nosotros, de momento, asumimos”, explica Rodríguez. Y eso pasa, necesariamente, por facilitar un cambio radical en el rol que el profesor tiene dentro del aula. “El papel del docente tendría que haber cambiado hace mucho tiempo. Cuando yo estudié, el profesor era quien tenía el conocimiento; yo iba a clase, él [o ella] me contaba cosas y luego me decía: “Ahora repítelo”. Pero eso ya no es así: cuando el conocimiento está en todas partes, no tiene sentido que yo vaya a clase solamente para escuchar a alguien que me lee lo que yo puedo buscar por mi cuenta”, afirma García.

Para el experto de la UOC, el rol del profesor tiene que ser el de “alguien que me ayude a interpretar esa información y a aprender con ella. En el mundo del ChatGPT, será lo mismo, y este docente que explicaba algo que él mismo había leído en un libro, tendrá que cambiar”. Y lo mismo sucede con la evaluación: en vez de pedir que los alumnos repitan lo que les han dicho, será necesario preguntar de otra forma, “hacer trabajos colaborativos o incluso pruebas orales que pueden realizarse de forma síncrona o asíncrona, en las que los estudiantes se graben respondiendo a una pregunta, razonando o explicando qué le ha preguntado al chat”, añade.

Mientras empresas como TurnItIn, especializadas precisamente en detectar el plagio en trabajos académicos, afirman estar trabajando ya en el desarrollo de una herramienta capaz de detectar el uso de IA generativas, los expertos se muestran escépticos: “Como mucho, podría analizar algo de ChatGPT y afirmar, con un 80 % de probabilidades, que es una IA. Pero yo no puedo suspender a nadie por esto. Además, si tú coges el texto de la IA, lo cambias y lo haces tuyo, eso ya no lo puede detectar nadie. Es un tema complejo”, sostiene García.

Desafíos en el mundo laboral

Si algo llevamos escuchando mucho tiempo es que la inteligencia artificial vendría para sustituir al ser humano en aquellas tareas y oficios más mecanizados. Sin embargo, las aplicaciones de IA generativas como ChatGPT o Copilot demuestran que tampoco permanecerán ajenas a las profesiones más creativas. “Son capaces de desarrollar (y ejecutar) código por sí mismas, y de desarrollar textos y novelas completas. Ya hay editoriales basadas en inteligencia artificial, o libros que se están subiendo a Amazon; y si tú les pides que te hagan un cuadro al estilo de Picasso o Monet, también lo harán. Por eso, una de las preguntas más importantes que se plantean ahora es la de qué competencias será necesario desarrollar”, plantea Rodríguez.

Ahora bien, ¿será capaz la IA de quitarnos puestos de trabajo? Para García Brustenga, no será exactamente así: “Yo creo que no es la inteligencia artificial la que nos quitará esos puestos; más bien serán los profesionales que sepan utilizar las inteligencias artificiales los que quitarán trabajo a aquellos que no las sepan usar. Ese es el verdadero tema. Por eso, tenemos que formar a los futuros profesionales a la vez que reciclarnos nosotros, para saber hacer uso de todas estas herramientas; y aun así, sufriremos por la velocidad del cambio. No será la tecnología por sí sola la que nos quite el trabajo”.

Fuente: https://elpais.com/economia/formacion/2023-03-30/chatgpt-y-educacion-un-nuevo-enemigo-o-aliado-de-los-profesores.html

 

Comparte este contenido:

De la educación tradicional a la educación con inteligencia artificial: ¿cómo tomar una postura frente a ChatGPT?

En una jornada de reflexión organizada por Ticmas para abordar unos de los debates más urgentes de la educación, tres expertos debatieron sobre cómo la IA puede mejorar la enseñanza y el aprendizaje.

“Inteligencia artificial: ¿aliada o amenaza?”. Este fue el título de la jornada exclusiva que organizó Ticmasen el Alvear Palace Hotel, en la que asistieron más de 80 directivos de colegios de la Argentina. Los paneles abordaron diversos enfoques con los que reflexionar los desafíos y las nuevas posibilidades que la IA abre en el ámbito educativo. En una de las actividades del día, Gustavo Brey (docente de ITBA), Mariano Yacovino (Director de Educación de Microsoft Argentina), Mariano Ruani (Director en Instituto Baikal) hablaron del paso necesario —e inevitable— que va de la educación tradicional a la educación con inteligencia artificial.

Coordinados por Astrid de Herrera, líder estratégica de ABP en Ticmas, los tres expertos asumieron el desafío de tomar una postura frente a ChatGPT: cómo puede la Inteligencia Artificial mejorar la enseñanza y el aprendizaje, cuáles son los desafíos éticos y de privacidad, y cuál es el rol de docentes, directivos y familias.

Gustavo Brey, docente de ITBA (foto: Adrián Escandar)
Gustavo Brey, docente de ITBA (foto: Adrián Escandar)

“Pensar que ChatGPT va a reemplazar a los docentes o va a hacer que los chicos se copien no va”, dijo Brey. “Ya no se puede pensar que la calculadora es un problema para la matemática o que Google y Wikipediason el terror de los docentes”. Brey contó que su experiencia con ChatGPT lo llevó a mejorar sus parciales, porque aún cuando creía que los suyos tenían un grado de excelencia que provocaba que los estudiantes piensen y relacionen las respuestas, la inteligencia artificial lo aprobó. “Eso me hizo levantar la vara como docente”, dijo. “Hoy la inteligencia artificial me permite optimizar un montón de cuestiones de la docenciay me da más tiempo para la creatividad y para sostener la parte emocional con los alumnos”.

“La discusión que estamos teniendo hoy aquí”, dijo Yacovino, “está pasando en cualquier entidad educativa del mundo. Yo creo que la Inteligencia Artificial es una herramienta súper poderosa. Nos va a ayudar no sólo a ahorrar el tiempo preparando las clases y en generar experiencias de aprendizaje más interactivas, sino que va a hacer que la educación se adapte a la necesidad de cada uno. Esta herramienta nos va a ayudar a crear clases más interactivas y personalizadas. ¿Cómo nos vamos a ir adaptando? Vamos a ir aprendiendo en el camino”.

Mariano Yacovino (Director de Educación de Microsoft Argentina)
Mariano Yacovino (Director de Educación de Microsoft Argentina)

Mariano Ruani también destacó que la IA brinda la posibilidad de ser más creativos, porque uno puede ayudarse a pensar actividades más entretenidas y consultar otras experiencias. Pero está claro que ChatGPT necesita estar acompañado por un maestro. “Tiene determinados riesgos que hay que conocer”, dijo, y habló, entre otras cosas, del sesgo, la falta de contextualización y la “alucinación” en las respuestas —contenidos equivocados que requieren de una recepción crítica para reconocerlos como tales—. “Muchos piensan cómo nos van a hacer trampa los chicos”, dijo, “y para mí es cómo la usamos para mejorar el aprendizaje, para que los chicos sean mejores, más creativos y aprendan mejor. Después veremos cómo los evaluamos”.

Actualmente hay dos grandes posturas a nivel educativo: hay instituciones que prohíben el uso y hay otros enfoques en los que se alienta —casi se obliga— su uso. “Esos docentes reconocen que los alumnos son mucho mejores que si no la usan”, dijo Ruani, “y, además, va a estar en toda la sociedad: no aprender a usarla es negarle una oportunidad a los chicos”.

Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)
Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)

Los límites de ChatGPT está en las sutilezas. Yacovino pidió hacer la prueba y preguntarle, por ejemplo, cuántas bananas se pueden comer en ayunas. La IA respondió que no hay un número fijo, cuando la pregunta era capciosa y la respuesta era clara: sólo una. Después de esa banana ya no hay ayuno.

“Nosotros vemos la computación como algo determinístico y esto es probabilístico”, explicó Ruani. “Todas las respuestas tienen determinada probabilidad de ser ciertas. Por eso ChatGPT aprueba un examen, pero lo hace con ocho, nunca con diez. El problema es que cuando hablamos con una computadora le empezamos a creer. Si la primera vez está bien, la segunda también, ya a la quinta no chequeás más y por ahí te dijo cualquier cosa. El problema es que cuando se equivoca, se puede equivocar por una barbaridad”.

“La AI tiene que ver más con buscar patrones en los datos y clasificarlos. Si el modelo está mal entrenado, puede tener errores”, dijo Brey, que además destacó que la tecnología no está todavía capacitada para suplir a Google. “Pero”, dijo, “esta es la punta del iceberg”.

https://www.infobae.com/educacion/2023/03/21/de-la-educacion-tradicional-a-la-educacion-con-inteligencia-artificial-como-tomar-una-postura-frente-a-chatgpt/

Comparte este contenido:
Page 2 of 4
1 2 3 4