Page 8 of 47
1 6 7 8 9 10 47

Mundo: OpenAI lanza nueva versión de ChatGPT para ciertas tareas

Mundo/17-03-2023/Autor: Agencia AFP/Fuente: www.elsalvador.com

La start-up californiana presentó este martes 14 de marzo la GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

La start-up californiana OpenAI, que lanzó con gran éxito a finales de 2022 la interfaz ChatGPT, capaz de generar todo tipo de textos bajo demanda, presentó este martes GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

«GPT-4 es un gran modelo multimedia, menos hábil que los humanos en muchos escenarios de la vida real, pero tan bueno como los humanos en muchos contextos profesionales y académicos», dijo la compañía en un comunicado.

«Por ejemplo, aprobó el examen para convertirse en abogado con una puntuación tan buena como el 10% superior. La versión anterior, GPT 3.5, estaba al nivel del 10% de los menos buenos», agregó.

OpenAI, que ha recibido miles de millones de dólares de Microsoft, se ha consolidado así como líder en IA generativa con sus modelos de generación de texto, pero también de imágenes, con su programa DALL-E.

Su jefe, Sam Altman, explicó recientemente que ahora está trabajando en la llamada inteligencia artificial «general», es decir, programas con capacidades cognitivas humanas.

«Nuestra misión es garantizar que la IA general, los sistemas de IA más inteligentes que los humanos en general, beneficien a toda la humanidad», dijo en el blog de la compañía el 24 de febrero.

Las capacidades multimedia son un paso en esa dirección.

ChatGPT de Open AI Foto de referencia / Archivo AFP
Foto de referencia / Archivo AFP

A diferencia de las versiones anteriores, GPT-4 está dotado de visión: puede procesar texto pero también imágenes. Sin embargo, solo genera texto.

OpenAI también señala que, a pesar de sus capacidades, GPT-4 tiene «limitaciones similares» a sus predecesores. «Todavía no es completamente confiable (inventa hechos y comete errores de razonamiento)».

La compañía anunció que ha contratado a más de 50 expertos para evaluar los nuevos peligros que podrían surgir, por ejemplo para la ciberseguridad, además de los ya conocidos (generación de consejos peligrosos, código informático defectuoso, información falsa, etc.).

Fuente e Imagen: https://www.elsalvador.com/entretenimiento/tecnologia/tecnologia-openai-lanza-nueva-version-de-chatgpt/1046872/2023/

Comparte este contenido:

La alarmante visión de Noam Chomsky sobre la Inteligencia Artificial de ChatGPT

Por: Alexis Paiva Mack

 

El reconocido lingüista y filósofo escribió un artículo junto a dos especialistas, en el que compartió su visión sobre los avances que se han presentado en el campo de la inteligencia artificial. Acá, los motivos de por qué Noam Chomsky mira con escepticismo la tecnología de programas como ChatGPT, entre otros.

Para los interesados en el ámbito de la tecnología, aplicaciones de inteligencia artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de OpenAI, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

.

Computador. Foto referencial: CU.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja —al menos ahora— a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

Noam Chomsky: su alarmante visión sobre la Inteligencia Artificial de ChatGPT

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.

“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.

Noam Chomsky. Foto: Uli Deck / AP.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (…) sino crear explicaciones”.

La “capacidad crítica” de los programas que funcionan con IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

“Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

“Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: ‘La manzana cae’. Eso es una descripción. Una predicción podría haber sido la afirmación: ‘caerá si abro la mano’. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como ‘cualquier objeto de este tipo caería’, más la cláusula adicional ‘debido a la fuerza de la gravedad’ o ‘debido a la curvatura del espacio-tiempo’”.

De esta manera, añadieron que “eso es una explicación causal: ‘la manzana no habría caído de no ser por la fuerza de la gravedad’ (…) eso es pensar”.

Ilustración de Isaac Newton. Foto referencial: Mary Evans Picture Library.

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

“ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La perspectiva moral desde la Inteligencia Artificial

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

Robot. Foto referencial: Yo, robot (película).

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

Fuente de la información e imagen: https://www.latercera.com

Comparte este contenido:

¿Cómo tomar una postura frente al ChatGPT?

Por: Sofía García-Bullé

¿Cómo pueden posicionarse las instituciones de educación superior frente a la inteligencia artificial para proteger la integridad académica sin coartar el avance de la innovación educativa? Conoce más sobre la postura del Tec de Monterrey.

En artículos anteriores, hablamos de la necesidad de las universidades de replantearse su código de ética ante el avance tecnológico que representan las imágenes generadas con inteligencia artificial (IA) y el ChatGPT. El rol principal debe ser el de los estudiantes, y su trabajo junto con los profesores y expertos en tecnología para encontrar un balance entre el potencial de la herramienta y la regulación de su uso.

Fuera del tema del alumnado, existe otra vertiente de vital importancia para asegurar un futuro educativo beneficiado por este recurso. El posicionamiento de las instituciones de educación superior. Estas también han de encontrar un terreno común entre la restricción y la flexibilidad. El Tecnológico de Monterrey recientemente se pronunció con respecto al tema.

«Como institución educativa, vemos en estas nuevas herramientas de inteligencia artificial, oportunidades para impulsar los procesos de enseñanza-aprendizaje y estamos trabajando en explorar las mejores formas para desarrollarlas, como es el caso del Instituto para el Futuro de la Educación (IFE)«, externó el Tec en su comunicado oficial, firmado por el Rector de Profesional y Posgrado, Juan Pablo Murra, y La Vicepresidenta de Integridad y Cumplimiento, Paulina Campos.

Dentro del documento también se menciona que el Modelo Tec21, el reglamento y la retroalimentación de los docentes serán la base para desarrollar un enfoque prudente que facilite aprender y evaluar las implicaciones operativas de la inteligencia artificial en un contexto académico.

La guía de los profesores

Para entender mejor las implicaciones de la inteligencia artificial y cómo integrarla a la dinámica didáctica necesitamos la guía de los profesores. La profesora Reyna Martínez, quién nos acompañó anteriormente en nuestro webinar sobre chatbots en la educación, ofrece una perspectiva clara para comprender lo que es la herramienta, cómo funciona, porqué no hay que tenerle miedo y cómo con el uso correcto puede ser instrumental para el futuro de la educación.

La profesora Martínez explicó en sus impresiones sobre el tema para el Observatorio IFE, que el uso cotidiano de recursos como el ChatGPT es inevitable. La forma en que esta tecnología evolucionó, con la expectativa de ser accesible a todo el mundo para mejorar y facilitar la vida de las personas, la llevó a ser un recurso muy concurrido por los estudiantes. «Como docente entiendo la preocupación e inquietud que el ChatGPT ha desencadenado en la comunidad educativa. Su manejo del lenguaje natural es fluido y estructurado y conforme pase el tiempo irá mejorando».

Además, la profesora elaboró sobre las prestaciones del ChatGPT pero aclaró que no es perfecto, al alimentarse de los documentos que se encuentran en internet hasta el año 2021, comete errores o toca los temas que se le piden de manera superficial. Pero ya sea por esta limitación o por la posibilidad de que sea usado para actos de deshonestidad académica, la profesora sostuvo que una agenda restrictiva contra la inteligencia artificial entre la universidades podría ser contraproducente para los estudiantes y las buenas prácticas didácticas.

«Pensar en prohibir su uso no sólo privará a nuestros estudiantes de conocer su potencial sino inhibir el desarrollo de competencias que le permitan interactuar con este tipo de tecnología y que pronto serán necesarias para desarrollarse en el ámbito escolar, personal y laboral».

Para aproximarse a la IA

La profesora Reyna Martínez presenta un argumento importante sobre la necesidad de las instituciones educativas de adoptar la inteligencia artificial (IA) y aprender sobre el uso de estas tecnologías. Si se contrata como competencia profesional en el mercado laboral, entonces el deber ético de los formadores no es alejar a los estudiantes de la inteligencia artificial, sino explorar su uso positivo y ético, para transmitir estas enseñanzas a sus educandos.

Entre las recomendaciones emitidas por la profesora destaca un llamado a los docentes a conocer y manejar el ChatGPT, familiarizarse con lo que puede hacer, y ser los primeros en conocer estas capacidades, no sólo para monitorear a los estudiantes, sino para aprovechar que la IA es experta en producir esas tareas y ejercicios que pueden parecer repetitivos.

Crear conciencia acerca de las consecuencias e impacto para el aprendizaje que pueden causar los ejercicios deshonestos con este tipo de tecnología es otro punto importante a considerar. Incluir a las cabezas de familia en esta conversación será de gran ayuda para obtener nociones claras y duraderas que influyan para bien en la integración del ChatGPT a la práctica educativa.

Definir objetivos y competencias a desarrollar ayudará a tener un mejor entendimiento de lo que la IA puede hacer en el aula, algunas sugerencias que la profesora Martínez mencionó incluyeron: actividades en el salón de clases, evaluaciones orales, mapas mentales, realización de videos, trabajos colaborativos y asistencia creativa para los estudiantes.

El esfuerzo de diálogo rumbo a la creación de nociones éticas también debe incluir el tema de la privacidad. La profesora elaboró en una arista que no muchas personas ven debido al enorme interés de proteger la honestidad académica. Cada vez que utilizamos el ChatGTP estamos contribuyendo a su educación, esto ya conlleva en sí un dilema. Además, las compañías desarrolladoras tienen acceso a las conversaciones generadas por la IA. Este es un aspecto que debería llamar más nuestra atención, sobre todo en el caso de los estudiantes menores de edad.

¿Qué piensas sobre capacidades de la inteligencia artificial y cómo está cambiando la forma en las prácticas didácticas? ¿Crees que vale la pena mantener una mente abierta para descubrir su uso ideal? ¿Consideras que sería una muleta para el estudiantado y un obstáculo para la honestidad académica? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/como-tomar-una-postura-frente-al-chatgpt/

Comparte este contenido:

Siete habilidades que serán tendencia en 2023

Por: Sofía García-Bullé

Este año sobresaldrán los profesionistas con pensamiento crítico y capacidad de adaptación, entre otras habilidades.

El debate sobre la intervención de la Inteligencia Artificial (IA) en las disciplinas del arte y la comunicación ha tomado por asalto la conversación en las comunidades productoras de contenido. No hay un consenso aún sobre el impacto de las implicaciones éticas del uso de la IA para sustituir el trabajo artístico y de comunicación humana, ni lo que representa para el futuro del mercado laboral. Pero lo que sí sabemos es que este nuevo uso de la tecnología hará necesario el desarrollo de habilidades que no pueden ser replicadas por máquinas.

Desde hace años ya se hablaba de la posibilidad de un cambio en el conjunto de habilidades que serían valoradas por los empleadores ante el perfeccionamiento de la inteligencia artificial. «Algunos trabajos serán automatizados, pero al mismo tiempo, la Inteligencia Artificial ofrecerá oportunidades para que las compañías generen valor, y nuevos empleos que cambien en énfasis en los tipos de habilidades necesarias para sobresalir», comentó Rachel Russell, Directora de Estrategia de Marketing Corporativa para Aegis Group en 2021. La predicción fue certera. Hoy, las habilidades humanas (también conocidas como soft skills o power skills, como han sido rebrandeadas recientemente), son el diferenciador más importante para mantenerse vigente. ¿Cuáles son las habilidades humanas más valiosas en 2023? A continuación te compartimos  algunas de las más buscadas.

Siete habilidades humanas más valiosas en el 2023

Alfabetización digital

La alfabetización digital comprende las competencias para trabajar y navegar dentro del mundo digital. Consiste en el uso óptimo de dispositivos, software y aplicaciones en el día a día del trabajo de oficina. Las empresas necesitan personas que puedan comunicarse y colaborar fácilmente usando recursos tecnológicos, que se mantengan actualizadas y que entiendan el impacto que estas herramientas pueden tener en su labor y rubro profesional.

Creatividad

La disposición de generar nuevas ideas, imaginar más allá de del statu quo y como influye este proceso en la creación de de soluciones y su implementación para resolver y mejorar condiciones en la ejecución de de un proyecto va a ser una habilidad crítica en las oficinas del futuro. Un trabajador creativo tiene más posibilidades de producir ideas que hagan frente a problemas que vengan con ocurrencias nuevas como el trabajo remoto y las tecnologías emergentes.

Adaptabilidad

En más de tres años de pandemia, uno de los aprendizajes más importantes es que el cambio es inevitable y que no siempre vamos a poder elegir el momento y formas en las que este llegue. Los profesionales que desarrollen la resiliencia mental para navegar eficientemente todos estos cambios, aprovecharlos y aprender de ellos serán recursos invaluables para todas las empresas de cualquier rubro.

Pensamiento Crítico

El pensamiento crítico consiste en analizar información y situaciones priorizando la evidencia y los datos comprobables por encima de lo escuchado y las opiniones. En una época en la que los espacios digitales son dominados por burbujas de contenido, piezas tendenciosas y noticias falsas, esta habilidad se ha vuelto de primera necesidad en todos los niveles educativos y profesionales. Es un auxiliar crítico para la toma de decisiones efectiva.

Liderazgo

El liderazgo no será una habilidad exclusivamente necesaria para quienes estén al frente de un equipo en 2023. La evolución del clima organizacional apunta a agrupaciones más distribuidos, trabajos por proyectos, grupos más diversos y una mayor horizontalidad en las relaciones laborales. Ejercer valores de liderazgo como motivar, inspirar y dar apoyo a un equipo sin importar en qué posición del organigrama estemos, va a ser crucial en un futuro próximo.

Comunicación

Siempre una habilidad básica en la fuerza de trabajo, la comunicación tomará un rol más crítico en un mundo pospandemia en el que el trabajo remoto ha llevado a los equipos a encontrar nuevas formas de colaborar. Desde redacción de correos electrónicos, hasta análisis y comprensión de lenguaje no verbal en juntas de trabajo, las competencias de comunicación será determinante para la realización de un buen trabajo grupal.

Inteligencia Emocional

La inteligencia emocional es la capacidad de identificar, entender y manejar tus propias emociones, así como identificar y empatizar con las de otras personas. Ayuda a construir y mantener mejores relaciones de trabajo. Lo anterior se traduce en mejores resultados en la ejecución de proyectos, ya que reduce la dificultad del trabajo humano a través del conocimiento y el manejo de las emociones propias y las de los miembros de un equipo.

¿Habías visto estas habilidades en alguna otra lista de capacidades valiosas para este año? ¿Qué piensas de éstas? ¿Crees que pueden ser útiles en este nuevo ciclo? ¿Crees que faltó alguna de mencionar? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/siete-habilidades-que-seran-tendencia-en-2023/

Comparte este contenido:

ChatGPT o cómo la inteligencia artificial puede empujar a cambios metodológicos de enseñanza

Por: 

La IA ya es una realidad, al menos, en cierta medida. Hace unos días El País publicaba un reportaje en el que se había puesto a prueba a ChatGPT, un software de libre acceso. Había conseguido aprobar un examen de acceso a la universidad. ¿Qué implicaciones puede tener?

ChatGPT es un software de libre acceso. En la web puedes lanzar una pregunta que él la responde según unas ciertas características. Tal es el punto que puede llegar a escribir composiciones completas que hoy por hoy ya se están utilizando en el sector educativo. Una nueva vuelta de tuerca al concepto clásico del Rincón del vago.

Linda Castañeda es doctora en Tecnología Educativa y profesora titular en la Universidad de Murcia. Hablamos con ella de las implicaciones que un software de esta clase puede llegar a tener en las universidades. Explica que aunque ahora ChatGPT ha saltado a la palestra el uso de IA no es especialmente nuevo en el sector educativo y que ya hace algún tiempo que se vienen usando herramientas, tal vez no tan sofisticadas como esta.

Ya hace tiempo que se usan programas para detectar cuándo el alumnado ha hecho un trabajo a base de copiar y pegar textos de otros. De ahí se pasó a herramientas que eran capaces de parafrasear, “es difícil que sea detectado”, comenta Castañeda.

Esta doctora tiene claro que el problema no es tanto el uso de este tipo de herramientas informáticas para la elaboración de textos. “Nos hemos empeñado durante todo el desarrollo de la tecnología en cómo vamos a hacer otra tecnología que evite que nos engañen” pero, para ella, “el asunto es qué significa escribir un trabajo académico, algo muy complejo”.

En una conversación informal, una docente universitaria comentaba cómo una de sus alumnas le había entregado un trabajo plagiado de arriba abajo. Solo había cambiado el nombre de la autoría del texto. Una búsqueda rápida le había dado la respuesta a sus dudas. La alumna, suspendida, había pedido revisión con ella. Las normas de la Universidad eran claras, según explicaba. La docente debería haber avisado a los servicios jurídicos de la universidad para que tomaran cartas en el asunto. Así se lo hizo saber a la alumna que, en un alarde de ignorancia o de huida hacia adelante, aseguraba que no sabía que se trataba de un plagio.

“Parece que nuestro objetivo como profes es que no nos engañen, no que los estudiantes aprendan X, sino que no me engañen”, continúa Castañeda. Para esta profesora, la clave pasa porque el alumnado comprenda que la cosa pasa por no engañarse a sí mismo, porque aquello que vaya a hacer en la escuela, la universidad, no sea como hacerse trampas al solitario.

Rafael Porlán es catedrático de la Universidad de Sevilla. Dedica buena parte de sus esfuerzos, desde hace años, a la formación docente del profesorado de la institución en la que trabaja. Cree que cuestiones como las que plantea la IA no son más ni menos que una “crisis del modelo transmisivo tradicional”. Él apuesta por modelos activos, de proyectos de investigación.

Según su opinión, cuando el alumnado utiliza este tipo de trucos no hace mucho más que responder al propio sistema de enseñanza. “Si el modelo me ignora, copio; busco trabajos para evitarme esfuerzos”, asegura.

Desde su punto de vista es necesario que “todo lo que el alumno pueda hacer, lo haga”. De esta manera, “los docentes organizamos el trabajo para que el alumnado agote su capacidad y, después, tirar de ellos y que lleguen más lejos”. Y cita a Vygotsky y su teoría y su teoría del desarrollo próximo. “Si te pongo un reto, te muevo, la gente se crece”, asegura Porlán, quien tiene claro que “lo que producen tiene limitaciones, pero ya se han involucrado y, a partir de ahí, puedes pedirles mucho más”.

Castañeda da clases a quienes serán el futuro de la profesión docente. Es consciente de que su alumnado hoy por hoy ya está hacen uso de ChatGPT para algunas de las cosas que se les piden desde la Universidad. “Sé que están usándolo para resolver tareas sencillas. La idea es cómo hacer que sean conscientes del potencial que tiene y que eso mismo se lo harán sus estudiante”. Por eso insiste en que lo importante es “generar tareas que tengan relevancia y que con ChatGPT le puedan ser de utilidad”.

La misma profesora que hablaba del plagio de una de sus alumnas, también señalaba cómo en algún máster con un gran volumen de alumnado extranjero era más o menos sabido que los trabajos finales que se pedían los compraban a terceras personas. Entre otras cosas, porque no dominaban el castellano como para haberlos elaborado.

“Ser capaz de reproducir la información hace tiempo que no es lo más importante del aprendizaje o de la educación”, afirma Castañeda. Para esta doctora está claro que el contenido, siendo relevante no es lo sustancial de toda esta cuestión. Sobre todo “porque habrá otra herramienta que lo pueda reproducir”.

Para ella, herramientas como ChatGPT, ahora mismo, producen mucha sorpresa pero “no está ni mucho refinado, ni es infalible ni las respuestas son brillantes” y vuelve al inicio: “la pregunta es hasta qué punto estamos dando a nuestros estudiantes algo más que una respuesta ramplona, hasta qué punto hacemos propuestas a los estudiantes que les pidan ir más allá”.

“Si eso pretendemos de los humanos, que trasciendan, tendremos que hacer que la escuela a la que asistan, les enseñe a ser trascendentes y pensar más allá”, asegura Castañeda. “Tenemos que plantearnos cosas serias”, zanja.
Esta doctora también asegura que es importante ver los posibles usos de herramientas de inteligencia artificial. Habla de cómo algunos compañeros las utilizan para, por ejemplo, crear algunos contenidos introductorios: “Los 5 libros clave sobre no sé qué. Para empezar, viene bien. O preguntarle cuáles son las 5 tesis más relevantes” en algún tema concreto para luego comentarlo en la clase.

Todo esto, además de suponer un acicate para cambios metodológicos, también puede suponer la obligación de cambiar los modelos de evaluación, como explica Castañeda, “para que no acabe evaluando a ChatGPT”. “La evaluación debe ver si el alumno aprende. ¿Qué significa esto? Es algo que le pregunto a otros docentes. Qué significa en tu materia que el alumnado aprenda. Habrá que responder a esto en un mundo en el que la IA está al alcance de la mano. Ya no pasa en las películas o la ciencia ficción”.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/01/30/chatgpt-o-como-la-inteligencia-artificial-puede-empujar-a-cambios-metodologicos-de-ensenanza/

Comparte este contenido:

Problemas concretos del modelo hibrido de enseñanza

Por: Luis Bonilla-Molina

  1. ¿Qué es la enseñanza híbrida?

El modelo de enseñanza hibrida se fundamenta en combinaciones de la presencialidad con la virtualidad, ya sea de manera sincrónica o asincrónica.

En el caso de la modalidad híbrida sincrónica, es decir en tiempo real, ello significa que el docente contará con un grupo de estudiantes que estarán en el aula y otro conectados a través de alguna plataforma digital.

En algunos casos, esta modalidad comporta la conexión virtual del docente, quien cuenta con estudiantes reunidos en varios ambientes presenciales (aulas) que le escuchan a través de una pantalla y otros estudiantes virtuales conectados desde distintos lugares a través de la plataforma digital.

La enseñanza en modalidad híbrida asincrónica es aquella que cuenta con módulos o clases grabadas, colgadas en un sitio web o repositorio digital,  que deben ser vistas por los estudiantes conforme a su disponibilidad de horario, pero dentro de unos límites temporales. Esta modalidad suele complementarse con listas de correos, creación de salas de chat compartidas y otras herramientas, desde donde en tiempo real, se comparten inquietudes, dudas o preguntas que el docente responde.

La llegada de la inteligencia artificial a la educación está abriendo la posibilidad de otros modelos híbridos personalizados, mediante la creación de avatares de los y las docentes, que han capturado los datos propios de las clases y materiales del docente y, mediante análisis de metadatos pueden responder a las dudas y acompañar los distintos ritmos de aprendizaje. Pero aún estamos lejos de poder usar masivamente esta variante en Latinoamérica.

Para poder trabajar adecuadamente en modelos de enseñanza híbrida debemos superar los traumas del paso abrupto de la presencialidad a la virtualidad, ya que lo que ocurrió durante la pandemia fue una alfabetización forzada, en la mayoría de caos exigiendo capacidades auto didactas de docentes y estudiantes. Eso creo vacíos, limitaciones e incluso errores que se sostienen en la actual fase de la “post pandemia”.

El uso de los modelos virtuales e híbridos, a partir del retorno a las aulas, debe evitar la tentación de las burocracias educativas de sustituir al máximo la presencialidad, imponiendo cada vez más formatos digitales.

El uso de los modelos híbridos y virtuales varía conforme al desarrollo cognitivo, edad y madurez del grupo estudiantil. Las clases bajo el formato virtual e híbrido requieren una formación profesional muy especial, para preparar los contenidos con modelos didácticos que se correspondan a cada uno de ellos.

Mi experiencia empírica me indica que la virtualidad y los modelos híbridos:

  1. Para educación inicial no debe exceder los cinco minutos por jornada escolar diaria;
  2. Para educación primaria no debe exceder los cinco minutos por hora de clase ni la media hora por jornada escolar;
  3. Para secundaria no debe superar los diez minutos por hora de clase ni la hora por jornada escolar;
  4. En el caso de la universidad, el ciclo de atención del estudiante decae seriamente luego de los diez minutos, algo que debe ser tomado en cuenta a la hora de desarrollar las clases y preparar las grabaciones

2. Requerimientos técnicos para un modelo escolar híbrido

Los Ministerios de educación hablan de desarrollar jornadas virtuales y modelos híbridos de enseñanza como si se tratara de acarrear cajas de tomates. Para realizar una jornada pedagógica bajo el modelo de enseñanza híbrida sincrónica se requiere:

  1. Un(a) docente que trabaje con el grupo presencial, mientras otro(a) docente atiende las dudas de quienes están conectados en la plataforma. Además de readmitir aquellos que por los frecuentes problemas de conexión se salen en cualquier momento de la sala virtual:
  2. Cada aula presencial debe contar con pizarrones inteligentes que permitan compartir de manera nítida y en tiempo real con quienes lo están de manera virtual, lo que el/la docente escribe en la pizarra física.  Los enfoques de cámara suelen ser difusos para esta tarea, además que surgen problemas de visibilidad conforme el docente del aula presencial se moviliza por el espacio;
  3. Debe haber un técnico de soporte que resuelva los problemas de conexión que suelen ocurrir, maneje por los menos dos cámaras en el aula presencial y sepa en que momento usar una o la otra
  4.  El docente del aula presencial debe contar con micrófono inalámbrico conectado a la plataforma virtual para garantizar la calidad del sonido para quienes escuchan de manera remota.

Como esto suele no estar resuelto, lo que ocurre es que quienes están conectados virtualmente tienen serias dificultades para escuchar y ver lo que hace el docente en el aula presencial. Es falso que el docente puede estar mirando de manera simultánea lo presencial y los virtual, en consecuencia, muchas veces lo que ven quienes están conectados es la espalda o la barriga del docente por un largo intervalo de tiempo, lo cual conspira contra cualquier posibilidad de atención pedagógica.

3, ¿Quién paga los costos para el docente y estudiante de los modelos virtuales e híbridos?

Sorprende la ligereza con la cual las autoridades educativas hablan de los modelos híbridos o virtuales de enseñanza, sin preocuparse de quien garantiza los medios, herramientas y conectividad para ello.  Esto ha derivado en un nuevo modelo de privatización educativa, pues son las familias, estudiantes y docentes quienes costean estos modelos de enseñanza.

Esta situación se torna en especialmente delicada para aquellos estudiantes, que por su origen social de clase e ingresos económicos familiares, no pueden asumir los costos de estas propuestas “innovadoras”.

Los Ministerios de educación y las universidades, deben asumir la responsabilidad en dotar equipos de conexión, software y datos de internet a estudiantes y docentes que participen en modelos de aprendizaje híbridos o virtuales.

4, Requerimientos didácticos para un proceso pedagógico híbrido

El monismo didáctico, o la forma única de desarrollar estrategias de aprendizaje en los procesos de enseñanza es un problema poco tratado en las agendas educativas. Este problema se eleva exponencialmente cuando hablamos de modelos híbridos de enseñanza, porque la forma de enseñar en la presencialidad es radicalmente distinta al que se hace a través de mecanismos virtuales. No tenemos claridad sobre las propuestas didácticas para la virtualidad y los ministerios de educación lanzan a los maestros a la aventura de los modelos de enseñanza híbridos, sin formarlos antes en las propuestas didácticas que corresponden.

Eso esta trayendo un deterioro sensible en la calidad educativa y menoscaba el autentico aprendizaje, sobre todo de los hijos e hijas de la clase trabajadora.

5, Agenda gremial, sindical y de formación docente

Los gremios y sindicatos docentes no pueden estar ajenos a esta problemática.  Es urgente que se convoquen mesas de trabajo, jornadas de análisis al respecto, para construir juntos, desde el magisterio, respuestas ante la inoperancia de quienes les corresponde construir una verdadera propuesta híbrida de enseñanza: los ministerios de educación.

Problemas concretos del modelo hibrido de enseñanza

Comparte este contenido:

Una universidad de Francia prohibió el uso de robot con inteligencia artificial usado por estudiantes para hacer trabajos académicos

El centro de estudios advirtió que los alumnos que infrinjan esta regla podrán ser incluso expulsados de la institución o de la enseñanza superior. No obstante, el uso del programa se permite con fines pedagógicos.

La prestigiosa universidad francesa Sciences Po prohibió a sus alumnos usar el robot conversacional ChatGPT, una inteligencia artificial capaz de responder a preguntas y redactar ensayos académicos, y avisó que su uso puede llevar a sanciones como la expulsión de la institución.

«El uso sin mención explícita de ChatGPT en Sciences Po o de otra herramienta que recurra a la inteligencia artificial está por el momento prohibida para la realización de trabajos orales o escritos», indicó la dirección del centro de estudios en un correo electrónico.

Sciences Po se convirtió así en el primer centro de educación superior de Francia en anunciar oficialmente la prohibición de este robot conversacional. No obstante, su uso se permite con fines pedagógicos en caso que lo determine un docente.

La universidad determinó que podrán ser sancionados quienes infrinjan esta regla «incluso con la expulsión de la institución o de la enseñanza superior», según el mensaje enviado a docentes y alumnos.

La inteligencia artificial ChatGPT funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Desde noviembre, la inteligencia artificial ChatGPT se propagó rápidamente por el mundo educativo y un mes después ocho universidades de Australia estimaron que su uso por los estudiantes podría considerarse como copiar. En tanto, Sciences Po subrayó que esta herramienta «plantea serios interrogantes a los actores de la educación y de la investigación en todo el mundo» sobre el tema del «plagio«.

En este contexto, el profesor de la universidad de Minnesota Jonathan Choi y otros autores demostraron en un experimento que el robot conversacional creado por la empresa californiana OpenAI era capaz de aprobar por poco los exámenes de entrada de una facultad de Derecho estadounidense.

¿En qué consiste la inteligencia artificial ChatGPT?

La desarrolladora Open AI creó una web en noviembre que permitió a los usuarios experimentar con ChatGPT, por lo que en pocos días logró que millones de personas interactúen con esta inteligencia artificial, que funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Así, los usuarios fueron compartiendo en redes sociales los desafíos que le dieron al chatbot: resolver un problema de programación, crear un ensayo académico comparando dos teorías, escribir el guión de un juego o crear una partitura musical. Pero lo que más sorprendió de este chat de inteligencia artificial fue la capacidad de dar respuestas acertadas y completas, con una gran cantidad de vocabulario e información y tomando las palabras en contexto.

Fuente: https://www.cronica.com.ar/mundo/Una-universidad-de-Francia-prohibio-el-uso-de-robot-con-inteligencia-artificial-usado-por-estudiantes-para-hacer-trabajos-academicos-20230127-0097.html

Comparte este contenido:
Page 8 of 47
1 6 7 8 9 10 47