Page 9 of 49
1 7 8 9 10 11 49

De la educación tradicional a la educación con inteligencia artificial: ¿cómo tomar una postura frente a ChatGPT?

En una jornada de reflexión organizada por Ticmas para abordar unos de los debates más urgentes de la educación, tres expertos debatieron sobre cómo la IA puede mejorar la enseñanza y el aprendizaje.

“Inteligencia artificial: ¿aliada o amenaza?”. Este fue el título de la jornada exclusiva que organizó Ticmasen el Alvear Palace Hotel, en la que asistieron más de 80 directivos de colegios de la Argentina. Los paneles abordaron diversos enfoques con los que reflexionar los desafíos y las nuevas posibilidades que la IA abre en el ámbito educativo. En una de las actividades del día, Gustavo Brey (docente de ITBA), Mariano Yacovino (Director de Educación de Microsoft Argentina), Mariano Ruani (Director en Instituto Baikal) hablaron del paso necesario —e inevitable— que va de la educación tradicional a la educación con inteligencia artificial.

Coordinados por Astrid de Herrera, líder estratégica de ABP en Ticmas, los tres expertos asumieron el desafío de tomar una postura frente a ChatGPT: cómo puede la Inteligencia Artificial mejorar la enseñanza y el aprendizaje, cuáles son los desafíos éticos y de privacidad, y cuál es el rol de docentes, directivos y familias.

Gustavo Brey, docente de ITBA (foto: Adrián Escandar)
Gustavo Brey, docente de ITBA (foto: Adrián Escandar)

“Pensar que ChatGPT va a reemplazar a los docentes o va a hacer que los chicos se copien no va”, dijo Brey. “Ya no se puede pensar que la calculadora es un problema para la matemática o que Google y Wikipediason el terror de los docentes”. Brey contó que su experiencia con ChatGPT lo llevó a mejorar sus parciales, porque aún cuando creía que los suyos tenían un grado de excelencia que provocaba que los estudiantes piensen y relacionen las respuestas, la inteligencia artificial lo aprobó. “Eso me hizo levantar la vara como docente”, dijo. “Hoy la inteligencia artificial me permite optimizar un montón de cuestiones de la docenciay me da más tiempo para la creatividad y para sostener la parte emocional con los alumnos”.

“La discusión que estamos teniendo hoy aquí”, dijo Yacovino, “está pasando en cualquier entidad educativa del mundo. Yo creo que la Inteligencia Artificial es una herramienta súper poderosa. Nos va a ayudar no sólo a ahorrar el tiempo preparando las clases y en generar experiencias de aprendizaje más interactivas, sino que va a hacer que la educación se adapte a la necesidad de cada uno. Esta herramienta nos va a ayudar a crear clases más interactivas y personalizadas. ¿Cómo nos vamos a ir adaptando? Vamos a ir aprendiendo en el camino”.

Mariano Yacovino (Director de Educación de Microsoft Argentina)
Mariano Yacovino (Director de Educación de Microsoft Argentina)

Mariano Ruani también destacó que la IA brinda la posibilidad de ser más creativos, porque uno puede ayudarse a pensar actividades más entretenidas y consultar otras experiencias. Pero está claro que ChatGPT necesita estar acompañado por un maestro. “Tiene determinados riesgos que hay que conocer”, dijo, y habló, entre otras cosas, del sesgo, la falta de contextualización y la “alucinación” en las respuestas —contenidos equivocados que requieren de una recepción crítica para reconocerlos como tales—. “Muchos piensan cómo nos van a hacer trampa los chicos”, dijo, “y para mí es cómo la usamos para mejorar el aprendizaje, para que los chicos sean mejores, más creativos y aprendan mejor. Después veremos cómo los evaluamos”.

Actualmente hay dos grandes posturas a nivel educativo: hay instituciones que prohíben el uso y hay otros enfoques en los que se alienta —casi se obliga— su uso. “Esos docentes reconocen que los alumnos son mucho mejores que si no la usan”, dijo Ruani, “y, además, va a estar en toda la sociedad: no aprender a usarla es negarle una oportunidad a los chicos”.

Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)
Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)

Los límites de ChatGPT está en las sutilezas. Yacovino pidió hacer la prueba y preguntarle, por ejemplo, cuántas bananas se pueden comer en ayunas. La IA respondió que no hay un número fijo, cuando la pregunta era capciosa y la respuesta era clara: sólo una. Después de esa banana ya no hay ayuno.

“Nosotros vemos la computación como algo determinístico y esto es probabilístico”, explicó Ruani. “Todas las respuestas tienen determinada probabilidad de ser ciertas. Por eso ChatGPT aprueba un examen, pero lo hace con ocho, nunca con diez. El problema es que cuando hablamos con una computadora le empezamos a creer. Si la primera vez está bien, la segunda también, ya a la quinta no chequeás más y por ahí te dijo cualquier cosa. El problema es que cuando se equivoca, se puede equivocar por una barbaridad”.

“La AI tiene que ver más con buscar patrones en los datos y clasificarlos. Si el modelo está mal entrenado, puede tener errores”, dijo Brey, que además destacó que la tecnología no está todavía capacitada para suplir a Google. “Pero”, dijo, “esta es la punta del iceberg”.

https://www.infobae.com/educacion/2023/03/21/de-la-educacion-tradicional-a-la-educacion-con-inteligencia-artificial-como-tomar-una-postura-frente-a-chatgpt/

Comparte este contenido:

CII-OVE: 5 aplicaciones con inteligencia artificial que puedes utilizar en la educación gratis.

Luz Palomino/CII-OVE

Queremos comenzar por el concepto de lo que define la IA el cual ha cambiado con el tiempo, pero en el fondo siempre ha existido la idea de construir máquinas que sean capaces de pensar como humanos.

Después de todo, los seres humanos han demostrado ser especialmente capaces de interpretar el mundo que nos rodea y utilizar la información que recogemos para lograr el cambio.

Por lo tanto, puede pensarse que la inteligencia artificial simula la capacidad de pensamiento abstracto, creativo y deductivo, y particularmente la capacidad de aprender, utilizando la lógica digital y binaria de los ordenadores.

Expertos la definen como: 

La IA es habilidad de los ordenadores para hacer actividades que normalmente requieren inteligencia humana. – Lasse P. Rouhiainen, experto en IA y Blockchain.

El objetivo de la IA es que los ordenadores hagan la misma clase de cosas que puede hacer la mente. – Margaret A. Boden, experta en Informática y autora del libro Inteligencia Artificial.

Podemos notar que ambas definiciones coinciden en que la inteligencia artificial busca realizar procesos similares a los de un ser humano, es decir, su “mente” está diseñada para pensar con autonomía.

Pero ¿realmente la inteligencia artificial puede “pensar” como nosotros? Según los expertos, aunque existen sistemas avanzados que pueden imitar a los humanos, hasta el momento no existen máquinas que puedan razonar como nosotros, ya que nuestros procesos cognitivos son distintos.

La inteligencia Artificial en el sector educativo

El vínculo entre la IA y la educación consiste en tres ámbitos: aprender con la IA (por ejemplo, utilizando las herramientas de IA en las aulas), aprender sobre la IA (sus tecnologías y técnicas) y prepararse para la IA (por ejemplo, permitir que todos los ciudadan@s comprendan la repercusión potencial de la IA en la vida humana). La inteligencia artificial (IA) tiene la capacidad de hacer frente a algunos de los mayores desafíos que afronta, hoy en día, el ámbito de la educación, de desarrollar prácticas de enseñanza y aprendizaje innovadoras.

Te presentamos algunas aplicaciones de IA que puedes usar en la educación: 

  • Deep L

Esta herramienta traduce automáticamente textos y archivos hasta en 26 idiomas, sin perder su significado. Es intuitivo y fácil de usar y, además, es gratuito para el usuario habitual. Se puede acceder online para traducciones de hasta 5000 caracteres o integrarlo en el ordenador con la versión PRO.

El software inteligente es muy útil para redactores ya que aumenta su productividad al máximo. Tiene un glosario que permite corregir las palabras directamente en el texto de terminado, lo que resulta increíblemente cómodo y productivo.

https://www.deepl.com/es/translator/files

  • Craiyon (antes conocido como DALL-E Mini)

Esta herramienta es más conocida por su primer nombre, “DALL-E Mini”. Pero, en realidad, no está asociado con DALL-E, el sistema de IA abierto que genera imágenes realistas a partir de instrucciones de lenguaje natural (actualmente cerrado al público y con una larga lista de espera).

“DALL-E Mini” es un proyecto independiente alojado en Hugging Face y que ahora ha sido relanzado con un nuevo sitio web: Craiyon. Lo que lo hace especial es que está basado en el enfoque de imágenes a partir de texto de DALL-E, pero es de acceso abierto y gratuito.

No es ninguna sorpresa que esta herramienta haya surgido en junio de 2022 como fuente líder de memes de AI. Lo único que necesitas para empezar es abrir el sitio web y escribir un texto que se convierte en una instrucción para la IA, que examina su base de datos para evaluar la orden y “crear” un nuevo conjunto de nueve imágenes relevantes. Es la herramienta más sencilla y accesible de esta lista.

https://www.craiyon.com/#

  • Deep Dream Generator

Esta herramienta, basada en la tecnología de Google, se ha vuelto viral en varias ocasiones a lo largo de los años, gracias a su capacidad de “soñar” a partir de las imágenes que se cargan. “Soñar” es la palabra que usan los desarrolladores para describir el efecto surrealista y arremolinado que resulta cuando el modelo analiza y busca patrones en una imagen.

Actualmente, es fácil registrarse en Deep Dream Generator y empezar a editar imágenes con este efecto onírico. Obtendrás una cantidad de energía informática gratis cada hora, pero puedes suscribirte a los paquetes de pago si quieres crear más de lo que te permite el límite.

Para una transferencia de estilo neuronal básica (en la que una imagen adopta el estilo de otra), solo tienes que cargar tu imagen y elegir un estilo de su biblioteca o añadir una segunda imagen de la que imitarlo.

También puedes cargar tu imagen y seleccionar la opción deep dream para conseguir un resultado psicodélico. Cuando se genere la imagen, podrás editar cosas como la intensidad del estilo.

  •  Wombo: tiene una Inteligencia Artificial incorporada que genera dibujos en base a una frase que le escribamos.

https://dream.ai

  • Quick, draw

En español significa ‘dibujo rápido’ y es un juego creado por Google que reta a realizar un dibujo de seis objetos con el ratón en menos de 20 segundos. Este programa posee una red neuronal de 322 imágenes. Cada una de ellas tiene alrededor de 120.000 dibujos hechos por personas (reales) que han servido de entrenamiento para averiguar si mientras se dibuja el objeto pintado corresponde al solicitado.

https://quickdraw.withgoogle.com/

 

Comparte este contenido:

Mundo: OpenAI lanza nueva versión de ChatGPT para ciertas tareas

Mundo/17-03-2023/Autor: Agencia AFP/Fuente: www.elsalvador.com

La start-up californiana presentó este martes 14 de marzo la GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

La start-up californiana OpenAI, que lanzó con gran éxito a finales de 2022 la interfaz ChatGPT, capaz de generar todo tipo de textos bajo demanda, presentó este martes GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

«GPT-4 es un gran modelo multimedia, menos hábil que los humanos en muchos escenarios de la vida real, pero tan bueno como los humanos en muchos contextos profesionales y académicos», dijo la compañía en un comunicado.

«Por ejemplo, aprobó el examen para convertirse en abogado con una puntuación tan buena como el 10% superior. La versión anterior, GPT 3.5, estaba al nivel del 10% de los menos buenos», agregó.

OpenAI, que ha recibido miles de millones de dólares de Microsoft, se ha consolidado así como líder en IA generativa con sus modelos de generación de texto, pero también de imágenes, con su programa DALL-E.

Su jefe, Sam Altman, explicó recientemente que ahora está trabajando en la llamada inteligencia artificial «general», es decir, programas con capacidades cognitivas humanas.

«Nuestra misión es garantizar que la IA general, los sistemas de IA más inteligentes que los humanos en general, beneficien a toda la humanidad», dijo en el blog de la compañía el 24 de febrero.

Las capacidades multimedia son un paso en esa dirección.

ChatGPT de Open AI Foto de referencia / Archivo AFP
Foto de referencia / Archivo AFP

A diferencia de las versiones anteriores, GPT-4 está dotado de visión: puede procesar texto pero también imágenes. Sin embargo, solo genera texto.

OpenAI también señala que, a pesar de sus capacidades, GPT-4 tiene «limitaciones similares» a sus predecesores. «Todavía no es completamente confiable (inventa hechos y comete errores de razonamiento)».

La compañía anunció que ha contratado a más de 50 expertos para evaluar los nuevos peligros que podrían surgir, por ejemplo para la ciberseguridad, además de los ya conocidos (generación de consejos peligrosos, código informático defectuoso, información falsa, etc.).

Fuente e Imagen: https://www.elsalvador.com/entretenimiento/tecnologia/tecnologia-openai-lanza-nueva-version-de-chatgpt/1046872/2023/

Comparte este contenido:

La alarmante visión de Noam Chomsky sobre la Inteligencia Artificial de ChatGPT

Por: Alexis Paiva Mack

 

El reconocido lingüista y filósofo escribió un artículo junto a dos especialistas, en el que compartió su visión sobre los avances que se han presentado en el campo de la inteligencia artificial. Acá, los motivos de por qué Noam Chomsky mira con escepticismo la tecnología de programas como ChatGPT, entre otros.

Para los interesados en el ámbito de la tecnología, aplicaciones de inteligencia artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de OpenAI, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

.

Computador. Foto referencial: CU.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja —al menos ahora— a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

Noam Chomsky: su alarmante visión sobre la Inteligencia Artificial de ChatGPT

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.

“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.

Noam Chomsky. Foto: Uli Deck / AP.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (…) sino crear explicaciones”.

La “capacidad crítica” de los programas que funcionan con IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

“Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

“Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: ‘La manzana cae’. Eso es una descripción. Una predicción podría haber sido la afirmación: ‘caerá si abro la mano’. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como ‘cualquier objeto de este tipo caería’, más la cláusula adicional ‘debido a la fuerza de la gravedad’ o ‘debido a la curvatura del espacio-tiempo’”.

De esta manera, añadieron que “eso es una explicación causal: ‘la manzana no habría caído de no ser por la fuerza de la gravedad’ (…) eso es pensar”.

Ilustración de Isaac Newton. Foto referencial: Mary Evans Picture Library.

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

“ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La perspectiva moral desde la Inteligencia Artificial

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

Robot. Foto referencial: Yo, robot (película).

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

Fuente de la información e imagen: https://www.latercera.com

Comparte este contenido:

¿Cómo tomar una postura frente al ChatGPT?

Por: Sofía García-Bullé

¿Cómo pueden posicionarse las instituciones de educación superior frente a la inteligencia artificial para proteger la integridad académica sin coartar el avance de la innovación educativa? Conoce más sobre la postura del Tec de Monterrey.

En artículos anteriores, hablamos de la necesidad de las universidades de replantearse su código de ética ante el avance tecnológico que representan las imágenes generadas con inteligencia artificial (IA) y el ChatGPT. El rol principal debe ser el de los estudiantes, y su trabajo junto con los profesores y expertos en tecnología para encontrar un balance entre el potencial de la herramienta y la regulación de su uso.

Fuera del tema del alumnado, existe otra vertiente de vital importancia para asegurar un futuro educativo beneficiado por este recurso. El posicionamiento de las instituciones de educación superior. Estas también han de encontrar un terreno común entre la restricción y la flexibilidad. El Tecnológico de Monterrey recientemente se pronunció con respecto al tema.

«Como institución educativa, vemos en estas nuevas herramientas de inteligencia artificial, oportunidades para impulsar los procesos de enseñanza-aprendizaje y estamos trabajando en explorar las mejores formas para desarrollarlas, como es el caso del Instituto para el Futuro de la Educación (IFE)«, externó el Tec en su comunicado oficial, firmado por el Rector de Profesional y Posgrado, Juan Pablo Murra, y La Vicepresidenta de Integridad y Cumplimiento, Paulina Campos.

Dentro del documento también se menciona que el Modelo Tec21, el reglamento y la retroalimentación de los docentes serán la base para desarrollar un enfoque prudente que facilite aprender y evaluar las implicaciones operativas de la inteligencia artificial en un contexto académico.

La guía de los profesores

Para entender mejor las implicaciones de la inteligencia artificial y cómo integrarla a la dinámica didáctica necesitamos la guía de los profesores. La profesora Reyna Martínez, quién nos acompañó anteriormente en nuestro webinar sobre chatbots en la educación, ofrece una perspectiva clara para comprender lo que es la herramienta, cómo funciona, porqué no hay que tenerle miedo y cómo con el uso correcto puede ser instrumental para el futuro de la educación.

La profesora Martínez explicó en sus impresiones sobre el tema para el Observatorio IFE, que el uso cotidiano de recursos como el ChatGPT es inevitable. La forma en que esta tecnología evolucionó, con la expectativa de ser accesible a todo el mundo para mejorar y facilitar la vida de las personas, la llevó a ser un recurso muy concurrido por los estudiantes. «Como docente entiendo la preocupación e inquietud que el ChatGPT ha desencadenado en la comunidad educativa. Su manejo del lenguaje natural es fluido y estructurado y conforme pase el tiempo irá mejorando».

Además, la profesora elaboró sobre las prestaciones del ChatGPT pero aclaró que no es perfecto, al alimentarse de los documentos que se encuentran en internet hasta el año 2021, comete errores o toca los temas que se le piden de manera superficial. Pero ya sea por esta limitación o por la posibilidad de que sea usado para actos de deshonestidad académica, la profesora sostuvo que una agenda restrictiva contra la inteligencia artificial entre la universidades podría ser contraproducente para los estudiantes y las buenas prácticas didácticas.

«Pensar en prohibir su uso no sólo privará a nuestros estudiantes de conocer su potencial sino inhibir el desarrollo de competencias que le permitan interactuar con este tipo de tecnología y que pronto serán necesarias para desarrollarse en el ámbito escolar, personal y laboral».

Para aproximarse a la IA

La profesora Reyna Martínez presenta un argumento importante sobre la necesidad de las instituciones educativas de adoptar la inteligencia artificial (IA) y aprender sobre el uso de estas tecnologías. Si se contrata como competencia profesional en el mercado laboral, entonces el deber ético de los formadores no es alejar a los estudiantes de la inteligencia artificial, sino explorar su uso positivo y ético, para transmitir estas enseñanzas a sus educandos.

Entre las recomendaciones emitidas por la profesora destaca un llamado a los docentes a conocer y manejar el ChatGPT, familiarizarse con lo que puede hacer, y ser los primeros en conocer estas capacidades, no sólo para monitorear a los estudiantes, sino para aprovechar que la IA es experta en producir esas tareas y ejercicios que pueden parecer repetitivos.

Crear conciencia acerca de las consecuencias e impacto para el aprendizaje que pueden causar los ejercicios deshonestos con este tipo de tecnología es otro punto importante a considerar. Incluir a las cabezas de familia en esta conversación será de gran ayuda para obtener nociones claras y duraderas que influyan para bien en la integración del ChatGPT a la práctica educativa.

Definir objetivos y competencias a desarrollar ayudará a tener un mejor entendimiento de lo que la IA puede hacer en el aula, algunas sugerencias que la profesora Martínez mencionó incluyeron: actividades en el salón de clases, evaluaciones orales, mapas mentales, realización de videos, trabajos colaborativos y asistencia creativa para los estudiantes.

El esfuerzo de diálogo rumbo a la creación de nociones éticas también debe incluir el tema de la privacidad. La profesora elaboró en una arista que no muchas personas ven debido al enorme interés de proteger la honestidad académica. Cada vez que utilizamos el ChatGTP estamos contribuyendo a su educación, esto ya conlleva en sí un dilema. Además, las compañías desarrolladoras tienen acceso a las conversaciones generadas por la IA. Este es un aspecto que debería llamar más nuestra atención, sobre todo en el caso de los estudiantes menores de edad.

¿Qué piensas sobre capacidades de la inteligencia artificial y cómo está cambiando la forma en las prácticas didácticas? ¿Crees que vale la pena mantener una mente abierta para descubrir su uso ideal? ¿Consideras que sería una muleta para el estudiantado y un obstáculo para la honestidad académica? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/como-tomar-una-postura-frente-al-chatgpt/

Comparte este contenido:

Siete habilidades que serán tendencia en 2023

Por: Sofía García-Bullé

Este año sobresaldrán los profesionistas con pensamiento crítico y capacidad de adaptación, entre otras habilidades.

El debate sobre la intervención de la Inteligencia Artificial (IA) en las disciplinas del arte y la comunicación ha tomado por asalto la conversación en las comunidades productoras de contenido. No hay un consenso aún sobre el impacto de las implicaciones éticas del uso de la IA para sustituir el trabajo artístico y de comunicación humana, ni lo que representa para el futuro del mercado laboral. Pero lo que sí sabemos es que este nuevo uso de la tecnología hará necesario el desarrollo de habilidades que no pueden ser replicadas por máquinas.

Desde hace años ya se hablaba de la posibilidad de un cambio en el conjunto de habilidades que serían valoradas por los empleadores ante el perfeccionamiento de la inteligencia artificial. «Algunos trabajos serán automatizados, pero al mismo tiempo, la Inteligencia Artificial ofrecerá oportunidades para que las compañías generen valor, y nuevos empleos que cambien en énfasis en los tipos de habilidades necesarias para sobresalir», comentó Rachel Russell, Directora de Estrategia de Marketing Corporativa para Aegis Group en 2021. La predicción fue certera. Hoy, las habilidades humanas (también conocidas como soft skills o power skills, como han sido rebrandeadas recientemente), son el diferenciador más importante para mantenerse vigente. ¿Cuáles son las habilidades humanas más valiosas en 2023? A continuación te compartimos  algunas de las más buscadas.

Siete habilidades humanas más valiosas en el 2023

Alfabetización digital

La alfabetización digital comprende las competencias para trabajar y navegar dentro del mundo digital. Consiste en el uso óptimo de dispositivos, software y aplicaciones en el día a día del trabajo de oficina. Las empresas necesitan personas que puedan comunicarse y colaborar fácilmente usando recursos tecnológicos, que se mantengan actualizadas y que entiendan el impacto que estas herramientas pueden tener en su labor y rubro profesional.

Creatividad

La disposición de generar nuevas ideas, imaginar más allá de del statu quo y como influye este proceso en la creación de de soluciones y su implementación para resolver y mejorar condiciones en la ejecución de de un proyecto va a ser una habilidad crítica en las oficinas del futuro. Un trabajador creativo tiene más posibilidades de producir ideas que hagan frente a problemas que vengan con ocurrencias nuevas como el trabajo remoto y las tecnologías emergentes.

Adaptabilidad

En más de tres años de pandemia, uno de los aprendizajes más importantes es que el cambio es inevitable y que no siempre vamos a poder elegir el momento y formas en las que este llegue. Los profesionales que desarrollen la resiliencia mental para navegar eficientemente todos estos cambios, aprovecharlos y aprender de ellos serán recursos invaluables para todas las empresas de cualquier rubro.

Pensamiento Crítico

El pensamiento crítico consiste en analizar información y situaciones priorizando la evidencia y los datos comprobables por encima de lo escuchado y las opiniones. En una época en la que los espacios digitales son dominados por burbujas de contenido, piezas tendenciosas y noticias falsas, esta habilidad se ha vuelto de primera necesidad en todos los niveles educativos y profesionales. Es un auxiliar crítico para la toma de decisiones efectiva.

Liderazgo

El liderazgo no será una habilidad exclusivamente necesaria para quienes estén al frente de un equipo en 2023. La evolución del clima organizacional apunta a agrupaciones más distribuidos, trabajos por proyectos, grupos más diversos y una mayor horizontalidad en las relaciones laborales. Ejercer valores de liderazgo como motivar, inspirar y dar apoyo a un equipo sin importar en qué posición del organigrama estemos, va a ser crucial en un futuro próximo.

Comunicación

Siempre una habilidad básica en la fuerza de trabajo, la comunicación tomará un rol más crítico en un mundo pospandemia en el que el trabajo remoto ha llevado a los equipos a encontrar nuevas formas de colaborar. Desde redacción de correos electrónicos, hasta análisis y comprensión de lenguaje no verbal en juntas de trabajo, las competencias de comunicación será determinante para la realización de un buen trabajo grupal.

Inteligencia Emocional

La inteligencia emocional es la capacidad de identificar, entender y manejar tus propias emociones, así como identificar y empatizar con las de otras personas. Ayuda a construir y mantener mejores relaciones de trabajo. Lo anterior se traduce en mejores resultados en la ejecución de proyectos, ya que reduce la dificultad del trabajo humano a través del conocimiento y el manejo de las emociones propias y las de los miembros de un equipo.

¿Habías visto estas habilidades en alguna otra lista de capacidades valiosas para este año? ¿Qué piensas de éstas? ¿Crees que pueden ser útiles en este nuevo ciclo? ¿Crees que faltó alguna de mencionar? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/siete-habilidades-que-seran-tendencia-en-2023/

Comparte este contenido:

ChatGPT o cómo la inteligencia artificial puede empujar a cambios metodológicos de enseñanza

Por: 

La IA ya es una realidad, al menos, en cierta medida. Hace unos días El País publicaba un reportaje en el que se había puesto a prueba a ChatGPT, un software de libre acceso. Había conseguido aprobar un examen de acceso a la universidad. ¿Qué implicaciones puede tener?

ChatGPT es un software de libre acceso. En la web puedes lanzar una pregunta que él la responde según unas ciertas características. Tal es el punto que puede llegar a escribir composiciones completas que hoy por hoy ya se están utilizando en el sector educativo. Una nueva vuelta de tuerca al concepto clásico del Rincón del vago.

Linda Castañeda es doctora en Tecnología Educativa y profesora titular en la Universidad de Murcia. Hablamos con ella de las implicaciones que un software de esta clase puede llegar a tener en las universidades. Explica que aunque ahora ChatGPT ha saltado a la palestra el uso de IA no es especialmente nuevo en el sector educativo y que ya hace algún tiempo que se vienen usando herramientas, tal vez no tan sofisticadas como esta.

Ya hace tiempo que se usan programas para detectar cuándo el alumnado ha hecho un trabajo a base de copiar y pegar textos de otros. De ahí se pasó a herramientas que eran capaces de parafrasear, “es difícil que sea detectado”, comenta Castañeda.

Esta doctora tiene claro que el problema no es tanto el uso de este tipo de herramientas informáticas para la elaboración de textos. “Nos hemos empeñado durante todo el desarrollo de la tecnología en cómo vamos a hacer otra tecnología que evite que nos engañen” pero, para ella, “el asunto es qué significa escribir un trabajo académico, algo muy complejo”.

En una conversación informal, una docente universitaria comentaba cómo una de sus alumnas le había entregado un trabajo plagiado de arriba abajo. Solo había cambiado el nombre de la autoría del texto. Una búsqueda rápida le había dado la respuesta a sus dudas. La alumna, suspendida, había pedido revisión con ella. Las normas de la Universidad eran claras, según explicaba. La docente debería haber avisado a los servicios jurídicos de la universidad para que tomaran cartas en el asunto. Así se lo hizo saber a la alumna que, en un alarde de ignorancia o de huida hacia adelante, aseguraba que no sabía que se trataba de un plagio.

“Parece que nuestro objetivo como profes es que no nos engañen, no que los estudiantes aprendan X, sino que no me engañen”, continúa Castañeda. Para esta profesora, la clave pasa porque el alumnado comprenda que la cosa pasa por no engañarse a sí mismo, porque aquello que vaya a hacer en la escuela, la universidad, no sea como hacerse trampas al solitario.

Rafael Porlán es catedrático de la Universidad de Sevilla. Dedica buena parte de sus esfuerzos, desde hace años, a la formación docente del profesorado de la institución en la que trabaja. Cree que cuestiones como las que plantea la IA no son más ni menos que una “crisis del modelo transmisivo tradicional”. Él apuesta por modelos activos, de proyectos de investigación.

Según su opinión, cuando el alumnado utiliza este tipo de trucos no hace mucho más que responder al propio sistema de enseñanza. “Si el modelo me ignora, copio; busco trabajos para evitarme esfuerzos”, asegura.

Desde su punto de vista es necesario que “todo lo que el alumno pueda hacer, lo haga”. De esta manera, “los docentes organizamos el trabajo para que el alumnado agote su capacidad y, después, tirar de ellos y que lleguen más lejos”. Y cita a Vygotsky y su teoría y su teoría del desarrollo próximo. “Si te pongo un reto, te muevo, la gente se crece”, asegura Porlán, quien tiene claro que “lo que producen tiene limitaciones, pero ya se han involucrado y, a partir de ahí, puedes pedirles mucho más”.

Castañeda da clases a quienes serán el futuro de la profesión docente. Es consciente de que su alumnado hoy por hoy ya está hacen uso de ChatGPT para algunas de las cosas que se les piden desde la Universidad. “Sé que están usándolo para resolver tareas sencillas. La idea es cómo hacer que sean conscientes del potencial que tiene y que eso mismo se lo harán sus estudiante”. Por eso insiste en que lo importante es “generar tareas que tengan relevancia y que con ChatGPT le puedan ser de utilidad”.

La misma profesora que hablaba del plagio de una de sus alumnas, también señalaba cómo en algún máster con un gran volumen de alumnado extranjero era más o menos sabido que los trabajos finales que se pedían los compraban a terceras personas. Entre otras cosas, porque no dominaban el castellano como para haberlos elaborado.

“Ser capaz de reproducir la información hace tiempo que no es lo más importante del aprendizaje o de la educación”, afirma Castañeda. Para esta doctora está claro que el contenido, siendo relevante no es lo sustancial de toda esta cuestión. Sobre todo “porque habrá otra herramienta que lo pueda reproducir”.

Para ella, herramientas como ChatGPT, ahora mismo, producen mucha sorpresa pero “no está ni mucho refinado, ni es infalible ni las respuestas son brillantes” y vuelve al inicio: “la pregunta es hasta qué punto estamos dando a nuestros estudiantes algo más que una respuesta ramplona, hasta qué punto hacemos propuestas a los estudiantes que les pidan ir más allá”.

“Si eso pretendemos de los humanos, que trasciendan, tendremos que hacer que la escuela a la que asistan, les enseñe a ser trascendentes y pensar más allá”, asegura Castañeda. “Tenemos que plantearnos cosas serias”, zanja.
Esta doctora también asegura que es importante ver los posibles usos de herramientas de inteligencia artificial. Habla de cómo algunos compañeros las utilizan para, por ejemplo, crear algunos contenidos introductorios: “Los 5 libros clave sobre no sé qué. Para empezar, viene bien. O preguntarle cuáles son las 5 tesis más relevantes” en algún tema concreto para luego comentarlo en la clase.

Todo esto, además de suponer un acicate para cambios metodológicos, también puede suponer la obligación de cambiar los modelos de evaluación, como explica Castañeda, “para que no acabe evaluando a ChatGPT”. “La evaluación debe ver si el alumno aprende. ¿Qué significa esto? Es algo que le pregunto a otros docentes. Qué significa en tu materia que el alumnado aprenda. Habrá que responder a esto en un mundo en el que la IA está al alcance de la mano. Ya no pasa en las películas o la ciencia ficción”.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/01/30/chatgpt-o-como-la-inteligencia-artificial-puede-empujar-a-cambios-metodologicos-de-ensenanza/

Comparte este contenido:
Page 9 of 49
1 7 8 9 10 11 49