https://www.instagram.com/reel/DDsS83lvtIk/?igsh=MWs0cXdycDd0dWU5cg==
https://www.instagram.com/reel/DDsS83lvtIk/?igsh=MWs0cXdycDd0dWU5cg==
Expertos reunidos por la Fundación Omar Dengo (FOD) destacaron la importancia del uso responsable de teléfonos celulares en las aulas, enfatizando el rol de la familia y la necesidad de capacitación docente.
Según datos de la Universidad de Costa Rica y la Fundación Paniamor, el 73,9% de los menores en Costa Rica tienen acceso a internet a través de sus celulares. Sin embargo, estos dispositivos no se aprovechan adecuadamente en las escuelas.
Los panelistas del foro “Jóvenes en la era digital: Dispositivos móviles y su uso responsable” coincidieron en que las tecnologías digitales son herramientas valiosas para transformar la educación, pero deben ser guiadas por adultos responsables que inculquen valores éticos y respeto.
Enfatizaron la importancia de educar a los jóvenes sobre protección de datos personales y manejo crítico de la información, especialmente en un contexto de posverdad y desinformación.
La familia juega un papel crucial al enseñarles a usar los celulares de manera responsable, comenzando con la educación en valores.
Los expertos también destacaron la necesidad de programas formativos en alfabetización digital en las instituciones educativas y capacitación continua para docentes en el uso pedagógico de herramientas digitales.
Según Otto Silesky Agüero, presidente de la FOD, “es muy importante que Costa Rica vea los dispositivos digitales como herramientas pedagógicas que pueden ser aliadas para el acceso al conocimiento. No hay que tenerle miedo a lo nuevo, sino aprovecharlo para construir una ciudadanía digital consciente y responsable”.
https://elmundo.cr/costa-rica/uso-responsable-de-celulares-en-el-aula-expertos-abogan-por-educacion-y-formacion-docente/
El uso de las pantallas en las aulas ha ocasionado en los últimos tiempos una importante división entre aquellos que las defienden y los que que están en contra de ellas: mientras que los primeros destacan que se fomenta un aprendizaje personalizado, se desarrollan habilidades digitales o se garantiza el acceso a una mayor cantidad de recursos educativos, los segundos hablan de que los dispositivos tecnológicos afectan a la concentración o generan dependencia. Manuel Area-Moreira, catedrático de Tecnología Educativa de la Universidad de La Laguna (Tenerife) e investigador principal del Laboratorio de Educación y Nuevas Tecnologías (EDULLAB), defiende que lo que hay que hacer es formar a los estudiantes para que desarrollen un espíritu crítico, y sean capaces de interactuar con la tecnología, en especial con la inteligencia artificial, de un modo eficaz y seguro.
Pregunta: ¿Qué opina del acalorado debate que ha habido en redes y medios de comunicación en los últimos meses sobre el uso de tecnología en las aulas?
Respuesta: Hay demasiado ruido mediático y mucha confusión en este debate. Es comprensible el malestar y preocupación de las familias y de los docentes ante los efectos nocivos provocados por la sobreutilización de las pantallas por niños y adolescentes, pero considero que es un error la legislación prohibicionista de la tecnología móvil en las aulas. Lo preocupante (y criticable) es que este conjunto de regulaciones administrativas se plantea sin que ofrezcan simultáneamente medidas de actuación educativa ante los problemas enunciados. Subyace la creencia, ingenua a todas luces, que vetando o proscribiendo la presencia de las tecnologías móviles en los espacios escolares se protegerá, de forma casi mágica, a los menores de edad de los efectos dañinos de dichos dispositivos. Tampoco existe ninguna evidencia científica que impidiendo el uso de la tecnología en las aulas el alumnado mejorará su aprendizaje, o que evitará sus efectos negativos como son la tecnoadicción, el consumo de contenidos inapropiados o el ciberbullying. Estas prácticas nocivas de uso de la tecnología por adolescentes ocurren en el tiempo extraescolar, no en los centros educativos. En otras palabras, prohibir los móviles en las aulas no es la solución pedagógica más adecuada.
P: ¿Qué habilidades necesita desarrollar el profesorado ante la progresiva digitalización de las aulas?
R: Todo docente, además de dominar el contenido o conocimiento que enseña, debe ser competente didácticamente, es decir, ser capaz de crear las condiciones para facilitar la adquisición del conocimiento por el alumnado. Tiene que ser, asimismo, competente digitalmente y poseer los saberes y las capacidades para utilizar la tecnología con fines pedagógicos. Esta competencia digital consiste en crear materiales didácticos en formato digital, planificar y desarrollar proyectos y actividades de aprendizaje a través de los recursos de Internet, tutorización y evaluar a su alumnado empleando las herramientas tecnológicas, autoformarse y colaborar online con otros colegas docentes, entre otras.
P: ¿Y los desafíos a los que se enfrenta?
R: El principal desafío docente es formar a su alumnado para que sean personas competentes, cultas y críticas que sepan desenvolverse exitosamente en la complejidad cultural y técnica de la sociedad digital. Esto es lo que se conoce como la formación o alfabetización para el desarrollo de la competencia digital del alumnado. Esta competencia no consiste solo en que los estudiantes aprendan a manejar aparatos tecnológicos y software, sino en desarrollar las habilidades intelectuales de alto nivel cognitivo (crear, analizar, comparar, seleccionar, reelaborar) que les permitan interactuar con la información y el conocimiento disponible en el ciberespacio. También debe formarse al alumnado para que sea un sujeto con actitudes, valores y compromiso con los demás. Paralelamente también implica formarles como personas con equilibrio emocional para el uso consciente y autorregulado de las redes sociales y tecnológicas.
P: ¿Qué limitaciones percibe en el uso de las tecnologías en estos momentos?
R: Más que limitaciones, diría que existen usos disfuncionales de la tecnología como son la excesiva dependencia y cantidad de tiempo conectados a la misma por parte de los menores de edad, el acceso a contenidos perniciosos o nocivos (violencia, pornografía, apuestas, acosos, etc.), difusión acelerada del narcisismo o exhibición pública de la vida privada, el consumo y aceptación acrítica de ideas y noticias falseadas… Todo esto son fenómenos preocupantes ante el sobreuso de las redes tecnológicas y necesitan respuestas educativas tanto desde las escuelas como desde los hogares.
P: ¿Cómo introduciría las TIC para garantizar un aprendizaje significativo y personalizado?
R: Hace ya tiempo que sabemos que las TIC, por sí solas, no generan automáticamente aprendizaje en los estudiantes. Ocurre si detrás de la introducción de las TIC en el aula, el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial. Esto supone articular planificaciones y metodologías didácticas donde se le pida al alumnado que sea un creador de objetos digitales de conocimiento (en formato texto, vídeo, audio…) que pueden compartirse y difundirse en Internet, favoreciendo el trabajo colaborativo y grupal tanto con sus compañeros de clase como con estudiantes de otros centros. Las TIC deben ser utilizadas, didácticamente como recursos que facilitan y permiten al alumnado ser creadores del conocimiento y no meros consumidores del contenido que les proporcionen las pantallas.
P: ¿Qué hay que tener en cuenta a la hora de elegir plataformas y herramientas digitales?
R: En la selección de plataformas o herramientas digitales para ser empleadas educativamente debemos estar atentos a que las mismas cumplan una serie de requisitos básicos de respeto a la privacidad de los datos e informaciones personales. Necesitamos plataformas y herramientas digitales que no se apropien y exploten comercialmente los datos generados por los agentes educativos, sino que las mismas sean transparentes y estén al servicio de las necesidades del profesorado y alumnado.
P:¿Qué tecnologías tendrán un impacto mayor en la educación en los próximos años?
R: No soy profeta, pero es predecible que las tecnologías denominadas inteligentes son las que se extenderán e impactarán en los próximos años tanto en nuestra sociedad como en el ámbito educativo. Conceptos como las analíticas del aprendizaje, la tutorización automatizada, la personalización o individualización del aprendizaje, la automatización de los procesos instructivos… probablemente empezarán a estar generalizados en el campo educativo. Asimismo, creo que se producirá un aumento de las modalidades formativas híbridas que supongan una mezcla o combinación de situaciones de enseñanza presencial con espacios de aprendizaje virtuales.
P: En el caso de la inteligencia artificial. ¿Cómo puede esta tecnología mejorar el proceso de enseñanza y aprendizaje? ¿Cuáles son los retos más inmediatos que debe abordar?
R: Actualmente existen numerosas promesas, expectativas y herramientas sobre las aplicaciones de la Inteligencia artificial (IA) en la educación. De hecho, es muy fácil localizar actualmente en Internet cientos de apps que permiten a los docentes y al alumnado de forma automatizada y fácil crear imágenes, generar videos e infografías, traducir idiomas, elaborar resúmenes, redactar ensayos, planificar proyectos, etc.
Mi punto de vista es que nos falta o carecemos de un planteamiento o modelo de actuación educativa para integrar didácticamente estas herramientas inteligentes en los procesos de enseñanza. No tiene sentido pedir a los estudiantes las mismas tareas intelectuales que se les solicitaba en los tiempos previos a la IA, ya que estas máquinas se las resuelven en poco tiempo y no suponen un esfuerzo cognitivo relevante en el aprendizaje.
El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas. Por ello los nuevos retos formativos son que el alumnado aprenda a formular preguntas y sepa dar las instrucciones necesarias a la IA para que les ofrezca respuestas necesarias y apropiadas para resolver problemas específicos. Que el alumnado aprenda a desarrollar una actitud y de análisis crítico ante las respuestas que proporcione una IA y dialogue con la misma; que sepa que esta tecnología comete errores y por tanto debe verificarse la información que proporciona; y tome conciencia que es una herramienta de apoyo, pero que lo relevante son las personas quienes generan el conocimiento.
Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/manuel-area-moreira/
Por: Alberto Núñez/Emma Marie Stiwitz
«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras.
«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras. Las tecnologías que nos permiten deshacernos de tareas tediosas existen desde la industrialización. Tampoco el uso de la IA es una novedad en sí misma. Sin embargo, en los últimos años se ha extendido cada vez más a ámbitos que antes se consideraban parte del núcleo humano. Aunque muchos debates giran en torno a cuestiones pragmáticas, como la posible pérdida de puestos de trabajo o los efectos medioambientales, hay un tema que a menudo se deja de lado: la cuestión de qué implicaciones tiene la creciente antropomorfización de la IA para la humanidad y su autoimagen como, en palabras de Kant, un ser «maduro».
Para profundizar en esta cuestión filosófica, nos gustaría examinar algunos de los derechos fundamentales que pertenecen a la dignidad humana, como la libertad individual, la igualdad de oportunidades, y, vinculado a ello, el principio de responsabilidad humana, que nos permite adoptar medidas de reprensión y garantizar la protección jurídica entre los seres humanos.
Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad. La verdadera autodeterminación requiere la protección de la propia intimidad. El hecho de que sistemas de elaboración de perfiles como Alexa hayan establecido una divulgación socialmente aceptable de datos personales ya es preocupante de por sí. Los efectos que la vigilancia puede tener en el ejercicio de las libertades democráticamente garantizadas queda demostrado, por ejemplo, por la tendencia observable a la autocensura en sociedades como China. Una interferencia potencialmente aún más fuerte con la autonomía humana es la influencia de la información basada en perfiles y conformada sobre la propia formación de opinión. Mucho más sutil que un «nudging» convencional, podría sesgar nuestro pensamiento sin que nos diéramos cuenta. Incluso si adoptáramos un enfoque virtual centrado únicamente en modificaciones benévolas, esto va en contra de nuestra visión liberal del humano. Un reciente estudio alemán de la Universidad de Saarland ha demostrado lo importantes que son las decisiones autónomas para experimentar la autoeficacia y el sentido de la vida.
Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad
Además de los aspectos que rodean al responsable de la toma de decisiones, también la externalización de las mismas plantea cuestiones relativas a las consecuencias de los posibles errores y a los afectados.
Para lograr la legitimidad de la sociedad, la toma de decisiones requiere razonamiento. Especialmente las que afectan a los derechos de los demás requieren un alto grado de justificación para garantizar la equidad y la no discriminación. La creciente externalización de los procesos de decisión a la IA, un medio cuya inteligencia cognitiva se basa únicamente en la adquisición de datos, alberga por tanto peligros.
En primer lugar, no es posible crear una IA completamente libre de prejuicios, ya que incluso un sistema de aprendizaje solo puede procesar sobre la base del conocimiento existente. Como Harari describió una vez en una conferencia en 2022, no existe un conocimiento neutro. El nivel educativo de cada época se constituye a partir de un complejo sistema de raíces de experiencias previas. Los grupos especialmente vulnerables pueden ver desatendidos sus derechos a la participación y a la igualdad social, lo que podría verse agravado por la falta de transparencia en los procesos de IA. En una generación más consciente que nunca de su problema de discriminación estructural y frustrada por la lentitud de su superación, la perplejidad de diseñar algoritmos justos podría suponer un especial obstáculo de legitimación. Por ello, los expertos reclaman la creación de normas robustas, que proporcionen seguridad jurídica y comprensibilidad entre todos los sectores de la población.
No obstante, desde un punto de vista más filosófico, cuestionaríamos más fundamentalmente la «externalización» de las decisiones. Aunque la gente se esfuerce por ser objetiva, no debería subestimar la importancia de su sensación subjetiva como corrector decisivo. Esto enlaza con un problema jurídico central: todo nuestro sistema se basa en la asunción de responsabilidad. La culpabilidad se deriva de la acción voluntaria, a pesar de la capacidad de empatía. Este elemento del sujeto constituye la culpabilidad de las malas acciones y la justificación de las medidas de retribución. ¿Y si la IA, cuya «compasión» se limita a una categorización automatizada de los sentimientos, toma una decisión injusta? ¿Podríamos considerar la posibilidad de dotarla de agencia moral, es decir, de «personalidad jurídica»?
¿Y si la IA, cuya ‘compasión’ se limita a una categorización automatizada de los sentimientos, toma una decisión injusta?
Que se trata de consideraciones serias lo demuestra el impulso del Parlamento Europeo para «explorar las implicaciones de todas las posibles soluciones legales (…)» en 2017. Un utilitarista podría alabar la utilidad de unos procedimientos de selección más meritocráticos. Sin embargo, no hay que ignorar lo que el mayor énfasis en el rendimiento hace a nuestros valores sociales. La minimización del contacto interpersonal aumenta el distanciamiento emocional y permite a los actores eludir deliberadamente su propia responsabilidad moral. Según la ética basada en el derecho o deontológica, podría parecer suficiente alcanzar la seguridad jurídica mediante normas predeterminadas, como la responsabilidad estricta del productor, o instrumentos como la autoría vicaria o la «agencia distribuida». En la medida en que los sujetos a regulación puedan predeterminarse, se puede estar de acuerdo con ello. Sin embargo, desde una perspectiva más naturalista, debemos procurar que, al menos en las decisiones que afectan al destino del individuo, la autoridad de control última sea siempre la humana, la emocional.
En conclusión, no se puede pasar por alto que la IA ofrece muchas oportunidades a nuestra sociedad, como el aumento de la eficiencia o la reducción de costes. No obstante, estamos convencidos de que hay áreas fundamentales de la existencia humana que deberían permanecer intactas. La pregunta antes de delegar una determinada acción podría ser: ¿sigo teniendo el control de mis decisiones? ¿Conservo mi «madurez»?
Alberto Núñez es profesor del Departamento de Dirección General y Estrategia de Esade y Emma Marie Stiwitz es estudiante de Grado en Derecho de Esade Law School.
La antropomorfización de la inteligencia artificial, ¿una amenaza para la madurez humana?
En estas circunstancias, en las que las escuelas no han superado del todo las carencias de infraestructura de la tercera revolución industrial: microelectrónica, informática computacional e internet; ya están bien adentrados otros avances mundiales, científico tecnológicos de cuarta generación, que nos colocan frente a nuevas necesidades, retos y debates; los de la educatrónica, robótica e inteligencia artificial.
Sobre los tres tópicos anteriores, se desarrolló un curso-taller interinstitucional CREFAL, SEP, SEE y el IISUE-UNAM[2], al que asistimos docentes de educación básica y después alumnos de comunidades. Ciertamente se trató de un trayecto de formación donde se apremió más lo práctico que la teoría; no obstante, se pueden hacer algunas reflexiones propias y referir otras que fueron colocadas por el equipo de asesores, como posicionamientos epistémicos personales y orientaciones éticas y pedagógicas del grupo de investigadores de la UNAM.
Partimos de la necesidad de aprender de origen los lenguajes, principios y bases de la programación, robótica y la IA para el desarrollo autónomo de las tecnologías convergentes; es decir, en la independencia de los intereses mercantiles y rentables de las Big Tech[3], cuyas orientaciones fundamentales son la alfabetización 3.0 y 4.0 para el consumismo de la estantería material y digital de Lego, Google for Education y otros mega corporativos.
Estas empresas del edunegocio, no son las únicas, pero sí las más presentes en la recolonización cultural escolar, cuyo territorio fue invadido en décadas anteriores por el enfoque de estandarización basado en competencias del Banco Mundial y de la administración gerencial escolar de la OCDE. Antes como ahora, estamos ante ese latente proceso de privatización silenciosa de la educación, a través de modelos empresariales de aprendizaje, transferencias de las economías familiares y salarios docentes a la adquisición de ferretería tecnológica, que no deja de tener un sentido instrumental u operacional de la educación y la tecnología.
Uno de los modelos pedagógicos de la privatización silenciosa más recurridos por las narrativas de multilaterales, organismos empresariales y gubernamentales, es el STEM; que para expiarse de culpas o exfoliarse de críticas, por su clara filiación al reduccionismo productivista de las empresas hegemónicas del capitalismo de la era digital, se ha propuesto agregar a este acrónimo anglosajón la A de arte y la H de humanidades; sin embargo, esto no cambia las nociones que los mega corporativos del imperio norteamericano GATAM (con inclusión de Tesla) o del este asiático BATX[4] que, tras el reseteo mundial de la educación in/pos pandémico, expanden con mayor intensidad la idea de que es urgente formar un tipo de capital humano apropiado para las economías conectadas en sus (recalco el posesivo en plural) plataformas online.
De ahí que, las alianzas estatales con sus instituciones públicas de educación superior, sea un imperativo necesario para fomentar la autodeterminación del bien común en sus sectores estratégicos tecnológicos; además, porque es posible recurrir a experiencias y construcciones propias de metodologías del aprendizaje y el desarrollo de habilidades que han sido pensadas en contextos para la resolución de necesidades humanas y endógenas; cuando esto sucede, las comunidades de aprendizaje que se apropian de los lenguajes y las bases de las ingenierías convergentes, son capaces de crear propuestas utilizando materiales accesibles, reciclables, incluso, resignificando tecnologías comunitarias, justo como sucedió en este curso con los docentes de educación básica.
Para separarse de la noción consumista de lo social, que reduce al ser y la naturaleza como insumos rentables, una vía del pensamiento epistémico es la del “homo complexus, veritas complexa”[5]; entonces, la educatrónica no tendría como objetivo crear robots o la programación de algoritmos, sino el desarrollo integral de la persona, la comprensión y el abordaje de la realidad a partir del diálogo de conocimientos y saberes, para crear soluciones posibles a problemáticas planteadas por una comunidad local/global o propuestas de bienestar social, teniendo como puente estas nuevas tecnologías.
Aquí, podemos abrir otro debate: el lugar para la enunciación de la verdad y la construcción del conocimiento y su validez, tampoco son los dispositivos de las Big Tech ni las inteligencias artificiales o los buscadores digitales de información; todos ellos se producen también desde un territorio político e ideológico de clase social, en tanto burguesías hegemónicas y emergentes del capitalismo cognitivo, digital y de plataformas. Cada sociedad plurinacional o comunidad, que es capaz de tejer alianzas con sus instituciones educativas públicas, saberes e intereses propios, puede tomar otro sentido común, en el que el conocimiento se enuncia y se valida desde el territorio de la soberanía histórico, cultural y científica de los pueblos, por encima de las oligarquías económicas.
Pese a las agendas globales para un mundo mejor, tal es el caso de los ODS[6], discutidas y supuestamente promovidas por estos oligarcas de la tecnología que se reúnen en el Foro Económico Mundial, no sólo evaden educar para una economía solidaria, tampoco lo hacen para una ciudadanía de paz y la sustentabilidad planetaria, sin pobreza ni deterioro ambiental; baste ver los anaqueles de juguetería, repletos de lego y marvel, que son para el desarrollo de habilidades STEM, pero construyendo máquinas robóticas de guerra.
Si el actual modelo educativo de nuestro país, quiere construir una verdadera Nueva Escuela Mexicana, debería seguir fortaleciendo estas alianzas públicas, tomar distancia de la privatización silenciosa de propuestas de desarrollo tecnológico empresarial (como el STEM) y recuperar las propias, continuar con el impulso a los trayectos de formación que den sentido a la autonomía profesional de los maestros y la autodeterminación de las comunidades.
[1] Doctor en Pedagogía Crítica y profesor rural de telesecundaria. Como @levmx666 en la red social X.
[2] Centro de Cooperación Regional para la Educación de Adultos en América Latina y el Caribe (CREFAL); Secretaría de Educación Pública (SEP); Secretaría de Educación en el Estado de Michoacán (SEE); Instituto de Investigaciones sobre la Universidad y la Educación de la Universidad Nacional Autónoma de México (IISUE-UNAM).
[3] Big Tech (Gigantes Tecnológicos).
[4] Acrónimos en español: Ciencias Tecnología Ingeniería Matemáticas (STEM); Google Amazon Tesla Apple Microsoft Meta (GATAM) y Baidu Alibaba Tencent Xiaomi (BATX).
[5] Hombre complejo, realidad compleja.
[6] Objetivos de Desarrollo Sostenible (ODS).
Reseña: CLACSO
*Disponible sólo en versión digital
Esperamos que la lectura de estos artículos contribuya al debate urgente sobre la direccionalidad que como sociedad queremos imprimir a nuestras prácticas a partir de la integración de las tecnologías digitales en todas las dimensiones de la vida. Para que, desde una perspectiva crítica y lúdica, podamos participar con mejores herramientas en la apropiación de estas tecnologías para la emancipación y autonomía. Del Prólogo
Autoras(es): Susana Morales. Elizabeth Vidal. [Coordinadoras]
Editorial/Edición: CLACSO. Red de Investigadores sobre Apropiación de Tecnologías. Facultad de Ciencias Sociales, Universidad Nacional de Córdoba.
Año de publicación: 2022
País (es): Argentina.
ISBN: 978-987-813-224-2
Idioma: Español
Descarga: ¿Quién se apropia de qué? tecnologías digitales en el capitalismo de plataformas
Fuente e Imagen: https://www.clacso.org.ar/libreria-latinoamericana/libro_detalle.php?orden=&id_libro=2588&pageNum_rs_libros=0&totalRows_rs_libros=1652