Page 1 of 8
1 2 3 8

Suiza: La inteligencia artificial, en el centro de los debates del Foro de Davos

La inteligencia artificial, en el centro de los debates del Foro de Davos

El Fondo Monetario Internacional (FMI) ha dado en el clavo en un estudio prospectivo que estima que la IA podría destruir hasta el 60% de los empleos existentes en las economías avanzadas.

¿Qué impacto tendrá la inteligencia artificial en nuestras economías y sociedades? Esta es la pregunta más debatida en el Foro de Davos de este año.

Una treintena de sesiones están dedicadas a la inteligencia artificial (IA), y los protagonistas de esta revolución tecnológica están presentes en la estación alpina suiza para responder a todas las preguntas y dudas que plantea la inteligencia artificial. Esta herramienta, accesible al público en general con ChatGPT, es fascinante, pero también asusta a los dirigentes de empresas.

Los numerosos estudios sobre el tema publicados en vísperas del Foro arrojan todos un panorama bastante preocupante. Encuestados por los organizadores del Foro, los empresarios consideran que la IA es un riesgo para nuestras sociedades. El Fondo Monetario Internacional (FMI) ha dado en el clavo en un estudio prospectivo que estima que la IA podría destruir hasta el 60% de los empleos existentes en las economías avanzadas.

Para los líderes empresariales, esta ola de destrucción de empleo ya está en marcha. Una cuarta parte de los líderes empresariales del mundo encuestados por la auditora PwC cree que los puestos de trabajo desaparecerán ya en 2024 como consecuencia de la IA.

Poco entusiasmo

Según la encuesta de Deloitte, los jefes adoptan la IA con bastantes reservas y más vergüenza que entusiasmo. Muchos se sienten obligados a utilizar la IA para reducir costes más que para innovar. Dos tercios del panel que ya han introducido una dosis de IA en su empresa están divididos sobre los efectos. La gran mayoría adopta una actitud de espera.

Es difícil comprometerse a invertir hasta que el marco normativo esté claramente definido. El presidente de IBM, Arvind Krishna, pide que se superen estas reservas. Es uno de los jefes que repite al infinito que la IA puede suponer un asombroso aumento de la productividad. Tenemos que hacerlo ahora», afirma, «no dentro de dos o tres años».

Diferentes niveles de compromiso

El compromiso de los líderes empresariales varía mucho de un país a otro. Es muy fuerte en la cuna de la IA, Estados Unidos, pero también en países que la han convertido en un pilar de su desarrollo, como China y los países del Golfo. Es en Oriente Medio donde el nivel de formación en la empresa es más alto, con un 11%, y en Europa el más bajo, con sólo un 5%, según un estudio de la consultora internacional de estrategia BCG.

Pero también hay enormes disparidades de un país a otro. Según PwC, casi el 40% de las empresas estadounidenses y británicas utilizan IA. En Noruega y Japón, la tasa se eleva al 50%. En Francia, la cifra es del 20%, y sólo del 9% en Alemania.

Para los protagonistas de la IA, Davos es también una oportunidad de darse a conocer mejor. Las start-ups presentes desean reunirse con inversores que les apoyen y, por qué no, presentar sus conocimientos a Sam Altman, responsable de OpenAI. Entre las prometedoras start-ups presentes en Davos hay un puñado de empresas francesas, entre ellas Dust, Giskard y Mistral AI, considerada ya como la mayor esperanza europea en el campo de la inteligencia artificial.

 

Fuente de la Información: https://acento.com.do/economia/la-inteligencia-artificial-en-el-centro-de-los-debates-del-foro-de-davos-9292915.html

 

Comparte este contenido:

La Transformación Educativa: Nuevos Horizontes en la Educación Virtual para Estudiantes

 

La Transformación Educativa: Nuevos Horizontes en la Educación Virtual para Estudiantes

La educación virtual ha experimentado una metamorfosis significativa en los últimos años, impulsada por avances tecnológicos, cambios en la percepción de la educación a distancia y la necesidad de adaptarse a un mundo en constante evolución. Para los estudiantes, este cambio no solo representa un ajuste en la modalidad de aprendizaje, sino una redefinición completa de cómo acceden al conocimiento, interactúan con los materiales de estudio y participan en experiencias educativas significativas. En este artículo, exploraremos los cambios clave en la educación virtual que están dando forma a la experiencia de aprendizaje de los estudiantes en la actualidad.

1. Accesibilidad Global y Oportunidades Ampliadas

Uno de los cambios más significativos en la educación virtual es la eliminación de las barreras geográficas. Los estudiantes ahora tienen acceso a una variedad de cursos y programas educativos de instituciones de todo el mundo. Esta globalización de la educación no solo amplía las opciones disponibles, sino que también brinda a los estudiantes la oportunidad de sumergirse en perspectivas culturales diversas y colaborar con compañeros de diferentes partes del mundo.

2. Modalidades de Aprendizaje Interactivas

La educación virtual ha pasado de ser una experiencia pasiva a ofrecer modalidades de aprendizaje interactivas y participativas. Plataformas educativas integran elementos como videos interactivos, simulaciones y entornos virtuales que involucran activamente a los estudiantes en el proceso de aprendizaje. Esto no solo hace que las lecciones sean más atractivas, sino que también fomenta la aplicación práctica de conceptos y el desarrollo de habilidades prácticas.

3. Personalización del Aprendizaje y Adaptabilidad Curricular

La personalización del aprendizaje se ha convertido en un pilar central de la educación virtual. Los estudiantes ahora tienen la capacidad de avanzar a su propio ritmo, profundizar en áreas de interés y recibir retroalimentación personalizada. Los sistemas de aprendizaje adaptativo utilizan algoritmos para ajustar el contenido en función del rendimiento y las preferencias del estudiante, proporcionando una experiencia educativa más centrada en el individuo.

4. Enfoque en el Desarrollo de Habilidades

La educación virtual se ha alineado más estrechamente con las demandas actuales, centrándose en el desarrollo de habilidades que van más allá de la mera acumulación de conocimientos. Los estudiantes se enfrentan a tareas y proyectos que fomentan el pensamiento crítico, la resolución de problemas, la creatividad y la colaboración. Estas habilidades son fundamentales para preparar a los estudiantes no solo para los desafíos académicos, sino también para el mundo laboral en constante cambio.

5. Tecnologías Emergentes y Realidad Extendida

La integración de tecnologías emergentes, como la realidad virtual (RV) y la realidad aumentada (RA), ha añadido una dimensión completamente nueva a la educación virtual. Los estudiantes pueden sumergirse en experiencias inmersivas, desde explorar civilizaciones antiguas hasta realizar simulaciones científicas complejas. Estas tecnologías no solo hacen que el aprendizaje sea más emocionante, sino que también permiten a los estudiantes visualizar conceptos abstractos de una manera tangible.

6. Colaboración Global y Redes de Aprendizaje

La educación virtual ha fomentado la colaboración global y la formación de redes de aprendizaje. Los estudiantes pueden conectarse con compañeros de todo el mundo a través de plataformas en línea, participar en proyectos colaborativos y compartir experiencias culturales. Esta conectividad global no solo enriquece la experiencia educativa, sino que también prepara a los estudiantes para trabajar en entornos cada vez más interconectados.

7. Evaluación Continua y Formativa

La evaluación en la educación virtual ha evolucionado hacia un enfoque más continuo y formativo. En lugar de depender en gran medida de exámenes puntuales, los estudiantes son evaluados de manera constante a lo largo del curso a través de tareas, proyectos y discusiones en línea. Esta forma de evaluación proporciona retroalimentación regular, permitiendo a los estudiantes comprender y abordar áreas de mejora de manera más efectiva.

8. Soporte Tecnológico y Recursos Accesibles

La infraestructura de soporte tecnológico ha mejorado significativamente en la educación virtual. Los estudiantes cuentan con acceso a una variedad de recursos en línea, desde bibliotecas digitales hasta herramientas de colaboración en línea. La disponibilidad de recursos accesibles contribuye a una experiencia de aprendizaje más completa y equitativa.

Desafíos y Reflexiones Éticas

Aunque la educación virtual ha traído consigo beneficios significativos, también plantea desafíos y reflexiones éticas. La brecha digital, la seguridad de los datos y la necesidad de equidad en el acceso son cuestiones cruciales que deben abordarse cuidadosamente para garantizar que los beneficios de la educación virtual lleguen a todos los rincones de la sociedad.

Un Nuevo Paradigma Educativo

En conclusión, la educación virtual ha experimentado una transformación radical que redefine el paradigma educativo. Los estudiantes se benefician de un acceso global a la educación, modalidades de aprendizaje más interactivas, y la capacidad de personalizar su experiencia de aprendizaje. A medida que la educación virtual continúa evolucionando, es esencial abordar los desafíos restantes y garantizar que esta revolución educativa beneficie a todos los estudiantes, preparándolos para un futuro lleno de oportunidades y descubrimientos en el mundo virtual y más allá.

Fuente de la Información: https://www.redem.org/la-transformacion-educativa-nuevos-horizontes-en-la-educacion-virtual-para-estudiantes/

 

Comparte este contenido:

ONU: Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible

Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible

Expertos con amplia experiencia en los ámbitos de la administración pública, el sector privado, la tecnología, la sociedad civil y el mundo académico reciben el encargo de apoyar los esfuerzos de las Naciones Unidas para garantizar que la inteligencia artificial se utilice en beneficio de la humanidad.

Los miembros del Órgano Asesor sobre inteligencia artificial (IA), presentado este jueves por el Secretario General, examinarán los riesgos, las oportunidades y la gobernanza internacional de esta tecnología.

António Guterres destacó el extraordinario avance de las capacidades y el uso de la IA en el último año, por ejemplo, a través de chatbots, clonación de voz, generadores de imágenes y aplicaciones de vídeo.

Potenciar el desarrollo sostenible

«El potencial transformador de la IA para el bien es difícil incluso de comprender», dijo, destacando la urgente necesidad de abordar la cuestión, ya que los países se enfrentan a los impactos del cambio climático y los esfuerzos hacia el desarrollo sostenible se estancan.

«La IA podría ayudar a cambiar esta situación», afirmó. «Podría potenciar la acción climática y los esfuerzos para alcanzar los 17 Objetivos de Desarrollo Sostenible para 2030″.

En este sentido, el Secretario General cree que la IA podría ampliar y amplificar el trabajo de los gobiernos, la sociedad civil y las Naciones Unidas, desde la predicción y la respuesta a las crisis, hasta el despliegue de servicios públicos de salud y educación.

Potencial y dificultades

Para los países en desarrollo supone «la posibilidad de dejar atrás tecnologías obsoletas y llevar los servicios directamente a las personas que más los necesitan, y para los países en desarrollo».

“Pero esto dependerá de que la inteligencia artificial se aproveche de forma responsable y sea accesible para todos”, añadió.

En la actualidad, los conocimientos especializados se concentran en un puñado de empresas y países, lo que podría «profundizar las desigualdades mundiales y convertir las brechas digitales en abismos».

Entre los posibles perjuicios que podrían desencadenarse figuran la aceleración de la propagación de la desinformación, el afianzamiento de los prejuicios y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos.

Además, el uso malintencionado podría socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la democracia.

Al comienzo de la presentación, Guterres relató su propia «experiencia surrealista» con una aplicación de vídeo, en la que se vio a sí mismo pronunciando un discurso en un chino impecable (sus labios se movían en sincronía con cada palabra) a pesar de no hablar el idioma.

«Este es solo un ejemplo de las increíbles posibilidades, y los peligros potenciales, de la IA», afirmó.

Acerca del Órgano Asesor

Está formado por 39 expertos de todo el mundo. Su composición es equilibrada en cuanto a género, diversidad geográfica y es multigeneracional.

Se espera que el órgano formule recomendaciones para finales de año sobre los ámbitos de la gobernanza internacional de la inteligencia artificial, la comprensión compartida de los riesgos y desafíos, y las oportunidades y los factores clave para aprovecharla con el fin de acelerar los Objetivos de Desarrollo.

Las recomendaciones contribuirán a los preparativos de la Cumbre del Futuro del próximo mes de septiembre, destinada a reafirmar el compromiso con el desarrollo sostenible, y concretamente a las negociaciones en torno a la propuesta de Pacto Digital Mundial, cuyo objetivo es garantizar que todos se beneficien en la nueva era tecnológica.

Hacia una gobernanza eficaz de la inteligencia artificial

Al enviado del Secretario General para la Tecnología, se le preguntó cómo pueden los expertos hacer frente a la desinformación, dado que los esfuerzos de gobernanza mundial no siguen el ritmo de los avances de la IA.

Amandeep Singh Gill dijo que los miembros reúnen los conocimientos más recientes sobre el impacto de la tecnología en las sociedades, las economías y la política, «de modo que podamos reducir la brecha entre el avance tecnológico y la respuesta de la gobernanza«.

También estudiarán la respuesta a estos retos emergentes, y las lagunas existentes, para que la gobernanza de la IA pueda ser más eficaz.

«Este es el primer paso en esa dirección, y esperamos tener más de esto el año que viene», dijo Gill.

«El Pacto Digital Mundial nos brinda la oportunidad de integrarlo en una perspectiva más sostenible a largo plazo para que no nos pille desprevenidos la rápida evolución de la tecnología».

 

Fuente de la Información: https://news.un.org/es/story/2023/10/1525252

Comparte este contenido:

Ciencia y Tecnología: Compañía xAI de Elon Musk hará presentación limitada de su primer modelo de IA

Compañía xAI de Elon Musk hará presentación limitada de su primer modelo de IA

Elon Musk, dueño de la red social X, consejero delegado de Tesla y SpaceX, ha anunciado que su startup xAI, que creó en julio tras contratar a investigadores de OpenAI, Google DeepMind, Tesla y la Universidad de Toronto, presentará este fin de semana un nuevo modelo de inteligencia artificial a un “grupo selecto” de usuarios.

Sería el primer lanzamiento de la empresa emergente, que así busca competir con los líderes del sector OpenAI y Google, y llega casi un año después de que ChatGPT de OpenAI atrajera la imaginación de empresas y usuarios de todo el mundo, estimulando un aumento de la adopción de la tecnología de IA generativa.

“Mañana, xAI lanzará su primera IA a un grupo selecto. En algunos aspectos importantes, es la mejor que existe actualmente”, dijo Musk este viernes en su red social X, antes conocida como Twitter.

En el pasado, el magnate de la fabricante de autos eléctricos Tesla ha expresado posturas contradictorias sobre la IA.

El jueves, en una entrevista con el primer ministro británico, Rishi Sunak, Musk comparó la IA con “un genio mágico” que concede todos los deseos que quieras, pero advirtió que esos cuentos de hadas rara vez terminan bien.

Durante años, Musk dijo que los modelos de IA generativa que impulsan programas como ChatGPT algún día podrían suponer una amenaza existencial para la humanidad.

Sin embargo, está invirtiendo mucho en esta naciente industria y espera utilizar la tecnología en sus otras empresas, como Tesla, SpaceX y X.

Musk cofundó OpenAI en 2015 y la dejó en 2018 para centrarse en Tesla, diciendo más tarde que estaba incómodo con la dirección orientada a los beneficios que la compañía estaba tomando bajo la dirección del gerente general, Sam Altman.

El multimillonario también argumenta que los grandes modelos lingüísticos de OpenAI, de los que depende ChatGPT para el contenido, son demasiado políticamente correctos.

Musk es uno de los pocos inversores del mundo con recursos suficientes para competir en el campo de la IA con OpenAI o gigantes tecnológicos como Google y Meta, pues construir un modelo de IA a la misma escala que esas empresas supone un gasto enorme en potencia informática, infraestructura y experiencia.

(Con información de AP y Reuters)

 

Fuente de la Información: http://www.cubadebate.cu/noticias/2023/11/03/compania-xai-de-elon-musk-hara-presentacion-limitada-de-su-primer-modelo-de-ia/

Comparte este contenido:

Economía: El lado oscuro del algoritmo

El lado oscuro del algoritmo

Por Alejandro Marcó del Pont

Algoritmo, una palabra para que los errores de los programadores sean aceptables

Vivimos en la época de los algoritmos. Las decisiones que afectan a nuestras vidas no están hechas por humanos, sino por modelos matemáticos. Estos esquemas se diseñaron para permitirnos, entre otras cosas, ahorrar tiempo, pero además se los popularizó como procesos más justos y objetivos. Antes estas técnicas la resolvían seres humanos, trabajadores ineficientes, según el progreso por estar dotados de un cúmulo de problemas: familia, horarios, prejuicios, arbitrariedades, etcétera, escarbando en montaña de papel para obtener un ¡deficiente! resultado.

Gracias a estos imperdonables e inútiles resultados nos vendieron la innovación, programas de computadora capaces de procesar miles de datos de manera rápida e “imparcial”. Nadie sabe bien cuál es el objetivo del progreso, ni cuál la prisa, menos aún la necesidad imperiosa del avance tecnológico. Como decía Hegel, “Tengan cuidado, hombres de acción, porque ustedes son meros instrumentos de los hombres de pensamiento”, y claramente la mayoría no está entre estos últimos. Los beneficios de los algoritmos son para los que piensan, no para los que lo ejecutan.

Para tratar de optimizar algo, reducir la incertidumbre, predecir el futuro, transformar plomo en oro, se ha echado mano a una antigua disciplina filosófica que combina elementos, la tan mentada alquimia, que en la actualidad, y dada la modernidad, su nombre mutó al de “modelos matemáticos”. Estos pueden ser opacos, oscuros e irrefutables, sobre todo esto último, yo diría incuestionables, incluso cuando están equivocados, pero esa es una de sus mayores virtudes. Lo más llamativo es, aunque la gente no lo sepa, que apuntalan a los afortunados y castigan a los oprimidos: bienvenido al lado oscuro del big data.

La matemática Caty O’Neil nos presenta los modelos que dan forma a nuestro futuro, no solo como individuos sino como sociedad. Estas “armas de destrucción matemática”, como titula su libro, califican a maestros y estudiantes, ordenan currículos, niegan préstamos, evalúan a los trabajadores, dirigen a los votantes, monitorean nuestra salud, las redes sociales y las inversiones, entre otras cosas. Gracias a los extraordinarios poderes de las matemáticas combinados con la tecnología pueden de manera científica multiplicar el caos y la desgracia y promoverse con casi nula controversia como: provechosa.

Uno podría pensar que esta mujer es algún tipo de apóstata de la modernidad, pero no es así. Fue profesora de universidad de Barnard College, que compartía con la Universidad de Columbia el departamento de Matemáticas. Decidió cambiar radicalmente su carrera profesional y comenzó a trabajar como analista cuantitativa para D. E. Shaw, un destacado fondo de cobertura. Con el tiempo, y con la crisis del 2008, entendió que se afianzaba un mal uso de las matemáticas, los algoritmos se ponían más de moda y se extendían a un creciente número de áreas. Comprendió que funcionaban veinticuatro horas al día procesando inmensas cantidades de información, en gran parte datos extraídos de las redes sociales o de páginas web, como dejamos expuesto en el artículo Big Tech, el dominio de la economía del siglo XXX.

En lugar de prestar atención a los movimientos de los mercados financieros mundiales, se dedicaban cada vez más a analizar a los seres humanos. Los matemáticos y los especialistas en estadísticas estudiaban nuestros deseos, nuestros movimientos y nuestro poder adquisitivo. Predecían nuestra solvencia y calculaban nuestro potencial como estudiantes, trabajadores, amantes o delincuentes. Esta era la economía del big data, y prometía ganancias espectaculares.

En 1997, el Banco Central sueco concedió el premio a las ciencias económicas en honor a Nobel, a Myron Scholes y Robert C. Merton por “un nuevo método para determinar el valor de los derivados”. Por cierto, un derivado es un producto financiero cuyo precio parte del precio de otro activo, futuros del petróleo, por ejemplo, y dependen del valor del activo principal, el barril de petróleo.

Estos señores habían fundado tres años antes –junto con John Meriwether, antiguo vicepresidente de Salomon Brothers– un fondo de inversión de carácter especulativo, Long Term Capital Management o LTCM. ¿Se acuerdan de él? Obtuvo elevados rendimientos en los primeros años, por lo que todo el mundo los consideraba unos genios. Pero en 1998, sus modelos de riesgo se fueron al garete: el fondo perdió 4.600 millones de dólares en menos de cuatro meses, provocando la intervención de la Reserva Federal de los Estados Unidos, el rescate por otras entidades financieras y el cierre a comienzos de 2000.

En el 2019, un estudio publicado en la revista Science reveló que era mucho menos probable que un algoritmo de predicción de atención médica, utilizado por hospitales y compañías de seguros en los EE. UU. para identificar a los pacientes que necesitaban programas de “gestión de la atención de alto riesgo», fueran afroamericanos. En cambio, el algoritmo recomendaría pacientes blancos para estos programas y no a pacientes negros. El estudio encontró que el algoritmo usaba el gasto en atención médica como un indicador para determinar la necesidad de atención médica o el puntaje de un individuo, lo que anulaba, para obviar largas razones, a hombres y mujeres de color.

Como se ve, trabajos, inversiones y salud, al menos con los ejemplos expuestos arriba, están condenados por los algoritmos. Pero la idea es que entendamos cómo se fabrica el modelo y así comprender lo que sucede. El ejemplo que da en su libro Caty O’Neil es muy ilustrativo y simpático. Sería como diseñar la estructura de cómo detener a Messi, pero en beisbol, un deporte que deja marcas más fáciles de explicar y no el regateo que puede tener el mediocampista, y cuya tendencia es indeterminada.

Antes de comenzar quisiera destacar una aclaración que da la misma autora, y es que el cerebro humano realiza las mismas tareas que un algoritmo. Ella da una explicación acerca de la preparación de la cena para sus tres hijos, lo que expone un modelo informal de algoritmo cerebral que como madre emplea a diario. Cada noche, cuando se pone a cocinar de manera intuitiva, piensa recabando información cuánto apetito tendrá cada uno de los miembros de mi familia. Sabe además que uno de sus hijos comerá solo la pasta, que el otro comerá pollo y el último es fanático de las hamburguesas. Los datos de entrada del modelo son la información que tiene sobre su familia, los ingredientes que tiene en la cocina, el tiempo, las ganas, etc. La evaluación del éxito será cuánto cenen o cuánto dejen. El problema radica en su ausencia, si ella sale y sus hijos se quedan con la abuela, ¿se puede transmitir el algoritmo, toda la información obtenida en él para que la abuela haga la cena?, la verdad, no.

Para afianzar este punto enfoquémonos en cómo hacer para parar a un jugador específico en el beisbol. Un equipo cambio de posición a sus jugadores porque descubrió que la tendencia de bateo de quien les había hecho daño en el primer partido era la misma, siempre al mismo lugar, siempre a la derecha, supongamos, así que puso a su mejor jugador a la derecha para que atrapara los batazos del contrario. En la actualidad todos los equipos lo hacen, de hecho, el algoritmo se va nutriendo con las estadísticas de cada bateo, de cada juego. Y todas las preguntas que se nos ocurren son las que nutren el modelo. La respuesta del modelo es ejecutar diferentes escenarios en cada coyuntura para dar con las combinaciones de respuestas óptimas en cada instancia del partido. El problema está en las preguntas que lo alimentan.

Si las respuestas son los gastos en salud y estos gastos dan puntajes para ingresar a ciertos programas, los afroamericanos que no gastan en salud, por no tener recursos, harán que el algoritmo los deje fuera, porque se nutre de gastos para decidir y brindar puntaje, es decir, el diseño de las variables que nutre las estadísticas está pensado para dejarlos fuera. Eso sí, de manera matemáticamente justificada, imparcial y científica. Y aquí está el centro de la mentira y ella da un ejemplo en el que señala sus características destructivas poco a poco.

El nuevo alcalde de Washington decidió corregir la situación de las escuelas deficientes de la ciudad, las que tenían malos alumnos, de los cuales muy pocos llegaban a graduarse del primario. La teoría generalmente aceptada por el neoliberalismo era que los alumnos no aprendían lo suficiente porque sus profesores no trabajaban bien. De modo que, en 2009 se planteó un plan para extirpar del sistema a los docentes de bajo rendimiento. ¿Cómo?, pues evaluando a los profesores con una prueba llamada IMPACT, deshacerse de los peores y colocar a los mejores donde se pueda producir el mayor efecto positivo posible.

Una de las evluadas era Sarah Wysocki, maestra de quinto grado, que llevaba trabajando solo dos años en el colegio MacFarland, pero el director del colegio y los padres de sus alumnos tenían ya una excelente opinión de ella. Elogiaban lo atenta que era con los niños; “una de las mejores maestras con las que he tratado nunca”. La maestra Wysocki sacó una penosa puntuación en su evaluación de IMPACT, esa puntuación, generada por un algoritmo, la dejaba debajo del umbral mínimo, por lo que ella y 205 maestros más fueron despedidos. Obviamente, Sarah Wysocki pensó que los números eran terriblemente injustos y quiso saber de dónde venían.

¿Cómo estaba diseñado el algoritmo?, ¿qué lo nutria? Bien, el primer problema fue que la ciudad contrató una consultora que tenía un sistema llamado Mathematica y dicha consultora no podía revelar su formato, porque la habían contratado porque tenía el conocimiento para hacer la evaluación. El modelo en sí es una caja negra, su contenido, un secreto corporativo fieramente guardado. De este modo, las consultoras con sistemas como Mathematica pueden cobrar más, aunque este secretismo sirve también a otros propósitos. Intentar puntuar la eficacia de un docente analizando los resultados de una prueba de solo veinticinco o treinta alumnos no tiene solidez estadística y es, incluso, ridículo. Pero ¿cómo puede confirmar el sistema que su análisis fue correcto? No puede. Una de las variables que alimentaba al algoritmo era los resultados de años anteriores. En ellos los docentes ayudaron a sus alumnos a realizar pruebas para que el establecimiento quedara bien parado; con esta profesora, eso no pasó.

Lo que nutre el algoritmo es lo que se llama “bucle de retroalimentación” Las empresas, por ejemplo, utilizan cada vez más las calificaciones de solvencia crediticia para evaluar a los posibles candidatos para un trabajo. Se basan en la creencia de que las personas que pagan pronto sus facturas tienen más probabilidades de llegar puntualmente a su puesto de trabajo y de cumplir las normas. Pero buenos trabajadores tuvieron la desgracia de quedarse desempleados porque su empresa cerró, por lo que tardan en pagar facturas, lo que hace que tengan una mala calificación crediticia. No obstante, esta idea de que dicha mala calificación está relacionada con un mal rendimiento en el trabajo hace que las personas que tienen una calificación más baja tengan menos probabilidades de encontrar trabajo. El desempleo los empuja a la pobreza, lo que a su vez empeora aún más sus calificaciones de solvencia, con lo que les resulta aún más difícil encontrar trabajo.

Un algoritmo procesa un montón de estadísticas y produce como resultado una cierta probabilidad de que una persona concreta pueda ser un mal empleado, un prestatario de riesgo, un terrorista o un pésimo maestro. Esa probabilidad se condensa en una puntuación, que puede llegar a destrozar la vida de alguien. Y, sin embargo, cuando esa persona decide defenderse, las “sugerentes” pruebas en contra del veredicto son insuficientes para aclarar las cosas.

Después de la terrible sorpresa de su despido, Sarah Wysocki solo estuvo unos cuantos días desempleada. Había mucha gente dispuesta a responder por su trabajo como maestra, entre ellas su director, y en seguida la contrataron en un colegio privado de un próspero distrito al norte de Virginia. La consecuencia final fue que, gracias a un modelo altamente cuestionable, un colegio pobre perdió a una buena maestra, y un colegio rico, que no despedía a los docentes por las puntuaciones que obtuvieran sus alumnos, ganó una.

Fuente: https://eltabanoeconomista.wordpress.com/2023/10/29/el-lado-oscuro-del-algoritmo/

Comparte este contenido:

Coalición por el Acceso al Conocimiento contra el cobro por préstamos en bibliotecas públicas

Coalición por el Acceso al Conocimiento contra el cobro por préstamos en bibliotecas públicas

Por Red en Defensa de los Derechos Digitales

 

La Coalición por el Acceso al Conocimiento (A2K) ha hecho público su rechazo a que se discutan los cobros por “derechos de préstamo” en la 44ª sesión del Comité Permanente de Derecho de Autor y Derechos Conexos (SCCR) de la Organización Mundial de la Propiedad Intelectual (OMPI), a realizarse del 6 al 8 de noviembre en Ginebra.

La Coalición A2K ─de la cual R3D: Red en Defensa de los Derechos Digitales forma parte─ está compuesta por organizaciones que representan a educadores, investigadores, estudiantes, bibliotecas, archivos, museos, además de otros usuarios del conocimiento y comunidades creativas de todo el mundo. Los miembros comparten la visión de un sistema de derechos de autor justo y equilibrado que se sustenta en la Declaración Universal de los Derechos Humanos.

El grupo presentó un análisis de los principales puntos del día que se abordarán en la sesión, entre los que destaca una propuesta de estudio propuesta promovida por tres países acerca del pago por el derecho al préstamo público, que no es más que una exigencia de que las bibliotecas públicas paguen una “compensación” por el préstamo no comercial de libros y otras obras de sus colecciones.

El análisis insta a los miembros del Comité de la OMPI a “no dedicar valioso tiempo” en esta discusión, ya que considera que este tipo de prácticas solo existen en un pequeño número de países ─concentrados en Europa, Australia, Canadá, Israel y Nueva Zelanda─ y muchos funcionan como parte de la política cultural estatal, no de los derechos de autor.

La Coalición también considera que el cobro por préstamo público implicaría el pago de tasas a autores extranjeros y nacionales, lo que podría significar que los países en desarrollo terminen pagando importantes montos a las editoriales del Norte Global.

Así mismo, la Alianza de la Sociedad Civil Latinoamericana para el Acceso Justo al Conocimiento ─donde R3D también es partícipe─ publicó recientemente una posición similar, la cual defiende la naturaleza del préstamo público como mecanismo imprescindible para garantizar el derecho fundamental de acceso y participación en la cultura.

Entre los otros puntos abordados por el análisis de la agenda de SCCR, la Coalición A2K apoya la implementación de la propuesta del Grupo Africano para mayores excepciones y limitaciones al derecho de autor frente al derecho a la educación y el derecho de acceso a la cultura.

Así mismo, la coalición también mostró su oposición a la propuesta del Tratado de Radiodifusión, sugiriendo que se elimine de la agenda. Este tratado pretende establecer nuevos “derechos exclusivos” para los radiodifusores, de modo que abarquen las transmisiones por Internet y, por ende, generen nuevas regalías.

“No existe ningún racional para un tratado antipiratería para contenidos que ya se encuentran protegidos por otros tres tratados digitales de la OMPI, así como el cifrado de señales”, señala el análisis.

Fuente: https://r3d.mx/2023/10/05/la-coalicion-por-el-acceso-al-conocimiento-se-posiciona-en-contra-del-cobro-por-prestamo-publico-a-bibliotecas/

Comparte este contenido:

Argentina: «No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

«No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

Por Antonio Martínez Ron

El científico argentino aborda el tema de moda en su libro ‘Artificial’, convencido de que debemos tratar a la IA “como a una musa y no como a un adversario”

El desarrollo acelerado de la inteligencia artificial generativa, y su capacidad para mantener conversaciones aparentemente inteligentes o crear contenidos audiovisuales, se ha convertido en uno de los temas candentes sobre los que todo el mundo tiene una opinión. El neurocientífico Mariano Sigman y el tecnólogo Santiago Bilinkis abordan la cuestión en el libro Artificial (Debate, 2023), un ensayo en el que aportan una amplia variedad de ángulos desde los que formarse un juicio fundamentado sobre lo que nos espera en el futuro.

Lejos de los mensajes apocalípticos y del optimismo acrítico que abunda en estos días, los argumentos de Sigman y Bilinkis se centran en las amenazas y posibilidades reales que nos brinda la tecnología, a la que conciben como un instrumento del que podemos sacar provecho o convertir en un arma. Al margen de los riesgos, que los hay, los autores prefieren poner el foco en el papel que pueden jugar estas nuevas herramientas como potenciadores de nuestra creatividad y nuestras capacidades, como una especie de entrenador virtual o una mente complementaria. Charlamos con Mariano Sigman en Madrid, con su libro recién salido del horno.

Dicen ustedes que nuestros días como la especie más inteligente del planeta parecen estar contados, ¿eso es bueno o malo? 

Bueno, hay que matizar que una cosa es que estén contados y otra que falte poco. Sabemos que va a pasar, pero otra cosa es que sea inminente.

El desarrollo de la IA generativa ha producido la sensación de que hay un gran cambio, e incluso se habla de una “bomba de inteligencia”. ¿Hasta qué punto es una amenaza?

Lo que hace distintiva a esta tecnología es que, a diferencia de otras, tiene cierta autonomía. Porque un lápiz no decide escribir y una bomba no decide dispararse. Una inteligencia artificial (IA), en cambio, toma sus propias decisiones, por supuesto, sobre un marco para el que está programada. Eso le da algo que nosotros reconocemos como un “sentido de agencia” y muchas decisiones involucran una observación sobre sí mismas, y en eso empiezan a parecerse al intelecto humano. Y si es capaz de crear copias similares a sí misma, pero con diferencias que la hagan más apta, también empieza a parecerse a una especie, un colectivo que puede tomar sus propias decisiones.

Lo que temen es lo que se llama una Inteligencia Artificial General (IAG). ¿Qué es exactamente una IAG? ¿Una especie de nuevo dios?

El vínculo con la IA está repleto de exageraciones, de enfados y también de adoraciones desmedidas, una tendencia a ponerla en el lugar de un dios. Y de ninguna manera es así, la IA toma decisiones y está en nosotros decidir si tienen valor o no.

Hay estudios que dicen que nos cuesta mucho trabajo llevarle la contraria a una IA, ¿en eso ya nos tiene sometidos?

La IA genera todo tipo de proyecciones e imágenes mentales en cuanto la nombras. También hay un enorme manto de ignorancia, que viene de no haber interactuado con ella. Esto es parte de lo que quiero resolver en el libro, creo que metafóricamente la IA es como la selva, que es un lugar peligroso, pero fascinante, lleno de vida. Si sabes apreciarla, una vez que entras en ese mundo tan extraño, hay todo un espacio de fascinación. Creo que a la IA no hay que tenerle ni tanto miedo ni tanto respeto o admiración.

Creo que a la IA no hay que tenerle ni tanto miedo ni tanta admiración

Hay líderes de opinión como Yuval Noah Harari que dicen cosas muy alarmantes, como que la IA puede poner en peligro la democracia o que ha hackeado nuestro sistema operativo, que es el lenguaje. ¿Está de acuerdo?

Bueno, puede pasar. Pero la historia humana está llena de hackeos de todo tipo, toda la historia está llena de tragedias, no necesitamos IA para destruir nuestros principios y valores, nos bastamos a nosotros mismos. Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular.

Es muy interesante la relación psicológica que tenemos con la inteligencia artificial. ¿Se ha sorprendido a sí mismo alguna vez celebrando un fallo de la IA como una victoria humana?

Ja, ja. Yo no, pero soy raro y sé que le pasa a todo el mundo. Cuando Deep Blue le ganó a ajedrez a Kasparov, muchos se lo tomaron como la derrota de la humanidad. Yo nunca lo vi así. Para mí fue una victoria de la humanidad contra la humanidad, de nuestra capacidad de abstraer, de hacer programas, de hacer computadoras contra nuestra capacidad de razonar a cerebro desnudo.

A algunos de esos errores de la IA se les llama alucinaciones. ¿Estamos creando una inteligencia con nuestros mismos defectos?

En general uno empatiza con lo imperfecto. La perfección te maravilla, pero uno conecta con lo vulnerable. Por eso en las películas de Hollywood el héroe resbala, patina y es frágil.

Pero cuando una IA consigue liar a un humano para saltarse un CAPTCHA convenciéndole de que es una persona ciega, de la empatía pasamos al terror.

Bueno, en ese sentido, la IA es como los niños, que aprenden muy bien a hacer trampa y que primero tienen que saltarse ciertas reglas para aprender luego el costo de eso. Como pasa con ellos, el aprendizaje es mucho más que aplicar reglas literales, siempre tienes que entender las excepciones y los matices.

¿El peligro es que interpreten las cosas demasiado literalmente?

Eso se puede compensar, porque las nuevas redes neuronales en realidad no funcionan como programas. Lo que incorporan son un conjunto de reglas que coexisten y en ese sentido se parecen mucho a nuestro cerebro. Nuestro cerebro funciona así. O sea, tú tienes hambre y tienes ganas de comer, pero sabes que no le puedes robar la comida al otro.

Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular

Además de conversar, la IA nos asusta todavía más cuando se pone a hacer arte. ¿Nos hará repensar todo lo que sabemos sobre creatividad?

Toda la creatividad humana está montada a hombros de gigantes. Hay un documental de Orson Wells que se llama F de Fake, donde él justamente cuestiona quién es el autor de algo. Porque no es una cuestión tan clara. ¿Quién ha hecho la catedral de Chartres? Al final había uno que era el que ponía la última piedra, pero ¿era el autor?

Al final, ¿las máquinas se van a poder dedicar al empleo creativo y el trabajo duro nos va a tocar a los humanos?

Yo sé que es inevitable tener una reacción negativa hacia la IA, pero creo que hay que mirar esto con un poco más de curiosidad, y considerarla como una herramienta con la que trabajar, o una musa, más que como un adversario.

Muchas de las creaciones de la inteligencia artificial, sobre todo en audiovisual, tienen un aspecto onírico. ¿Es como si estuviéramos creando una mente capaz de soñar por nosotros?

No es solo capaz de soñar, sino que es capaz de plasmar nuestros sueños. Y esa es la idea clave. Deberíamos pensar en la IA como algo que te permite llegar a lugares que antes eran imposibles para ti. Una herramienta que te permite ir a un sitio.

El uso no detectable de la IA en el arte o en los trabajos del colegio, ¿nos conduce hacia un mundo de impostores? 

En realidad eso no es nuevo. Las fake news nos acompañan desde hace mucho tiempo. De hecho, esta mezcla de realidad y ficción nos acompaña desde los tiempos de La Ilíada. Y una manera de vincularse con GPT es establecer con ella una conversación como hacía Sócrates. Cuando tú quieres pensar algo, necesitas un interlocutor.

Un interlocutor que a veces te suelta tonterías…

Bueno, no puedes pedirle peras al olmo. GPT no es un proveedor de verdades. Lo que tú tienes que saber es qué es lo que te puede dar y qué es lo que no te puede dar.

¿Es un sparring?

Exacto. Si tú te lo tomas como alguien con el que puedes conversar o contrastar ideas, puede que te sirva para pensar las preguntas correctas, para ver alguna idea que luego incorporas. Hay que tener una visión más amplia de la inteligencia artificial, hay humanos que hacen daño a través de ella, pero también puede generar mucho esplendor. Hace poco le enseñé a mi madre cómo funcionaba y fue emocionante ver su reacción. Fue como cuando ella me llevó por primera vez a ver el mar. Por otro lado, es interesante preguntarnos ¿por qué genera tanta emoción la inteligencia artificial? Aquí hay una paradoja: la gente lo ve como algo frío, y sin embargo despierta todo tipo de emociones. Esta es la ironía.

Hay una paradoja: la gente ve la IA como algo frío y sin embargo despierta todo tipo de emociones

Si le ofrecen la posibilidad de regenerar un familiar fallecido en el mundo virtual mediante IA, ¿lo aceptaría?

Yo adoraba a mi abuelo. Se murió cuando yo tenía veintipocos años. Si pudiera recrear su voz y los cuentos que me contaba, sí lo haría. Pero creo que a mí no me gustaría verlo, porque no me resultaría creíble.

En el libro advierten de que no han utilizado ChatGPT, pero ¿una inteligencia artificial podría haber escrito un libro como este?

No, todavía no. Aún no está a la altura de hacer algo así, pero eso puede ser una cuestión de tiempo. No sé si dentro de dos años, cinco o diez. No creo que haya ninguna limitación para que un día le des toda la información y le pidas un libro con tus ideas y con tu estilo y te lo dé. Y no solo eso, es posible que llegue un día en el que tú le des una instrucción en la que le digas “hazme la película que quiero ver” y te la ofrezca.

Fuente: https://www.eldiario.es/sociedad/mariano-sigman-entrevista-inteligencia-artificial-destruirnos_128_10606005.html

 

Fuente de la Información: https://rebelion.org/no-necesitamos-una-inteligencia-artificial-para-destruirnos-nos-bastamos-solos/

 

Comparte este contenido:
Page 1 of 8
1 2 3 8