Page 2 of 9
1 2 3 4 9

ONU: Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible

Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible

Expertos con amplia experiencia en los ámbitos de la administración pública, el sector privado, la tecnología, la sociedad civil y el mundo académico reciben el encargo de apoyar los esfuerzos de las Naciones Unidas para garantizar que la inteligencia artificial se utilice en beneficio de la humanidad.

Los miembros del Órgano Asesor sobre inteligencia artificial (IA), presentado este jueves por el Secretario General, examinarán los riesgos, las oportunidades y la gobernanza internacional de esta tecnología.

António Guterres destacó el extraordinario avance de las capacidades y el uso de la IA en el último año, por ejemplo, a través de chatbots, clonación de voz, generadores de imágenes y aplicaciones de vídeo.

Potenciar el desarrollo sostenible

«El potencial transformador de la IA para el bien es difícil incluso de comprender», dijo, destacando la urgente necesidad de abordar la cuestión, ya que los países se enfrentan a los impactos del cambio climático y los esfuerzos hacia el desarrollo sostenible se estancan.

«La IA podría ayudar a cambiar esta situación», afirmó. «Podría potenciar la acción climática y los esfuerzos para alcanzar los 17 Objetivos de Desarrollo Sostenible para 2030″.

En este sentido, el Secretario General cree que la IA podría ampliar y amplificar el trabajo de los gobiernos, la sociedad civil y las Naciones Unidas, desde la predicción y la respuesta a las crisis, hasta el despliegue de servicios públicos de salud y educación.

Potencial y dificultades

Para los países en desarrollo supone «la posibilidad de dejar atrás tecnologías obsoletas y llevar los servicios directamente a las personas que más los necesitan, y para los países en desarrollo».

“Pero esto dependerá de que la inteligencia artificial se aproveche de forma responsable y sea accesible para todos”, añadió.

En la actualidad, los conocimientos especializados se concentran en un puñado de empresas y países, lo que podría «profundizar las desigualdades mundiales y convertir las brechas digitales en abismos».

Entre los posibles perjuicios que podrían desencadenarse figuran la aceleración de la propagación de la desinformación, el afianzamiento de los prejuicios y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos.

Además, el uso malintencionado podría socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la democracia.

Al comienzo de la presentación, Guterres relató su propia «experiencia surrealista» con una aplicación de vídeo, en la que se vio a sí mismo pronunciando un discurso en un chino impecable (sus labios se movían en sincronía con cada palabra) a pesar de no hablar el idioma.

«Este es solo un ejemplo de las increíbles posibilidades, y los peligros potenciales, de la IA», afirmó.

Acerca del Órgano Asesor

Está formado por 39 expertos de todo el mundo. Su composición es equilibrada en cuanto a género, diversidad geográfica y es multigeneracional.

Se espera que el órgano formule recomendaciones para finales de año sobre los ámbitos de la gobernanza internacional de la inteligencia artificial, la comprensión compartida de los riesgos y desafíos, y las oportunidades y los factores clave para aprovecharla con el fin de acelerar los Objetivos de Desarrollo.

Las recomendaciones contribuirán a los preparativos de la Cumbre del Futuro del próximo mes de septiembre, destinada a reafirmar el compromiso con el desarrollo sostenible, y concretamente a las negociaciones en torno a la propuesta de Pacto Digital Mundial, cuyo objetivo es garantizar que todos se beneficien en la nueva era tecnológica.

Hacia una gobernanza eficaz de la inteligencia artificial

Al enviado del Secretario General para la Tecnología, se le preguntó cómo pueden los expertos hacer frente a la desinformación, dado que los esfuerzos de gobernanza mundial no siguen el ritmo de los avances de la IA.

Amandeep Singh Gill dijo que los miembros reúnen los conocimientos más recientes sobre el impacto de la tecnología en las sociedades, las economías y la política, «de modo que podamos reducir la brecha entre el avance tecnológico y la respuesta de la gobernanza«.

También estudiarán la respuesta a estos retos emergentes, y las lagunas existentes, para que la gobernanza de la IA pueda ser más eficaz.

«Este es el primer paso en esa dirección, y esperamos tener más de esto el año que viene», dijo Gill.

«El Pacto Digital Mundial nos brinda la oportunidad de integrarlo en una perspectiva más sostenible a largo plazo para que no nos pille desprevenidos la rápida evolución de la tecnología».

 

Fuente de la Información: https://news.un.org/es/story/2023/10/1525252

Comparte este contenido:

Ciencia y Tecnología: Compañía xAI de Elon Musk hará presentación limitada de su primer modelo de IA

Compañía xAI de Elon Musk hará presentación limitada de su primer modelo de IA

Elon Musk, dueño de la red social X, consejero delegado de Tesla y SpaceX, ha anunciado que su startup xAI, que creó en julio tras contratar a investigadores de OpenAI, Google DeepMind, Tesla y la Universidad de Toronto, presentará este fin de semana un nuevo modelo de inteligencia artificial a un “grupo selecto” de usuarios.

Sería el primer lanzamiento de la empresa emergente, que así busca competir con los líderes del sector OpenAI y Google, y llega casi un año después de que ChatGPT de OpenAI atrajera la imaginación de empresas y usuarios de todo el mundo, estimulando un aumento de la adopción de la tecnología de IA generativa.

“Mañana, xAI lanzará su primera IA a un grupo selecto. En algunos aspectos importantes, es la mejor que existe actualmente”, dijo Musk este viernes en su red social X, antes conocida como Twitter.

En el pasado, el magnate de la fabricante de autos eléctricos Tesla ha expresado posturas contradictorias sobre la IA.

El jueves, en una entrevista con el primer ministro británico, Rishi Sunak, Musk comparó la IA con “un genio mágico” que concede todos los deseos que quieras, pero advirtió que esos cuentos de hadas rara vez terminan bien.

Durante años, Musk dijo que los modelos de IA generativa que impulsan programas como ChatGPT algún día podrían suponer una amenaza existencial para la humanidad.

Sin embargo, está invirtiendo mucho en esta naciente industria y espera utilizar la tecnología en sus otras empresas, como Tesla, SpaceX y X.

Musk cofundó OpenAI en 2015 y la dejó en 2018 para centrarse en Tesla, diciendo más tarde que estaba incómodo con la dirección orientada a los beneficios que la compañía estaba tomando bajo la dirección del gerente general, Sam Altman.

El multimillonario también argumenta que los grandes modelos lingüísticos de OpenAI, de los que depende ChatGPT para el contenido, son demasiado políticamente correctos.

Musk es uno de los pocos inversores del mundo con recursos suficientes para competir en el campo de la IA con OpenAI o gigantes tecnológicos como Google y Meta, pues construir un modelo de IA a la misma escala que esas empresas supone un gasto enorme en potencia informática, infraestructura y experiencia.

(Con información de AP y Reuters)

 

Fuente de la Información: http://www.cubadebate.cu/noticias/2023/11/03/compania-xai-de-elon-musk-hara-presentacion-limitada-de-su-primer-modelo-de-ia/

Comparte este contenido:

Economía: El lado oscuro del algoritmo

El lado oscuro del algoritmo

Por Alejandro Marcó del Pont

Algoritmo, una palabra para que los errores de los programadores sean aceptables

Vivimos en la época de los algoritmos. Las decisiones que afectan a nuestras vidas no están hechas por humanos, sino por modelos matemáticos. Estos esquemas se diseñaron para permitirnos, entre otras cosas, ahorrar tiempo, pero además se los popularizó como procesos más justos y objetivos. Antes estas técnicas la resolvían seres humanos, trabajadores ineficientes, según el progreso por estar dotados de un cúmulo de problemas: familia, horarios, prejuicios, arbitrariedades, etcétera, escarbando en montaña de papel para obtener un ¡deficiente! resultado.

Gracias a estos imperdonables e inútiles resultados nos vendieron la innovación, programas de computadora capaces de procesar miles de datos de manera rápida e “imparcial”. Nadie sabe bien cuál es el objetivo del progreso, ni cuál la prisa, menos aún la necesidad imperiosa del avance tecnológico. Como decía Hegel, “Tengan cuidado, hombres de acción, porque ustedes son meros instrumentos de los hombres de pensamiento”, y claramente la mayoría no está entre estos últimos. Los beneficios de los algoritmos son para los que piensan, no para los que lo ejecutan.

Para tratar de optimizar algo, reducir la incertidumbre, predecir el futuro, transformar plomo en oro, se ha echado mano a una antigua disciplina filosófica que combina elementos, la tan mentada alquimia, que en la actualidad, y dada la modernidad, su nombre mutó al de “modelos matemáticos”. Estos pueden ser opacos, oscuros e irrefutables, sobre todo esto último, yo diría incuestionables, incluso cuando están equivocados, pero esa es una de sus mayores virtudes. Lo más llamativo es, aunque la gente no lo sepa, que apuntalan a los afortunados y castigan a los oprimidos: bienvenido al lado oscuro del big data.

La matemática Caty O’Neil nos presenta los modelos que dan forma a nuestro futuro, no solo como individuos sino como sociedad. Estas “armas de destrucción matemática”, como titula su libro, califican a maestros y estudiantes, ordenan currículos, niegan préstamos, evalúan a los trabajadores, dirigen a los votantes, monitorean nuestra salud, las redes sociales y las inversiones, entre otras cosas. Gracias a los extraordinarios poderes de las matemáticas combinados con la tecnología pueden de manera científica multiplicar el caos y la desgracia y promoverse con casi nula controversia como: provechosa.

Uno podría pensar que esta mujer es algún tipo de apóstata de la modernidad, pero no es así. Fue profesora de universidad de Barnard College, que compartía con la Universidad de Columbia el departamento de Matemáticas. Decidió cambiar radicalmente su carrera profesional y comenzó a trabajar como analista cuantitativa para D. E. Shaw, un destacado fondo de cobertura. Con el tiempo, y con la crisis del 2008, entendió que se afianzaba un mal uso de las matemáticas, los algoritmos se ponían más de moda y se extendían a un creciente número de áreas. Comprendió que funcionaban veinticuatro horas al día procesando inmensas cantidades de información, en gran parte datos extraídos de las redes sociales o de páginas web, como dejamos expuesto en el artículo Big Tech, el dominio de la economía del siglo XXX.

En lugar de prestar atención a los movimientos de los mercados financieros mundiales, se dedicaban cada vez más a analizar a los seres humanos. Los matemáticos y los especialistas en estadísticas estudiaban nuestros deseos, nuestros movimientos y nuestro poder adquisitivo. Predecían nuestra solvencia y calculaban nuestro potencial como estudiantes, trabajadores, amantes o delincuentes. Esta era la economía del big data, y prometía ganancias espectaculares.

En 1997, el Banco Central sueco concedió el premio a las ciencias económicas en honor a Nobel, a Myron Scholes y Robert C. Merton por “un nuevo método para determinar el valor de los derivados”. Por cierto, un derivado es un producto financiero cuyo precio parte del precio de otro activo, futuros del petróleo, por ejemplo, y dependen del valor del activo principal, el barril de petróleo.

Estos señores habían fundado tres años antes –junto con John Meriwether, antiguo vicepresidente de Salomon Brothers– un fondo de inversión de carácter especulativo, Long Term Capital Management o LTCM. ¿Se acuerdan de él? Obtuvo elevados rendimientos en los primeros años, por lo que todo el mundo los consideraba unos genios. Pero en 1998, sus modelos de riesgo se fueron al garete: el fondo perdió 4.600 millones de dólares en menos de cuatro meses, provocando la intervención de la Reserva Federal de los Estados Unidos, el rescate por otras entidades financieras y el cierre a comienzos de 2000.

En el 2019, un estudio publicado en la revista Science reveló que era mucho menos probable que un algoritmo de predicción de atención médica, utilizado por hospitales y compañías de seguros en los EE. UU. para identificar a los pacientes que necesitaban programas de “gestión de la atención de alto riesgo», fueran afroamericanos. En cambio, el algoritmo recomendaría pacientes blancos para estos programas y no a pacientes negros. El estudio encontró que el algoritmo usaba el gasto en atención médica como un indicador para determinar la necesidad de atención médica o el puntaje de un individuo, lo que anulaba, para obviar largas razones, a hombres y mujeres de color.

Como se ve, trabajos, inversiones y salud, al menos con los ejemplos expuestos arriba, están condenados por los algoritmos. Pero la idea es que entendamos cómo se fabrica el modelo y así comprender lo que sucede. El ejemplo que da en su libro Caty O’Neil es muy ilustrativo y simpático. Sería como diseñar la estructura de cómo detener a Messi, pero en beisbol, un deporte que deja marcas más fáciles de explicar y no el regateo que puede tener el mediocampista, y cuya tendencia es indeterminada.

Antes de comenzar quisiera destacar una aclaración que da la misma autora, y es que el cerebro humano realiza las mismas tareas que un algoritmo. Ella da una explicación acerca de la preparación de la cena para sus tres hijos, lo que expone un modelo informal de algoritmo cerebral que como madre emplea a diario. Cada noche, cuando se pone a cocinar de manera intuitiva, piensa recabando información cuánto apetito tendrá cada uno de los miembros de mi familia. Sabe además que uno de sus hijos comerá solo la pasta, que el otro comerá pollo y el último es fanático de las hamburguesas. Los datos de entrada del modelo son la información que tiene sobre su familia, los ingredientes que tiene en la cocina, el tiempo, las ganas, etc. La evaluación del éxito será cuánto cenen o cuánto dejen. El problema radica en su ausencia, si ella sale y sus hijos se quedan con la abuela, ¿se puede transmitir el algoritmo, toda la información obtenida en él para que la abuela haga la cena?, la verdad, no.

Para afianzar este punto enfoquémonos en cómo hacer para parar a un jugador específico en el beisbol. Un equipo cambio de posición a sus jugadores porque descubrió que la tendencia de bateo de quien les había hecho daño en el primer partido era la misma, siempre al mismo lugar, siempre a la derecha, supongamos, así que puso a su mejor jugador a la derecha para que atrapara los batazos del contrario. En la actualidad todos los equipos lo hacen, de hecho, el algoritmo se va nutriendo con las estadísticas de cada bateo, de cada juego. Y todas las preguntas que se nos ocurren son las que nutren el modelo. La respuesta del modelo es ejecutar diferentes escenarios en cada coyuntura para dar con las combinaciones de respuestas óptimas en cada instancia del partido. El problema está en las preguntas que lo alimentan.

Si las respuestas son los gastos en salud y estos gastos dan puntajes para ingresar a ciertos programas, los afroamericanos que no gastan en salud, por no tener recursos, harán que el algoritmo los deje fuera, porque se nutre de gastos para decidir y brindar puntaje, es decir, el diseño de las variables que nutre las estadísticas está pensado para dejarlos fuera. Eso sí, de manera matemáticamente justificada, imparcial y científica. Y aquí está el centro de la mentira y ella da un ejemplo en el que señala sus características destructivas poco a poco.

El nuevo alcalde de Washington decidió corregir la situación de las escuelas deficientes de la ciudad, las que tenían malos alumnos, de los cuales muy pocos llegaban a graduarse del primario. La teoría generalmente aceptada por el neoliberalismo era que los alumnos no aprendían lo suficiente porque sus profesores no trabajaban bien. De modo que, en 2009 se planteó un plan para extirpar del sistema a los docentes de bajo rendimiento. ¿Cómo?, pues evaluando a los profesores con una prueba llamada IMPACT, deshacerse de los peores y colocar a los mejores donde se pueda producir el mayor efecto positivo posible.

Una de las evluadas era Sarah Wysocki, maestra de quinto grado, que llevaba trabajando solo dos años en el colegio MacFarland, pero el director del colegio y los padres de sus alumnos tenían ya una excelente opinión de ella. Elogiaban lo atenta que era con los niños; “una de las mejores maestras con las que he tratado nunca”. La maestra Wysocki sacó una penosa puntuación en su evaluación de IMPACT, esa puntuación, generada por un algoritmo, la dejaba debajo del umbral mínimo, por lo que ella y 205 maestros más fueron despedidos. Obviamente, Sarah Wysocki pensó que los números eran terriblemente injustos y quiso saber de dónde venían.

¿Cómo estaba diseñado el algoritmo?, ¿qué lo nutria? Bien, el primer problema fue que la ciudad contrató una consultora que tenía un sistema llamado Mathematica y dicha consultora no podía revelar su formato, porque la habían contratado porque tenía el conocimiento para hacer la evaluación. El modelo en sí es una caja negra, su contenido, un secreto corporativo fieramente guardado. De este modo, las consultoras con sistemas como Mathematica pueden cobrar más, aunque este secretismo sirve también a otros propósitos. Intentar puntuar la eficacia de un docente analizando los resultados de una prueba de solo veinticinco o treinta alumnos no tiene solidez estadística y es, incluso, ridículo. Pero ¿cómo puede confirmar el sistema que su análisis fue correcto? No puede. Una de las variables que alimentaba al algoritmo era los resultados de años anteriores. En ellos los docentes ayudaron a sus alumnos a realizar pruebas para que el establecimiento quedara bien parado; con esta profesora, eso no pasó.

Lo que nutre el algoritmo es lo que se llama “bucle de retroalimentación” Las empresas, por ejemplo, utilizan cada vez más las calificaciones de solvencia crediticia para evaluar a los posibles candidatos para un trabajo. Se basan en la creencia de que las personas que pagan pronto sus facturas tienen más probabilidades de llegar puntualmente a su puesto de trabajo y de cumplir las normas. Pero buenos trabajadores tuvieron la desgracia de quedarse desempleados porque su empresa cerró, por lo que tardan en pagar facturas, lo que hace que tengan una mala calificación crediticia. No obstante, esta idea de que dicha mala calificación está relacionada con un mal rendimiento en el trabajo hace que las personas que tienen una calificación más baja tengan menos probabilidades de encontrar trabajo. El desempleo los empuja a la pobreza, lo que a su vez empeora aún más sus calificaciones de solvencia, con lo que les resulta aún más difícil encontrar trabajo.

Un algoritmo procesa un montón de estadísticas y produce como resultado una cierta probabilidad de que una persona concreta pueda ser un mal empleado, un prestatario de riesgo, un terrorista o un pésimo maestro. Esa probabilidad se condensa en una puntuación, que puede llegar a destrozar la vida de alguien. Y, sin embargo, cuando esa persona decide defenderse, las “sugerentes” pruebas en contra del veredicto son insuficientes para aclarar las cosas.

Después de la terrible sorpresa de su despido, Sarah Wysocki solo estuvo unos cuantos días desempleada. Había mucha gente dispuesta a responder por su trabajo como maestra, entre ellas su director, y en seguida la contrataron en un colegio privado de un próspero distrito al norte de Virginia. La consecuencia final fue que, gracias a un modelo altamente cuestionable, un colegio pobre perdió a una buena maestra, y un colegio rico, que no despedía a los docentes por las puntuaciones que obtuvieran sus alumnos, ganó una.

Fuente: https://eltabanoeconomista.wordpress.com/2023/10/29/el-lado-oscuro-del-algoritmo/

Comparte este contenido:

Coalición por el Acceso al Conocimiento contra el cobro por préstamos en bibliotecas públicas

Coalición por el Acceso al Conocimiento contra el cobro por préstamos en bibliotecas públicas

Por Red en Defensa de los Derechos Digitales

 

La Coalición por el Acceso al Conocimiento (A2K) ha hecho público su rechazo a que se discutan los cobros por “derechos de préstamo” en la 44ª sesión del Comité Permanente de Derecho de Autor y Derechos Conexos (SCCR) de la Organización Mundial de la Propiedad Intelectual (OMPI), a realizarse del 6 al 8 de noviembre en Ginebra.

La Coalición A2K ─de la cual R3D: Red en Defensa de los Derechos Digitales forma parte─ está compuesta por organizaciones que representan a educadores, investigadores, estudiantes, bibliotecas, archivos, museos, además de otros usuarios del conocimiento y comunidades creativas de todo el mundo. Los miembros comparten la visión de un sistema de derechos de autor justo y equilibrado que se sustenta en la Declaración Universal de los Derechos Humanos.

El grupo presentó un análisis de los principales puntos del día que se abordarán en la sesión, entre los que destaca una propuesta de estudio propuesta promovida por tres países acerca del pago por el derecho al préstamo público, que no es más que una exigencia de que las bibliotecas públicas paguen una “compensación” por el préstamo no comercial de libros y otras obras de sus colecciones.

El análisis insta a los miembros del Comité de la OMPI a “no dedicar valioso tiempo” en esta discusión, ya que considera que este tipo de prácticas solo existen en un pequeño número de países ─concentrados en Europa, Australia, Canadá, Israel y Nueva Zelanda─ y muchos funcionan como parte de la política cultural estatal, no de los derechos de autor.

La Coalición también considera que el cobro por préstamo público implicaría el pago de tasas a autores extranjeros y nacionales, lo que podría significar que los países en desarrollo terminen pagando importantes montos a las editoriales del Norte Global.

Así mismo, la Alianza de la Sociedad Civil Latinoamericana para el Acceso Justo al Conocimiento ─donde R3D también es partícipe─ publicó recientemente una posición similar, la cual defiende la naturaleza del préstamo público como mecanismo imprescindible para garantizar el derecho fundamental de acceso y participación en la cultura.

Entre los otros puntos abordados por el análisis de la agenda de SCCR, la Coalición A2K apoya la implementación de la propuesta del Grupo Africano para mayores excepciones y limitaciones al derecho de autor frente al derecho a la educación y el derecho de acceso a la cultura.

Así mismo, la coalición también mostró su oposición a la propuesta del Tratado de Radiodifusión, sugiriendo que se elimine de la agenda. Este tratado pretende establecer nuevos “derechos exclusivos” para los radiodifusores, de modo que abarquen las transmisiones por Internet y, por ende, generen nuevas regalías.

“No existe ningún racional para un tratado antipiratería para contenidos que ya se encuentran protegidos por otros tres tratados digitales de la OMPI, así como el cifrado de señales”, señala el análisis.

Fuente: https://r3d.mx/2023/10/05/la-coalicion-por-el-acceso-al-conocimiento-se-posiciona-en-contra-del-cobro-por-prestamo-publico-a-bibliotecas/

Comparte este contenido:

Argentina: «No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

«No necesitamos una inteligencia artificial para destruirnos, nos bastamos solos»

Por Antonio Martínez Ron

El científico argentino aborda el tema de moda en su libro ‘Artificial’, convencido de que debemos tratar a la IA “como a una musa y no como a un adversario”

El desarrollo acelerado de la inteligencia artificial generativa, y su capacidad para mantener conversaciones aparentemente inteligentes o crear contenidos audiovisuales, se ha convertido en uno de los temas candentes sobre los que todo el mundo tiene una opinión. El neurocientífico Mariano Sigman y el tecnólogo Santiago Bilinkis abordan la cuestión en el libro Artificial (Debate, 2023), un ensayo en el que aportan una amplia variedad de ángulos desde los que formarse un juicio fundamentado sobre lo que nos espera en el futuro.

Lejos de los mensajes apocalípticos y del optimismo acrítico que abunda en estos días, los argumentos de Sigman y Bilinkis se centran en las amenazas y posibilidades reales que nos brinda la tecnología, a la que conciben como un instrumento del que podemos sacar provecho o convertir en un arma. Al margen de los riesgos, que los hay, los autores prefieren poner el foco en el papel que pueden jugar estas nuevas herramientas como potenciadores de nuestra creatividad y nuestras capacidades, como una especie de entrenador virtual o una mente complementaria. Charlamos con Mariano Sigman en Madrid, con su libro recién salido del horno.

Dicen ustedes que nuestros días como la especie más inteligente del planeta parecen estar contados, ¿eso es bueno o malo? 

Bueno, hay que matizar que una cosa es que estén contados y otra que falte poco. Sabemos que va a pasar, pero otra cosa es que sea inminente.

El desarrollo de la IA generativa ha producido la sensación de que hay un gran cambio, e incluso se habla de una “bomba de inteligencia”. ¿Hasta qué punto es una amenaza?

Lo que hace distintiva a esta tecnología es que, a diferencia de otras, tiene cierta autonomía. Porque un lápiz no decide escribir y una bomba no decide dispararse. Una inteligencia artificial (IA), en cambio, toma sus propias decisiones, por supuesto, sobre un marco para el que está programada. Eso le da algo que nosotros reconocemos como un “sentido de agencia” y muchas decisiones involucran una observación sobre sí mismas, y en eso empiezan a parecerse al intelecto humano. Y si es capaz de crear copias similares a sí misma, pero con diferencias que la hagan más apta, también empieza a parecerse a una especie, un colectivo que puede tomar sus propias decisiones.

Lo que temen es lo que se llama una Inteligencia Artificial General (IAG). ¿Qué es exactamente una IAG? ¿Una especie de nuevo dios?

El vínculo con la IA está repleto de exageraciones, de enfados y también de adoraciones desmedidas, una tendencia a ponerla en el lugar de un dios. Y de ninguna manera es así, la IA toma decisiones y está en nosotros decidir si tienen valor o no.

Hay estudios que dicen que nos cuesta mucho trabajo llevarle la contraria a una IA, ¿en eso ya nos tiene sometidos?

La IA genera todo tipo de proyecciones e imágenes mentales en cuanto la nombras. También hay un enorme manto de ignorancia, que viene de no haber interactuado con ella. Esto es parte de lo que quiero resolver en el libro, creo que metafóricamente la IA es como la selva, que es un lugar peligroso, pero fascinante, lleno de vida. Si sabes apreciarla, una vez que entras en ese mundo tan extraño, hay todo un espacio de fascinación. Creo que a la IA no hay que tenerle ni tanto miedo ni tanto respeto o admiración.

Creo que a la IA no hay que tenerle ni tanto miedo ni tanta admiración

Hay líderes de opinión como Yuval Noah Harari que dicen cosas muy alarmantes, como que la IA puede poner en peligro la democracia o que ha hackeado nuestro sistema operativo, que es el lenguaje. ¿Está de acuerdo?

Bueno, puede pasar. Pero la historia humana está llena de hackeos de todo tipo, toda la historia está llena de tragedias, no necesitamos IA para destruir nuestros principios y valores, nos bastamos a nosotros mismos. Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular.

Es muy interesante la relación psicológica que tenemos con la inteligencia artificial. ¿Se ha sorprendido a sí mismo alguna vez celebrando un fallo de la IA como una victoria humana?

Ja, ja. Yo no, pero soy raro y sé que le pasa a todo el mundo. Cuando Deep Blue le ganó a ajedrez a Kasparov, muchos se lo tomaron como la derrota de la humanidad. Yo nunca lo vi así. Para mí fue una victoria de la humanidad contra la humanidad, de nuestra capacidad de abstraer, de hacer programas, de hacer computadoras contra nuestra capacidad de razonar a cerebro desnudo.

A algunos de esos errores de la IA se les llama alucinaciones. ¿Estamos creando una inteligencia con nuestros mismos defectos?

En general uno empatiza con lo imperfecto. La perfección te maravilla, pero uno conecta con lo vulnerable. Por eso en las películas de Hollywood el héroe resbala, patina y es frágil.

Pero cuando una IA consigue liar a un humano para saltarse un CAPTCHA convenciéndole de que es una persona ciega, de la empatía pasamos al terror.

Bueno, en ese sentido, la IA es como los niños, que aprenden muy bien a hacer trampa y que primero tienen que saltarse ciertas reglas para aprender luego el costo de eso. Como pasa con ellos, el aprendizaje es mucho más que aplicar reglas literales, siempre tienes que entender las excepciones y los matices.

¿El peligro es que interpreten las cosas demasiado literalmente?

Eso se puede compensar, porque las nuevas redes neuronales en realidad no funcionan como programas. Lo que incorporan son un conjunto de reglas que coexisten y en ese sentido se parecen mucho a nuestro cerebro. Nuestro cerebro funciona así. O sea, tú tienes hambre y tienes ganas de comer, pero sabes que no le puedes robar la comida al otro.

Utilizada contra humanos, la IA es una herramienta muy poderosa y que da mucha capacidad de manipular

Además de conversar, la IA nos asusta todavía más cuando se pone a hacer arte. ¿Nos hará repensar todo lo que sabemos sobre creatividad?

Toda la creatividad humana está montada a hombros de gigantes. Hay un documental de Orson Wells que se llama F de Fake, donde él justamente cuestiona quién es el autor de algo. Porque no es una cuestión tan clara. ¿Quién ha hecho la catedral de Chartres? Al final había uno que era el que ponía la última piedra, pero ¿era el autor?

Al final, ¿las máquinas se van a poder dedicar al empleo creativo y el trabajo duro nos va a tocar a los humanos?

Yo sé que es inevitable tener una reacción negativa hacia la IA, pero creo que hay que mirar esto con un poco más de curiosidad, y considerarla como una herramienta con la que trabajar, o una musa, más que como un adversario.

Muchas de las creaciones de la inteligencia artificial, sobre todo en audiovisual, tienen un aspecto onírico. ¿Es como si estuviéramos creando una mente capaz de soñar por nosotros?

No es solo capaz de soñar, sino que es capaz de plasmar nuestros sueños. Y esa es la idea clave. Deberíamos pensar en la IA como algo que te permite llegar a lugares que antes eran imposibles para ti. Una herramienta que te permite ir a un sitio.

El uso no detectable de la IA en el arte o en los trabajos del colegio, ¿nos conduce hacia un mundo de impostores? 

En realidad eso no es nuevo. Las fake news nos acompañan desde hace mucho tiempo. De hecho, esta mezcla de realidad y ficción nos acompaña desde los tiempos de La Ilíada. Y una manera de vincularse con GPT es establecer con ella una conversación como hacía Sócrates. Cuando tú quieres pensar algo, necesitas un interlocutor.

Un interlocutor que a veces te suelta tonterías…

Bueno, no puedes pedirle peras al olmo. GPT no es un proveedor de verdades. Lo que tú tienes que saber es qué es lo que te puede dar y qué es lo que no te puede dar.

¿Es un sparring?

Exacto. Si tú te lo tomas como alguien con el que puedes conversar o contrastar ideas, puede que te sirva para pensar las preguntas correctas, para ver alguna idea que luego incorporas. Hay que tener una visión más amplia de la inteligencia artificial, hay humanos que hacen daño a través de ella, pero también puede generar mucho esplendor. Hace poco le enseñé a mi madre cómo funcionaba y fue emocionante ver su reacción. Fue como cuando ella me llevó por primera vez a ver el mar. Por otro lado, es interesante preguntarnos ¿por qué genera tanta emoción la inteligencia artificial? Aquí hay una paradoja: la gente lo ve como algo frío, y sin embargo despierta todo tipo de emociones. Esta es la ironía.

Hay una paradoja: la gente ve la IA como algo frío y sin embargo despierta todo tipo de emociones

Si le ofrecen la posibilidad de regenerar un familiar fallecido en el mundo virtual mediante IA, ¿lo aceptaría?

Yo adoraba a mi abuelo. Se murió cuando yo tenía veintipocos años. Si pudiera recrear su voz y los cuentos que me contaba, sí lo haría. Pero creo que a mí no me gustaría verlo, porque no me resultaría creíble.

En el libro advierten de que no han utilizado ChatGPT, pero ¿una inteligencia artificial podría haber escrito un libro como este?

No, todavía no. Aún no está a la altura de hacer algo así, pero eso puede ser una cuestión de tiempo. No sé si dentro de dos años, cinco o diez. No creo que haya ninguna limitación para que un día le des toda la información y le pidas un libro con tus ideas y con tu estilo y te lo dé. Y no solo eso, es posible que llegue un día en el que tú le des una instrucción en la que le digas “hazme la película que quiero ver” y te la ofrezca.

Fuente: https://www.eldiario.es/sociedad/mariano-sigman-entrevista-inteligencia-artificial-destruirnos_128_10606005.html

 

Fuente de la Información: https://rebelion.org/no-necesitamos-una-inteligencia-artificial-para-destruirnos-nos-bastamos-solos/

 

Comparte este contenido:

Cuba: Concluye III Congreso Internacional Cibersociedad 2023

Concluye III Congreso Internacional Cibersociedad 2023

Luego de cinco jornadas de debates e intercambios, finalizó este viernes en La Habana, el III Congreso Internacional Cibersociedad 2023.

Ailyn Febles Estrada, presidenta de la Unión de Informáticos de Cuba (UIC), expresó durante la ceremonia de clausura que por vez primera se abordaron temas como la inteligencia artificial, la computación cuántica y la agricultura de precisión.

Febles Estrada señaló que se impartieron más de 30 conferencias magistrales en sesiones que abarcaron tópicos de vital importancia para la transformación digital.

Compartimos con más de 500 participantes de todas las provincias y de más de 11 países, y contamos con el apoyo de varios organismos internacionales como el Programa Mundial de Alimentos, la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) y el Programa de Naciones Unidas para el Desarrollo (PNUD), afirmó.

Según la presidenta de la UIC, el gobierno, la academia, las empresas y la sociedad civil se unieron desde criterios diversos para lograr que la transformación digital incida en el desarrollo del país.

Dijo que en las sesiones del evento se resaltó la necesidad de la innovación y de mayores competencias digitales en áreas como la salud y la agricultura.

Febles Estrada subrayó como una temática pendiente la de la bancarización.

La cita fue, al decir de la presidenta de la UIC, una plataforma de encuentro, intercambio y colaboración para contar el presente y soñar el futuro.

Convocó a la celebración de la IV edición de Cibersociedad en el año 2025.

En la clausura se reconoció a los principales patrocinadores del evento, entre ellos, el Parque Científico-Tecnológico de La Habana, los Laboratorios AICA, el Ministerio de las Comunicaciones de Cuba y el Grupo Empresarial Correos de Cuba, entre otros.

Se distinguió también el aporte de la Unesco, el Instituto de Calidad de Software de Alemania y el PNUD recibió un lauro especial por sus 50 años de trabajo en la mayor de las Antillas.

Bajo el lema «Transformación Digital: Conexión Global Local», Cibersociedad 2023 sesionó entre el 16 y este 20 de octubre en Cuba.

(Con información de ACN)

Fuente de la Información: http://www.cubadebate.cu/noticias/2023/10/20/concluye-iii-congreso-internacional-cibersociedad-2023/

Comparte este contenido:

Sistema Económico y Tecnología: Según la IA, la Humanidad depende de un “cambio radical” del sistema económico

Según la IA, la Humanidad depende de un “cambio radical” del sistema económico

En las últimas décadas, hemos visto con creciente preocupación cómo el sistema económico y político global está acelerando la destrucción del planeta. El problema radica en que este sistema está basado en el crecimiento económico constante, el cual se basa en el consumo de recursos naturales y la generación de residuos. Para mantener este crecimiento, las empresas y los gobiernos están constantemente buscando nuevas formas de explotar los recursos naturales y producir bienes y servicios.

Este modelo de desarrollo es insostenible a largo plazo, ya que está poniendo en peligro la capacidad del planeta de sostener la vida. Los principales problemas ambientales que estamos enfrentando, como el cambio climático, la pérdida de biodiversidad y la contaminación, son el resultado directo de este modelo.

Además, el sistema económico y político global está dominado por unas pocas grandes empresas que tienen un enorme poder. Estas empresas tienen un gran interés en mantener el statu quo, ya que les beneficia económicamente.

Como resultado, estas empresas se resisten a los cambios que podrían ayudar a proteger el medio ambiente. Por ejemplo, se oponen a la adopción de medidas para reducir las emisiones de gases de efecto invernadero, ya que esto podría afectar a sus beneficios.

El sistema económico y político global también está muy fragmentado. No existe una autoridad global que pueda coordinar las acciones para proteger el medio ambiente.

Como resultado, cada país o región actúa de forma independiente, lo que dificulta la adopción de medidas globales. Por ejemplo, algunos países están reduciendo sus emisiones de gases de efecto invernadero, mientras que otros las están aumentando.

Hay varios factores que contribuyen a que el sistema económico y político global sea insostenible. Entre ellos, destacan los siguientes:

  • La búsqueda del beneficio económico a corto plazo: Las empresas y los gobiernos están motivados por la búsqueda del beneficio económico a corto plazo. Esto les lleva a tomar decisiones que pueden ser perjudiciales para el medio ambiente, incluso si tienen consecuencias negativas a largo plazo.
  • La falta de regulación: Los gobiernos no están haciendo lo suficiente para regular la actividad económica y proteger el medio ambiente. Esto se debe a que las empresas y los lobbies empresariales tienen un gran poder de influencia sobre los gobiernos.
  • La desigualdad social: El sistema económico global está basado en la desigualdad social. Esto significa que una pequeña minoría de personas controla la gran mayoría de los recursos naturales y del poder económico. Esta desigualdad dificulta la transición hacia un modelo de desarrollo sostenible.

El crecimiento económico es incompatible con la sostenibilidad

El sistema económico global se basa en el crecimiento económico indefinido. Este crecimiento requiere un consumo constante de recursos naturales, lo que inevitablemente conduce a la degradación ambiental.

Los recursos naturales son finitos, y el planeta tiene una capacidad limitada para absorber los residuos. A medida que la población mundial crece y la demanda de recursos aumenta, nos acercamos cada vez más al límite de la sostenibilidad.

El sistema político no está preparado para abordar la crisis climática

El sistema político global está dividido y fragmentado. Esto dificulta la adopción de medidas urgentes para abordar la crisis climática.

Los gobiernos nacionales están más preocupados por sus propios intereses que por el bien común. Esto lleva a la toma de decisiones cortoplacistas que perjudican al medio ambiente.

La sociedad no está preparada para un cambio radical

La sociedad está acostumbrada a un sistema económico y político que favorece el consumo y el crecimiento. Cambiar a un sistema más sostenible requeriría un cambio radical en nuestros hábitos y valores.

Esto es difícil de lograr, ya que la mayoría de las personas se resisten al cambio.

Conclusiones

El sistema económico y político global está intrínsecamente diseñado para destruir el planeta. Si queremos evitar un desastre ambiental, debemos cambiar radicalmente nuestro sistema económico y político. Esto requerirá un esfuerzo concertado de todos los sectores de la sociedad.

Algunas propuestas para un cambio radical

  • Una transición a una economía circular

Una economía circular es un sistema económico que se basa en la reutilización, el reciclaje y la reparación de los recursos. Esto reduce la necesidad de extraer recursos naturales y genera menos residuos.

  • Un cambio a energías renovables

Las energías renovables son fuentes de energía limpias e inagotables. Su uso reduce las emisiones de gases de efecto invernadero, que son la principal causa del cambio climático.

  • Una reducción del consumo

El consumo excesivo es una de las principales causas de la degradación ambiental. Debemos aprender a vivir con menos, reduciendo nuestro consumo de bienes y servicios.

  • Un cambio en nuestra dieta

La ganadería es una de las principales fuentes de emisiones de gases de efecto invernadero. Una dieta vegetariana o vegana es una forma efectiva de reducir nuestra huella ambiental.

  • Un mayor apoyo a la agricultura sostenible

La agricultura sostenible es una forma de producir alimentos que protege el medio ambiente. Debemos apoyar a los agricultores que practican la agricultura sostenible.

Estos son solo algunos ejemplos de las medidas que se necesitan para cambiar nuestro sistema económico y político. Si queremos evitar un desastre ambiental, debemos actuar ahora.

 

Comparte este contenido:
Page 2 of 9
1 2 3 4 9