Saltar al contenido principal
Page 3 of 47
1 2 3 4 5 47

Azahara Palomeque: La Inteligencia Artificial vapulea el futuro del trabajo. Europa

Varios estudios pronostican la desaparición de millones de puestos de trabajo como consecuencia de los diferentes usos y desarrollos de la Inteligencia Artificial. La clase media y los trabajos feminizados serían los más afectados.

Se puede afirmar sin titubeos que una de las mayores preocupaciones en los centros de poder occidentales es el futuro del trabajo. Desde quienes apuntan a las sustanciales mudanzas en el mercado laboral como consecuencia de la crisis climática, hasta los fenómenos azuzados por la COVID-19 –como la llamada ‘Gran Dimisión’– pasando por el impacto que tendrá la Inteligencia Artificial (IA), los debates no paran de sucederse. Específicamente, los efectos de la IA en el empleo ocuparon buena parte de la reunión que mantuvieron los congresistas estadounidenses en el Capitolio con Sam Altman, creador de OpenAI (la empresa que inventó ChatGPT), quien no supo detallar las disrupciones que traerá su criatura. Aunque los distintos actores políticos y económicos difieren en cuanto a los números, existe unanimidad a la hora de afirmar que habrá cambios drásticos, una gran conmoción que, dependiendo de cómo se gestione, puede acabar con millones de personas en la calle.

Millones de afectados

Los peores augurios vienen de la mano de Goldman Sachs. Según un informe reciente de la multinacional bancaria, 2/3 de los trabajos actuales en EE.UU. y en Europa podrían estar sujetos a algún tipo de automatización provocada por la IA generativa, y sería esta tecnología la causante de la pérdida de 1/4 del empleo en dichas regiones. Extrapolados los datos a nivel global, se estima que desaparecerían 300 millones de puestos de trabajo. Aunque algunos expertos apuntan a la creación de nuevas profesiones y un posible incremento de la productividad en algunos sectores, estos avances son más difíciles de predecir y dependerían tanto del desarrollo de la tecnología como del marco regulativo en que esto ocurra. En este sentido, es significativo que la nueva Ley europea sobre Inteligencia Artificial haya dejado fuera de la clasificación como “alto riesgo” el uso de estos sistemas generativos en el mercado laboral y en entornos educativos, lo cual añade más incertidumbre a un tejido social atravesado por la inflación y la guerra en Ucrania.

Mucho más detallado es el último estudio realizado por el Foro Económico Mundial (FEM), conocido como “Foro de Davos” y radicado en Suiza. FEM pronostica que un 23% del mercado mundial experimentará una sacudida debido a varios factores, entre los que destaca la IA, pero también una tendencia a la desglobalización –o relocalización, el término utilizado en la investigación medioambiental– y la transición hacia una economía verde. Así, proporciona números más halagüeños: 83 millones de puestos de trabajo serían eliminados, pero, a cambio, se crearían 69 millones a nivel global. En cualquier caso, los riesgos seguirían siendo notables, principalmente impulsados por la ralentización del crecimiento económico, una subida del coste de los insumos y la reducción del poder adquisitivo de la ciudadanía. Es relevante que en los ámbitos académicos ecologistas se estén discutiendo circunstancias similares, relacionadas con el agotamiento de los recursos naturales y las adversidades climáticas, cuestiones que no suelen tenerse en cuenta en los círculos financieros. El último libro de Gonzáles Reyes y Almazán realiza un análisis pormenorizado por sectores en un contexto de colapso ecosocial, y prevé la disminución de empleos (en el turismo, la pesca, la ganadería, etc.) bien por su carácter insostenible o el daño medioambiental que causan.

Trabajos de clase media y feminizados

La dominación del tejido productivo por parte de la IA presenta algunas novedades: a diferencia de otras épocas en que las máquinas han sustituido el trabajo manual, ahora estaríamos hablando de “tareas que requieren razonamiento, comunicación y coordinación”, asegura el informe del FEM, o, como afirma The Guardian“trabajos de clase media”. Una lectura comparativa de los documentos citados, junto a la investigación de Business Insider, nos devuelve los siguientes empleos amenazados: aquellos que requieren análisis o procesamiento de datos en el ámbito tecnológico (incluyendo programadores e informáticos); análisis de mercado o financiero (asesores fiscales, gestores, profesionales del marketing); asistentes de varios tipos; diseñadores gráficos, periodistas y creadores de contenido en general; y hasta abogados y profesores, aunque en torno a la docencia hay discrepancias, pues para el éxito de los procesos pedagógicos son importantes la interacción humana y la empatía. Además, un estudio citado por Bloomberg subraya el sesgo de género en los peligros laborales que entraña la IA, la cual podría reemplazar a miles de mujeres en puestos tradicionalmente feminizados, como el de secretaria, traductora, o personal de recursos humanos. A grandes rasgos, el análisis del mercado laboral español efectuado por FEM coincide con los sectores identificados como en decadencia internacionalmente, aunque el mayor varapalo estaría desencadenado por la caída del crecimiento global.

Ante este panorama nada alentador, cabe preguntarse, con pensadoras como Yayo Herrero, qué sentido tiene el trabajo como vía de acceso a distintos derechos sociales (sanidad, pensión) y de qué manera orientar la política hacia la obligación de “proteger personas”, no sectores económicos; o por qué las cifras de empleo siguen dominando la opinión pública en lugar de hacerlo la utilidad social del mismo, de acuerdo con David Graeber. Este último autor ya abogaba por la implementación de una Renta Básica Universal (RBU) con el objetivo de blindar cierto bienestar al ciudadano y ahorrarle el desgarro moral que conlleva dedicarse a un “trabajo de mierda”. Puede parecer mentira, pero no hace tanto que los empresarios de Silicon Valley, incluido el mismísimo Altman, abrazaban también esta medida, conscientes de la inestabilidad social que provocarían sus hazañas algorítmicas. Buscar herramientas de protección colectiva, comunitaria, y no sólo predecir la catástrofe empieza a tornarse perentorio en un mundo plagado de incertidumbres.

Fuente: https://www.lamarea.com/2023/07/12/la-inteligencia-artificial-vapulea-el-futuro-del-trabajo/

Comparte este contenido:

Costa Rica: Inteligencia artificial en la educación, oportunidad o amenaza

Por: Leiner Vargas

La reciente noticia en la Universidad de Costa Rica acerca de la penalización de estudiantes por utilizar Inteligencia Artificial (IA) en sus exámenes ha generado un debate importante: ¿Debemos prohibir o aprender a utilizar estas herramientas tecnológicas emergentes?

La IA, y en particular las herramientas de lenguaje regenerativo como ChatGPT de OpenAI, han experimentado avances exponenciales en los últimos años. Los sistemas de lenguaje artificial han demostrado una capacidad extraordinaria para procesar y generar contenido, desde responder preguntas basadas en una amplia gama de información hasta mantener conversaciones fluidas. Prohibir algo que resulta tan útil y que en medio de la mediocridad de muchas de nuestras clases y exposiciones, resulta claramente superior, generará algo aún peor, el uso abusivo de la misma.

Pero aquí yace la paradoja de nuestro tiempo, aunque estos sistemas pueden ser mal utilizados para eludir el aprendizaje y el trabajo personal, también pueden ser una herramienta poderosa para mejorar y expandir nuestra educación. En lugar de rechazarlas por completo, deberíamos explorar maneras de incorporarlas en nuestras aulas de manera responsable. Primero, es importante reconocer que cualquier tecnología tiene potencial para el abuso. En el caso de la IA, uno de los usos indebidos más evidentes es utilizarla para generar respuestas en pruebas o tareas, como se vio en la UCR. Sin embargo, la respuesta a estos desafíos no debería ser la prohibición, sino la educación sobre el uso adecuado de la tecnología y la adaptación de nuestras metodologías de enseñanza y evaluación.

Podemos hacer que las evaluaciones sean menos susceptibles a la ayuda de la IA. Podemos diseñar pruebas que evalúen el pensamiento crítico, la solución de problemas y otras habilidades que las máquinas aún no pueden replicar completamente. Podemos incorporar componentes de presentación oral y discusión en clase para evaluar la comprensión del estudiante de los temas de estudio.
https://www.mundiario.com/articulo/costa-rica/inteligencia-artificial-educacion-oportunidad-amenaza/20230711205436273765.html
Comparte este contenido:

No todo vale con la Inteligencia Artificial en la educación

Mientras no haya una legislación sobre el uso de la inteligencia artificial en la educación, son los docentes los que deben establecer límites y poner normas en sus clases. Así lo cree Carmen Navarro, docente de Secundaria, que reflexiona en este artículo sobre las consecuencias de no hacerlo.

Seguro que no imaginan a Steve Jobs (si aún estuviera entre nosotros) ni a Bill Gates dejando a sus hijos en manos de la inteligencia artificial: estos grandes gurús de la tecnología no permitían las pantallas en casa. En la actualidad, y con la irrupción masiva de la IA en la sociedad se ha vuelto a generar un intenso debate en las escuelas: ¿permitir o prohibir?

Hay que tener en cuenta que no es lo mismo la enseñanza obligatoria que el alumnado que se encuentra en la universidad. Por lo tanto, es una decisión que en el ámbito educativo no puede ser universal. Por otro lado, tampoco es válida la excusa de que ‘los estudiantes ya la están usando’ para justificar que desde la escuela se permita e, incluso, se recomiende el uso de herramientas de IA como ChatGPT para ‘ayudar’ durante la realización de tareas escolares.

‘No todo vale’

Nadie duda de la eficacia y el potencial de la aplicación de la IA en los procesos de enseñanza-aprendizaje para la personalización de la educación, la accesibilidad de los materiales, la atención a la diversidad… Sin embargo, ¿existen beneficios demostrados derivados del uso directo de estas herramientas por parte del alumnado de enseñanzas medias? En mi opinión, prohibir ciertas cosas en determinadas edades no tiene nada de malo. Ya está bien del ‘todo vale’ sin medir las consecuencias. Como docentes y como centros educativos es nuestra responsabilidad poner normas mientras llega la esperada legislación y regulación oficial de la IA. Creo en el potencial transformador de la juventud y es por esta razón que debemos proteger su derecho a cultivar la creatividad, el espíritu crítico y la inteligencia.

Inteligencia Artificial

Así, los docentes que hemos optado por ‘prohibir’ o no recomendar hemos sido tildados de antiguos mientras que el consejo de nuestros compañeros ha sido que «debemos enseñar a nuestros jóvenes a discernir entre fake e información veraz». No obstante, olvidan que la tecnología ha avanzado tanto que estamos siendo sometidos continuamente a un ‘Test de Touring’, es decir, esa especie de experimento con el que determinar si la inteligencia artificial puede imitar las respuestas humanas, de dimensiones sobrecogedoras. Por ejemplo, son muchos los artículos publicados en Internet en los que al final de los mismos aparece la siguiente afirmación: “escrito por ChatGPT” (y tantos otros generados así que ni siquiera lo mencionan). Otro ejemplo es el que le ha ocurrido a Chema Alonso, experto en ciberseguridad, que ha comentado cómo se han publicado diversos artículos demostrando la cantidad de mentiras que esta IA generativa ha inventado sobre él y que yo misma habría creído. ¿Cómo vamos a enseñar a nuestros jóvenes a discernir si ni nosotros mismos sabemos cómo hacerlo?

Descubrir lo que hay debajo de la IA

Más allá de los contenidos curriculares, la escuela debe proporcionar a los jóvenes las herramientas necesarias para preocuparse y (ocuparse) de asuntos que las máquinas nunca podrán (o al menos no por ahora): la ética, la moral, el cuidado común, el conocimiento y cumplimiento de los ODS, como puede ser el mismo cuidado del medioambiente, entre otras cuestiones.

Estoy completamente a favor de introducir la IA en la escuela, pero con un enfoque totalmente distinto al de simplemente ‘preguntar y esperar las respuestas’. Mientras los estudiantes entrenan su espíritu crítico, podemos trabajar con ellos para descubrir lo que hay debajo de estas inteligencias artificiales: qué modelos matemáticos subyacen, cómo se construye y se entrena una IA, los diagramas de flujo…, de forma que ellos mismos tomen el control de esas herramientas siendo capaces de predecir su comportamiento y adaptar su uso a sus propias necesidades.

Como docentes, seamos más inteligentes que las máquinas. En el aula dejemos que los algoritmos se encarguen de ‘lo artificial’, de manera que tengamos más espacio para lo humano: desarrollando habilidades y competencias que nos permitan afrontar como comunidad global los desafíos que nos vendrán, entrenemos la mirada apreciativa que nos ayude a descubrir en nuestros estudiantes aquellos talentos que los diferencian de los demás y que a veces ni ellos mismos saben que tienen. En definitiva, sepamos como sociedad inteligente superponer los valores, la moral y la ética a cualquier evolución y revolución tecnológica.

https://www.educaciontrespuntocero.com/opinion/no-todo-vale-inteligencia-artificial/

Comparte este contenido:

BYUNG-CHUL HAN «LA INTELIGENCIA ARTIFICIAL ES INCAPAZ DE PENSAR»

Por: Byun Chul Han

En un nivel más profundo, el pensamiento es un proceso resueltamente analógico. Antes de captar el mundo en conceptos, se ve apresado, incluso afectado por él. Lo afectivo es esencial para el pensamiento humano. La primera afectación del pensamiento es la carne de gallina. La inteligencia artificial no puede pensar porque no se le pone la carne de gallina. Le falta la dimensión afectivo-analógica, la emoción que los datos y la información no pueden comportar.

El pensamiento parte de una totalidad que precede a los conceptos, las ideas y la información. Se mueve ya en un «campo de experiencia» antes de dirigirse específicamente a los objetos y los hechos que encuentra en él. La totalidad de lo existente a la que se enfrenta el pensamiento, se le abre inicialmente en un medio afectivo, en una disposición anímica: «La disposición anímica (Stimmung) ha abierto ya el ser-en-el-mundo como un todo, y esto es lo primero que hace posible un dirigirse hacia…». Antes de que el pensamiento se dirija hacia algo, se encuentra ya en una disposición anímica básica. Este encontrarse en una disposición anímica caracteriza al pensamiento humano. La disposición anímica no es un estado subjetivo que tiña el mundo objetivo. Es el mundo. Posteriormente, el pensamiento articula en conceptos el mundo abierto en una disposición anímica fundamental. Este precede a la conceptuación, al trabajo con los conceptos: «Definimos el filosofar como un preguntar conceptual a partir de un estremecimiento esencial del Dasein. Pero este estremecimiento solo es posible desde, y en, una disposición anímica fundamental del Dasein» . Solo esta disposición anímica nos hace pensar: «Todo pensamiento esencial requiere que sus pensamientos y enunciados sean en toda ocasión obtenidos, como el metal de la mena, desde la disposición anímica fundamental»

El hombre como Dasein está siempre arrojado a un mundo determinado. El mundo se le abre prerreflexivamente como una totalidad. El Dasein como disposición anímica precede al Dasein como ser consciente. En su estremecimiento inicial, el pensamiento está como fuera de sí. La disposición anímica fundamental lo pone en un fuera. La inteligencia artificial no piensa porque nunca está fuera de sí misma. El espíritu originariamente está fuera de sí mismo o estremecido. La inteligencia artificial puede calcular con rapidez, pero le falta el espíritu. Para el cálculo, el estremecimiento solo sería una perturbación.

«Analógico» es lo que guarda correspondencia. Heidegger se vale aquí del parentesco entre vocablos de su idioma. El pensamiento como proceso analógico se corresponde (entspricht) con una voz (Stimme) que lo determina (be-stimmt) y sintoniza (durch-stimmt) con él. El pensamiento no es interpelado por tal o cual ente, sino por la totalidad de lo ente, por el ser de lo ente. La fenomenología de la disposición anímica de Heidegger ilustra la diferencia fundamental entre el pensamiento humano y la inteligencia artificial. En ¿Qué es la filosofía? escribe Heidegger: «El corresponder (Das Ent-sprechen) escucha la voz de una llamada. Lo que se nos dice como voz del ser, determina (be-stimmt) nuestra correspondencia. “Corresponder” significa entonces: estar determinado, être disposé, por el ser del ente. […] La correspondencia es necesariamente, y siempre, no solo estar determinado accidental y ocasionalmente. Es un estado de determinación. Y es solo a partir de la disposición anímica que el decir de la correspondencia recibe su precisión, su ser determinado». El pensamiento oye, mejor, escucha y pone atención. La inteligencia artificial es sorda. No oye esa «voz».

El «comienzo de un filosofar verdaderamente vivo» es, según Heidegger, el «despertar de una disposición anímica fundamental» que «nos determina de modo fundamental». La disposición anímica fundamental es la fuerza de gravedad que reúne palabras y conceptos a su alrededor. Sin tal disposición anímica, el pensamiento carece de un marco organizador: «Si la disposición anímica fundamental está ausente, todo es un estrépito forzado de conceptos y palabras vacías». La totalidad afectiva que se da en esa disposición anímica es la dimensión analógica del pensamiento, que la inteligencia artificial no puede reproducir.

Según Heidegger, la historia de la filosofía es una historia de esa disposición anímica fundamental. El pensamiento de Descartes, por ejemplo, está determinado por la duda, mientras que el de Platón lo está por el asombro. El cogito de Descartes se basa en la disposición anímica fundamental de la duda. Heidegger caracteriza la disposición anímica de la filosofía moderna de la siguiente manera: «Para él [Descartes], la duda constituye esa disposición anímica que se centra en el ens certum, lo que existe con certeza. La certitudo es entonces esa firmeza del ens qua ens que resulta de la indubitabilidad del cogito (ergo) sum para el ego del hombre. […] La disposición anímica de la confianza en la siempre alcanzable certeza absoluta del conocimiento será el pathos y, por ende, el arjé de la filosofía moderna». El pathos es el comienzo del pensamiento. La inteligencia artificial es apática, es decir, sin pathos, sin pasión. Solo calcula.

La inteligencia artificial no tiene acceso a horizontes que se vislumbran en lugar de estar claramente definidos. Pero esta «vislumbre» no es un «primer peldaño en la escala del saber». En ella más bien se abre la «antesala» «que encierra, es decir, oculta todo lo que puede saberse». Heidegger localiza esta vislumbre en el corazón. La inteligencia artificial no tiene corazón. El pensamiento del corazón percibe y tantea espacios antes de trabajar con los conceptos. En esto se diferencia del cálculo, que no necesita espacios: «Si este saber “del corazón” es un vislumbrar, nunca debemos tomar este vislumbrar por un pensar que se difumina en la oscuridad. Tiene su propia claridad y resolución, y, sin embargo, sigue siendo fundamentalmente distinto de la seguridad de la mente calculadora»

Siguiendo a Heidegger, la inteligencia artificial sería incapaz de pensar en la medida en que se le cierra esa totalidad en la que el pensamiento tiene su origen. No tiene mundo. La totalidad como horizonte semántico abarca más que los objetivos previstos en la inteligencia artificial. El pensamiento procede de forma muy diferente a la inteligencia artificial. La totalidad constituye el marco inicial a partir del cual se conforman los hechos. El cambio de disposición anímica como cambio de marco es como un cambio de paradigma que da lugar a nuevos hechos. La inteligencia artificial, en cambio, procesa hechos predeterminados que siguen siendo los mismos. No puede darse a sí misma nuevos hechos.

El big data sugiere un conocimiento absoluto. Las cosas revelan sus correlaciones secretas. Todo se vuelve calculable, predecible y controlable. Se anuncia toda una nueva era del saber. En realidad, se trata de una forma de saber bastante primitiva. La data mining o minería de datos descubre las correlaciones. Según la lógica de Hegel, la correlación representa la forma más baja de saber. La correlación entre A y B dice: A ocurre a menudo junto con B. Con la correlación no se sabe por qué sucede esto. Simplemente sucede. La correlación indica probabilidad, no necesidad. Se diferencia de la causalidad, que establece una necesidad: A causa B. La acción recíproca representa el siguiente nivel del saber. Dice: A y B se condicionan mutuamente. Se establece una conexión necesaria entre A y B. Sin embargo, en este nivel de conocimiento aún no se comprende: «Si nos detenemos en la consideración de un determinado contenido meramente desde el punto de vista de la acción recíproca, es en verdad un comportamiento totalmente incomprensible»

Solo el «concepto» capta la conexión entre A y B. Es la C que conecta A y B. Por medio de C, se comprende la relación entre A y B. El concepto vuelve a formar el marco, la totalidad, que reúne a A y B y aclara su relación. A y B solo son los «momentos de un tercero superior». El saber en sentido propio solo es posible en el nivel del concepto: «El concepto es lo inherente a las cosas mismas, lo que nos dice que son lo que son, y, por tanto, comprender un objeto significa ser consciente de su concepto». Solo a partir del concepto omnicomprensivo C puede comprenderse plenamente la relación entre A y B. La realidad misma se transmite al saber cuando es captada por el concepto.

El big data proporciona un conocimiento rudimentario. Se queda en las correlaciones y el reconocimiento de patrones, en los que, sin embargo, nada se comprende. El concepto forma una totalidad que incluye y comprende sus momentos en sí mismo. La totalidad es una forma final. El concepto es una conclusión. «Todo es conclusión» significa «todo es concepto» [60] . La razón también es una conclusión: «Todo lo racional es una conclusión». El big data es aditivo. Lo aditivo no forma una totalidad, un final. Le falta el concepto, es decir, lo que une las partes en un todo. La inteligencia artificial nunca alcanza el nivel conceptual del saber. No comprende los resultados de sus cálculos. El cálculo se diferencia del pensamiento en que no forma conceptos y no avanza de una conclusión a otra.

La inteligencia artificial aprende del pasado. El futuro que calcula no es un futuro en el sentido propio de la palabra. Aquella es ciega para los acontecimientos. Pero el pensamiento tiene un carácter de acontecimiento. Pone algo distinto por completo en el mundo. La inteligencia artificial carece de la negatividad de la ruptura, que hace que lo verdaderamente nuevo irrumpa. Todo sigue igual. «Inteligencia» significa elegir entre (inter-legere). La inteligencia artificial solo elige entre opciones dadas de antemano, últimamente entre el uno y el cero. No sale de lo antes dado hacia lo intransitado.

El pensamiento en sentido enfático engendra un mundo nuevo. Está en camino hacia lo completamente otro, hacia otro lugar: «La palabra del pensamiento es pobre en imágenes y carece de estímulos. […] Sin embargo, el pensamiento cambia el mundo. Lo cambia en la profundidad, cada vez más oscura, del pozo que es un enigma, y que al ser más oscura es la promesa de una mayor claridad». La inteligencia de las máquinas no alcanza esa profundidad del oscuro pozo de un enigma. La información y los datos no tienen profundidad. El pensamiento humano es más que cálculo y resolución de problemas. Despeja e ilumina el mundo. Hace surgir un mundo completamente diferente. La inteligencia de las máquinas entraña ante todo el peligro de que el pensamiento humano se asemeje a ella y se torne él mismo maquinal.

El pensamiento se nutre del eros. En Platón, el logos y el eros entran en íntima relación. El eros es la condición de posibilidad del pensamiento. Heidegger también sigue en esto a Platón. En el camino hacia lo intransitado, el pensamiento se inspira en el eros: «Lo llamo el eros, el más antiguo de los dioses en palabras de Parménides. El batir de las alas de ese dios me conmueve cada vez que doy un paso esencial en el pensamiento y me aventuro en lo intransitado». Eros está ausente en el cálculo. Los datos y la información no seducen.

Según Deleuze, la filosofía comienza con un «faire l’idiot» . No es la inteligencia, sino un idiotismo, lo que caracteriza al pensamiento. Todo filósofo que produce un nuevo idioma, un nuevo pensamiento, un nuevo lenguaje, es un idiota. Se despide de todo lo que ha sido. Habita esa inmanencia virgen, aún no descrita, del pensamiento. Con ese «faire l’idiot», el pensamiento se atreve a saltar a lo totalmente otro, a lo no transitado. La historia de la filosofía es una historia de idiotismos, de saltos idiotas: «El idiota antiguo pretendía alcanzar unas evidencias a las que llegaría por sí mismo: entretanto dudaría de todo […]. El idiota moderno no pretende llegar a ninguna evidencia […], quiere lo absurdo, no es la misma imagen del pensamiento». La inteligencia artificial es incapaz de pensar, porque es incapaz de «faire l’idiot». Es demasiado inteligente para ser un idiota.

Fuente de la información e imagen:  https://www.bloghemia.com

Comparte este contenido:

Noam Chomsky habla sobre ChatGPT. Para qué sirve y por qué no es capaz de replicar el pensamiento humano [Entrevista]

Por: La peste

La inteligencia artificial (IA) está arrasando en el mundo. Está transformando todos los ámbitos de la vida y planteando importantes problemas éticos para la sociedad y el futuro de la humanidad. ChatGPT, que está dominando las redes sociales, es un chatbot basado en IA desarrollado por OpenAI. Es un subconjunto del aprendizaje automático y se basa en lo que se denomina Large Language Models (grandes modelos lingüísticos), capaces de generar respuestas similares a las humanas. El potencial de aplicación de esta tecnología es enorme, por lo que ya se está pidiendo que se regule la IA como ChatGPT.

¿Puede la IA ser más inteligente que los humanos? ¿Constituye una amenaza pública? De hecho, ¿puede convertirse en una amenaza existencial? Noam Chomsky, el lingüista más eminente del mundo y uno de los intelectuales públicos más estimados de todos los tiempos, cuya estatura intelectual se ha comparado con la de Galileo, Newton y Descartes, aborda estas inquietantes cuestiones en la entrevista que sigue.

C. J. Polychroniou: Como disciplina científica, la inteligencia artificial (IA) se remonta a los años 50, pero en las dos últimas décadas se ha ido abriendo paso en todo tipo de campos, como la banca, los seguros, la fabricación de automóviles, la música y la defensa. De hecho, el uso de técnicas de IA ha demostrado en algunos casos superar las capacidades humanas, como en una partida de ajedrez. ¿Es probable que las máquinas lleguen a ser más inteligentes que los humanos?

Noam Chomsky: Para aclarar la terminología, el término «máquina» significa aquí programa, básicamente una teoría escrita en una notación que puede ser ejecutada por un ordenador, y un tipo de teoría inusual en aspectos interesantes que podemos dejar de lado aquí.

Podemos hacer una distinción aproximada entre ingeniería pura y ciencia. No hay un límite claro, pero es una primera aproximación útil. La ingeniería pura busca producir un producto que pueda ser de alguna utilidad. La ciencia busca la comprensión. Si el tema es la inteligencia humana o las capacidades cognitivas de otros organismos, la ciencia busca comprender estos sistemas biológicos.

Tal y como yo los entiendo, los fundadores de la IA -Alan Turing, Herbert Simon, Marvin Minsky y otros- la consideraban ciencia, parte de las entonces incipientes ciencias cognitivas, que utilizaban las nuevas tecnologías y los descubrimientos en la teoría matemática de la computación para avanzar en la comprensión. Con el paso de los años, estas preocupaciones se han desvanecido y se han visto desplazadas en gran medida por una orientación ingenieril. En la actualidad, las primeras preocupaciones se suelen tachar, a veces con condescendencia, de ‘IA a la antigua usanza’ [en inglés ‘good old-fashioned AI’ o su acrónimo ‘GOFAI’].

Siguiendo con la pregunta, ¿es probable que se conciban programas que superen las capacidades humanas? Hay que tener cuidado con la palabra «capacidades», por razones a las que volveré. Pero si consideramos que el término se refiere a la ejecución(1) humana, entonces la respuesta es: definitivamente sí. De hecho, existen desde hace mucho tiempo: la calculadora de un ordenador, por ejemplo. Puede superar con creces lo que hacen los humanos, aunque sólo sea por falta de tiempo y memoria. En el caso de sistemas cerrados como el ajedrez, en los años 50 se comprendió perfectamente que tarde o temprano, con el avance de gigantescas capacidades computacionales y un largo periodo de preparación, se podría idear un programa capaz de derrotar a un gran maestro que juega con un límite de memoria y tiempo. El alcance de ese logro, años más tarde, fue más que nada un reclamo publicitario para IBM. Muchos organismos biológicos superan las capacidades cognitivas humanas en aspectos mucho más profundos. Las hormigas del desierto de mi patio trasero tienen cerebros minúsculos, pero superan con creces las capacidades humanas de navegación, en los principios que subyacen, no sólo en ejecución. No existe tal cosa como una Gran Cadena del Ser en cuya cúspide esté el ser humano.

Los productos de la ingeniería de IA se utilizan en muchos campos, para bien o para mal. Incluso los más sencillos y conocidos pueden ser bastante útiles: en el área lingüística, programas como el autocompletado, la transcripción en directo, el traductor de google, entre otros. Con una potencia de cálculo mucho mayor y una programación más sofisticada, también deberían surgir otras aplicaciones útiles en las ciencias. Ya ha habido algunas: cómo ha asistido en el estudio del plegamiento de proteínas es un caso reciente en el que la tecnología de búsqueda masiva y rápida ha ayudado a los científicos a abordar un problema crítico y difícil.

Los proyectos de ingeniería pueden ser útiles, o perjudiciales. Ambas cuestiones se plantean en el caso de la ingeniería de la IA. El trabajo actual con grandes modelos lingüísticos (LLM por sus siglas en inglés), incluidos los chatbots, proporciona herramientas para desinformar, difamar y engañar a los no informados. Las amenazas aumentan cuando se combinan con imágenes artificiales y réplicas de voz. Con diferentes preocupaciones en mente, decenas de miles de investigadores de IA han pedido recientemente una moratoria en el desarrollo debido a los peligros potenciales que perciben.

Como siempre, hay que sopesar los posibles beneficios de la tecnología frente a los costes potenciales.

Se plantean cuestiones muy distintas cuando nos referimos a la IA y la ciencia. Aquí se impone la cautela debido a las afirmaciones exorbitantes e imprudentes, a menudo amplificadas en los medios de comunicación. Para aclarar las cuestiones, consideremos casos, algunos hipotéticos, otros reales.

He mencionado la navegación de los insectos, que es un logro asombroso. Los científicos especializados en insectos han avanzado mucho en el estudio acerca de cómo este logro se ha alcanzado, si bien la neurofisiología -una materia muy complicada- sigue sin aclararse del todo, al igual que sucede con la evolución de los sistemas. Lo mismo ocurre con las asombrosas proezas de aves y tortugas marinas que recorren miles de kilómetros y regresan infaliblemente al lugar de origen.

Supongamos que Tom Jones, un partidario de la ingeniería de la IA, viene y dice: «Todo tu trabajo ha sido refutado. El problema está resuelto. Los pilotos de líneas aéreas comerciales consiguen siempre los mismos resultados, o incluso mejores».

Si acaso tomáramos la molestia de responder, nos reiríamos.

Tomemos el caso de las hazañas náuticas de los polinesios, que todavía perviven entre las tribus indígenas, que por medio de las estrellas, el viento y las corrientes pueden desembarcar sus canoas en un punto designado a cientos de millas de distancia. También este caso ha sido objeto de muchas investigaciones para averiguar cómo lo hacen. Tom Jones tiene la respuesta: «Deja de perder el tiempo; los buques de guerra lo hacen todo el tiempo».

La misma respuesta.

Pasemos ahora a un caso real: la adquisición del lenguaje. En los últimos años se han llevado a cabo investigaciones exhaustivas y muy esclarecedoras que han demostrado que los bebés tienen un conocimiento muy rico de la lengua (o lenguas) de su entorno, muy superior al que exhiben cuando actúan con ella[s]. Se consigue con pocas pruebas y, en algunos casos cruciales, sin ninguna. En el mejor de los casos, como han demostrado cuidadosos estudios estadísticos, los datos de los que disponen son escasos, sobre todo si se tiene en cuenta la rango-frecuencia («ley de Zipf«).

Entra Tom Jones: «Has sido refutado. Sin prestar atención a tus hallazgos, los LLM que escanean cantidades astronómicas de datos pueden encontrar regularidades estadísticas que permiten simular los datos en los que han sido entrenados, produciendo algo que se parece bastante al comportamiento humano normal. Chatbots».

Este caso difiere de los demás. En primer lugar, es real. Segundo, la gente no se ríe; de hecho, muchos se asombran. Tercero, a diferencia de los casos hipotéticos, los resultados reales distan mucho de lo que se afirma.

Estas consideraciones sacan a relucir un problema menor con respecto al entusiasmo actual por los LLM: su total absurdidad, como en los casos hipotéticos en los que lo hemos reconocido de inmediato. Pero hay problemas mucho más graves que la absurdidad.

Una es que los sistemas LLM están diseñados de tal manera que no pueden decirnos nada sobre el lenguaje, el aprendizaje u otros aspectos de la cognición, una cuestión de principio, irremediable. Duplique los terabytes de datos escaneados, añada otro billón de parámetros, utilice todavía más energía de California, y la simulación del comportamiento mejorará, al tiempo que revelará más claramente el fracaso de principio en el planteamiento sobre cómo producir cualquier forma de comprensión. La razón es elemental: los sistemas funcionan igual de bien con lenguas imposibles, tales que los bebés no pueden adquirir, como con aquellas que estos adquieren rápidamente y casi por reflejo.

Es como si un biólogo dijera: «Tengo una nueva gran teoría de los organismos. Esta teoría enumera muchos que existen y muchos que es imposible que existan, y no puedo decirles nada sobre la distinción».

De nuevo, nos reiríamos. O deberíamos.

No ríe Tom Jones, quien ahora se referirá a casos reales. Persistiendo en su radical alejamiento de la ciencia, Tom Jones responde: «¿Cómo puedes saber nada de esto hasta que no hayas investigado todas las lenguas?». En este punto, el abandono de la ciencia normal resulta aún más claro. Por un argumento análogo podemos desechar la genética y la biología molecular, la teoría de la evolución y el resto de las ciencias biológicas, que no han estudiado más que las muestras de una ínfima fracción de organismos. Y por si fuera poco, podemos desechar toda la física. ¿Por qué creer en las leyes del movimiento? ¿Cuántos objetos se han observado realmente en movimiento?

Existe, además, la pequeña cuestión de la carga de la prueba. Quienes proponen una teoría tienen la responsabilidad de demostrar que tiene algún sentido, en este caso, demostrando que falla para las lenguas imposibles. No es responsabilidad de otros refutar la propuesta, aunque para el caso parece bastante fácil hacerlo.

Pasemos a la ciencia normal, donde las cosas se ponen interesantes. Incluso un solo ejemplo de adquisición del lenguaje puede aportar una rica visión de la distinción entre lenguas posibles e imposibles.

Las razones son claras y conocidas. Todo crecimiento y desarrollo, incluido lo que se denomina «aprendizaje», es un proceso que parte de un estado del organismo y lo transforma paso a paso hacia etapas posteriores.

La adquisición del lenguaje es un proceso de este tipo. El estado inicial es la dotación biológica de la facultad del lenguaje, que obviamente existe, incluso aunque pueda ser, como algunos creen, una combinación particular de otras capacidades. Eso es muy improbable por razones que se comprenden desde hace tiempo, pero no es relevante para lo que nos ocupa aquí, así que podemos dejarlo de lado. Es evidente que existe una dotación biológica para la facultad humana del lenguaje. Una mera obviedad.

La transición avanza hacia un estado relativamente estable, que no cambiará más que superficialmente: el conocimiento lingüístico. Los datos externos desencadenan y configuran parcialmente el proceso. Estudiando el estado alcanzado (conocimiento lingüístico) y los datos externos, podemos sacar conclusiones de gran alcance sobre el estado inicial, la dotación biológica que hace posible la adquisición del lenguaje. Las conclusiones sobre el estado inicial imponen una distinción entre lenguas posibles e imposibles. La distinción es válida para todos los que comparten el estado inicial: todos los humanos, hasta donde sabemos; no parece haber diferencias en la capacidad de adquirir el lenguaje entre los grupos humanos existentes.

Todo esto es ciencia normal, y ha conseguido muchos resultados.

La experimentación ha demostrado que el estado estable se obtiene sustancialmente muy pronto, hacia los tres o cuatro años de edad. También está bien establecido que la facultad del lenguaje tiene propiedades básicas específicas de los humanos, de ahí que sea una verdadera propiedad de especie: común a los grupos humanos y, en aspectos fundamentales, un atributo humano único.

En este relato esquemático se dejan muchas cosas fuera, sobre todo el papel de leyes de la naturaleza en el crecimiento y el desarrollo: en el caso de un sistema computacional como el lenguaje, los principios de eficiencia computacional. Pero ésta es la esencia de la cuestión. De nuevo, ciencia normal.

Es importante tener clara la distinción de Aristóteles entre posesión de conocimiento y uso del conocimiento (en terminología contemporánea, competencia y actuación). En el caso del lenguaje, el estado estable obtenido es la posesión de conocimientos, codificados en el cerebro. El sistema interno determina una serie ilimitada de expresiones estructuradas, cada una de las cuales podemos considerar que formula un pensamiento, cada una externalizable en algún sistema sensomotor, normalmente el sonido, aunque podría ser el signo o incluso (con dificultad) el tacto.

En el uso del conocimiento («actuación») se accede al sistema codificado internamente. La actuación incluye el uso interno del lenguaje en el pensamiento: reflexión, planificación, recuerdo y mucho más. Desde el punto de vista estadístico, éste es, con mucho, el uso abrumador del lenguaje. Es inaccesible a la introspección, aunque podemos aprender mucho sobre él con los métodos normales de la ciencia, desde «fuera», metafóricamente hablando. Lo que se denomina «habla interior» son, de hecho, fragmentos de lenguaje exteriorizado con el aparato articulatorio silenciado. Es sólo un reflejo remoto del uso interno del lenguaje; cuestiones importantes que no puedo tratar aquí.

Otras formas de uso del lenguaje son la percepción (análisis sintáctico) y la producción, esta última entraña propiedades que siguen siendo tan misteriosas como cuando Galileo y sus contemporáneos las contemplaban con asombro en los albores de la ciencia moderna.

El principal objetivo de la ciencia es descubrir el sistema interno, tanto en su estado inicial de la facultad humana del lenguaje como en las formas particulares que adopta en la adquisición. En la medida en que se comprenda este sistema interno, podremos proceder a investigar cómo entra en funcionamiento, interactuando con muchos otros factores que intervienen en el uso del lenguaje.

La obtención de datos acerca de la actuación ofrece evidencias sobre la naturaleza del sistema interno, en especial cuando se refina experimentalmente, algo habitual en los trabajos de campo. Pero incluso la recopilación más masiva de datos es necesariamente engañosa en aspectos cruciales. Se ciñe a lo que se produce normalmente, no al conocimiento del lenguaje codificado en el cerebro, el objeto primario que investigan quienes quieren comprender la naturaleza del lenguaje y su uso. Ese objeto interno determina una clase infinita de posibilidades que no se utilizarán en el comportamiento normal debido a factores irrelevantes para el lenguaje, como las limitaciones de la memoria a corto plazo; temas estudiados hace 60 años. Los datos observados también incluirán buena parte de lo que queda fuera del sistema codificado en el cerebro, a menudo el uso consciente del lenguaje de formas que violan las reglas con fines retóricos. Son obviedades conocidas por todos los investigadores de campo, que recurren a técnicas de recolección directa de datos con sujetos informantes, básicamente experimentos, para obtener un corpus refinado que excluya las restricciones irrelevantes y las expresiones desviadas. Lo mismo ocurre cuando los lingüistas se utilizan a sí mismos como fuentes de información, un procedimiento perfectamente razonable y normal, habitual en la historia de la psicología hasta la actualidad.

Si seguimos avanzando con la ciencia normal, descubrimos que los procesos y elementos internos de la lengua no pueden detectarse mediante la inspección de los fenómenos observados. A menudo, estos elementos ni siquiera aparecen en el habla (o la escritura), aunque sus efectos, a menudo sutiles, pueden detectarse. Esa es otra razón por la que restringirse a los fenómenos observados, como en los enfoques LLM, limita marcadamente la comprensión de los procesos internos que son objeto central de la investigación sobre la naturaleza del lenguaje, su adquisición y su uso. Pero eso no es relevante si se ha abandonado la preocupación por la ciencia y la comprensión en favor de otros objetivos.

Más en general, en las ciencias, durante milenios se ha llegado a conclusiones mediante experimentos -a menudo experimentos mentales-, siendo cada uno de ellos una abstracción radical de los fenómenos. Los experimentos se basan en la teoría y tratan de descartar los innumerables factores irrelevantes que intervienen en los fenómenos observados, como en la actuación lingüística. Todo esto es tan elemental que rara vez se discute. Y familiar. Como se ha señalado, la distinción básica se remonta a la distinción de Aristóteles entre posesión del conocimiento y uso del conocimiento. El primero es el objeto central de estudio. Los estudios secundarios (y bastante serios) investigan cómo sirve a la actuación el sistema de conocimiento almacenado internamente, junto con los muchos factores no lingüísticos que entran en lo que se observa directamente.

También podemos recordar una observación del biólogo evolutivo Theodosius Dobzhansky, famoso sobre todo por su trabajo con la Drosophila: cada especie es única, y los humanos son los más únicos de todos. Si nos interesa comprender qué clase de criaturas somos -siguiendo el mandato del Oráculo de Delfos de hace 2.500 años-, nos ocuparemos sobre todo de lo que hace que los humanos seamos los más únicos de todos, principalmente el lenguaje y el pensamiento, estrechamente entrelazados, como reconoce una rica tradición que se remonta a la Grecia clásica y la India. La mayor parte del comportamiento es bastante rutinario y, por tanto, hasta cierto punto predecible. Lo que realmente nos hace únicos es lo que no es rutinario, y lo encontramos, a veces mediante experimentos, a veces mediante la observación, desde los niños en condiciones normales hasta los grandes artistas y científicos.

Un último comentario al respecto. La sociedad lleva un siglo plagada de campañas masivas por parte de empresas para fomentar el desprecio por la ciencia, temas bien estudiados por Naomi Oreskes entre otros. Comenzó con compañías cuyos productos eran letales: el plomo, el tabaco, el amianto y, más tarde, los combustibles fósiles. Sus motivos son entendibles. El objetivo de una empresa en una sociedad capitalista es el beneficio, no el bienestar humano. Es un hecho institucional: si no sigues el juego, te echan y te sustituye otro que sí lo haga.

Los departamentos de marketing de las empresas reconocieron muy pronto que sería un error negar las crecientes pruebas científicas de los efectos letales de sus productos. Eso sería fácilmente refutable. Mejor sembrar la duda, fomentar la incertidumbre, el desprecio por esos superexpertos de traje y corbata que nunca han pintado una casa, pero vienen de Washington a decirme que no use pintura con plomo, destruyendo mi negocio (un caso real, fácilmente multiplicable). Eso ha funcionado demasiado bien. Ahora mismo nos está llevando por el camino de la destrucción de la vida humana organizada en la Tierra.

En ambientes intelectuales, la crítica posmoderna de la ciencia, desmontada por Jean Bricmont y Alan Sokal, pero aún muy viva en algunos círculos, ha producido efectos similares.

Puede que sea una sugerencia poco amable, pero creo que es justo preguntarse si los Tom Jones y aquellos que repiten acríticamente e incluso amplifican sus descuidadas proclamas están contribuyendo a las mismas tendencias nefastas.

CJP: ChatGPT es un chatbot basado en el lenguaje natural que utiliza la inteligencia artificial para permitir conversaciones similares a las humanas. En un reciente artículo publicado en The New York Times, junto con otros dos autores, usted tachaba de bombo publicitario a los nuevos chatbots porque, sencillamente, no pueden igualar la competencia lingüística de los humanos. ¿No es posible, sin embargo, que las futuras innovaciones en IA produzcan proyectos de ingeniería que igualen y quizá incluso superen las capacidades humanas?

NC: El crédito por el artículo debería atribuirse al autor real, Jeffrey Watumull, un excelente matemático-lingüista-filósofo. Los dos coautores que figuran en la lista son asesores que están de acuerdo con el artículo, pero no lo han escrito.

Es cierto que los chatbots no pueden en principio igualar la competencia lingüística de los humanos, por las razones que hemos repetido antes. Su diseño básico les impide alcanzar la condición mínima de adecuación para una teoría del lenguaje humano: distinguir los lenguajes posibles de los imposibles. Dado que se trata de una propiedad del diseño, no puede ser superada por futuras innovaciones en este tipo de IA. Sin embargo, es muy posible que futuros proyectos de ingeniería igualen e incluso superen las capacidades humanas, si nos referimos a la capacidad humana de actuación [performance] en el uso del lenguaje. Como se ha señalado más arriba, algunos ya lo han hecho desde hace tiempo: las calculadoras automáticas, por ejemplo. Y lo que es más interesante, como ya se ha mencionado, insectos con cerebros minúsculos superan las capacidades humanas entendidas como competencia.

CJP: En el citado artículo también se observaba que los proyectos de IA actuales no poseen una facultad moral humana. ¿Este hecho tan obvio hace que los robots de IA sean una amenaza menor para la raza humana? Creo que se puede argumentar que los hace incluso más peligrosos.

NC: En efecto, es un hecho evidente, entendiendo la «facultad moral» en sentido amplio. A menos que se controle cuidadosamente, la ingeniería de la IA puede plantear graves amenazas. Supongamos, por ejemplo, que se automatizara el cuidado de los pacientes. Los inevitables errores que el juicio humano es capaz de subsanar podrían dar lugar a una historia de terror. O supongamos que se eliminara a los humanos de la evaluación de las amenazas determinadas por los sistemas automatizados de defensa antimisiles. Como nos informa un registro histórico estremecedor, eso sería el fin de la civilización humana.

CJP: Organismos reguladores y fuerzas de seguridad en Europa están mostrando su preocupación por la propagación de ChatGPT, mientras que un texto legislativo de la Unión Europea presentado recientemente intenta hacer frente a la IA clasificando dichas herramientas según su nivel de riesgo percibido. ¿Está de acuerdo con los que temen que ChatGPT suponga una grave amenaza pública? Además, ¿cree realmente que se puede detener el desarrollo de herramientas de IA hasta que se introduzcan salvaguardias?

NC: Puedo simpatizar muy fácilmente con los esfuerzos por intentar controlar las amenazas que plantea la tecnología avanzada, incluido este caso. Sin embargo, soy escéptico sobre la posibilidad de hacerlo. Sospecho que el genio está fuera de la botella. Es probable que los agentes maliciosos -institucionales o individuales- puedan encontrar formas de eludir las salvaguardias. Estas sospechas no son, por supuesto, razón para no intentarlo y para mantener la guardia.

3 de mayo del 2023

Original en ingles: https://www.commondreams.org

Traducción: Edgar Manjarín

Fuente: https://www.sinpermiso.info


(1) Nota de traducción. El término performance en inglés, aquí traducido en un sentido más transversal como ‘ejecución’, se denomina ‘actuación’ en el campo de la lingüística moderna sobre las aportaciones del propio N.Chomsky.

Fuente de la información e imagen: https://lapeste.org

Comparte este contenido:

Inteligencia artificial: importancia e impacto en trabajo y educación

Ya se ha instalado, en una agenda cuyos adictos crecen diariamente, la cuestión de la Inteligencia artificial (IA). No abordaremos el tema desde complejas consideraciones y un lenguaje tecnológico, sino con palabras de uso cotidiano y el sentido común del pensamiento popular la guía para analizar este fenómeno que nos introduce en un futuro que ya está entre nosotros.

Se puede entender a la inteligencia artificial como la manifestación más alta y compleja de las ciencias de computación. Su objetivo es la creación de máquinas que sean capaces de imitar o superar -según la perspectiva de unos u otros- a la inteligencia humana.

Tales aparatos utilizan la experiencia de los sistemas informáticos que aprovechan la capacidad de almacenar y procesar informaciones para dar respuesta a problemas que le son planeados, por medio de algoritmos, es decir una serie de pasos sucesivos sujetos a un conjunto de instrucciones lógicas destinadas a llevar a cabo una tarea específica.

Las ventajas y desventajas de la aparición de esos instrumentos también es motivo de polémicos debates. Las ventajas aparecen como obvias y serían la continuación de los rápidos avances tecnológicos que transita la humanidad desde hace un par de siglos.

Las desventajas aluden a la mítica idea que estas máquinas, en algún momento y siguiendo la propia lógica de su desarrollo, podrían “independizarse”, adoptando resoluciones en campos no pensados, de un modo independiente de las decisiones de los humanos que las crearon. Dicho esto, más allá del impacto inmediato que su uso puede producir en otras cuestiones centrales de la vida cotidiana como la educación y el trabajo.

Sin quedar atados a estas consideraciones, que -para muchos- pueden ser consideradas como parte de películas de ciencia ficción, hay dudas sobre el alcance de esta nueva tecnología. Según criterios muy generales se puede considerar la existencia de dos tipos de inteligencia artificial (IA).

La “IA débil o moderada” supone una gigantesca mejora, respecto a lo conocido, pero de características cuantitativas. Se trata de un crecimiento, casi infinito, de las capacidades actuales de almacenamiento del sistema. La intervención en materia de cuestiones financieras, atención médica, educación, transporte, constituyen el uso más corriente y generalizado de la IA que hoy se conoce. Sería la expresión de lo que podría denominarse la “Cuarta Revolución Industrial”.

En cambio, las tareas de lo que hoy se conoce como “IA fuerte” apuntan a perspectivas mucho más extremas. No es casual que ellas estén rozando lo apocalíptico, para los conocimientos actuales. Suponen un sistema de distinta calidad, creando modos de comunicación diferentes a los conocidos y encierra la posibilidad que el propio sistema encuentre su viabilidad de despegarse de lo conocido y de la planificación prevista por sus creadores.

En este sentido todavía media un abismo entre la informática actual y una “Inteligencia Artificial fuerte”. Haciendo comparaciones, es más comprensible si lo equiparamos a la distancia que media entre los vuelos espaciales actuales y la perspectiva de un vuelo espacial a la velocidad de la luz.

Entre los años 1940 y 1950 se pueden ubicar las primeras investigaciones en torno a este tema. Ellas giraron sobre la idea de generar algo semejante a las funciones del cerebro humano y sus redes neuronales. Ese camino tuvo fuertes avances en la década de los 90 por el salto en materia de velocidad de circulación y capacidad de almacenamiento de las computadoras. Avalando esa tendencia, desde el año 2004 robots de la NASA transitan en forma autónoma por el territorio de Marte.

Otro aspecto que limita este desarrollo son los recursos necesarios para llevarlo adelante. Una evaluación del año 2016 indica que el total de recursos afectados a este tema era de aproximadamente 8 mil millones de dólares. No son de menor importancia las opiniones de quienes advierten sobre los riesgos que un desarrollo ilimitado de esta tecnología puede encerrar.

En el año 2015 unos 3 mil investigadores firmaron (junto al famoso físico Stephen Hawking y Elon Musk, una delas personas más ricas del mundo) una carta abierta solicitando la prohibición del uso de armas autónomas, a partir de la IA.

Más recientemente, el mismo Musk pidió que durante 6 meses se detengan las investigaciones sobre la IA, por los riesgos que entrañaban para toda la humanidad. Para algunos no era más que una triquiñuela para seguir avanzando y reducir las distancias con investigaciones mucho más avanzadas.

Hay otros analistas que consideran que estos “peligros” no son tales y que están advirtiendo el riesgo que las más grandes empresas puedan perder el control económico producida por tales avances. Se fundan en la democratización de esos conocimientos y la posibilidad de que sean muchos quienes los puedan explotar. Según esta perspectiva la preocupación de las grandes empresas es retomar el control de este recurso, limitando –mediante reglamentaciones- el número de competidores.

Impacto de la IA sobre educación y trabajo

La Inteligencia Artificial, en debate, afecta a la vida cotidiana en su conjunto. En ese sentido, los especialistas estiman que su influencia futura será superior a la que hoy tiene internet. Aquí se desarrollarán algunas ideas sobre su incidencia en dos temas vitales: Trabajo y educación.

En materia laboral no quedan duda sobre su influencia. La pandemia de la Covid fue una gigantesca prueba en este sentido. En el caso argentino, el ejemplo de la zona de la city porteña, con el deslazamiento de las oficinas de financieras, bancos, empresas aseguradoras y otras actividades conexas, son la prueba más evidente.

En muy poco tiempo un barrio entero está alojando funciones distintas, que va cambiando su imagen. Grandes espacios de oficinas se están transformando en múltiples departamentos, en muchos casos, mono-ambientes, para contener a otro tipo de población. Los anteriores empleados se están mudando a oficinas del Gran Buenos Aires o a trabajar desde sus casas.

Cuando más se avance en mecanismos informáticos, la IA es uno de ellos, más rápido y profundo será ese cambio.

Esos cambios incluirán tareas domésticas, la mayor parte de los servicios y múltiples actividades profesionales y administrativas, donde el contacto presencial dejará su lugar a las relaciones informáticas. A diferencia de lo que venía pasando hasta ahora, donde las tareas de menor responsabilidad eran las primeras en ser desplazadas, ahora se profundizará la posibilidad que sean los cargos intermedios y superiores los principales afectados.

Mucho más serio, profundo y de consecuencias polémicas es la perspectiva de la cuestión educativa. Es allí donde un programa iniciado el año pasado y que recién está superando el período de experimentación, el ChatGPT desarrollado por OpenIA, está adquiriendo una rápida presencia.

Es un programa fundado en el uso de una Inteligencia Artificial moderada cuya especialidad es la capacidad de mantener diálogos respondiendo a las cuestiones más complejas en pocos segundos.

Por estas características su impacto en materia educativa es inmediato tal como lo prueba el hecho que docentes y estudiantes de los niveles secundario y universitario, particularmente de materias o carreras humanísticas, lo están adoptando rápidamente.

Obviamente hay opiniones que no acuerdan con el uso de esta herramienta, pero el debate más importante se da sobre las condiciones para su uso. La mayoría opina que una prohibición no haría otra cosa que alimentar su búsqueda. En estas condiciones la mayor duda gira en torno a que esta Inteligencia Artificial no ocupe el lugar de la responsabilidad personal.

Eso incluye evitar el fraude de utilizarlo –sin aviso- reemplazando a la investigación o respuesta propia. Esto puede ocurrir con el agregado que las nuevas generaciones, nacidos en estos tiempos digitales, tienen el hábito más desarrollado de lidiar con estos instrumentos. Cuestiones semejantes ya fueron consideradas cuando internet hizo su aparición.

Para otras posiciones, de un tono más apocalíptico, esta tecnología es un nuevo desafío a la escuela -tal como hoy la conocemos- con sus docentes y edificios escolares. No faltan algunos fanáticos que vislumbran un futuro -no cercano- de un modelo educativo donde la trasmisión de conocimientos quedaría en manos de estas tecnologías y el lugar del actual docente podría ser ocupado por “técnicos” informáticos.

Por eso la IA es un largo camino que recién se inicia. El Programa mencionado no es aceptado por China y otros países asiáticos (por expresarse con un lenguaje que se corresponde con la lógica del mundo occidental) y el parlamento europeo está discutiendo sobre las reglamentaciones al uso e investigaciones vinculadas a la Inteligencia Artificial.

Samuel Altman, de 38 años y cabeza visible de la empresa que lanzó al mercado el Programa Chat GPT, compareció el martes pasado ante el Senado de los EEUU y planteó que el Congreso de ese país debería regular el uso de la Inteligencia Artificial.

Después de afirmar que este invento tendrá efectos semejantes a los que tuvo -siglos atrás- la “imprenta”, concluyó con una llamativa reflexión: “Mi peor temor es que causemos un daño significativo al mundo”. Algunos senadores concluyeron que esto no es lo que queremos para nuestro futuro.

*Analista político y dirigente social argentino, asociado al Centro Latinoamericano de Análisis Estratégico (CLAE, www.estrategia.la)

Fuente: https://estrategia.la/2023/05/24/inteligencia-artificial-importancia-e-impacto-en-trabajo-y-educacion/

Comparte este contenido:

El Futuro llega en Bits Cuánticos: La Carrera por la Supremacía en la Computación

Por: Hayah García || Junio 2023 || Twitter: @hayah_garcia

 

En los últimos años, los desarrollos informáticos han dado un salto épico y superaron a los llamados supercomputadores que serán remplazados por equipos cuánticos pues permitirán resolver problemas complejos de manera más eficiente que las computadoras tradicionales basadas en la electrónica de estado sólido. En este artículo, se explora el funcionamiento de los computadores cuánticos, su arquitectura de procesadores, los usos que se les han dado, sus fabricantes y en qué países se encuentran. También se destaca la relación entre la computación cuántica y la inteligencia artificial, así como la diferencia entre QuBits y los Quarks.

Funcionamiento del Computador Cuántico

El funcionamiento de un computador cuántico se basa en la superposición y la entrelazación cuántica. Mientras que en una computadora clásica un bit puede existir en solo un estado sea un 0 o 1, en un computador cuántico, un qubit puede estar en una superposición de ambos estados de forma simultánea. Esto se debe a las propiedades de la mecánica cuántica, donde estas unidades pueden representar múltiples estados en un mismo momento.

La superposición es una propiedad fundamental de los sistemas cuánticos en la que un qubit puede estar en múltiples estados al mismo tiempo. Mientras que un bit clásico solo puede estar en un estado 0 o 1, un qubit puede representar una combinación lineal de ambos estados simultáneamente. Esta propiedad permite realizar cálculos en paralelo y explorar múltiples soluciones de manera eficiente.

A esto se une el entrelazamiento es una propiedad en la que dos o más qubits están correlacionados de manera intrincada, incluso cuando están separados en el espacio. Esto significa que el estado de un qubit está directamente relacionado con el estado de los demás qubits entrelazados, sin importar la distancia física entre ellos. El entrelazamiento es crucial para la comunicación y la transferencia de información en sistemas cuánticos.

Estas propiedades cuánticas, la superposición y el entrelazamiento, son la que les permiten a los computadores cuánticos realizar cálculos de manera simultánea y explorar múltiples soluciones en paralelo. En problemas complejos, esta capacidad cuántica puede llevar a un rendimiento exponencialmente mayor en comparación con los computadores clásicos, especialmente en aplicaciones específicas, como la búsqueda en bases de datos no ordenadas o la factorización de números grandes utilizados en la criptografía.

Sin embargo, es importante tener en cuenta que no todos los problemas se benefician de la computación cuántica, y existen desafíos significativos en el desarrollo de sistemas cuánticos estables y libres de errores. Además, la capacidad de los computadores cuánticos para superar a los computadores clásicos depende de la naturaleza específica del problema y del algoritmo utilizado.

 

Arquitectura de los Procesadores Cuánticos

La arquitectura de los procesadores cuánticos varía según la implementación. Algunos enfoques utilizan átomos o partículas subatómicas individuales como qubits, mientras que otros utilizan circuitos superconductores o puntos cuánticos. No se basan en transistores clásicos como los de los procesadores tradicionales, sino en componentes que operan a temperaturas extremadamente bajas para evitar la decoherencia, un fenómeno que perturba la información cuántica.

Usos de los Computadores Cuánticos

Los computadores cuánticos tienen el potencial de revolucionar numerosas áreas de la ciencia y la tecnología. Actualmente, se están investigando aplicaciones en criptografía, simulaciones moleculares, optimización, inteligencia artificial y descubrimiento de nuevos medicamentos. La capacidad de los computadores cuánticos para procesar grandes cantidades de información de manera simultánea podría impulsar avances significativos en campos que requieren cálculos muy complejos.

Elementos de la Mecánica Cuántica y el computador moderno

La mecánica cuántica, como teoría fundamental de la física, proporciona las bases teóricas y las propiedades fundamentales que han permitido el desarrollo de la computación cuántica. Otras de las propiedades clave de la mecánica cuántica que son relevantes para la computación cuántica son:

Principio de incertidumbre de Heisenberg: establece que existe una limitación fundamental en la precisión con la que se pueden conocer ciertas propiedades de una partícula cuántica, como su posición y momento lineal. Este principio tiene implicaciones en la medición y el procesamiento de información cuántica, ya que no se puede conocer con certeza el estado cuántico completo de un sistema sin alterarlo.

La interferencia cuántica: es un fenómeno en el que los resultados de un cálculo cuántico dependen de la interferencia constructiva o destructiva de las amplitudes de probabilidad asociadas con diferentes posibles estados cuánticos. Esto permite la manipulación y la optimización de las probabilidades de obtener ciertos resultados y es esencial para los algoritmos cuánticos, como el algoritmo de Grover y el algoritmo de Shor.

Estas propiedades de la mecánica cuántica han permitido el desarrollo de la computación cuántica al proporcionar una base teórica para la manipulación de información cuántica y realizar cálculos de manera diferente a la computación clásica.

Relación entre el Quarks y el Qubits?

Los quarks son partículas elementales que se consideran componentes fundamentales de la materia. Según el modelo estándar de la física de partículas, los quarks son partículas elementales, lo que significa que no se cree que estén compuestos por partículas más pequeñas. Estas que llevan una fracción de la carga eléctrica y se unen a través de la interacción fuerte para formar partículas compuestas llamadas hadrones. Los hadrones más familiares son los protones y los neutrones, que se encuentran en los núcleos de los átomos. Los protones están compuestos por dos quarks arriba (up) y un quark abajo (down), mientras que los neutrones están compuestos por un quark arriba y dos quarks abajo.

Es importante destacar que los quarks son partículas que se rigen por los principios de la mecánica cuántica, lo que significa que también exhiben fenómenos cuánticos, como la superposición y el entrelazamiento cuántico. Sin embargo, en el contexto de la computación cuántica, los quarks no están directamente relacionados aunque los términos «qubits» y «quarks» suenan similares.

En resumen, los quarks son partículas cuánticas elementales que se unen para formar hadrones, como los protones y los neutrones. Aunque comparten la base cuántica, los quarks y los qubits son conceptos distintos en diferentes ámbitos de estudio: la física de partículas y la computación cuántica, respectivamente.

Algunos Computadores Cuánticos

A continuación muestro una lista de los últimos desarrollos de computadoras cuánticos centrados en los Estados Unidos y Canadá, así como su potencia:

  1. D-Wave One (2007) ||Fabricante: D-Wave Systems || Ubicación: Canadá || Potencia (Qubits): 128 qubits

  1. IBM Q Experience (2016) || Fabricante: IBM || Ubicación: Estados Unidos || Potencia (Qubits): Varía según el dispositivo; hasta 65 qubits en 2021

  1. Rigetti Quantum Computer (2017) || Fabricante: Rigetti Computing || Ubicación: Estados Unidos || Potencia (Qubits): Hasta 32 qubits en 2021

  1. Google Quantum Computer (Sycamore) (2019) || Fabricante: Google (en colaboración con diversas instituciones académicas) || Ubicación: Estados Unidos || Potencia (Qubits): 54 qubits

  1. IonQ Quantum Computer (2020) || Fabricante: IonQ || Ubicación: Estados Unidos || Potencia (Qubits): Hasta 32 qubits en 2021

Es importante tener en cuenta que estas son solo algunas de las compañías y sistemas de computación cuántica existentes hasta septiembre de 2021. La tecnología de computación cuántica está en constante evolución, y se espera que nuevos desarrollos e innovaciones se produzcan con el tiempo.

Y los Computadores Cuánticos de  los países BRICS y Europa?

En Rusia, el Centro Nacional de Investigación en Tecnología Cuántica (CRTQ) está trabajando en el desarrollo de computadores cuánticos. Han anunciado planes para construir un computador cuántico con una arquitectura basada en trampas de iones y se espera que alcance alrededor de 100 qubits.

El gigante asiático, ha realizado avances significativos en la investigación y desarrollo de computadores cuánticos. La Academia China de Ciencias ha estado trabajando en proyectos de computación cuántica y ha logrado construir un computador cuántico con 66 qubits. Además, el gobierno chino ha establecido el Centro Nacional de Ciencia Cuántica en China para impulsar aún más la investigación y el desarrollo en este campo.

Origin Quantum (China) ya avisó que estaban creando un nuevo tipo de ordenador cuántico. Hubo mucho misterio alrededor de este y de lo poco que se sabía es que buscan lograr una versión para uso doméstico, logrando desarrollar el Wuyuan de Origin Quantum, el primer ordenador cuántico comercial de China con una potencia de 24 qubits.

En India, el Instituto Indio de Tecnología y el Instituto de Ciencias Matemáticas está involucrado en la investigación y el desarrollo de computadores cuánticos. Se están llevando a cabo proyectos y colaboraciones para construir sistemas cuánticos y se están explorando diferentes enfoques, como la computación cuántica basada en luz y la computación cuántica superconductora.

Así también en Europa, varios países y organizaciones están trabajando en el desarrollo de computadores cuánticos. La Unión Europea ha invertido en el proyecto Quantum Flagship, que tiene como objetivo acelerar la investigación y el desarrollo en tecnologías cuánticas, incluida la computación cuántica. Además, varios países europeos, como Alemania, Francia, los Países Bajos y el Reino Unido, tienen sus propios programas de investigación y desarrollo en computación cuántica. A esta carrera se suma España quienes ya están realizando inversiones y enlaces con IBM para desarrollar tecnología cuántica en un esfuerzo mancomunado con la Unión Europea.

Es de señalar que en cuanto a la potencia de los computadores cuánticos específicos en estos países, la información puede ser limitada y variada debido a la naturaleza de la competencia en la investigación y desarrollo de computadores cuánticos. Además, la potencia de un computador cuántico no se mide solo en términos de la cantidad de qubits, sino también en otros factores como la estabilidad y la capacidad de corrección de errores. Por lo tanto, no puedo proporcionar información específica sobre la potencia exacta de los computadores cuánticos en estos países.

Qué empresas lideran la computación cuántica?

Hasta ahora IBM es quien lidera el mercado de desarrollo de computadores, sin embargo otros gigantes del software y la electrónica como Microsoft (creo una interfaz gráfica para dar órdenes al computador cuántico llamado LIQUi|>), Amazon (brinda a sus usuarios experiencia práctica con qubits y circuitos cuánticos para ser simulados en computadores cuánticos reales), Alibaba (BABA), Tencent (TCEHY), Nokia (NOK), Airbus, HP (HPQ), AT&T (T) Toshiba, Mitsubishi, SK Telecom, Thor, Lockheed Martin, y empresas como Righetti, Biogen, Volkswagen y Amgen están investigando y desarrollando diversos programas para las computadoras cuánticas, para su uso particular como comercial.

Computación Cuántica e Inteligencia Artificial

La relación entre la computación cuántica y la inteligencia artificial es prometedora. Los computadores cuánticos podrían acelerar el procesamiento de algoritmos de aprendizaje automático y optimización, lo que podría conducir a avances significativos en la inteligencia artificial regenerativa. Algunos algoritmos de IA, como el algoritmo de Grover y el algoritmo de búsqueda cuántica, aprovechan las propiedades cuánticas para mejorar la eficiencia y la velocidad de cálculo en comparación con los métodos clásicos al permitir  realizar cálculos en paralelo y explorar múltiples soluciones simultáneamente, lo que podría conducir a mejoras en el reconocimiento de patrones, la toma de decisiones y la generación de modelos predictivos más precisos.

Próximos desarrollos de microprocesadores cuánticos

Al momento de escribir este artículo IBM ya le había puesto fecha a los desarrollos de sus procesadores cuánticos presentando a finales noviembre de 2002 Osprey con 433 qubits, para finales de 2023 presentaría Condor un chip cuántico de 1.121 cúbits. Ya para 2024 llegaría Flamingo con al menos 1.386 qubits; y en 2025 Kookaburra, con no menos de 4.158 qubits.

Intel por su parte se une a la carrera y acaba de lanzar su primer procesador cuántico bautizado como Tunnel Falls, el cual se caracteriza por estar basado en qubits de silicio y con una potencia de apenas 12 qubits, casi mil veces menos que el próximo chip Flamingo de IBM. Esta tecnología le exigirá a Intel en mejorar sus procesos pues los qubits de silicio se presentan como pequeños puntos cuánticos que atrapan electrones individuales para almacenar información.

Una mirada al futuro cuántico

Es difícil predecir con certeza los futuros desarrollos e innovaciones en el campo de los computadores cuánticos, ya que la investigación y el avance tecnológico están en curso. Sin embargo, se espera que haya avances significativos en varias áreas. A continuación, se presentan algunas posibles áreas de desarrollo e innovación en computación cuántica:

  1. Aumento en la cantidad de qubits: Los investigadores están trabajando para aumentar el número de qubits en los computadores cuánticos, lo que permitiría abordar problemas más complejos y realizar cálculos más sofisticados.

  1. Mejora en la estabilidad y calidad de los qubits: Se están realizando esfuerzos para mejorar la estabilidad y la coherencia de los qubits, reduciendo los errores y aumentando la precisión de los cálculos cuánticos.

  1. Desarrollo de algoritmos y aplicaciones cuánticas más avanzadas: A medida que se comprenden mejor los principios y las capacidades de la computación cuántica, se espera que se desarrollen algoritmos y aplicaciones más sofisticados que aprovechen plenamente el potencial de los computadores cuánticos.

  1. Mejora en la corrección de errores cuánticos: Los errores cuánticos son una de las principales barreras para la construcción de computadores cuánticos más potentes. Se están investigando y desarrollando técnicas de corrección de errores cuánticos para mitigar este desafío y mejorar la confiabilidad y precisión de los cálculos cuánticos.

  1. Investigación en nuevas plataformas de qubits: Además de las tecnologías de qubits existentes, como los qubits superconductores o los qubits de iones atrapados, se están investigando y desarrollando nuevas plataformas de qubits, como los qubits basados en topología o los qubits de estado sólido, que podrían ofrecer beneficios en términos de escalabilidad y control.

Al cierre

La computación cuántica representa un emocionante campo de investigación y desarrollo con el potencial de revolucionar la forma en que abordamos los problemas complejos en ciencia y tecnología. A través de la utilización de qubits y la explotación de los principios de la física cuántica, los computadores cuánticos nos permiten explorar soluciones más rápidas y eficientes para problemas que actualmente están más allá del alcance de las computadoras clásicas.

La intersección entre la computación cuántica y la inteligencia artificial es particularmente emocionante, ya que podría abrir nuevas puertas hacia el desarrollo de algoritmos más avanzados y eficientes, así como impulsar el campo de la IA hacia otros horizontes.

En conclusión, la computación cuántica está en constante evolución y su potencial es aún incalculable. A medida que los investigadores y científicos continúan explorando y desarrollando nuevas tecnologías cuánticas, se espera que la integración de la computación cuántica y la inteligencia artificial genere avances significativos en una amplia gama de campos científicos y tecnológicos.

 

Fuente: El Autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:
Page 3 of 47
1 2 3 4 5 47
OtrasVocesenEducacion.org