Page 3 of 17
1 2 3 4 5 17

La Unesco tendrá una regulación ética de la inteligencia artificial

La Unesco anunció este viernes que sus países miembros han llegado a un acuerdo sobre un proyecto de texto normativo que regulará desde el punto de vista ético el despliegue de la inteligencia artificial.

Esa regulación, que debe concretarse en una recomendación que se someterá formalmente a los Estados en noviembre, «supondrá un marco global para garantizar que las transformaciones digitales promuevan los derechos humanos y contribuyan a la consecución de los Objetivos del Desarrollo Sostenible», destacó la Unesco en un comunicado.

Ese texto abordará cuestiones relacionadas con la transparencia, la responsabilidad y la privacidad; incluirá capítulos para orientar las políticas sobre la gestión de los datos, la educación, la cultura, la atención sanitaria y la economía.

Se trata de proporcionar a los gobiernos y a los responsables políticos un marco para la normativa sobre la inteligencia artificial.

Según la Organización de la ONU para la Educación, la Ciencia y la Cultura (Unesco), contendrá disposiciones «para garantizar que los sesgos del mundo real no se reproduzcan en línea» y ofrecerá «acciones políticas concretas asentadas en valores y principios universales».

La recomendación establecerá un dispositivo para que la Unesco analice el nivel de avance de cada país en la inteligencia artificial con la intención de ayudarles en la fase de aplicación.

Para su directora general, Audrey Azoulay, una vez adoptada «los líderes de todo el mundo tendrán un punto de referencia común sobre cómo controlar los riesgos y aprovechar estas nuevas tecnologías como una fuerza para el bien».

Azoulay se mostró convencida de que la inteligencia artificial «tiene el potencial de reducir radicalmente las desigualdades, promover la diversidad y beneficiar a la humanidad en su conjunto».

Fuente: https://www.swissinfo.ch/spa/unesco-tecnolog%C3%ADa_la-unesco-tendr%C3%A1-una-regulaci%C3%B3n-%C3%A9tica-de-la-inteligencia-artificial/46754418

Comparte este contenido:

Mundo: Elaboración de una Recomendación sobre la ética de la inteligencia artificial

Mundo/25-06-2021/Autor(a) y Fuente: en.unesco.org

AI y tu …

Hoy, la inteligencia artificial juega un papel en la vida de miles de millones de personas. A veces pasa desapercibida, pero a menudo tiene profundas consecuencias, transforma nuestras sociedades y desafía lo que significa ser humano.

La IA puede brindar apoyo a millones de estudiantes para completar la educación secundaria, cubrir 3,3 millones de puestos de trabajo adicionales y, lo que es más urgente, ayudarnos a abordar la propagación y las secuelas de la pandemia de COVID-19. Junto con múltiples ventajas, estas tecnologías también generan riesgos y desafíos a la baja, derivados del uso malicioso de la tecnología o la profundización de las desigualdades y divisiones.

Necesitamos políticas y marcos regulatorios nacionales e internacionales para garantizar que estas tecnologías emergentes beneficien a la humanidad en su conjunto.

Necesitamos una IA centrada en el ser humano. La IA debe ser para el mayor interés de la gente, no al revés.

La UNESCO propone el desarrollo de un instrumento global de establecimiento de normas integral para dotar a la IA de una sólida base ética, que no solo protegerá sino que también promoverá los derechos humanos y la dignidad humana. Si se adopta, será una brújula de guía ética y un cimiento normativo global que permitirá construir un fuerte respeto por el estado de derecho en el mundo digital.

Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, sobre cómo construir el estado de derecho en el mundo digital:

5 cosas que debes saber sobre la IA

La IA ha demostrado su valor para enfrentar la pandemia de COVID-19

Contribuye a frenar el impacto económico de la crisis a través de plataformas digitales. También ayuda a los investigadores a procesar grandes cantidades de datos en la carrera por encontrar una vacuna o un tratamiento. AI ha participado para contener la propagación del virus a través de tecnologías de prueba, seguimiento y rastreo. Sin embargo, a medida que las personas dan acceso a sus datos, el uso de IA durante esta pandemia ha reabierto las preocupaciones con respecto a la privacidad, la protección de datos y el uso de datos más allá de las necesidades de rastreo de virus.

Es probable que el crecimiento impulsado por la IA sea muy desigual

Se espera que la IA genere casi 4 billones de dólares en valor agregado para 2022. Para 2030, se espera que las ganancias económicas sean más fuertes en China y América del Norte, lo que representa el 70% del impacto económico global de la IA. La IA tiene una dinámica de “el ganador se lo lleva todo” que necesita ser regulada: la concentración de IA en manos de unos pocos países de altos ingresos probablemente dejará a los países en desarrollo muy atrás. Estos últimos no se beneficiarán o se beneficiarán muy poco de las tecnologías de inteligencia artificial y carecerán de propiedad de dichas tecnologías.

La IA contribuye a ampliar las brechas de género existentes

Solo el 22% de todos los profesionales de la IA son mujeres. Debido a que están subrepresentados en la industria, los prejuicios de género y los estereotipos se reproducen en las tecnologías de IA. No es una coincidencia que los asistentes personales virtuales como Siri, Alexa o Cortana sean «mujeres» por defecto. El servilismo y, a veces, la sumisión que expresan son un ejemplo de cómo la IA puede (continuar) reforzando y difundiendo los prejuicios de género en nuestras sociedades.

La IA puede ser una herramienta poderosa para abordar el cambio climático y los problemas ambientales

A medida que el planeta continúa calentándose, los impactos del cambio climático están empeorando. Al recopilar y analizar datos, los modelos impulsados ​​por IA podrían, por ejemplo, ayudar a mejorar la gestión de los ecosistemas y la restauración del hábitat, algo esencial para disminuir la disminución de las poblaciones de peces y vida silvestre. Dicho esto, la extracción de datos consume casi el 10% de la energía a nivel mundial. Por lo tanto, también es esencial abordar el alto consumo de energía de la IA y el impacto consiguiente en las emisiones de carbono.

La IA no puede ser una zona prohibida por la ley

La IA ya está en nuestras vidas, dirigiendo nuestras elecciones, a menudo de formas que pueden ser perjudiciales. Hay algunos vacíos legislativos en la industria que deben llenarse rápidamente. El primer paso es acordar exactamente qué valores deben consagrarse y qué reglas deben aplicarse. Existen muchos marcos y directrices, pero se implementan de manera desigual y ninguno es verdaderamente global. La IA es global, por eso necesitamos un instrumento global para regularla.

Fuente: https://en.unesco.org/artificial-intelligence/ethics

Comparte este contenido:

La inteligencia artificial o la humanidad teledirigida

Por: Javier Occhiuzzi

Publicado por la editorial Caja Negra en 2020, Eric Sadin, nos presenta La inteligencia artificial o el desafío del siglo. Una obra en donde realiza un fuerte cuestionamiento al actual desarrollo de la IA, señalándolo como una amenaza para la humanidad y sus instituciones. ¿Cuáles son los riesgos de delegar en las máquinas aspectos inherentes al quehacer humano? ¿Está la democracia liberal amenazada por una tecno-ideología? ¿Nos gobierna un Leviatán algorítmico? Estas y otras preguntas son las que va a intentar responder el autor del libro en cuestión.

Reconocido por sus críticas filosas a los distintos fetiches de la tecnología digital y la IA, Eric Sadin es una de las personalidades más destacadas y renombradas entre los que estudian las relaciones entre tecnología y sociedad. Sus trabajos y escritos se han concentrado en el intento de armar un diagnóstico de la contemporaneidad y sus prácticas en función del impacto que los artefactos tecnológicos producen en la humanidad. Siendo este el más político de sus últimos libros, el autor intenta sentar las bases de una ética contra la inteligencia artificial o ética de la responsabilidad y a la vez advertirnos del riesgo de delegar nuestra capacidad de raciocinio a una computadora presuponiendo un natural “orden algorítmico de las cosas”.

El tecno-logos

Para Sadin las tecnologías digitales han producido un cambio muy profundo en nuestra forma de percibir la realidad. Específicamente lo que plantea es que con el desarrollo de los sistema computacionales, fuimos desplazando nuestro criterio de evaluación y diagnóstico a los softwares, dotándolos de “una singular y perturbadora vocación: la de enunciar la verdad” [1].

De la misma forma que la antigua palabra griega logos era utilizada para referirse a la razónpalabra o sentido hoy, para el autor, vivimos en una era donde rige el tecnó-logos. Por primera vez en la historia de nuestra especie dotamos a los artefactos del poder de enunciar, más rápido y mejor, el supuesto estado de las cosas. Según Sadin este poder constituye la primera característica de lo que él llama “inteligencia artificial” y que además determina todas las funciones que le son asignadas. Esto es muy interesante porque a partir de este momento “las ciencias algorítmicas” toman un camino antropomórfico que busca atribuir a los procesadores cualidades humanas, de poder evaluar situaciones y sacar conclusiones de ellas. Para el autor entramos literalmente a “la era antropomórfica de la ciencia”.

La IA rodea nuestra existencia bajo muchas formas que van desde dispositivos computacionales (smartphones, chatbots, GPS, etc.) conectados a los seres y las cosas del mundo (voces, textos, automóviles en movimiento, etc.), los que a su vez son reducidos a expresiones matemáticas-binarias que facilitan su administración algorítmica. Se dice “inteligente” porque sus partes intentan imitar algún aspecto de la inteligencia humana (determinar la mejor oferta de zapatillas en todo el mercado del calzado o la ruta automovilística más corta para llegar a casa, por ejemplo) pero esto no deja de ser una mera reducción, ya que no hace más que seccionar una parte de la inteligencia humana y la maximiza. En ese sentido la IA es la vanguardia de punta de lo que Sadin llama “tecnologías de lo exponencial”. La IA es un recorte de la inteligencia humana maximizada, recorte que está lejos de poder pensar (de conjunto) como una persona. Pero se le dio la autoridad para que su diagnóstico se considere como verdadero.

Lo digital surge como una forma de peritar “lo real” de una forma más fiable que nosotros mismos. Esto se puede apreciar cotidianamente en los buscadores de internet, en la medicina, en la administración financiera que además autoriza créditos personales, las redes sociales, en las aplicaciones de GPS y hasta en la justicia por medio de fallos y video vigilancia. Y es en ese sentido que “Toma forma un estatuto antropológico y ontológico inédito que ve como la figura humana se somete a las ecuaciones de sus propios artefactos con el objetivo prioritario de responder a intereses privados y de instaurar una organización de la sociedad en función de criterios principalmente utilitaristas” [2].

Criterios utilitaristas que sutilmente se fueron instaurando en nuestro sentido común cotidiano hasta convertirse en una nueva doxa (opinión) acrítica de los beneficios de la “revolución digital”. Una revolución que terminó volviendo a poner en el horizonte “la ideología del progreso” que finalizará con el advenimiento de un régimen acabado de perfección.

Ahora bien, hay que decir que los artefactos (de cualquier tipo) no son derivados de ningún orden natural de las cosas, sino que son el producto de la acción humana y que interfieren en los asuntos de los humanos. Para Sadin IA no es diferente, no hay ningún camino inevitable que haya llevado a la IA a convertirse en la prótesis de nuestras elecciones, sino que hay un criterio (político) utilitario de maximización exponencial en las decisiones que relegó el tiempo humano de la comprensión y la reflexión.

La mano invisible automatizada

Como resaltamos más arriba, según Sadin, la tecnología y sus diferentes manifestaciones en la forma de artefactos son fruto de una ideología. Dicha ideología no nace de un repollo, sino que tiene un origen específico. En el caso de la “interpretación robotizada” de la realidad, surge de lo que Sadin definió como “una fantasía tecnocientífica que data de la posguerra y se ha convertido hoy en un axioma económico y antropológico que pretende construir una gobernanza indefinidamente dinámica y sin fallas de los asuntos humanos”. Si bien Alan Turing inventó la primera computadora de análisis y cálculo (que permitió a los aliados codificar la información encriptada de los nazis y su máquina Enigma), el objetivo era acumular información para guiar al usuario a la mejor opción. A partir de la Guerra Fría y la amenaza de los misiles nucleare, los sistemas de defensa pasaron a indicar directamente qué acción se debía llevar a cabo.

Para Sadin en la misma forma que los economistas clásicos, como Adam Smith, apelaron a una metáfora fantástica para justificar determinados fenómenos del capitalismo en el siglo XIX (el ejemplo más conocido es la mano invisible que regula los mercados) hoy vivimos en un mundo que nos quiere vender el concepto de que una “mano invisible automatizada” es la responsable de la robotización y automatización del mundo contemporáneo, como si no hubiese interés políticos y económicos que lo estuvieran desarrollando e imponiendo. Los dos ejemplos técnicos que toma Sadin como paradigmáticos para ilustrar esto son los “drones de combate” y el “brazalete de Amazon”. Un artefacto puede matar con precisión a kilómetros de distancia, el otro puede controlar milimétricamente los movimientos de un obrero en un depósito, también a kilómetros de distancia.

El escenario que se abre para Sadin frente a este tipo de nuevas situaciones es un conflicto de racionalidades ya que un tipo de racionalidad técnica como es el tecno-logos apunta a instaurar modos de existencia cada vez más sometidos a esquemas racionales que favorecen el apogeo de estructuras asimétricas de poder.

El mito originario

El fundamento principal que tiene la racionalidad técnica para justificar su supremacía radica en un mito muy antiguo, conocido como la neutralidad de la técnica que por cierto predomina desde el momento en que dicho axioma ideológicamente orientado permite hacer abstracción de los intereses en juego y de las intenciones de todo tipo que se materializaron en sus dispositivos.

Este mito de la neutralidad de la técnica, nos dice Sadin, también toma forma en la imagen mesiánica de los “emprendedores visionarios” que impulsaron la informática moderna. Personajes como Steve Jobs, Bill Gates, Mark Zuckenberg o Elon Musk son presentados a la población por medio de sus autobiografías como seres iluminados, tocados por la “mano invisible” de la inspiración, presentando sus productos como fruto de su fervor creativo individual y revistiéndolos de una “inocencia virginal” lejos de cualquier responsabilidad por el mal uso de sus productos. Pero la única realidad es que hay que ser muy ingenuo para creer que el surgimiento de la PC (Steve Jobs) se debió a la iniciativa de un joven en la cochera de sus padres que con una soldadora de estaño en una mano y una plaqueta en la otra. En el relato oficial se ocultan los intereses económicos que dictaron la trayectoria de las investigaciones en ese sector, las características y la naturaleza del complejo tecnocientífico californiano y estadounidense de la época, o las luchas industriales que comenzaron a enfrentar los diferentes fabricantes de PC. Pensar eso sería como afirmar que la revolución industrial del siglo XVIII en Inglaterra surgió porque un carpintero inglés llamado James Hargreaves inventó la primera máquina hiladora (La Jenny) en 1764.

Pero volviendo a la informática, podemos afirmar que la vocación original de la misma era crear un instrumento para aumentar el control en la administración de las cosas. En ese mismo sentido, Sadin ve que en la digitalización creciente de la sociedad también se le suma el de la digitalización de las administraciones, hoy capaces de recolectar directamente los datos, de tratarlos y de ofrecer nuevos usos de aquí en adelante; por lo tanto, lo que estaríamos viviendo sería también la “transformación digital del Estado”: el “Estado se piensa de ahora en más como una “plataforma” [3].

La IA representa antes que nada un poder dinámico de organización, lo que muy pronto supo capturar al mundo de las empresas, mientras que también es un poder dinámico de gobernanza. Se está imponiendo un nuevo modelo de sociedad. Estaría dotada de poderes homeostáticos, pretende permitir a todos salir ganando y estaría manejada por sistemas en un número cada vez más extenso de sus engranajes. En esa dirección, Sadin ve en el Neoliberalismo una ideología rabiosamente individualista que reduce toda forma de vida a las “lógicas orgánicas del mercado”. Como “ya lo había afirmado Margaret Thatcher en su época: ‘La sociedad no existe’” [4].

Para Sadin el potencial aletheico de la IA llegó en un momento de avanzada del neoliberalismo a nivel global que produjo grandes crisis políticas y económicas que luego devinieron en crisis de representatividad. “En nuestro período confuso, quisiéramos que la inteligencia artificial, consciente o inconscientemente, se ocupara de resolver gran cantidad de nuestras dificultades. Cuanto más ingobernable es la sociedad, más pretendemos otorgar a una tecnología el cuidado de gobernar nuestras existencias” [5].

Según Eric Sadin “Fukuyama se equivocó”, el fin de la historia no habría surgido de la caída del Muro de Berlín en 1989 y del triunfo planetario del liberalismo político y económico, no. El fin de la historia se consumará hoy en favor de la generalización del uso de la inteligencia artificial. El fin de la voluntad que define nuestras existencias. Un nuevo régimen de la verdad blindado por fakenews y posverdad estaría emergiendo.

La “i” del Phone y su giro antropológico

Según el autor, actualmente entramos a una era de “posprogramación”, en el sentido de que el orden y el funcionamiento de los dispositivos electrónicos ya no están condicionados por un lenguaje de programación específico sino que lo condiciona a propia interacción con el mismo. La “i” del iPhone presupone la fusión del Individuo en la máquina, desde los sistema operativos amigables hasta el mouse que nos permite desplazarnos por la pantalla, son prótesis informáticas que generalizan la interfaz táctil instaurando una relación basada en una mayor cercanía.

Para Eric Sadin la IA no representa solamente una tecnología más, sino que literalmente encarna una “tecno-ideología”. Una ideología que “permite que se confundan los procesos cerebrales y las lógicas económicas y sociales que tienen como base común su impulso vitalista y su estructura conexionista altamente dinámica” [6].

El neoliberalismo y su individualismo fomentaron la atomización del sujeto humano a su expresión más mínima, su cerebro. La época actual ya no hace eje en el sujeto en sí, en el ciudadano, sino en la mínima expresión de una persona como son sus impulsos y reacciones cerebrales. El “tecno-liberalismo” convirtió al cerebro humano en el fetiche de la comprensión y demostración de la realidad. Sin ir muy lejos, varias disciplinas actuales han agregado el prefijo “neuro” a su campo para darle un lustre científico (verdadero). Llegamos a hablar de “neuromanagement”, de “neuropolítica”, o incluso de “neuroeducación”. Toda una fascinación por la “plasticidad cerebral” que presupone un orden natural de las cosas que se ve reflejado en su uso aplicado: educación, defensa, administración, justicia, etc. Para Sadin, literalmente el “cerebro” se convirtió en la nueva “mónada humana” [7].

Para Sadin, actualmente el tecno-logos está creando un “nuevo régimen de verdad”. Pero volvemos a caer en la ya clásica y conocida pregunta filosófica ¿Qué es la verdad? En ese sentido, para el autor Occidente ha atravesado varios estadios de lo que se entiende por verdad o episteme a lo largo de su historia. Surgió la verdad revelada con el monoteísmo. Después pasó por el Platonismo y su sana desconfianza a las sombras de las cavernas. Luego Aristóteles nos dio una primera definición de la verdad al plantear la “adecuación con lo real”. Tomas de Aquino problematizó la dualidad de la verdad y su acceso a ella a partir de distinguir lo espiritual de lo racional. Descartes en el siglo XVIII proclamó la certidumbre del cogito por la prueba del método y las cadenas de razonamiento. Nietzsche, identificó el principio de la verdad en relación al respeto obligado de la moral. Y finalmente cierra el desarrollo del concepto de verdad con la definición de Michel Foucault y su teoría de los “juegos de verdad” en donde el poder se encuentra en la posesión del saber.

Según Sadin, “nunca” un régimen de verdad se había impuesto de esta manera en la historia., Y no por su fuerza de seducción o por su influjo coactivo, sino por la producción de adecuaciones que damos por sentado que son las más apropiadas. Hay un poder de revelación que promete ejercer su ingenio desde el menor detalle de nuestra existencia hasta las situaciones colectivas como ninguna otra instancia tutelar simbólica lo había podido hacer hasta ahora.

Lo que se quiere presentar en el libro no es un desacuerdo con las herramientas, sino con respecto al espíritu de la técnica que está predominando y que alimenta un tipo específico de racionalidad: una razón instrumental extrema. En ese mismo sentido lo que Eric Sadin busca denunciar o alertar es que hoy hay un cambio en el estatuto de la noción de poder, literalmente entramos a una Controlcracia: No es el miedo al Leviatán hobbesiano lo que controla a la sociedad moderna. Tampoco los dispositivos de control foucaultianos, ya que no se trata de vigilar sino de conmover en los comportamientos. “Hoy pasamos del estado de la individualización, que caracteriza en gran parte a la modernidad en la posguerra, al estadio de la penetración de los cuerpos y las cosas” [8].

Para Sadin se pone menos énfasis en la justicia y más en los mecanismos de control en la forma de la administración automatizada. Hay menos control estatal y más “monitoreo algorítmico”, por medio de los datos cruzados gracias al Big Data. Para el autor, literalmente hoy vivimos a través de tecnologías de la administración de la vida y la previsión. Pasamos del “fetichismo de mercancía” al “fetichismo de instante mejor gobernado”. No hay “poshumanidad” sino humanidad materializada, incubada y teleguiada desde servidores.

La “Doxa” técnica o el gobierno de los números

Con la llegada del neoliberalismo, a comienzos de la década ochenta, el fenómeno doble de la presión de la competencia y de la flexibilización de los códigos del trabajo favoreció un principio que después se generalizó muy rápidamente: hacer externas ciertas actividades. Nace la tercerización con el objetivo de reducir costos. “Estos métodos se vieron facilitados por la digitalización de los registros contables relativos al funcionamiento de los tercerizados que permitieran tener una visión detallada de sus prácticas” [9]. La IA procede en sí misma mediante comparaciones. Su base descansa en la codificación binaria que recorta los elementos en unidades mínimas.

Para Sadin, en el mundo de la ideología “Tecno-liberal”, la equivalencia se vuelve un fetiche. La naturaleza de una tecnología basada en el cálculo comparativo se confunde con un objetivo económico que pretende poner en comparación cualquier cosa con cualquier otra, a fin de hacer intervenir permanentemente un criterio de competencia y de extraer en cada operación, el margen de beneficio más amplio. Vemos cómo los sistemas proceden a la medición de los desempeños del personal a través del seguimiento del uso de sus computadoras para registrar todo gesto y movimiento, lo que permite que se establezcan cartografías granulares y evolutivas. El management actual determina cada vez más objetivos a corto plazo firmando en general contratos cada vez más precarios que cuando llegan a término, serán objeto de nuevas licitaciones que presentarán a las agencias de empleo para volver a comparar a los individuos y seleccionarlos para nuevas tareas temporales.

Los individuos deben ser movilizables en todo momento y, cuando llega el momento, deben movilizarse ellos mismos para realizar los objetivos que se les asignan. Surge un beneficio de la intercambiabilidad continua de los seres. A cada uno de nosotros se le asigna una suerte de “rating” y trabaja, le guste o no, consciente o inconscientemente, para hacer subir este rating y entonces capitalizarlo. Según el autor somos como una “mónada nómade”.

Para Sadin entramos a una era de la antropología de lo comparativo y como consecuencia llegamos al clímax de una relación utilitarista con lo real. Sadin afirma que vivimos en el mundo ideal que Jeremy Bentham (creador de la estructura de vigilancia panóptica que luego Foucault analizó en su libro Vigilar y Castigar) pensó para nosotros: un mundo en donde la utilidad prevalece antes que cualquier otra consideración. “El dogma de la ‘mano invisible’ que hoy habría alcanzado un estadio automatizado, toma ahora la forma de una verdad instituida. Trabajaría perpetuamente para el interés de todos y cada uno de nosotros, y nos haría entrar en el mejor de los mundos posibles o en un ‘paraíso artificial’ llamado a imponerse a todo instante.” [10]. Un “paraíso artificial” garantizado por algoritmos y artefactos ideológicamente “neutrales”.

A modo de cierre

Para Eric Sadin, la humanidad se encuentra teledirigida y no es consciente de eso. En ese sentido lo que propone es la elaboración de una teoría crítica sobre internet: “No, no necesitamos ‘pensadores de Internet’ sino un pensamiento sobre la digitalización del mundo, su automatización a largo plazo total, y todas sus consecuencias en nuestra existencias. Pero probablemente estemos alcanzando en este punto una suerte de techo de cristal de la conciencia ‘crítica’ predominante” [11].

Es por ese camino que Sadin considera que se puede revertir la situación, creando una “ética de la responsabilidad que se preocupe por el modo en el cual nuestros principios, los fundamentos de nuestra humanidad y nuestra civilización, están en vías de ser erradicados” [12].

Para Sadin, la salida “racional” a esta tecno-encerrona que se despliega sobre la sociedad es una “ética”, pero de la acción que se movilice en las calles por “defender la preservación de nuestros datos personales y a recurrir sin descanso a la ‘ética’” [13]. Según él “No hay que apelar a una ‘convergencia de luchas’ sino a una simultaneidad de operaciones llevadas adelante en los múltiples lugares donde deban ocurrir e inspiradas por principios comunes” [14]. La pregunta del millón sería como hay que hacer para que surjan esas “múltiples operaciones” y que lleguen a cumplir su objetivo civilizatorio. Bueno, la respuesta que nos ofrece Sadin es más confusa que esclarecedora ya que apela a un tipo de organización clandestina de corte anarquista fundada en Francia por el año 2000 llamados el “Comité Invisible” los cuales predicen un colapso del capitalismo que fomentará “el motín organizado” [¡!] [15]. Esto es muy llamativo, viniendo de un pensador que llama a “no coordinar luchas” o que directamente llama a no hacer huelga y protestar como “neoluddista” [16]. Al final del libro aparece lo que Sadin propone como modelo de organización política para comenzar esta resistencia ética; esos serían los “Grupos de información de las prisiones” como los que creó Michel Foucault en 1971. Su idea es organizar una intolerancia activa que permita “zonas a defender” para hacer intervenir a la “jurisprudencia cuando lo juzguemos necesario” [17]. Todo el análisis que presenta Sadin en su libro es un desarrollo extensivo y exhaustivo donde nos muestra cómo la IA se fue desarrollando a lo largo de la historia para que finalmente tome la forma que conocemos hoy.

Sadin, está explicando el momento de la historia en la que nos encontramos, pensándolo en relación al pasado, presente y el tecno-futuro por venir, pero desde una perspectiva de laboratorio o si se quiere simplemente crítica. Es como si fuese un geólogo. Explica las capas sucesivas que forman nuestro suelo, cada capa define las condiciones de posibilidad de un cierto tipo de pensamiento que ha triunfado durante un determinado período de tiempo. Pero no nos cuenta lo más interesante de todo esto, que sería: a partir de qué condiciones se ha constituido cada tipo de pensamiento; cómo o por qué los seres humanos pasamos de un tipo de pensamiento a otro. Para poder hacer posible eso hubiese sido necesario hacer intervenir a la praxis, es decir a la Historia.

Si bien el libro de Eric Sadin presenta un análisis agudo sobre las nuevas formas de control social y productivo a partir de la IA, su análisis tiene muchos espacios en blanco o preguntas sin responder. Cómo por ejemplo: al principio de la nota vimos como Sadin muestra y desarrolla los intereses que hay detrás de esta “mano invisible automatizada” que se nos presenta como parte de un desarrollo natural de la tecnología, pero en ningún momento aclara o define qué sectores sociales, específicamente, son los que se ven beneficiados por este “tecno-logos” y por otro lado qué sectores sociales son los que se vería afectados por los mismo. En ese sentido queda difuso o poco claro a quién estaría intentando interpela con su propuesta. No tiene distinción ni limitación.

Por último, tampoco queda definida la relación entre el “tecno-liberalismo” y la “razón instrumental extrema” ya que no queda claro dónde poner el eje del problema: en las máquinas surgidas de un espíritu de época que quiere cosificar a los seres humanos y convertirlos en apéndices de sus fusibles, o en un sistema político-económico utilitario que busca maximizar las ganancias a costa del aumento del deterioro y empobrecimiento de la calidad de vida de los trabajadores bajo la forma de la precarización laboral más extrema.

Desde la época de Karl Marx a la actualidad la tendencia histórica es al aumento de la productividad, que gracias a la máquinas y el desarrollo técnico, cada vez se produce más en menos tiempo, pero eso no representó una disminución de las jornadas laborales sino que al contrario, cada día los empresarios buscan como absorber hasta el último minuto de la vida de los obreros en los tiempos de trabajo.

El desafío por lograr es poder romper las relaciones sociales capitalistas para así lograr que ese menor tiempo de producción logrado por la tecnología, se traduzca en que la humanidad cada vez tenga que utilizar menos energías para producir lo que necesita para subsistir. Y así finalmente poder liberarse del yugo del trabajo para poder desplegar su tiempo y fuerzas en el pleno desarrollo de las capacidades humanas como es el ocio creativo, el arte, la ciencia y la cultura. Sin mencionar lograr establecer una relación más equilibrada y sana con la naturaleza.

NOTAS AL PIE

[1] Eric Sadin, La inteligencia artificial o el desafío del siglo, Buenos Aires, Ed. Caja Negra, 2020, p. 17.
[2] Ibídem, p. 21.
[3] Ibídem, p. 208.
[4] Ibídem, p. 213.
[5] Ibídem, p. 214.
[6] Ibídem, p. 70.
[7] En la filosofía moderna, a partir de Leibniz con su Monadología, el concepto de mónada se aplica a la idea de un “átomo espiritual” o la manifestación más mínima e indivisible del espíritu humano.
[8] Ibídem, p. 225.
[9] Ibídem, p. 182.
[10] Ibídem, p. 202.
[11] Ibídem, p. 274.
[12] Ibídem, p. 277.
[13] Ibídem, p. 290.
[14] Ibídem, p. 289.
[15] Ibídem, p. 289.
[16] Ibídem, p. 136.
[17] Ibídem, p. 310.

Fuente:  https://rebelion.org/la-inteligencia-artificial-o-la-humanidad-teledirigida/

Comparte este contenido:

La queja de la modernidad. Libro descargable en pdf

En esta nueva entrega de la colección Masa Crítica, Avital Ronell nos sitúa ante un enunciado despreciado que, sin embargo, encabeza las listas de uso histórico del lenguaje: la queja. Con estilo incisivo y tejiendo una escritura que altera los márgenes de la filosofía, Ronell indaga esta discursividad en tanto grito ético, lenguaje que suspende las jerarquías de lo moderno y testimonio que, al exigir justicia, contagia subversión.
Comparte este contenido:

El aprendizaje de la Ética

Por: Leonardo Díaz

Las habilidades prácticas no se adquieren por la enseñanza de un discurso expositivo o por el aprendizaje de reglas. En palabras de Aristóteles, (Ética a Nicómaco, 1151a) los principios de la virtud no se adquieren por razonamiento, sino por hábito.

Si cualquiera de nosotros contratara a un profesor de matemáticas para enseñar a una niña las operaciones básicas, al finalizar el proceso de enseñanza-aprendizaje la chica debería saber sumar y restar, salvo que existiera alguna variable que entorpeciera el aprendizaje.

Del mismo modo, si contratáramos a un profesor de ortografía para nuestro hijo pequeño, no es problemático afirmar que al finalizar la instrucción nuestro hijo debería poder escribir oraciones correctas, salvo que hubiera un factor que obstaculizara el desenvolvimiento normal del proceso.

Imaginemos ahora que aspiramos a tener hijos honestos que no incurran en el acto de mentir. ¿Podemos contratar a un profesor para enseñarles un curso sobre la verdad con la convicción de que luego del mismo nuestros hijos no mentirán? O, ¿podemos contratar a un profesor para que enseñe a nuestros hijos a no robar?

Creo que coincidimos que en los dos últimos casos, la respuesta es negativa, o por lo menos, problemática. Situaciones como esta llevaron a Platón a escribir una obra, El Menón, donde cuestionaba que la virtud fuera enseñable.

En mis dos primeros ejemplos el proceso de enseñanza-aprendizaje se basa en la adquisición de unas destrezas comunicables y transmisibles mediante un sistema de reglas.

En los dos últimos casos el proceso es de naturaleza ética, por consiguiente, práctica. Las habilidades prácticas no se adquieren por la enseñanza de un discurso expositivo o por el aprendizaje de reglas. En palabras de Aristóteles, (Ética a Nicómaco, 1151a) los principios de la virtud no se adquieren por razonamiento, sino por hábito.

Por tanto, podemos lograr que un ciudadano aprenda de memoria las normas de un manual de conducir, pero no es sensato pensar que por aprenderlas conducirá un vehículo de modo correcto, respetará las reglas de tránsito, o será prudente en la carretera. Sus habilidades y modo de manejar dependerán de la exposición continua a manejar un auto, de los criterios y valores que ha adquirido para conducirlo a través de los años; y también, de la existencia de un régimen de consecuencias.

Ahora les pido que hagan la analogía con la situación de nuestros funcionarios estatales. ¿Creen ustedes que para la honestidad pública de los mismos es relevante tomar un curso de ética para servidores públicos y aprender las normas de un código?

Fuente: acento

Comparte este contenido:

¿Qué es la replicabilidad y por qué está en crisis?

Por: Sofía García-Bullé

Además de reforzar los criterios para el control de calidad y honestidad académica, es necesario considerar la comunicación en artículos académicos.

Los manuscritos científicos prefabricados que provienen de paper mills (fábricas de manuscritos) han generado una situación desfavorable en la academia. Ha debilitado la calidad de los artículos así como puesto en riesgo su credibilidad. De la misma forma, ha orillado a científicos a prácticas perjudiciales como dividir artículos en entregas más pequeñas e incompletas para mantener un ritmo de publicación determinado. Pero existe una consecuencia que está afectando la base de la producción científica: la crisis de la replicabilidad.

El término, también conocido como reproducibilidad o replicación, se refiere a la capacidad de repetir un experimento en diferentes situaciones, con diferentes sujetos e investigadores. Esto con el fin de comprobar la seguridad de los hallazgos del primer experimento y comprobar su viabilidad.

La razón por la que los artículos académicos prefabricados amenazan la replicabilidad de estudios, trabajos de investigación y experimentos es porque no se realizan dentro de una estructura operacional para producir conocimiento, sino de una para crear productos para académicos que están tratando de llenar una cuota de publicación. Los datos provenientes de un paper mill pueden ser producto de plagio, estar incompletos, alterados, manipulados o sesgados con la intención de respaldar la tesis de quien ordena el trabajo.

Ciencia sin comprobación

¿Podemos hablar de conocimientos válidos cuando la comprobación como paso del método científico está inhabilitada? La pregunta ha inquietado a académicos desde hace por al menos una década ante la alarmante realidad de una ciencia sin vías de fiabilidad. La producción científica ha tenido problemas con la comprobación desde antes de que los manuscritos prefabricados tuvieran su periodo de auge.

Alvaro de Menard, investigador académico de ciencias sociales y participante del proyecto de mercados de la replicación a cargo de la Agencia de Proyectos de Investigación y Defensa Avanzada (DARPA por sus siglas en inglés), ofrece una perspectiva precisa pero desalentadora con respecto al estado de la replicación en las ciencias.sociales. Los procesos que llevan a resultados poco fiables son rutinarios, están bien entendidos dentro de la comunidad académica, son predecibles y fáciles de evitar, sostiene de Menard, y a pesar de esto el rigor de la investigación científica no ha mejorado.

La conversación sobre estos aspectos de la producción científica se han discutido ampliamente, pero no ha generado aún una estructura para la producción y divulgación más rigurosa, que facilite el ejercicio de la comprobación. La ciencia falible sigue publicándose en diarios científicos.

El papel de la revisión por pares

La comunidad académica tiene mucha confianza en la última instancia de validación antes de publicar un artículo. La revisión por pares ha sido el bastión para defender la calidad técnica de los trabajos de investigación y el sistema ético sobre el cual basan la credibilidad del conocimiento producido. Sin embargo, no ha sido del todo efectiva para separar a los contenidos replicables, de los que no lo son.

Sería fácil pensar que los monitores académicos tendrían la capacidad de realizar esta labor sin problema, pero un estudio de la Universidad del Noroeste, en Evanston Illinois, comprueba lo contrario. La investigación realizada por los profesores Yang Yang, Wu Youyou y Brian Uzzi encontró que no existe correlación entre la replicabilidad de un estudio, su publicación y cuántas veces sería citado. De acuerdo con los autores, los artículos falibles circulan tanto como los comprobables.

No basta con solo rigor

La mayoría de las conversaciones acerca de la crisis de replicabilidad giran en torno a protocolos. Se considera principalmente qué medidas tomar para controlar la proliferación de artículos apresurados, prefabricados o con un proceso de revisión de pares que no detectó su falibilidad.

Ante esta priorización, un aspecto clave para garantizar la replicabilidad queda desatendido: la comunicación. Las probabilidades de repetir determinado experimento disminuye exponencialmente cuando se está trabajando con descripciones vagas o instrucciones difíciles de comprender, el problema se vuelve más grave cuando se trata de reproducir un experimento escrito en otro idioma.

Con esta problemática en mente, la prensa Nacional de las Academias, en Estados Unidos, publicó una serie de recomendaciones para facilitar la lectura de manuscritos de investigación y experimentos. El organismo recomienda a los investigadores incluir una descripción clara de cómo alcanzaron sus resultados. Los reportes deberán incluir detalles sobre el tipo adecuado de investigación, que deberán cubrir:

  • Descripción completa y concisa de todos los métodos, instrumentos, materiales, procedimientos, mediciones y demás variantes utilizadas para el estudio.

  • Un desglose claro del análisis de datos y decisiones para la exclusión de determinados datos y la exclusión de otros.

  • Para resultados que dependan de una inferencia estadística. Una explicación de las decisiones analíticas correspondientes, cuándo fueron tomadas esas decisiones y si el estudio a realizar era con fines exploratorios o de confirmación.

  • Una discusión sobre las restricciones generales, tales como qué aspectos metodológicos los autores consideran que podrían ser cambiados sin alterar el resultado, el cual debe permanecer constante.

  • Un reporte de la precisión de las estadísticas empleadas.

  • Una discusión acerca de la incertidumbre de las mediciones, resultados e inferencias.

A pesar del complicado panorama, algunos académicos pronostican un periodo de mejora consecuente al problema de la baja reproducibilidad, pero para esto es necesario hacer el trabajo y cubrir las áreas de oportunidad que esta problemática plantea. ¿Eres académico? ¿Te has topado con estudios que no son replicables? ¿Cuáles son tus impresiones? ¿Qué sugerirías para mitigar esta situación dentro de la academia? Cuéntanos en los comentarios.

Fuente e imagen: observatorio.tec

Comparte este contenido:

¿Qué es el publish or perish?

Por: Sofía García-Bullé

 

Esta tendencia entre académicos es una de las mayores causas de hartazgo y abandono de la profesión.

 

La principal tarea de un académico es la de generar y transmitir conocimiento. Dependiendo de en qué fase de tu carrera te encuentres y en qué buscas especializarte, en la publicación de investigaciones o estudios, etc. puede ser la piedra angular de tu carrera.

Para los que se dedican a investigar y producir, el mantenerse relevantes a través de nuevas entregas de material con resultados correctos de alto impacto e interés es crucial para encontrar plazas o  mantener las que ya tienen, esta es la base de la tendencia publish or perish.

¿En qué consiste?

Publish or perish, publica o muere en español, se refiere a la constante presión sobre los académicos para realizar y publicar investigaciones o estudios. Especialmente en las universidades donde las tareas investigativas son eje para atraer fondos, y los académicos son empleados y remunerados en proporción a que tantas investigaciones alineadas a los intereses de su institución realicen.

La medida más común para acreditar a un investigador es el número de publicaciones, y cuenta como valor primario al momento de contratar y decidir si un académico podrá establecer o continuar una carrera en la investigación, si se le acomodará en una posición docente o administrativa o si simplemente no se le considerará para la posición.

Este impulso por la producción constante podría estar afectando la calidad de los estudios realizados. Ya han surgido problemas como la crisis de replicabilidad, que compromete la comprobación y validación de miles de experimentos en los rubros de ciencias exactas y sociales.

El costo económico de mantener este ritmo de publicaciones en las esferas gubernamentales y educativas es bastante alto. Sumado a esto, no se puede subestimar un efecto perjudicial que un ambiente de publicación sin paradas puede ocasionar en quienes hacen el trabajo. El hartazgo y abandono de las carreras académicas tiene una correlación sólida con la imposición de la producción constante a riesgo de perder el trabajo. ¿Cómo dimensionamos el costo personal de una tendencia como publish or perish?

¿Cómo afecta a los productores de conocimiento?

El impacto de una mentalidad colectiva de publicar o morir no solamente provoca un burnout crónico en la comunidad académica, también es uno de los principales factores por los que los académicos terminan por cortar su carrera.

Hablando de cómo afecta a la comunidad académica en conjunto, la cultura pervasiva de publish or perish ha orillado a los investigadores a realizar prácticas que comprometen la calidad del trabajo académico.

Entre algunas de estas actividades perjudiciales está el dispersar sus resultados tanto como pueden de manera que produzcan más artículos en vez de solo uno que pudiera ser más completo y cohesivo, o se ven obligados a saltar al proyecto de alguien más para conseguir una coautoría si no tienen un proyecto propio, o caer en un sesgo de confirmación buscando fuentes que favorezcan el proceso a los resultados esperados.

Instancias como las anteriores generan una seria preocupación de índole ética, y vuelven evidente la necesidad de una conversación seria sobre la integridad del trabajo de investigación realizado en estas circunstancias.

Este mindset también ha afectado seriamente a un sector de la comunidad académica sobre todo ahora que tenemos una situación de contingencia prolongada debido a la pandemia: Las mujeres investigadoras.

En artículos anteriores hemos hablado de la carga desproporcionada con respecto a las de cuidado familiar y doméstica que tienen las mujeres profesionales, además del éxodo laboral que ha costado millones de trabajos alrededor del mundo. En una cultura de trabajo en la que si no publicas no existe, las mujeres en la academia están siendo profundamente impactadas por estas tendencias de producción masivas. Las investigaciones y papers realizados por mujeres han desaparecido sistemáticamente desde los inicios de encierro el año pasado.

¿Piensas que es necesario un cambio de mentalidad para mantener a los académicos dentro de la profesión? ¿O para salvaguardar la calidad e identidad del trabajo académico?

¿Cuál ha sido tu experiencia dentro de este esquema de publicación? Cuéntanos en los comentarios.

Fuente e imagen: https://observatorio.tec.mx/edu-news/publish-or-perish

Comparte este contenido:
Page 3 of 17
1 2 3 4 5 17