Andrew Smart: “Los algoritmos son invenciones culturales: pueden ser más racistas que nosotros”

Entrevista a Andrew Smart

El autor de ‘El arte y la ciencia de no hacer nada’ se pregunta qué podemos entender sobre nuestra conciencia gracias al despertar de la inteligencia artificial

El 16 de abril de 1943, el químico suizo Albert Hofmann se convirtió en el primer hombre en consumir LSD aquella tarde en la que percibió “un flujo continuo de imágenes fantásticas y formas extraordinarias con un juego de colores caleidoscópico”. El 11 de mayo, el ordenador Deep Blue venció en una partida de ajedrez a Gary Kaspárov. Y el 6 de mayo de 2010, el día del “crack relámpago”, el Dow Jones cayó 600 puntos en cinco minutos a causa de un ataque informático. Son tres acontecimientos sin aparente relación que, no obstante, forman parte de la narrativa de ‘Más allá de ceros y unos‘, el último libro del científico e ingeniero Andrew Smart.

En el volumen, el colaborador de la Universidad de York se pregunta acerca del funcionamiento del cerebro humano desde una perspectiva neurológica y filosófica y sobre la posibilidad de que una inteligencia artificial pueda desarrollar una verdadera conciencia; entre nuestro cerebro y el fantasma en la máquina, el LSD se convierte en la bisagra olvidada que nos puede ayudar a entender por fin nuestra subjetividad. Una pregunta pertinente en un momento en los avances en inteligencia artificial nos hacen preguntarnos si en muy poco tiempo no podremos encontrarnos con un robot tan humano como cualquiera de nosotros. Smart no está muy seguro sobre dicha posibilidad, sugiriendo que aunque posible, quizá estemos exagerando las probabilidades.

Pero lo que de verdad interesa a Smart es comprender el funcionamiento de la conciencia humana, mucho más que el producto de un simple órgano gestor de información como la neurociencia actual parece defender. Como él mismo concluye en el libro, no cree “que sea una locura empezar a intentar diseñar ordenadores con el propósito de ofrecerles experiencias psicodélicas, pues es posible que al intentarlo logremos resolver por fin el misterio de la consciencia natural y artificial, y con ello salvar a la raza humana”. ¿De qué? Smart nos da la respuesta a través del correo electrónico.

Asusta que ni siquiera los ingenieros que construyeron esos sistemas puedan explicar cómo funcionan

PREGUNTA. Una idea que se repite en el libro es que estamos aún muy lejos de crear una verdadera inteligencia artificial, y que estamos exagerando las consecuencias negativas de que ello ocurra. Entonces, ¿quién y por qué esta interesado en que pensemos que una inteligencia artificial divina nos gobierne dentro de 30 años?

RESPUESTA. Mi sensación es que la tecnología de aprendizaje de las máquinas está acercándose a lo que los humanos hacen en determinadas áreas, como jugar al Go o reconocer una voz y mantener conversaciones aparentemente humanas. La gente se asusta porque nos estamos acercando al valle inquietante, así que atribuimos poderes mágicos a esos sistemas. Pero es importante recordar que la inteligencia artificial (o el aprendizaje de las máquinas) es una abstracción estadística de unos datos dados. No es más que utilizar una cantidad inimaginable de información con ordenadores súper rápidos y poderosos y algoritmos sofisticados para hacer predicciones cada vez mejores. Por supuesto que asusta que ni siquiera los ingenieros que construyeron esos sistemas puedan explicar cómo funcionan; por ejemplo, el aprendizaje profundo funciona muy bien en ciertas áreas, pero nadie sabe por qué.

La creencia en un Dios de la inteligencia artificial probablemente se deriva de ciertos impulsos religiosos residuales entre algunos grupos de Silicon Valley. Dios, en el sentido religioso, no existe, pero puede que ahora seamos capaces de resucitar (valga la redundancia) esa creencia en fuerzas sobrehumanas. Para mí la idea de una inteligencia artificial divina, como un oráculo que puede predecirlo todo, es ridícula. Es cuestionable si es posible, e incluso si lo es no quiero vivir en un mundo de dioses, sean ordenadores o no. En parte, hablar de dioses de la inteligencia artificial mola en términos de ciencia ficción, y hay mucha gente en Silicon Valley intentando llevar esas fantasías a la vida real.

P. Tendemos a creer a pies juntillas en la metáfora del cerebro como un ordenador. Una vez más, señala que es incorrecto. ¿A quién le conviene? ¿A compañías como Google/Alphabet, que comercian con información?

R. Es cierto que entre la gente que trabaja con la inteligencia artificial hay una visión profundamente arraigada de que el cerebro es, literalmente, un código que ejecuta algoritmos, neuronales en su caso. Intento refutar esta idea en el libro. No estoy seguro de quién puede beneficiarse económicamente de ello, pero es una conjetura popular incluso en la neurociencia –existe un campo llamado neurociencia computacional– que asume que el cerebro es un sistema de ordenador.

El autor, Andrew Smart.
El autor, Andrew Smart.

Esta idea que apenas se ha discutido ha sido reforzada por los recientes avances en inteligencia artificial que han sido inspirados por las teorías sobre el funcionamiento del cerebro. Así que la lógica es la siguiente: desarrollamos algoritmos basados en las teorías del cerebro y funcionan muy bien, así que el cerebro está hecho de algoritmos. En el libro señalo que son modelos. Buenos, pero nada más que modelos. Esto nos lleva al debate filosófico sobre el realismo, y diría que soy un realista científico, pero no entendido como información o algoritmos. Creo que son invenciones culturales: el mundo no está hecho ni de información ni de algoritmos.

P. Al final del libro, recuerda que Google es ya un poco como una inteligencia artificial maligna, al reducir la experiencia humana a algoritmos. ¿Cuál es el peligro de herramientas como esa, ahora y en el futuro?

R. Lo que más asusta es que nuestro comportamiento está influido por nuestras interacciones con los ordenadores en formas de las que no somos conscientes, por lo que los algoritmos se perfeccionan y predicen mejor lo que haremos, lo que nos lleva a hacer aquello que han predicho los algoritmos, y nos empuja a un ciclo de retroalimentación donde nuestra libertad está constreñida a ser consumidores perfectos, clicando en las cosas en las que el sistema quiere que pinchemos. Tengo miedo de que el mundo algorítmico nos haga menos conscientes de nuestras decisiones, y que seamos empujados a patrones predecibles de consumo.

P. ¿Qué piensa de gente como Ray Kurzweil, Sergey Brin, Larry Page o Elon Musk? ¿Creen realmente en lo que dicen sobre el futuro, o simplemente están sirviéndose a sí mismos vendiendo trucos de magia?

R. No creo que crean de verdad en ello; si tienes razón o no, es otra cuestión.

P. Al mismo tiempo, muestra que, al contrario de lo que Kurzweil defiende, hay un gran margen para que ocurran graves errores de funcionamiento en los ordenadores que empleamos, por ejemplo, en el ‘high speed trading‘, que puede tumbar la bolsa en cuestión de segundos. ¿Estamos ciegos ante los problemas a los que podemos enfrentarnos si estos sistemas se viniesen abajo de repente?

R. Sí, es un área de investigación muy activa. Los defensores de la inteligencia artificial piensan que esta corregirá nuestros sesgos y debilidades humanas, pero recientes investigaciones recientes han mostrado que es al revés: el aprendizaje de las máquinas de hecho amplifica nuestros prejuicios. Por ejemplo, en la política predictiva o el sistema de justicia criminal, los algoritmos son más racistas que los policías y jueces humanos. Esto se debe a que los datos que alimentan los algoritmos vienen de informes policiales sesgados, que vigilan especialmente determinados barrios, así que si utilizas dichos datos un algoritmo estadístico preverá que hay más crimen donde hay una mayor presencia policial. Y sí, en términos de sistemas complejos y seguridad, puede haber eventos catastróficos acechando de los que no somos conscientes porque damos por hecho determinadas probabilidades. A medida que somos más dependientes de estos sistemas, más frágil será la economía global.

La creencia de que la naturaleza está formada por información es ideológicamente útil

P. ¿Nos hemos convertido en neoplatónicos que consideran que todo es información? ¿Cuál es el problema con este nuevo paradigma?

R. Científicamente es importante dirigir nuestras conjeturas sobre la naturaleza de la realidad en la dirección correcta, de lo contrario nos perderemos en cuestiones absurdas, por ejemplo, buscando información en el cerebro. El otro problema que veo es que esta creencia de que la naturaleza está formada por información puede funcionar a un nivel ideológico, ya que se supone que todos somos consumidores racionales de información. Esto puede entorpecer los movimientos críticos y la organización social contra el poder del capital. También me resulta interesante la relación entre la información y el capital: nadie piensa que el universo esté formado por capital, y aun así hay una equivalencia entre el capital y la información como ideas abstractas que sin embargo tienen un impacto real en el mundo. ¿Por qué somos tan rápidos al asumir que las cosas están hechas de información, y suena absurdo decir que los átomos son capital?

P. Una de las posibilidades relacionadas con la inteligencia artificial es que terminemos creando algo muy parecido a una conciencia, que hable como una conciencia, se comporte como una conciencia e incluso piense como una conciencia… pero que para nada sea una conciencia. ¿Es imposible saber si hemos creado realmente una conciencia semejante a la humana, o siempre habrá un margen de duda?

R. Es una pregunta muy difícil de contestar pero estoy de acuerdo en que muy pronto tendremos sistemas que no será fácil diferenciarlos de los humanos. No estoy seguro de si habrá un robot humanoide así, pero mientras interactúes con un ordenador, será cada vez más difícil saber si es una persona o una inteligencia artificial. Si no estás seguro, siempre habrá preguntas que solo un humano con cierta experiencia pueda responder. Esta prueba de conciencia subjetiva es muy difícil: por ejemplo, asumimos que todos con los que interactuamos son también conscientes, pero no podemos comprobarlo más que observando un comportamiento que asumimos que el de un humano consciente. Podemos medir toda actividad cerebral relacionada con las distintas etapas de la conciencia; pero incluso en esos casos, no sabemos si “objetivamente” alguien está experimentando algo. Así que una vez los ordenadores comiencen a comportarse de formas cada vez más humanas, ¿cuál es la diferencia? No conozco la respuesta, porque por supuesto, si le preguntas al ordenador si es consciente, te dirá “sí”. Pero a menos que veamos a una persona desmayarse, no le vamos a preguntar “¿estás consciente?”

P. Mientras leía el libro, recordé su anterior trabajo, ‘El arte y la ciencia de no hacer nada‘. Me hizo pensar que quizá no hacer nada, ser un poco vago, puede jugar un papel semejante al del LSD que propone en su libro: ¿podría una inteligencia artificial decidir ser vaga, al igual que los humanos pueden hacerlo? ¿Qué demostraría?

R. Por ahora la inteligencia artificial no tiene sus propios objetivos. La arquitectura de la red neuronal está creada por humanos, así como los datos que los alimentan, y el algoritmo de aprendizaje, y las tareas… y por ahora ninguno ha aprendido a cambiar sus objetivos o su propio algoritmo, pero esto está evolucionando, y probablemente más rápido de lo que algunos creen. Pronto serán capaces de aprender a aprender: es lo conocido como “metaaprendizaje”. Pero no está fuera de nuestras posibilidades que en el futuro cercano un sistema de inteligencia artificial pueda ser capaz de entender algo sobre su proceso de aprendizaje, y entonces darse cuenta que determinadas cosas le pueden ayudar, ¡como descansar! Si esto ocurre, puede ser muy interesante.

Albert Hofmann.
Albert Hofmann.

P. En el libro defiende que el LSD es una herramienta para comprender cómo funcionan nuestra percepción y conciencia (tanto para humanos como para robots). ¿Cuál es el mito más peligroso que existe sobre el LSD?

R. El LSD, junto a la terapia de conversación, tiene un enorme potencial para ayudar a la gente adicta a otras sustancias o al alcohol. Aunque suene paradójico, hay muchas investigaciones sobre esto en los años sesenta que se han perdido a causa de la histeria que existe sobre la droga en EEUU. Así que durante 50 años podríamos haber disfrutado de un tratamiento muy efectivo para la adicción que nadie podía conseguir a causa de esta controversia sobre la droga. Albert Hoffmann terminó decepcionado por lo que ocurrió con el LSD, ya que realmente creía en su potencial terapéutico y creo que tenía razón. Afortunadamente ahora está resurgiendo esta clase de investigaciones.

P. ¿Qué cree que ocurrirá con el LSD en el futuro inmediato? ¿Volverá a ser investigado desde un punto de vista médico? ¿Se convertirá en una forma habitual de conocernos a nosotros mismos en las sociedades occidentales, quizá poniéndose de moda en Silicon Valley?

R. Sinceramente espero que las investigaciones continúen desde un punto de vista médico, y esto está ocurriendo de forma exponencial. Puede llegar a generalizarse. Sin embargo, espero que la cultura cambie para integrar la experiencia del LSD, en lugar de simplemente utilizarlo para ser más productivo como alguna gente hace con las microdosis. Incluso la gente en Silicon Valley se ha dado cuenta de que estamos en crisis y que se necesita una transformación cultural fundamental para atajar el cambio climático, la desigualdad y la fragmentación/polarización. El LSD por supuesto que podría facilitar esta clase de cambio, como empezó a hacer en los años 60, pero hay poderosos intereses que no desean que se produzca una transformación cultural a un mundo más consciente, medioambientalmente viable, igualitario y justo. Como en los 60, podría haber una especie de reacción si comienza a cambiar la cultura. Lo veo como una coproducción: la cultura debe ser receptiva a ser transformada y el LSD puede conseguirlo.

Fuente: https://www.elconfidencial.com/alma-corazon-vida/2018-06-21/andrew-smart-robots-psicodelia-conciencia_1581609/

Comparte este contenido: