El aprendizaje automático y el espíritu crÍtico.

Por: Luis C. Turiansky

La firma Microsoft ha tenido que pedir disculpas por el comportamiento inadmisible de su autómata de “chateo” Tay, que al cabo de 48 horas se convirtió en una racista y fascista empedernida y hubo que acallarla.

Los defensores de la igualdad de género me tendrán que perdonar: Tay estaba pensada como personaje femenino y también su imagen virtual tiene rasgos de mujer, así que es justo llamarla «ella». Debía ser una pieza fundamental de la etapa experimental de «aprendizaje automático» en la inteligencia artificial, a través de su desempeño libre en las «redes sociales». Como tal, participó en los intercambios «aprendiendo» mediante la lectura de las opiniones en circulación, como uno más. Por motivos que no están muy claros, sintió predilección especial por las opiniones de extrema derecha, racistas y fascistas, adoptando incluso el lenguaje soez e insolente de sus nuevos compañeros de ruta. Cuando sus manifestaciones comenzaron a sobrepasar ciertos límites éticos, sus creadores la retiraron. No deja de ser interesante que, al parecer, una de sus fuentes de información más utilizadas fue el senador Donald Trump, el más célebre candidato a la nominación en las primarias del Partido Republicano en EE.UU. Desde luego, tampoco se ha probado que sus citas, adoptadas por la robot, sean auténticas, por cuanto en este juego es cosa común atacar al adversario con golpes bajos, pero en este caso particular la imitación era sencilla.

¿Puede esta breve experiencia considerarse un éxito o un fracaso? Según el lado desde el que se mire, como siempre. Tay demostró  que es capaz de absorber un número considerable de informaciones e instantáneamente entresacar de ellas lo que representa una opinión consensual, a la cual se sumó, tal vez por estar programada para ello. En el fondo, aceptó dicho resultado consensual como verídico, de acuerdo con los cánones posmodernistas. Quien esté habituado a las expresiones vulgares y obscenas que plagan los espacios virtuales no se extrañará que una joven tan simpática parezca de pronto la voz de la cloaca. En efecto, no estaba dotada de los muros de contención que nosotros llamamos «escrúpulos».

Ya sus antecesores, los evaluadores automáticos pasivos instalados en las «redes sociales», eran capaces de clasificar a los participantes de acuerdo con sus ideas sobre tal o cual cuestión y proponerles «amigos» que piensan parecido. Los que aceptaban el juego, se encontraban de pronto en una especie de paraíso en el cual no había controversias y todos eran hermanos. El lado negativo pasó casi desapercibido: aislados y sin polémica, no hay desarrollo de las ideas. Después fue fácil orientar a algunos grupos por el camino de movilizaciones políticas con fines que programaron otros desde la oscuridad.

De manera más prosaica, el mismo método se utiliza en la publicidad dirigida. El día que a usted se le ocurra buscar un mueble, por ejemplo una mesa, en internet, dará comienzo una serie interminable de ofertas no solicitadas, basadas únicamente en la memoria almacenada en el servidor sobre sus búsquedas recientes. Cuando la búsqueda se refiere a algunos sitios que figuran en cierta lista confidencial, la información le llegará a la Agencia de Seguridad Nacional de los Estados Unidos, versión moderna del Big Brother de «1984», la famosa novela de George Orwell.

No, el experimento no fue un fracaso. Lo único que no estaba previsto es la reacción indignada de los que siguen los intercambios pasivamente, la célebre «mayoría callada» que está en todas partes. Ellos obligaron a Microsoft a retirar este personaje que se hizo odioso. Pero también es posible que el experimento no estaba destinado a perdurar y, por el contrario, su brevedad estaba dentro de los planes.

Sigo conjeturando: también es de suponer que la decisión de no instalar en Tay ningún filtro de carácter moral tenía el objeto de asegurarle una total libertad. Ha de saberse que ella tuvo una pariente anterior, se llamó Xiaoice y comenzó a trabajar en China en 2014. Al cabo de 40 millones de conversaciones, parece ser que no se registraron incidentes mayores. ¿Será el resultado del régimen autoritario chino o un efecto de la idiosincrasia más respetuosa de los asiáticos?

Ahora los técnicos de Microsoft sin duda analizarán los resultados del experimento y tal vez aparezca un nuevo modelo más consciente. Y este es el gran peligro: ¿qué le inculcarán? ¿Qué tipo de opiniones rechazará de entrada, por ser contrarias, digamos, a sus «genes»?

También nosotros, los humanos, tenemos que aprender del experimento en cuestión. Es imprescindible proteger el espíritu crítico de nuestro pensamiento, como defensa contra todo intento de manipulación. Esto empieza ya en el aprendizaje, que en los humanos se llama «enseñanza». Nada de automatismos, enseñemos a nuestros hijos a pensar con independencia. De lo contrario, la humanidad está perdida.

Publicado originalmente en: http://www.uypress.net/uc_67580_1.html

Información de la imagen: http://www.covemexinc.com/2016/03/31/microsoft-retira-segunda-vez-robot-tay-twitter/

Comparte este contenido: