Las matemáticas ayudan a comprender la inteligencia colectiva

Por: Yaiza Martínez

Una nueva herramienta revela el efecto de los sesgos individuales y de la información social en la “sabiduría de los grupos”

La inteligencia colectiva funciona y afecta a nuestra vida y comportamientos a muchos niveles, pero está condicionada por factores como el sesgo individual y la información social, según una nueva herramienta matemática creada por investigadores norteamericanos. El hallazgo puede ayudar a entender mejor los patrones que subyacen a la “sabiduría de las multitudes”.

En el año 1907, el estadista Sir Francis Galton, de 85 años, acudió a una Feria de Ganado en Plymouth, al sudeste de Inglaterra. En ella se celebraba un concurso que consistía en adivinar cuánto pesaba un buey. Unas 800 personas habían participado, y a Galton se le ocurrió ir apuntando las apuestas de todas ellas. Cuando calculó la media, el resultado fue sorprendentemente cercano a la realidad: era de 1.197 libras. El peso real del buey, de 1.198 libras.

Por tanto, aunque las conjeturas individuales variaban enormemente, la media total resultó ser sorprendentemente precisa. Cuando Galton publicó sus resultados, introdujo en la sociedad la teoría de la inteligencia colectiva, también conocida como «sabiduría de los grupos».

Desde entonces, se ha seguido profundizando en este concepto. Por ejemplo, en 2004 lo trató el periodista norteamericano James Surowiecki en un libro (Cien mejor que uno), en el que se presentaban numerosos casos estudiados en distintos campos del saber, principalmente economía y psicología, que demostraban que las decisiones colectivas son a menudo mejores que las que podrían haber sido tomadas por un solo individuo.

El efecto de la información social 

¿Qué condiciona esta inteligencia colectiva? Para tratar de averiguar este punto, recientemente, un investigador de la Universidad de Harvard llamado, Albert Kao y su colaborador del Santa Fe Institute(EEUU), Andrew Berdhal, han examinado los efectos en el resultado final de las estimaciones comunes de factores como el sesgo individual o el intercambio de información con otros. Lo han hecho con una novedosa herramienta matemática.

En la investigación participaron más de 800 voluntarios a los que se les pidió que adivinaran el número de chicles que había en un frasco. Esta cantidad variaba en diversos órdenes de magnitud de 54 a más de 27.000, informa el Santa Fe Institute en un comunicado. Además, a los participantes se les ofrecieron detalles falsos sobre las suposiciones de otras personas, y se les permitió cambiar su estimación a la luz de esa información.

Kao y Berdhal descubrieron así varias cosas interesantes. En primer lugar, que aunque las estimaciones variaban considerablemente, eran muy predecibles: la gente tendía a señalar números más pequeños que el valor real y a asignar una cantidad mayor a tarros más grandes.

En segundo lugar, se constató que la información social juega un papel en la sabiduría colectiva. Sobre todo, influían en las estimaciones de los participantes aquellas que eran más altas que las propias. Conjeturas inferiores en cantidad a las de cada individuo eran desechadas con mayor frecuencia.

Según los investigadores, sus hallazgos ayudan a entender mejor ciertos patrones que subyacen a la sabiduría de las multitudes.

Las mujeres como garantía 

Otro aspecto de la inteligencia colectiva que ha sido analizado estos últimos años es el de su funcionamiento en el trabajo en equipo.En 2010, un estudio del Instituto Tecnológico de Massachussets (MIT) de Estados Unidos, demostró que el rendimiento de la inteligencia colectiva en un grupo de trabajo depende de la “sensibilidad social” de los miembros del equipo, entendida como tal la capacidad de ser flexibles en la asignación de ocupaciones y de hacer partícipes a todos los miembros en la resolución de desafíos.

En la investigación se reveló, por otra parte, que la presencia de mujeres en los grupos resulta fundamental para que se dé un rendimiento colectivo óptimo: la tendencia a cooperar eficientemente está relacionada con el número de mujeres presentes en cada equipo de trabajo, porque estas normalmente muestran una mayor sensibilidad social.

En este este estudio, la inteligencia colectiva fue calculada con medidas normalmente aplicadas a la inteligencia individual mensurable.  Asimismo, los científicos equiparon a los participantes con dispositivos electrónicos portátiles que registraron los patrones de conversación de los grupos.

El análisis de todos los datos reveló que el grado de inteligencia colectiva de los equipos de trabajo supuso entre un 30 y un 40% de diferencia en la capacidad de rendimiento de éstos.

Jugadores de fútbol versus moléculas

Otro aspecto sorprendente que se ha analizado de la inteligencia colectiva es su espontaneidad en el caso de los movimientos coordinados de  grupos humanos para un fin común, como ganar un partido de fútbol.  Esta cuestión la han estudiado hace poco en la Universidad de Connecticut (UCONN, EEUU).

Más concretamente, los científicos analizaron en términos de la física la coordinación espontánea e inteligente de movimientos de los jugadores de fútbol de un equipo. Desde esta perspectiva, esta inteligencia colectiva responde a la necesidad de promover una reducción del gasto de energía del sistema (en este caso, el equipo), esto es, para aprovechar al máximo el rendimiento.

Curiosamente, esta propensión a la reducción de energía se da en sistemas no vivos (¿serán inteligentes?) Por ejemplo, cuando pequeñas moléculas de una sustancia llamada benzoquinona flotan en la superficie de un charco de agua tienden a agruparse, incluso si inicialmente se han esparcido de manera aleatoria por su superficie.  Las moléculas funcionan de este modo por la misma razón que los futbolistas en el campo: para reducir el gasto energético.

Tipos y estudio

Este último estudio estaría enmarcado en la inteligencia colectiva de coordinación del comportamiento. En el libro de James Surowiecki antes mencionado, se señalaba que este tipo de sabiduría común puede afectar –más allá del fútbol- a otros aspectos de nuestra vida, como el tráfico o el flujo de asistencia a restaurantes populares.

La investigación sobre el trabajo en equipo, entraría en el tipo de inteligencia colectiva “de cooperación”, también definida por Surowiecki, que consiste en la formación de redes sociales para fines específicos.

Pero en realidad los campos y niveles desde los que se puede analizar y tipificar la inteligencia colectiva son muchos. Desde la sociología hasta las ciencias de la computación, y desde las sociedades humanas hasta las bacterias, las plantas o los insectos (no debemos olvidar que los trabajos del entomólogo William Morton Wheeler, nacido en 1865, estarían entre las bases del concepto, pues en ellos se constató cómo los individuos independientes pueden llegar a funcionar casi como un solo organismo).

En resumidas cuentas, parece que la inteligencia humana individual sí marca una diferencia con respecto a los individuos de otras especies, pero que nuestra inteligencia colectiva responde a patrones compartidos con otros organismos, e incluso con sistemas no vivos, como las moléculas.  De nuevo la ciencia nos da una lección de humildad.

Referencia bibliográfica:

Albert B. Kao, Andrew M. Berdahl, Andrew T. Hartnett, Matthew J. Lutz, Joseph B. Bak-Coleman, Christos C. Ioannou, Xingli Giam, Iain D. Couzin. Counteracting estimation bias and social influence to improve the wisdom of crowdsJournal of the Royal Society Interface (2018). DOI: 10.1098/rsif.2018.0130.
Fuente: https://www.tendencias21.net/Las-matematicas-ayudan-a-comprender-la-inteligencia-colectiva_a44535.html
Comparte este contenido:

¿Podrá adquirir consciencia la inteligencia artificial?

Por: Yaiza Martínez

Las dificultades se evidencian a medida que avanzan las investigaciones en este campo

 

La posibilidad de crear máquinas conscientes es inquietante. Sin embargo, está lejos de convertirse en realidad. Por ahora, solo se ha logrado que algunos robots se autoidentifiquen, aunque de la misma manera que identificarían a otros, es decir, sin tener consciencia de su propio “yo”. Más allá de eso, queda un vasto camino por recorrer: comprender la consciencia para traducirla a programación que volcar en las máquinas. Y la primera parte de esta labor de momento parece inabarcable.

¿Llegaremos algún día a crear máquinas conscientes?  Aunque la posibilidad es inquietante (tanto, que ha dado lugar a personajes como HAL 9000 o Terminator),  lo cierto es que está bastante lejos de convertirse en realidad.

Proporcionar consciencia a un objeto precisaría que este tuviera un «cerebro», no solo lo suficientemente complejo como para procesar información y generar pensamiento abstracto, del mismo modo que lo hace el nuestro, sino también para generar un sentido unitario del yo, tomar decisiones más allá de su programación inicial o sentir y comunicar sus sentimientos

De momento, lo que sí se ha conseguido es que las máquinas de inteligencia artificial puedan resolver rápidamente tareas computacionales. Esto es posible gracias a sofisticados sistemas de inteligencia artificial que permiten a las máquinas “aprender”.

Se denominan sistemas de “aprendizaje profundo” y están formados por capas intercomunicadas de algoritmos especializados en asimilar representaciones de datos. Gracias a ellos, las máquinas de inteligencia artificial pueden, por ejemplo, aprender a identificar enfermedades o rostros.

Pero incluso esa capacidad de aprendizaje depende inicialmente de un programador humano. De momento, las máquinas de inteligencia artificial aún no son capaces de pensar por sí mismas.

Conocer y replicar la consciencia

Poder dotar a las máquinas de consciencia deberá pasar ineludiblemente por que entendamos qué es la consciencia. En 2017, la revista Science publicaba un artículo al respecto. En él se sintetizaba (y se simplificaba) el funcionamiento de la consciencia humana, para tratar de dilucidar cómo esta podría incorporarse a las máquinas de inteligencia artificial.

Según los autores del artículo, entre los que se encontraba el neurocientífico francés Stanislas Dehaene, de cuyos estudios sobre la consciencia en bebés hemos hablado hace poco,  en el ser humano existen tres niveles de consciencia humana. Dehaene es Director de la unidad de Neuroimagen Cognitiva del Centro de NeuroSpin de París y profesor de la cátedra de Psicología Cognitiva Experimental del College de Francia.

En el primero de los niveles de la consciencia humana, definido como «C0», se producirían los cálculos cerebrales inconscientes, por ejemplo, aquellos que nos permiten reconocer caras. En el segundo nivel, el «C1»,  se filtrarían y evaluarían los datos que nos llegan del mundo exterior para modular nuestras respuestas a circunstancias específicas. La autoconsciencia surgiría en un tercer nivel de consciencia, el «C2», y conllevaría poder reconocer y corregir los propios errores o investigar lo desconocido.

Según Dehaene y su equipo, si se logra traducir a términos computacionales  la actividad neuronal que permite estos tres niveles de consciencia, las máquinas podrían ser programadas para la consciencia.

Acercamientos 

De momento, lo máximo que se ha conseguido, al menos según lo que sabemos, es lo siguiente. En 2015 se realizó un experimento en el laboratorio de robótica de Nueva York, en Estados Unidos, que consistió en hacer “creer” a dos de tres robots Nao que se les había dado una pastilla que los dejaba sin habla.

En realidad, simplemente se había pulsado en dos de ellos un botón para silenciarlos, pero ninguno de los tres sabía cuál de ellos podía seguir hablando. Eso era lo que tenían que averiguar.

Cuando el investigador les preguntó a los robots, los procesadores de estos trataron de buscar la respuesta correcta. Ya que dos no podían hablar porque estaban silenciados, sólo uno respondió en voz alta: “no sé”.

En ese momento, aseguraron los autores del experimento, cayó en la cuenta de la solución: al oír su propia voz robótica, entendió que no podía estar silenciado. Entonces señaló: «puedo demostrar que no me dieron la pastilla».  Según un artículo publicado en la revista New Scientist, esta fue la primera vez que un robot superaba un enigma de este tipo, acercándose así a los límites de la (auto) consciencia.

Otros dos ejemplos nos han llamado la atención en los últimos años a este respecto: uno es el de Nico, un robot de investigación de la Universidad de Yale capaz de reconocer su propia mano en un espejo, y otro es Qbo, un proyecto español de código abierto programado para tareas de reconocimiento facial o de objetos, que puede reconocerse a sí mismo frente a un espejo.

Sin embargo, en todos estos casos los robots no han hecho más que constatar en ellos mismos una característica que habrían reconocido del mismo modo en otros, es decir, que su logro no implicaría que sean capaces de distinguirse de los demás o tener noción de un “yo”.

El temor a lo desconocido

A pesar de lo lejos que parecen quedar las máquinas conscientes, sus potenciales peligros ya pesan en la consciencia de algunos (todos ellos humanos).

Los riesgos de estas máquinas, y en concreto su potencial uso en el terreno bélico, fue alertado en 2007 por un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Hace un par de años, además, el ya fallecido Stephen Hawking y otras 16.000 personas lanzaron una campaña para señalar el riesgo de que crear ‘robots asesinos’, quizá inteligentes pero con una consciencia (en el sentido moral del término) mínima; programada por humanos sin escrúpulos.

Referencia bibliográfica:

Stanislas Dehaene, Hakwan Lau, Sid Kouider. What is consciousness, and could machines have it?Science (2017). DOI: 10.1126/science.aan8871.
Fuente: https://www.tendencias21.net/Podra-adquirir-consciencia-la-inteligencia-artificial_a44579.html
Comparte este contenido: