La antropomorfización de la inteligencia artificial, ¿una amenaza para la madurez humana?

Por: Alberto Núñez/Emma Marie Stiwitz

«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras.

«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras. Las tecnologías que nos permiten deshacernos de tareas tediosas existen desde la industrialización. Tampoco el uso de la IA es una novedad en sí misma. Sin embargo, en los últimos años se ha extendido cada vez más a ámbitos que antes se consideraban parte del núcleo humano. Aunque muchos debates giran en torno a cuestiones pragmáticas, como la posible pérdida de puestos de trabajo o los efectos medioambientales, hay un tema que a menudo se deja de lado: la cuestión de qué implicaciones tiene la creciente antropomorfización de la IA para la humanidad y su autoimagen como, en palabras de Kant, un ser «maduro».

Para profundizar en esta cuestión filosófica, nos gustaría examinar algunos de los derechos fundamentales que pertenecen a la dignidad humana, como la libertad individual, la igualdad de oportunidades, y, vinculado a ello, el principio de responsabilidad humana, que nos permite adoptar medidas de reprensión y garantizar la protección jurídica entre los seres humanos.

Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad. La verdadera autodeterminación requiere la protección de la propia intimidad. El hecho de que sistemas de elaboración de perfiles como Alexa hayan establecido una divulgación socialmente aceptable de datos personales ya es preocupante de por sí. Los efectos que la vigilancia puede tener en el ejercicio de las libertades democráticamente garantizadas queda demostrado, por ejemplo, por la tendencia observable a la autocensura en sociedades como China. Una interferencia potencialmente aún más fuerte con la autonomía humana es la influencia de la información basada en perfiles y conformada sobre la propia formación de opinión. Mucho más sutil que un «nudging» convencional, podría sesgar nuestro pensamiento sin que nos diéramos cuenta. Incluso si adoptáramos un enfoque virtual centrado únicamente en modificaciones benévolas, esto va en contra de nuestra visión liberal del humano. Un reciente estudio alemán de la Universidad de Saarland ha demostrado lo importantes que son las decisiones autónomas para experimentar la autoeficacia y el sentido de la vida.

Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad

Además de los aspectos que rodean al responsable de la toma de decisiones, también la externalización de las mismas plantea cuestiones relativas a las consecuencias de los posibles errores y a los afectados.

Para lograr la legitimidad de la sociedad, la toma de decisiones requiere razonamiento. Especialmente las que afectan a los derechos de los demás requieren un alto grado de justificación para garantizar la equidad y la no discriminación. La creciente externalización de los procesos de decisión a la IA, un medio cuya inteligencia cognitiva se basa únicamente en la adquisición de datos, alberga por tanto peligros.

En primer lugar, no es posible crear una IA completamente libre de prejuicios, ya que incluso un sistema de aprendizaje solo puede procesar sobre la base del conocimiento existente. Como Harari describió una vez en una conferencia en 2022, no existe un conocimiento neutro. El nivel educativo de cada época se constituye a partir de un complejo sistema de raíces de experiencias previas. Los grupos especialmente vulnerables pueden ver desatendidos sus derechos a la participación y a la igualdad social, lo que podría verse agravado por la falta de transparencia en los procesos de IA. En una generación más consciente que nunca de su problema de discriminación estructural y frustrada por la lentitud de su superación, la perplejidad de diseñar algoritmos justos podría suponer un especial obstáculo de legitimación. Por ello, los expertos reclaman la creación de normas robustas, que proporcionen seguridad jurídica y comprensibilidad entre todos los sectores de la población.

No obstante, desde un punto de vista más filosófico, cuestionaríamos más fundamentalmente la «externalización» de las decisiones. Aunque la gente se esfuerce por ser objetiva, no debería subestimar la importancia de su sensación subjetiva como corrector decisivo. Esto enlaza con un problema jurídico central: todo nuestro sistema se basa en la asunción de responsabilidad. La culpabilidad se deriva de la acción voluntaria, a pesar de la capacidad de empatía. Este elemento del sujeto constituye la culpabilidad de las malas acciones y la justificación de las medidas de retribución. ¿Y si la IA, cuya «compasión» se limita a una categorización automatizada de los sentimientos, toma una decisión injusta? ¿Podríamos considerar la posibilidad de dotarla de agencia moral, es decir, de «personalidad jurídica»?

¿Y si la IA, cuya ‘compasión’ se limita a una categorización automatizada de los sentimientos, toma una decisión injusta?

Que se trata de consideraciones serias lo demuestra el impulso del Parlamento Europeo para «explorar las implicaciones de todas las posibles soluciones legales (…)» en 2017. Un utilitarista podría alabar la utilidad de unos procedimientos de selección más meritocráticos. Sin embargo, no hay que ignorar lo que el mayor énfasis en el rendimiento hace a nuestros valores sociales. La minimización del contacto interpersonal aumenta el distanciamiento emocional y permite a los actores eludir deliberadamente su propia responsabilidad moral. Según la ética basada en el derecho o deontológica, podría parecer suficiente alcanzar la seguridad jurídica mediante normas predeterminadas, como la responsabilidad estricta del productor, o instrumentos como la autoría vicaria o la «agencia distribuida». En la medida en que los sujetos a regulación puedan predeterminarse, se puede estar de acuerdo con ello. Sin embargo, desde una perspectiva más naturalista, debemos procurar que, al menos en las decisiones que afectan al destino del individuo, la autoridad de control última sea siempre la humana, la emocional.

En conclusión, no se puede pasar por alto que la IA ofrece muchas oportunidades a nuestra sociedad, como el aumento de la eficiencia o la reducción de costes. No obstante, estamos convencidos de que hay áreas fundamentales de la existencia humana que deberían permanecer intactas. La pregunta antes de delegar una determinada acción podría ser: ¿sigo teniendo el control de mis decisiones? ¿Conservo mi «madurez»?


Alberto Núñez es profesor del Departamento de Dirección General y Estrategia de Esade y Emma Marie Stiwitz es estudiante de Grado en Derecho de Esade Law School.

La antropomorfización de la inteligencia artificial, ¿una amenaza para la madurez humana?

Comparte este contenido:

Autores Varios

Articulos y declaraciones suscritas por varios autores y autoras

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.