Eurpa/Suecia/Julio del 2016/Articulo/file:/C:/Users/Administrador
Las inseguridades en la sociedad del conocimiento
Se nos está diciendo que vivimos en una sociedad del conocimiento y también que vivimos en una sociedad del riesgo. Ambas afirmaciones tienen algo de verdad. Por un lado, la información y el conocimiento se están acumulando a un ritmo sin precedentes y han adquirido nuevas funciones en la economía y en otros procesos sociales.
Por otro, cada vez se presta más atención en la vida pública a los riesgos y a las inseguridades. Sin embargo, al menos aparentemente, las expresiones “sociedad del conocimiento” y “sociedad del riesgo” parecen contradictorias.
En una “sociedad del conocimiento”, cabría esperar que los encargados de la adopción de decisiones supieran cómo lograr sus objetivos, mientras que en una “sociedad del riesgo” cabría esperar que los acontecimientos imprevisibles e incontrolables hicieran esa tarea imposible.
Con este artículo se pretende contribuir a clarificar la índole de esta contradicción aparente. Para ello, hemos reflexionado también sobre la función del riesgo y la inseguridad en una sociedad del conocimiento. El concepto de conocimiento El conocimiento es un concepto complejo.
En primer lugar, el conocimiento es una especie de creencia. Lo que uno no cree no puede ser conocimiento. Por lo tanto, si tengo acceso a una información correcta, pero no creo en ella, para mí no constituye un conocimiento.
Por otra parte, las creencias incorrectas tampoco se pueden considerar conocimiento. Si alguien cree que la tierra es plana, está claro que no se trata de un conocimiento. Además, lo que se considera conocimiento tiene que estar justificado.
Si alguien cree que el número atómico del oro es un número primo porque cree que el núcleo del átomo del oro tiene 61 protones, eso no es un conocimiento. Por lo tanto, el conocimiento tiene elementos tanto subjetivos como objetivos. Para nuestros propósitos actuales, podemos definir el conocimiento como una creencia verdadera y justificada. Se podrían añadir más cualidades para que la definición fuera exacta, pero no viene al caso en este momento.
En su lugar, será de utilidad centrarnos en dos aspectos junto a los cuales el concepto de conocimiento se puede debilitar. El primero es el de la asimilación cognitiva. Para que algo se considere como conocimiento tiene que ser integrado en el sistema de creencias del sujeto.
Mientras estoy escribiendo este artículo tengo sobre mi mesa un libro sin leer que trata de los hábitos viajeros de los habitantes de Estocolmo. Esto significa que tengo acceso a la información sobre este tema, pero no conocimiento. Si leo el libro, entonces es probable que la información se transforme en conocimiento.
Ahora bien, esta transformación de la información en conocimiento sólo se producirá si entiendo la información de manera que pueda integrarla en mi sistema de creencias de forma adecuada. Si me aprendo el texto de memoria, sin entenderlo, entonces tendré información sobre el tema, pero no conocimiento.
Los datos se diferencian de la información en que no tiene n que estar en una forma determinada, adecuada para la asimilación. Si en lugar del libro tuviera sobre mi mesa los 10000 cuestionarios en los que se basa, entonces tendría datos en lugar de información.
En resumen, los datos tienen que ser asimilables cognitivamente para que se puedan calificar de información, y cognitivamente asimilados para que se puedan calificar de conocimiento. En general, es difícil trazar una línea clara de separación entre el conocimiento y la mera información, y lo mismo ocurre entre la información y los meros datos.
Sin embargo, no por ello la distinción es menos importante. Es lamentable que en la ciencia informática, el “conocimiento” y la “información” se empleen frecuentemente como sinónimos. Quizá es por esto por lo que no siempre se distingue claramente entre “sociedad del conocimiento” y “sociedad de la información”.
El segundo aspecto es el grado de creencia del sujeto. El conocimiento implica creencia, y ésta requiere un alto grado de seguridad (subjetiva). Si no estoy seguro de si el número atómico del oro es 79, no se puede decir que tenga una creencia – o conocimiento – de que es así. Cuando la necesidad de seguridad no está satisfecha, sentimos en su lugar inseguridad, el estado epistemológico de no creer (o saber) algo seguro.
Hay que señalar que la inseguridad es un estado subjetivo, no objetivo. Si no estoy seguro de si hoy es el cumpleaños de mi prima, estoy en un estado de inseguridad, al margen de cuándo ella haya nacido.
En teoría de la decisión, el término “ignorancia” se usa corrientemente para referirse a la inseguridad en su grados más altos, es decir para estados en los que uno no tiene ni siquiera un grado de creencia en la afirmación en cuestión (no sabe el grado de probabilidad o improbabilidad).
Este uso puede dar lugar a confusión, pues en el lenguaje corriente “ignorancia”, contrariamente a “inseguridad”, expresa la distinción entre verdadero y no verdadero. (Una forma de ser ignorante, en el sentido corriente de la palabra, es estar seguro de algo que no es verdadero.) Ahora bien, por falta de una buena alternativa terminológica, usaremos “ignorancia” también para los altos grados de inseguridad (subjetiva).
Las dos formas de debilitar el concepto de conocimiento se resumen en el Diagrama 1. Diagrama 1. Dos maneras de debilitar el concepto de conocimiento Las complejidades del riesgo ¿Qué tiene que ver aquí el “riesgo”? Desgraciadamente, esta pregunta es difícil de contestar, pues el término “riesgo” tiene varias acepciones muy arraigadas.
Se suele emplear “riesgo” para expresar, en general, una situación en la que algo inoportuno puede ocurrir o no, pero no sabemos si ocurrirá. En este sentido, “riesgo” está estrechamente relacionado con “inseguridad”; pero ambos conceptos no son sinónimos. Mientras que “inseguridad” pertenece al ámbito subjetivo, “riesgo” tiene un fuerte componente objetivo.
Si no sé si una culebra es venenosa, me encuentro en un estado de inseguridad con respecto a la posibilidad de que me envenene. Ahora bien, como esta especie no tiene veneno, no existe tal riesgo, pero sí existe la inseguridad. La relación entre estos dos conceptos “riesgo” (en este sentido) e “inseguridad” se parece en parte a la que existe entre “verdad” y “creencia”.
En otras ocasiones, “riesgo” expresa la probabilidad de que se produzca un acontecimiento indeseado. Es el uso que se hace, por ejemplo, cuando se pregunta al médico qué riesgo hay de que fracase un tratamiento. Éste es también el significado estándar del término en la teoría de la decisión; por “decisión en condiciones de riesgo” se entiende “decisión con probabilidades definidas”. Un tercer uso es corriente en el análisis profesional del riesgo.
En esta disciplina, “riesgo” suele denotar una representación numérica de exactitud, que se obtiene multiplicando la probabilidad de que se produzca un acontecimiento indeseado por una medida de su valor negativo. Cuando, por ejemplo, los riesgos de la energía nuclear se comparan en términos numéricos con los de los combustib les fósiles, “riesgo” se entiende normalmente en este tercer sentido técnico. Así pues, en los tres sentidos de “riesgo”, el uso de este término se basa en una mezcla sutil de conocimiento e inseguridad.
Cuando existe un riesgo, tiene que haber algo que es desconocido o que tiene un resultado desconocido; por lo tanto, tiene que haber inseguridad. Pero para que esta inseguridad constituya un riesgo para nosotros, tiene que haber algo conocido en ello. En el primero de los tres sentidos de “riesgo”, tenemos que saber que la inseguridad es “real” al menos en el sentido de que no se puede hacer desaparecer con la ayuda del conocimiento que se tiene.
En los dos últimos, más técnicos, tenemos que tener una representación numérica de la Conocimiento Información Datos Inseguridad Ignorancia inseguridad. Las intrincadas relaciones entre el riesgo y los otros conceptos están sólo apuntadas en el Diagrama 2 con la colocación del “riesgo”. Diagrama 2. El papel del “riesgo” en los conceptos epistemológicos.
Poner etiquetas a las sociedades De los seis términos del Diagrama 2, tres se suelen emplear para referirse a la sociedad en la que vivimos. Vivimos en una “sociedad del conocimiento”, en una “sociedad de la información”, y en una “sociedad del riesgo”. ¿Hasta qué punto, y en qué sentido, son adecuadas estas denominaciones?
El término “sociedad X” se puede interpretar de muchas formas. Puede expresar una sociedad en la que …X es más común o más prevalente que en las sociedades anteriores. …se presta más atención a X que en las sociedades anteriores. …la función de X es mayor en las estructuras sociales de poder que en las sociedades anteriores. etc.
Por lo tanto, para cualquier X dada (como riesgo, información, conocimiento…) no puede haber una única respuesta correcta a la pregunta de si vivimos o no en una sociedad X. La respuesta dependerá de qué tipo de definición escojamos, e incluso después de haber escogido (por ejemplo) una de las tres definiciones vistas anteriormente, son necesarias más especificaciones pues pueden ser esenciales para la respuesta.
¿Vivimos en una sociedad del conocimiento? Tanto la respuesta positiva como la negativa son posibles. La primera porque la cantidad total de conocimiento humano acumulado va en aumento. Pero, por otra parte, se puede afirmar que la información se está acumulando a una velocidad mucho mayor que el conocimiento y que la transformación de la información en conocimiento se está quedando atrás.
Desde ese punto de vista, la “sociedad de la información” (o incluso quizá la “sociedad de los datos”) sería una definición más precisa. Conocimiento Información Datos Insegurida d Ignorancia Riesgo Del mismo modo, si escogemos otra definición, podemos afirmar que nuestra sociedad es una sociedad del conocimiento debido a la importancia creciente de éste en las estructuras sociales de poder.
Pero en ese caso, por otra parte, se puede afirmar que esto se aplica solamente a ciertos tipos de conocimiento, y que la importancia de otros tipos de conocimiento está disminuyendo, de manera que lo que está ocurriendo es que hay un cambio entre los diferentes tipos de conocimientos y no que estemos pasando de depender menos del conocimiento a depender más.
Campesina con su hijo cerca de la central nuclear Three Mile Island, marzo 1979. La región fue evacuada después de un accidente nuclear. AFP/UPI ¿Vivimos en una sociedad de riesgo? Por motivos parecidos, esta pregunta no tiene una respuesta unívoca. De entrada, ¿están los riesgos más extendidos o son más importantes que en las sociedades anteriores? Evidentemente, los cambios tecnológicos han impuesto nuevos riesgos a la humanidad.
La mayoría de los riesgos actuales no existían hace cincuenta o cien años– los misiles teledirigidos, las centrales de energía nuclear, los pesticidas orgánicos, los accidentes aéreos, etc. La conclusión natural parece ser que en las zonas industrializadas del mundo, los avances tecnológicos han dado lugar a un aumento de los riesgos.
Sin embargo, cabe hacer la observación de que este aparente aumento depende en gran medida de nuestro punto de mira. Por diversos motivos, prestamos más atención al aumento de riesgos que a su disminución.
En las zonas industrializadas del mundo, el hambre ya no es una amenaza grave, ni tampoco lo es la larga lista de enfermedades que antes eran incurables y ahora tienen curación. La navegación y la minería son menos peligrosas que antes, aunque todavía se pueda hacer mucho para reducir riesgos.
Si algunos riesgos están aumentando y otros disminuyendo, ¿cómo podemos medir la cantidad total de riesgo? Una medida razonable, en lo referente a la salud, es la esperanza de vida. Si se mide de esta forma, en las zonas ricas del mundo, los riesgos totales han disminuido.
¿Es la sociedad del riesgo algo que dejamos atrás hace ya tiempo? No necesariamente. Hay otras acepciones de “la sociedad del riesgo”, como la de sociedad en la cual los problemas sociales se tratan y analizan con referencia al concepto de “riesgo”. En este sentido, desde luego, vivimos en una sociedad de riesgo en mucha mayor medida que en cualquier generación anterior. Pero lo mismo que “sociedad de la información” puede ser en algunos aspectos una expresión más adecuada que “sociedad del conoc imiento”, se puede decir que la expresión “sociedad de la inseguridad” sería más precisa que la de “sociedad del riesgo”, al menos si entendemos la palabra “riesgo” en su sentido técnico de inseguridad cuantificada.
La ciencia y la tecnología modernas nos han hecho conscientes de muchas inseguridades y no a todas ellas se las puede denominar riesgos con propiedad. La inseguridad científica La ciencia nos brinda conocimientos nuevos. Pero desgraciadamente, este conocimiento nuevo genera más inseguridades.
Además de contestar a algunas de nuestras preguntas, la ciencia produce, a un ritmo siempre creciente, nuevas preguntas sin respuesta. Si vivimos actualmente en una “sociedad de la inseguridad” se debe básicamente a las inseguridades hacia las que la ciencia llama nuestra atención.
Algunos de los objetos del estudio científico son extremadamente complejos, y esta complejidad es la causa principal de la inseguridad científica. El efecto invernadero antropogénico es un ejemplo muy claro. Es necesario tomar en cuenta una larga serie de factores causales y mecanismos potenciales para determinar los efectos del aumento de concentraciones de gas invernadero en la atmósfera.
Algunos sistemas naturales muy complejos como los mares, bosques, y suelos interactúan con el sistema atmosférico, y lo mismo ocurre con actividades humanas como la producción de alimentos y energía. También hay que estudiar factores sociales como el comercio, la población, la migración y las formas de vida. Evidentemente, toda predicción acerca del resultado de todas estas interacciones tiene que estar cargada de inseguridad.
Una gran parte de la ciencia moderna se dedica al estudio de sistemas compuestos que son al menos tan complejos como el sistema climático: los ecosistemas, el cuerpo humano, la economía mundial, etc. Cada uno de éstos contiene tantos componentes e interacciones posibles que en la práctica son impredecibles. Algunos de estos sistemas son impredecibles no sólo en la práctica, sino también en principio, debido a los fenómenos caóticos.
El resultado de la evolución biológica es impredecible por este motivo. El sistema climático es también un sistema caótico, y está claro hasta qué punto esto limita la posibilidad de predecir el efecto invernadero.
Además, la ciencia está siempre sujeta a otro tipo de inseguridad, la de los factores desconocidos. Sólo muy rara vez tenemos buenas razones para creer que nuestros modelos científicos están completos, en el sentido de que no se nos ha pasado por alto ningún componente importante o interacción.
Incluso aunque podamos hacer cálculos exactos y fiables de los efectos combinados de todos los factores conocidos que influyen en el clima futuro, ¿cómo podemos saber que no hemos olvidado ningún proceso físico, químico o biológico que habríamos debido tener en cuenta?
Las vicisitudes del azar En algunos casos, se puede llegar al conocimiento sobre sistemas complejos por medio de la experiencia sistematizada. Esto ocurre, por ejemplo, cuando se estudian los efectos de los agentes terapéuticos en el cuerpo humano. Debido a la complejidad del cuerpo, es imposible, en la práctica, predecir teóricamente los efectos de una nueva droga.
Por eso, después de haber realizado ensayos preliminares, se prueban las medicinas de forma experimental en grupos de pacientes. Basándose en las estadísticas de estos estudios (ensayos clínicos) se pueden asegurar los efectos de las drogas médicas con una seguridad razonable. Evidentemente, hay muchos casos en los que este tipo de “desvío estadístico” para el conocimiento de sistemas complejos no es posible.
No tenemos acceso a un centenar de Tierras en las cuales poder experimentar para determinar cuál es el nivel tolerable de emisiones de gas invernadero. Es más, incluso en los casos en los que se dispone de información estadística, ésta no siempre reduce las inseguridades con tanta eficacia como cabría esperar. Consideremos el ejemplo de los efectos de las sustancias químicas en la salud.
¿Hasta qué punto es posible determinar la presencia o ausencia de estos efectos por medio del estudio directo de las personas expuestas? Desgraciadamente, la respuesta a esta pegunta es bastante desconcertante. Para abreviar, centrémonos en los riesgos mortales producidos por algunas sustancias tóxicas.
Para empezar, supongamos que 1000 personas están sujetas a la exposición química que produce el angiosarcoma hepático (un tipo poco frecuente de cáncer de hígado) en 0.5 % de las personas expuestas. Entre las personas no expuestas, la frecuencia de esta enfermedad está muy próxima a cero.
Si se realiza una investigación adecuada, hay muchas posibilidades de que se descubra una mayor presencia de esta enfermedad entre la población expuesta. A continuación, supongamos que otras 1000 personas están sujetas a una exposición que aumenta la incidencia de cáncer de pulmón de 10,0 a 10,5 %.
El número adicional de casos de cáncer es el mismo que en el caso anterior. Sin embargo, como se ve con el cálculo de probabilidades, la diferencia entre 10,0 y 10,5 % en este caso no se puede distinguir de variaciones fortuitas. Así pues, los efectos de esta sustancia no se pueden detectar estudiando a la población expuesta. En la práctica, los estudios epidemiológicos pueden detectar con fiabilidad el exceso relativo de riesgos solamente si está en torno a 10 % ó más.
Para los tipos más comunes de enfermedades mortales, como la enfermedad coronaria y el cáncer de pulmón, el riesgo de mortalidad es de un orden de magnitud de aproximadamente 10%. Por lo tanto, incluso en los estudios más afinados, un aumento del riesgo de mortalidad de 10-2 (10 % de 10 %) o menor puede ser indetectable (es decir, no se puede distinguir de variaciones fortuitas).
En experimentos con animales tenemos problemas experimentales parecidos, además de los problemas de extrapola ción de una especie a otra. ¿Cuál es la incidencia mínima en la salud para que el riesgo no nos parezca preocupante? Se han hecho muchos intentos de establecer un límite de preocupación, expresado como “riesgo aceptable” o “riesgo mínimo”.
La mayoría de nosotros estaría de acuerdo en que si una población humana estuviera expuesta a un factor de riesgo que estadísticamente costara la vida de una persona de cada 109 , este riesgo no sería cuestión de gran prioridad. Razonablemente, no sería un desastre que nuestros métodos de evaluación de los riesgos fueran insuficientes para descubrir riesgos de ese orden de magnitud.
Pero, por otra parte, la mayoría de nosotros consideraría un grave problema que no se pudiera detectar un factor de riesgo que costara la vida de una persona de cada 100 ó 1000. Las propuestas más comunes para fijar los límites de preocupación por los riesgos mortales son de 1 por 100 000 y 1 por 1000 000.
Es difícil encontrar propuestas de 1 por 10 000. Estos valores desde luego no son límites objetivos o científicos; pertenecen al ámbito de la ética. Sin embargo, es importante Diagrama 3. El “vacío ético” del conocimiento toxicológico. señalar la existencia de lo que se puede llamar un vacío ético, un vacío entre los niveles que son detectables científicamente y los que normalmente se consideran éticamente aceptables o al menos de preocupación menor.
Este vacío ético, ilustrado en el Diagrama 3, tiene un espacio de 2–4 órdenes de magnitud. Por todo esto, la ciencia nos deja con una cantidad considerable de inseguridad: aunque no se hayan encontrado efectos adversos en la población expuesta, puede seguir habiendo efectos en unos niveles de riesgo que son al menos entre 100 y 1000 veces más altos que los comúnmente propuestos de preocupación o aceptabilidad. La inseguridad científica en la adopción de decisiones Cuando pasamos de la ciencia al terreno práctico de la adopción de decisiones, encontramos aún más inseguridades.
Hay al menos cuatro tipos de inseguridad que se tienen que tener en cuenta en la práctica de la adopción de decisiones: la inseguridad en cuanto a las consecuencias, la inseguridad por falta de confianza, la inseguridad en cuanto al campo de decisión, y la inseguridad en cuanto a los valores. Los dos primeros están en estrecha relación con las inseguridades de la ciencia.
Por inseguridad de consecuencias se entiende que las consecuencias de las opciones que se le ofrecen al decisor no son conocidas. Este tipo de inseguridad se puede categorizar en cuatro grados. En el primero, el grado más bajo de inseguridad de 1 10-1 10-2 10-3 10-4 10-5 10-7 10-9 10-8 10-6 Detectable Aceptable consecuencias, se sabe qué resultados son posibles y cuáles son sus probabilidades. (Como dijimos antes, el término técnico para esto es “adopción de decisiones en condiciones de riesgo”.) El segundo nivel es el de adopción de decisiones con conocimiento incompleto de las probabilidades.
(El término técnico es “adopción de decisiones en condiciones de inseguridad”.) Por ejemplo, alguien que construye una casa en Lima desconoce la probabilidad exacta de que la casa sufra un terremoto importante, pero puede saber que la probabilidad es superior a 5 por ciento. En el tercer nivel de inseguridad de consecuencias, se sabe cuáles son los posibles resultados de las diversas opciones, pero todo lo que se sabe en cuanto a sus probabilidades es que no son cero. (El término técnico es “adopción de decisiones en condiciones de ignorancia”.)
En el cuarto y más alto nivel, adopción de decisiones con posibilidades desconocidas, no se sabe cuáles son las consecuencias posibles. Aunque la teoría de la decisión se ha centrado esencialmente en el nivel más bajo de inseguridad de consecuencias, en muchas decisiones prácticas, el nivel más alto de inseguridad puede ser, al menos, igual de importante. La distinción entre los niveles tercero y cuarto no siempre está clara, como se puede ver en las series siguientes de problemas posibles con la ingeniería genética: · consecuencias catastróficas imprevistas · emergencia de nuevas formas de vida, con consecuencias catastróficas imprevistas · emergencia de nuevos virus, con consecuencias catastróficas imprevistas · emergencia de nuevos virus, que pueden costar muchas vidas emergencia de virus mortales que se extiendan como los virus de la gripe · emergencia de virus del SIDA modificados que se extiendan como los virus de la gripe Aunque algunas interpretaciones del nivel alto de inseguridad de consecuencias se puedan revelar desdeñables, la inseguridad fundamental más general puede permanecer.
Supongamos, por ejemplo, que alguien propone la introducción de una especie de lombriz modificada genéticamente que desplazará a la lombriz común y que aireará mejor el suelo. No dejaría de ser razonable tomar en consideración la posibilidad de que esto pudiera tener consecuencias imprevistas negativas. Siguiendo con la suposición, imaginemos que todas las preocupaciones concretas pueden ser neutralizadas.
Se puede demostrar que la nueva especie no provoca una mayor erosión del suelo, no será más susceptible a las enfermedades, etc. Aun así, sería razonable pensar: “Sí, pero puede tener otros efectos negativos que ni siquiera se nos han ocurrido. Por lo tanto, la nueva especie no debe ser introducida.” Del mismo modo, si alguien propusiera lanzar una sustancia química a la estratosfera por alguna razón, buena o no, no sería irracional oponerse a esta propuesta por el mero hecho de que podría tener consecuencias imprevistas, y esto suponiendo que todos los problemas pudieran ser neutralizados.
Nuestro segundo tipo de inseguridad es el relativo a la confianza. Los encargados de la adopción de decisiones suelen tener que basarse en la opinión de los expertos, que en la mayoría de los casos deben su saber a una combinación de formación científica y experiencia práctica. Se suele dar por sentado que un decidor sensato tiene que admitir que los expertos tienen razón, pero de hecho, no hay buenas razones para ello. Abundantes pruebas históricas nos muestran que los expertos se han equivocado a veces.
Un decidor sensato no debería excluir la posibilidad de que esto pueda volver a ocurrir. Cuanto menos sepa o entienda Ud. de aquello de lo que hablan los expertos, mayor inseguridad y desconfianza sentirá Ud. si es un decisor sensato. Esto no siempre ha sido bien entendido por los que tienen un conocimiento tecnológico y científico privilegiado. Otros dos tipos de inseguridad en la decisión Todas las decisiones tienen un campo limitado. Un decisor puede escoger entre tomar muchas pequeñas decisiones o reunirlas en menos decisiones pero más amplias. Cuando se toma una decisión, siempre hay que trazar la línea en alguna parte, y escoger (implícita o explícitamente) un “campo” para la decisión. Los diferentes grupos de interés trazan la línea en distintos sitios. La cuestión de los desechos nucleares es un buen ejemplo. En el debate público sobre este tema, hay al menos cuatro campos de decisión en competencia, que se ofrecen a continuación ordenados de menor a mayor amplitud:
1. El campo de eliminación de los desechos: Dados los reactores nucleares que tenemos, ¿cómo se deberían eliminar los desechos radioactivos de manera segura? 2. El campo de producción de energía: Dado el sistema que tenemos para la distribución y consumo de energía, ¿cómo se debe producir la energía? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? 3. El campo del sistema de energía: Dado el resto de nuestro sistema social, ¿cómo debemos producir, distribuir y consumir la energía? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? 4. El campo del sistema social: ¿Cómo debería organizarse nuestra sociedad? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? La industria nuclear suele preferir los dos campos más estrechos, mientras que los adversarios de la energía nuclear prefieren normalmente los dos más amplios.
Es importante señalar que cada uno de los cuatro campos de decisión es compatible con una adopción de decisiones sensata. Por lo tanto, entre los diferentes decisiones sensatos puede haber distintas opiniones acerca de lo que trata realmente esta cuestión. Este ejemplo puede ser inusualmente claro, pero su estructura básica no es atípica. En las cuestiones controvertidas suele haber campos de decisión en competencia, como el campo nacional y el internacional. Como no hay elección de campo objetiva o independiente de los valores, esto contribuye a la inseguridad en la adopción de decisiones.
En su mayoría, los teóricos de la decisión parten de la base de que hay una serie de valores bien definidos en los que debe basarse la decisión. Pero en la práctica, suele haber una inseguridad considerable con respecto a los valores. La mayoría de las decisiones en cuestiones sociales requieren la evaluación de resultados complejos que difieren según las diversas categorías, como el dinero, las vidas humanas, el bienestar de la humanidad, la protección del medio ambiente, etc. Nuestras intuiciones éticas no bastan para sopesar de manera inequívoca todas las combinaciones posibles de estos factores.
Como ejemplo, citaremos las cuestiones medioambientales del tercer mundo, como la erosión del suelo, que suelen entrar en conflicto con las necesidades humanas inmediatas. En estos casos, pocos de nosotros tenemos una solución preparada para conciliar los valores que entran en conflicto. En algunos casos, la inseguridad del valor se puede reducir por medio de la reflexión moral informada, pero también hay casos en los que esto no parece posible.
Otra complicación entra en juego cuando las decisiones afectan a las generaciones futuras. Parecería razonable juzgar los efectos en las generaciones futuras de acuerdo, al menos en parte, con los valores (preferencias) de las futuras personas afectadas y no de acuerdo con nuestros propios valores (preferencias). Pero la evolución futura de los valores humanos es extremadamente difícil de predecir. Las decisiones que intentan respetar los valores de las generaciones futuras son por lo tanto decisiones forzosamente inseguras respecto a los valores.
Conclusión La acumulación masiva y extendida de información y –en menor medida– de conocimiento es una característica evidente de las sociedades actuales. Igualmente lo es la presencia de riesgos e inseguridades en cuestiones de debate público y en la adopción de decisiones. Auque estas dos tendencias – más informac ión y más inseguridad – pueden parecer contradictorias, hay una sencilla razón para que coexistan: aunque la nueva información, especialmente la que nos brinda la ciencia, resuelva en ocasiones viejas inseguridades, va suscitando otras nuevas a un ritmo mucho más rápido. El conocimiento sobre la inseguridad, y concomitantemente, el conocimiento sobre el riesgo, es una categoría epistemológica propia de nuestra era. Para solucionar toda esta inseguridad, es necesario elaborar estrategias para procesar la información y la adopción de decisiones, que tomen esto en cuenta. El análisis del riesgo cuantitativo, el principio de precaución, las opciones reversibles de decisión, la implicación del destinatario, y los procesos participativos son indicios de los planteamientos que los investigadores y los profesionales han adoptado para el desarrollo de estas estrategias.
No hay duda de que, para solucionar los problemas suscitados por la inseguridad y el riesgo, es necesario entender mejor los flujos de la información en la sociedad moderna y sus repercusiones sociales.
Traducido del inglés Sugerencias de lectura
HANSSON, S. O., Decision-Making Under Great Uncertainty, [La adopción de decisiones en condiciones de gran inseguridad]. Philosophy of the Social Sciences 26 (1996): 369-386.
HANSSON, S. O., The Limits of Precaution, [Los límites de la precaución] Foundations of Science 2 (1997): 293-306.
HANSSON, S.O. The Moral Significance of Indetectable Effects, [El significado moral de los efectos indetectables]. Risk 10:101-108, 1999.
JELLINEK, S. D., On The Inevitability Of Being Wrong, [Sobre lo inevitable de equivocarse]. Annals of the New York Academy of Science 363 (1981): 43–47.
LOASBY, B. J. Choice, Complexity, And Ignorance: An Enquiry Into Economic Theory And The Practice Of Decision-Making, [Elección, complejidad e ignorancia: estudio de la teoría económica y la práctica de la adopción de decisiones]. Cambridge: Cambridge U.P. 1976.
SCHELLING T.C., Research By Accident, [Investigación por casualidad]. Technological Forecasting And Social Change 53/1 (1996): 15-20.
SIMON, H.A., The New Science of Management Decision, [La nueva ciencia de la decisión de gestión]. Nueva York: Haper, 1960.
THOMPSON, P. B., Risking or Being Willing: Hamlet and the DC-10, [Los riesgos de la decisión: Hamlet y el DC-10] Journal of Value Inquiry 19 (1985): 301-310.
WAGNER, W. E., The Science Charade In Toxic Risk Regulation, [La charada científica en la regulación de los riesgos tóxicos]. Columbia Law Review 95 (1995): 1613-1723.
WEINBERG, A. M., Science and Trans -Science, [La ciencia y la trans-ciencia]. Minerva 10 (1972): 209-222.
Fuente:file:///C:/Users/Administrador/Downloads/ove.pdf
Fuente Imagen https://i.ytimg.com/vi/G0KUHcjygIg/maxresdefault.jpg