Page 2505 of 2733
1 2.503 2.504 2.505 2.506 2.507 2.733

Las economías basadas en el conocimiento y las tecnologías de la información y la comunicación

 América del Norte/Estados Unidos/ W. Edward Steinmueller/Julio del 2016/file:///C:/Users/Administrador

Introducción: ¿Qué es una economía basada en el conocimiento? El crecimiento económico moderno depende del aumento de la productividad. Esta relación se puede observar más directamente cuando vemos que, a lo largo de los últimos 100-150 años (depende del país), el aumento de la productividad en el sector agrícola de los países de la OCDE ha liberado a grandes contingentes de mano de obra de la agricultura al tiempo que aumentaba la producción agrícola. La mano de obra dispensable en la agricultura encontró empleo en industrias en las zonas urbanas, donde el aumento de la productividad era igual o superior al de la agricultura. En los últimos decenios, el sector servicios ha absorbido una cuota creciente de la fuerza laboral urbana, pero con resultados mucho más desiguales en el aumento de la productividad. En los países más avanzados en este proceso histórico, el alcance y profundidad de la transformación han sido considerables. El paisaje ha sido transformado en «entornos construidos», y gran parte del conocimiento sobre cómo ganarse la vida o cómo vivir en estos nuevos entornos laborales y físicos ha tenido que ser inventado.

Una característica básica de éstos profundos cambios es la inversión en conocimientos para aumentar la capacidad productiva de los bienes de capital, del trabajo y de los insumos de los recursos naturales. Por lo tanto, decir que las economías industrializadas se «basan en el conocimiento» no es más que el reconocimiento de que el contenido y la estructura de las actividades económicas, así como gran parte de los fundamentos sociales de los países industrializados, se pueden distinguir de sus predecesores por el ritmo y el alcance de la producción y aplicación de los conocimientos. Todas las sociedades se basan en el conocimiento debido a su dependencia de un conjunto de artefactos físicos e instituciones culturales cuya producción y articulación requieren conocimientos. El rasgo distintivo de las sociedades modernas basadas en el conocimiento es el alcance y el ritmo del crecimiento, así como la alteración en la acumulación y transmisión de los conocimientos, gran parte de los cuales son nuevos o se desenvuelven en contextos distantes del que los vio nacer.

El carácter central de la base de conocimientos en las economías «avanzadas», aquellas economías que han experimentado la mayor discontinuidad en la creación y distribución de conocimientos, tiene múltiples implicaciones para el desarrollo económico, tecnológico y social. Por ejemplo, la tasa agregada de crecimiento de las principales economías depende cada vez más de la creación de nuevas industrias, cuyas tasas de crecimiento superan a las de los sectores establecidos y, por lo tanto, aumentan la tasa media de crecimiento del conjunto de la economía (Kuznets1966). A lo largo de los últimos cincuenta años, las industrias que desempeñan este papel son la farmacéutica moderna y los instrumentos médicos, la aeronáutica, las tecnologías de la información y la comunicación y un conjunto de nuevos materiales (por ejemplo, los plásticos). Las interacciones entre estas nuevas industrias, así como su interacción con las industrias más antiguas del automóvil, máquinas herramientas, equipos eléctricos e industria petroquímica, han sido de carácter sinérgico. El carácter central de la ciencia y la tecnología en estas industrias más nuevas significa que el cambio tecnológico no sólo ha tenido un impacto generalizado en el aumento de la productividad del trabajo y el capital. También acelera el crecimiento económico directamente y a través de efectos sinérgicos. Los economistas han especulado con la idea de que los efectos macroeconómicos de estos desarrollos sean lo bastante significativos como para justificar el análisis de las características de los «rendimientos crecientes» como un fenómeno macroeconómico (Romer 1986).

La expresión «economía basada en los conocimientos» capta una diferencia cualitativa características únicas de la información como insumo económico, el papel de la
“flexibilidad» de la producción y la distribución, los efectos de ampliar y estrechar
los procesos de «control», estrechamente vinculados al uso de las TIC, son objeto de
una explicación deficiente o incluso son ignorados en los cálculos tradicionales de la
productividad física.
· Las TIC sostienen la formación y el crecimiento de nuevas industrias, por ejemplo,
los multimedia, el comercio electrónico y los paquetes de programas. La
complementariedad de las TIC también potencian el crecimiento dentro de la
industria. Por ejemplo, el aumento de programas informáticos basados en gráficos
ha reforzado y ha sido reforzado por el aumento de impresoras que utilizan
tecnología láser y de inyección de tinta. Es difícil saber hasta dónde se remontan
estas interrelaciones porque las estadísticas públicas suelen clasificar o agrupar
erróneamente la producción industrial. Corremos el serio peligro de perder una
comprensión operativa de la estructura de la economía moderna y, por ende, la
capacidad de evaluar el impacto de los cambios económicos en la salud de la
competencia o la distribución del poder económico.
· Las TIC sostienen el cambio organizacional. Al generalizar y redistribuir la
información dentro de la organización, es posible idear nuevas estructuras de control
y modelos de organización del trabajo, disminuir el alcance y cambiar el carácter del
procesamiento y selección de la información humana. A pesar de la importancia de
estos métodos y de su adopción generalizada, hay pocas investigaciones sistemáticas
disponibles para evaluar si reflejan la mejor práctica o para medir su influencia. Por
ejemplo, los estudios de caso en Zuboff (1988) aún se encuentran entre los estudios
más útiles sobre los efectos de las tecnologías de la información en el lugar de
trabajo (a pesar del hecho de que éstas ya aparecieron hace más de diez.

Conclusión El alcance del programa definido en las páginas anteriores indica la profundidad del desafío que afrontamos en las ciencias sociales para actualizar nuestras investigaciones con el fin de abordar la realidad emergente de la sociedad basada en el conocimiento. Muy pocos países han tomado este desafío en serio en la financiación de su investigación en ciencias sociales. La consecuencia es que son relativamente pocos los jóvenes especialistas en ciencias sociales que desarrollan los conocimientos especializados o la experiencia necesaria para afrontar los desafíos que la sociedad conocerá en los próximos años, incluyendo la aplicación de las TIC. Para quienes han desarrollado estos conocimientos expertos y experiencia (a menudo a través de opciones profesionales largas y no convencionales) hay mucho más trabajo de lo que ellos podrían asumir y un creciente conjunto de temas que las empresas y los gobiernos desean abordar rápidamente. La ausencia de fondos estructurales para crear centros de excelencia en este ámbito sigue siendo el principal problema, puesto que todos los temas tratados más arriba entrañan un grado de interdisciplinariedad o especialización que no se ajusta fácilmente a las disciplinas existentes en las ciencias sociales. La buena investigación en este terreno casi siempre implica la creación de equipos de investigación estables que aúnen los conocimientos especializ ados, la recopilación sistemática de datos (que, por desgracia, envejecen rápidamente) y fuertes vínculos entre los académicos y las empresas que miran hacia el futuro. Es de esperar que, en los años que vienen, estos equipos sean más numerosos Traducido del inglés Notas 17 * Este artículo tiene su origen en otra investigación no publicada y elaborada para el proyecto de Economía de la Información de la Delft University of Technology y patrocinada por el Telematics Institute. Referencias ARROW, K.J., 1962. ‘Economic Welfare and the Allocation of Resources for Invention’ in National Bureau of Economic Research (NBER) [El bienestar económico y la asignación de recursos para la invención en el National Bureau of Economic Research (NBER)], The Rate and Direction of Inventive Activity. [Ritmo y dirección de la actividad inventiva] Princeton University Press: 609-25 COHEN, W. M. & LEVINTHAL, D.A., 1989. ‘Innovation and Learning: The Two Faces of R&D’ [Innovación y aprendizaje: las dos caras de I+D], Economic-Journal 99(397), septiembre: 569-96. COWAN, R., DAVID, P.A. y FORAY, D., 2000. ‘The Explicit Economics of Knowledge Codification and Tacitness’ [La economía explícita de la codificación y el carácter tácito del conocimiento], ‘ Industrial and Corporate Change 9 (2):211-254. DAVID, P.A.; FORAY, D., 1996. ‘Information Distribution and the Growth of Economically Valuable Knowledge: A Rationale for Technological Infrastructure Policies’ [La distribución de la información y el aumento del conocimiento económicamente valioso: razones para las políticas de infraestructura tecnológica], En: M. Teubal et al. (eds.) Technological Infrastructure Policy: An International Perspective [La política de infraestructura tecnológica: una perspectiva internacional],. Boston; Dordrecht y

fuente: file:///C:/Users/Administrador/Downloads/steinmuller.pdf

Fuente Imagen :http://www.gobiernodecanarias.org/noticias/-/m/71861/dn/Innovaci%C3%B3n%20(3).jpg

Comparte este contenido:

Bien privado, bien colectivo y bien público en la era de la genómica


/ Francia/ Julio del 2016/Maurice Cassier Artículo/file:/C:/Users/Administrador

En su obra sobre “El comercio de los genes en el mejor de los mundos”, J. Rifkin, 1998, establece un paralelismo entre la extensión contemporánea de los derechos de propiedad intelectual sobre los recursos genéticos y la ley sobre los cercados, que organizó en el siglo XVII la privatización de los bienes comunales en Inglaterra1 . Esta tendencia a la privatización remite a una integración inédita de la ciencia y los mercados2 . En primer lugar, a lo largo de los años 90 se constituyó un sector y un mercado privados de la investigación genómica, con la creación de sociedades de investigación directamente agregadas a los mercados financieros. En segundo lugar, los organismos públicos de investigación y las instituciones académicas han intensificado la comercialización de sus trabajos, alentados por la promulgación de leyes que tendían a aumentar la posibilidad de apropiación y transferencia de los conocimientos producidos con cargo a fondos públicos. Esta nueva integración de la investigación y los mercados desemboca en el registro masivo de patentes sobre secuencias genéticas, la extensión de las bases de datos protegidos por el secreto comercial, la concentración de contratos de acceso exclusivo a los datos genéticos y médicos de determinadas poblaciones, la multiplicación de acuerdos de investigación o de transferencia de materiales que especifican derechos de uso reservado. El “modelo de los bienes colectivos” (Heller y Eisenberg, 1998), fundado en el libre acceso y una gran difusión de los recursos y de los conocimientos sobre los genomas, es derrotado por el “modelo de la privatización”, hasta el extremo de que un exceso de derechos privados acumulados y superpuestos sobre el genoma humano podría provocar una “tragedia de los anticomunales” (Heller y Eisenberg, obra citada), situación en la que resulta demasiado costoso por los innovadores reunir y recoger los múltiples derechos necesarios para el desarrollo de las innovaciones médicas.

Esta tendencia a la privatización de la investigación, pese a que es muy fuerte en la esfera del genoma humano, no es unilateral ni está completamente estabilizada. Existe, en efecto, en el campo de la genética una tradición de investigación colectiva, particularmente en lo que respecta a la cartografía de los genes. Desde los años 30 el genetista estadounidense Morgan construyó una red de laboratorios que cooperaban para elaborar la cartografía genética de la drosofila. En esa red de media docena de laboratorios, los mutantes de drosofila nuevamente identificados se ponían a disposición de los demás equipos en un contexto de reciprocidad (R. Kholer, 1994). Otra iniciativa destacada fue la de la red constituida por el Centro de Estudio del Polimorfismo Humano (CEPH) para cartografiar el genoma humano a comienzos de los años 80, a iniciativa de Jean Dausset y de Daniel Cohen. El CEPH, que es una fundación de investigación creada con fondos de una donación privada, creó una base común de familias de referencia, de origen francés y estadounidense, que se puso a disposición de los laboratorios interesados en la construcción de un mapa genético humano. Como la utilización común de familias de referencia propicia el avance acumulativo de los conocimie ntos, los resultados de las investigaciones se almacenan en una base central de datos accesible a todos los participantes. A esta investigación colectiva se le dio un carácter más oficial que a las redes de colaboración de Morgan o de Delbrück3 en los años 30 o 40. Para tener acceso a la colección de ADN del CEPH, los laboratorios tenían que adherirse a los principios que se habían fijado para el intercambio de datos. Este modelo de investigación colectiva se aplica también, con diversas formas de realización, en los consorcios europeos financiados por los programa de investigación de la Comunidad Económica Europea (CEE) sobre las biotecnologías, a partir de finales de los años 80. La secuenciación del genoma de la levadura, y más tarde los inicios del estudio funcional de los genes de la levadura, respaldaron la creación de redes de laboratorios a escala europea, unidos por principios de división del trabajo, intercambio de datos y distribución de la propiedad de los resultados. Y hecho aún más notable, las empresas industriales pueden organizar consorcios de investigación que producen bienes públicos, a semejanza del consorcio sobre los polimorfismos de nucleótidos únicos, creado en julio de 1999 por iniciativa de los diez laboratorios mundiales de productos farmacéuticos más importantes. Esas organizaciones de investigación colectiva, autoorganizadas por los científicos o creadas por iniciativa de Estados o de empresas rivalizan con el sector privado por el control de los conocimientos –competencia entre el consorcio público para la secuenciación del genoma humano y la sociedad privada Celera Genomics- o aportan correcciones o soluciones al abuso de derechos privados que proliferan sobre los genomas, por ejemplo, las fórmulas de propiedad colectiva de los conocimientos concebidos por determinados consorcios europeos o por iniciativa del laboratorio Merck en 1994 para difundir etiquetas de genes en la esfera pública. Existen igualmente numerosas propuestas encaminadas a limitar el derecho de propiedad intelectual en la esfera de la genómica, mediante el recurso a exclusiones de la patentabilidad, licencias obligatorias o voluntarias en la esfera de las aplicaciones para la salud o sistemas de derecho que organizan la puesta en común de conocimientos libres.

El presente artículo pretende presentar a la vez la amplitud y la variedad de las prácticas de apropiación privada de la investigación genómica, así como, como contrapartida o contratendencia, las diferentes organizaciones y convenciones que definen espacios colectivos y/o públicos de investigación. En la primera sección se estudiará la extensión de los derechos exclusivos sobre los genomas. En la segunda se analizarán las prácticas de registro de patentes de los genomas humanos y sus efectos en la oferta de salud, por una parte, y en la investigación biomédica, por otra. En la tercera sección se expondrán diferentes modelos de producción y distribución de bienes colectivos y/o de bienes públicos. En la conclusión se plantearán propuestas encaminadas a reorientar el sistema de la patentes en la esfera del genoma o a concebir otros modelos de gestión de los recursos y de los conocimientos genómicos en términos de bien común para la investigación y la salud pública.

Tendencia a la ampliación de los derechos exclusivos sobre la investigación genómica Si las patentes constituyen el elemento central de la apropiación privada de la investigación genómica, las sociedades de biotecnología como Genset o Myriad Genetics utilizan paralelamente a las patentes varios otros instrumentos de apropiación para proteger recursos o conocimientos no patentables en el Estado: colecciones de datos genealógicos o médicos utilizados como recursos para la identificación de los genes, datos intermedios de investigación para la localización y caracterización de los genes, etc.4 . Se analizarán sucesivamente: 1) los contratos de uso exclusivo de las colecciones de datos genéticos y médicos; 2) la ampliación de las bases de datos privadas protegidas por el secreto; y 3) la amplia ción del ámbito de la patentabilidad a las secuencias genéticas.

Contratos de acceso exclusivo a los recursos genéticos y médicos de las poblaciones humanas La apropiación de la investigación genómica comienza con el control de las bases de datos médicos y genéticos que permiten localizar genes o concebir ensayos terapéuticos fundados en las variaciones genéticas de las poblaciones. El acceso a datos adecuadamente documentados o grupos de población muy concretos puede representar una auténtica renta de innovación para los agentes de la genómica médica. El recurso en poblaciones explica a veces la localización geográfica de determinados investigadores o de determinadas sociedades de genómica. Las fichas de presentación en el mercado bursátil de la sociedad estadounidense Myriad Genetics ensalzan la utilización exclusiva de que disfruta la sociedad con respecto a varias bases de datos familiares y médicos: “Uno de los factores claves del éxito de Myriad Genetics ha sido la creación y explotación de bases de datos genéticos y médicos privadas. Nuestra sociedad posee derechos de acceso exclusivos a bases de datos genealógicos de familias de Utah y de familias de canadienses franceses” 5 En Francia la sociedad Genset se esfuerza igualmente por concertar contratos de acceso exclusivo a colecciones de datos clínicos.

Hasta ahora estos datos se intercambiaban en redes académicas, sobre la base de acuerdos tácitos, entre un investigador y un clínico, o en el marco de intercambios oficializados, como en el interior de la red constituida por el Centro de Estudio sobre el Polimorfismo Humano en los años 80. La privatización de estos datos no se ha debido únicamente a contratos privados firmados entre empresas e instituciones médicas. Las licencias exclusivas atribuidas por Estados a sociedades de biotecnología para explotar los datos genéticos y médicos de determinadas poblaciones, en Islandia y en las Islas Tonga, por ejemplo, desembocan igualmente en la incorporación al mercado de esos datos. En Islandia, el procedimiento de valorización y apropiación de los datos relativos a la población comenzó en 1996, cuando el fundados de DeCode reunió fondos de capital de riesgo en los Estados Unidos por un importe de 12 millones de dólares, ensalzando-

en su business plan la especificidad genética de la población islandesa –su homogeneidad genética supuesta – y la excelencia de los registros de los datos médicos realizados por el sistema nacional de salud. El valor de uso potencial de esos datos permitió a DeCode concertar un acuerdo de investigación muy importante con Hoffman Laroche. Este contrato, firmado en febrero de 1998 por una duración de cinco años, prevé que DeCode utilizará la base de datos sobre la población islandesa para aislar genes patógenos que suministrará a Roche, que se encargará de concebir nuevos medicamentos o nuevos instrumentos de diagnóstico. Roche recibió un derecho exclusivo para las utilizaciones terapéuticas y de diagnosis de los genes relacionados con 12 enfermedades. Como contrapartida, aporta a DeCode fondos de capital, financia actividades de investigación y pagará regalías si lanza un producto al mercado. Está igualmente estipulada una reciprocidad con la población: de desarrollarse productos surgidos de la colaboración, Roche los sumin istrará gratuitamente a los islandeses. El tercer elemento de este acuerdo entre la población islandesa, una sociedad privada de investigación y el laboratorio farmacéutico Roche es la promulgación de una ley por el Parlamento islandés que autoriza la concesión de una base de datos médicos nacional a un agente privado, en este caso DeCode Genetics. Como resultado de la promulgación de esta ley, en diciembre de 1998, por 38 votos contra 23, la cotización bursátil de DeCode se multiplicó por cuatro. La licencia se concedió a DeCode en enero de 2000 por una duración de 12 años. Esta cronología pone de manifiesto que los mercados y la atribución de derechos exclusivos son el elemento central de la investigación genómica. Al final de este proceso, la población islandesa, su perfil genético y sus informaciones médicas respaldan la valorización de esta sociedad privada que se presenta como una “sociedad fundada en la población”6 .

La ley islandesa confiere a las colecciones de datos genéticos y médicos de una población ciertas características de un bien privado. Como contrapartida del pago de un derecho de acceso, una sociedad puede adquirir un derecho exclusivo para la explotación de estas colecciones, lo que se asemeja al otorgamiento de una concesión minera. La exclusividad de la concesión genera una renta para el licenciatario, tanto mayor cuanto más específico es el perfil genético de la población y de mejor calidad son los datos médicos registrados. El carácter de propiedad privada de estas colecciones de datos se ve atenuado, no obstante, por determinadas disposiciones de la ley, que limitan la transferabilidad de la base de datos, que debe estar ubicada en Islandia y que no puede participar en operaciones financieras, ya que el licenciatario no puede hipotecarla y no puede revender la licencia. El Gobierno dispone de un derecho de acceso a la base de datos para efectuar estudios estadísticos relacionados con la salud pública. El Gobierno ha justificado como sigue la atribución de esta concesión: 1) si el Gobierno reconoce que los datos médicos registrados por el sistema de salud son un “recurso nacional … que no puede ser objeto de propiedad en el sentido habitual de la palabra”, justifica la intervención de un agente privado por la cuantía de la inversión necesaria para la construcción de una base de datos nacional; 2) la población y el sistema de salud se beneficiarán de la adquisición de nuevos conocimientos, y eventualmente de nuevos productos de salud; 3) esta base de datos tendrá consecuencias económicas-

 Fuente:file:///C:/Users/Administrador/Downloads/cassier%20(1).pdf

Fuente:http://cdn3.upsocl.com/wp-content/uploads/2014/04/tennis.jpg

Comparte este contenido:

La Revolución de Internet y la Geografía de la Innovación

América del Norte /EEUU/Julio del 2016/Maryann P. Feldman/file:///C:/Users/Administrador

A lo largo de la Historia, el hombre ha buscado formas de transmitir información a lugares adonde no podía llegar su voz, reduciendo los costes y mejorando la calidad. Partiendo de la palabra escrita y siguiendo con la invención de la imprenta, las tecnologías de la información y comunicación (TIC) han ido cambiando en rápida sucesión: el telégrafo, la radio, el teléfono, el fax y, últimamente, Internet.

Antiguamente, las personas, para comunicarse, tenían que estar cara a cara, pero ahora la tecnología hace posible el intercambio de información a gran distancia y permite su almacenamiento y transmisión así como el acceso a un contexto más avanzado y complejo.

El resultado es que la comunicación se ha abaratado y, en consecuencia, las relaciones económicas y las negociaciones a través del espacio geográfico son más fluidas. Actividades muy alejadas desde el punto de vista geográfico pueden entrar en contacto con toda facilidad. La distancia geográfic a ya no supone falta de información. Internet y, de manera más general, las tecnologías digitales de la información, auguran mayores cambios en la organización de las actividades económicas, cambios tan profundos que merecen el nombre de revolución.

La información se puede recoger, almacenar, procesar, comunicar y emplear con más facilidad. Es de esperar que el coste cada vez menor de la comunicación produzca más intercambios, mejor acceso a la información, mayor autonomía personal en las decisiones sobre dónde residir y, en última instancia, una mayor difusión de la actividad económica.

Las repercusiones de Internet serán diferentes en las distintas industrias y en los diversos tipos de actividades económicas. Este artículo trata de la localización de la innovación, una actividad económica especialmente basada en el conocimiento.

La tendencia de la actividad innovadora a agruparse espacialmente es bien conocida y se identifica con lugares como Silicon Valley, Research Triangle Park, Route 128, en Boston, Estados Unidos, Wireless Valley en Finlandia, Oxbridge en Inglaterra, y Singapur, entre otros.

Los economistas llevan estudiando este fenómeno desde Marshall (1890) y más recientemente, han estudiado los motivos por los cuales los lugares de alta renta y altos salarios como Nueva York, San Francisco, Londres, París y otras ciudades importantes siguen creciendo y siendo direcciones favoritas (Feldman 2000 ofrece una revisión de la literatura sobre este tema). Hasta la fecha, existen pocos estudios empíricos que analicen cómo van a influir las TIC en los modelos de localización de la actividad económica.

El objetivo de este artículo es ofrecer un marco para considerar cómo puede influir Internet en la localización de la actividad innovadora y en concreto si ésta se dispersará debido a Internet y a las tecnologías digitales. En el próximo apartado se analiza la repercusión que ha tenido Internet hasta ahora. Internet ha facilitado el intercambio de información, ha hecho que la administración de los negocios sea más eficaz y que el consumidor tenga mayor elección, y ha tenido, y seguirá teniendo, consecuencias profundas en la productividad que, en general, han sido favorables para las actividades económicas de rutina.

A diferencia de éstas, la innovación se basa en la creación de conocimiento y en su puesta en práctica. Se tata, básicamente, de un proceso social que pone en relación a individuos de diferentes disciplinas, con diferentes competencias, distintos vocabularios y la misma motivación. La innovación implica creatividad y es un proceso cognitivo. Internet ofrece los instrumentos para que los individuos accedan a la información con facilidad y, por lo tanto, ayuda a la actividad innovadora, pero existen factores como el conocimiento tácito y la índole socia l del proceso de innovación que limitan el impacto de Internet.

La geografía ofrece el espacio físico en el que se organizan los individuos y los recursos y se contienen las externalidades positivas asociadas a la creación del conocimiento. Por lo tanto, estudiaremos la repercusión de Internet en la innovación en tres planos: el individual, el social y el geográfico. Entender la revolución de Internet Vivimos en una era de comunicaciones mundiales fáciles, de acceso instantáneo a la información y de capacidad de almacenar, buscar, y manipular grandes cantidades de información.

Según el Bureau of Labour Statistics de los Estados Unidos, en 1999, el sector de las Tecnologías de Información y Comunicación (TIC) pasó a ser el sector comercial más importante de los Estados Unidos, con un índice de crecimiento del empleo equivalente a seis veces el promedio nacional. Alan Greenspan, Presidente de la Reserva Federal de los Estados Unidos cree que el crecimiento del negocio de las TIC ha supuesto al menos un tercio del crecimiento total de la economía del país desde 1992.

El sector de las TIC representa una variedad de productos, tecnologías y servicios basados en descubrimientos científicos en el campo de los ordenadores, diseño de software, óptica y fotografía, conmutación de circuitos y satélites entre otros. La representación más visible de la Revolución de las TIC es Internet, que integra los ordenadores y las telecomunicaciones. Lo más llamativo es la aceleración del índice de aceptación de las TIC. La radio llevaba existiendo 38 años cuando llegó a un mercado de 50 millones. Dieciséis años han transcurrido desde que se vendió el primer ordenador personal en 1973 hasta llegar a los 50 millones de usuarios actuales. Cuando Internet se abrió al tráfico comercial en 1993, alcanzó esta cifra en cuatro años.

Una aplicación concreta, Napster, un protocolo para transferir archivos de música, registró 25 millones de usuarios al año de su introducción. Gracias a Internet, todo el que pueda realizar una pequeña inversión de capital en un ordenador y en acceder a un servidor puede conectarse con otros ordenadores de todo el mundo en una red interconectada de máquinas, datos y personas. Se cree que en el año 2002, la WWW contará con 320 millones de usuarios (Lange, 1999: 35).

El número de mensajes enviados a través del correo electrónico es de 6,5 billones al día en todo el mundo y el crecimiento será exponencial a medida que haya más usuarios conectados. Además, la tecnología sin cable está avanzando, lo que rebajará aún más los costes de la conexión, y atraerá potencialmente a más usuarios al mundo digital.

La información digital es compacta y transportable y, por lo tanto, más eficiente. Los economistas señalan que lo costoso de la información es su creación, pero una vez creada, el coste de reproducirla y transmitirla es prácticamente nulo. Se pueden hacer múltiples copias y lo difícil es controlar la difusión y el acceso, contrariamente a los productos físicos que los economistas suelen estudiar. La facilidad de transmitir información suscita una serie de problemas sobre la protección y el buen uso de la propiedad intelectual, y sobre la intimidad, el acceso sin autorización y la piratería de datos. Hasta ahora, hay pocos estudios empíricos que analicen el uso que las empresas hacen de Internet.

Litan y Rivlin (2001) estudian el impacto de Internet en diferentes sectores y señalan tres impactos económicos distintos: la disminución del coste de las transacciones; la mayor facilidad de gestión; y el acercamiento de la economía al modelo de la competencia perfecta. La principal consecuencia de Internet ha sido el abaratamiento de las transacciones.

El comercio por Internet, más rápido que el realizado por el correo convencional y más exacto que el telefónico, se basa en la rapidez y facilidad con que se intercambia y coordina la información sobre las transacciones entre las empresas y sus proveedores y clientes. Desde el punto de vista de las empresas, Internet reduce los costes de las compras, los inventarios y los tiempos y también los costes de venta y marketing y aumenta la efectividad y eficiencia de los controles de los servicios al cliente y de los materiales de venta.

Desde el punto de vista de los consumidores, Internet ofrece una mayor elección, adecuación y posibilidades de una mayor personalización. En segundo lugar, Internet, al facilitar el acceso a la información, la búsqueda de ésta y su comunicación, permite una administración más eficiente.

La información en forma digital es más fácil de emplear que en la forma alternativa sobre papel. Esto ha reducido enormemente los costes para las empresas en lo referente a sus rutinas de registros internos, control de inventarios y procesamiento de las transacciones. Por último, Internet está acercando la economía al mode lo ideal de la competencia perfecta según los economistas, lo que implica una mayor eficiencia. Es más fácil para los proveedores y consumidores encontrar información unos sobre otros, buscar alternativas y realizar las transacciones. Este acceso directo reduce la necesidad de intermediarios y distribuidores. Cabe esperar que el hecho de que haya más información, más elección, y de que los costes de las operaciones y transacciones sean menores, se traduzca en una bajada de los precios y un aumento de la calidad.

En resumen, se espera que estos tres factores contribuyan a la economía de los Estados Unidos con una tasa anual de entre 2 y 4% del crecimiento futuro de la productividad. Además, Internet y la distribución digital pueden originar nuevos productos o servicios insospechados hasta ahora, lo que supondrá incrementos aún mayores del desarrollo económico (Economist 2000).

Las repercusiones económicas de Internet son profundas, pero afectan a las actividades económicas rutinarias que se basan en los flujos de información con parámetros bien definidos y con un contenido relativamente estándar. Ahora bien, la innovación es un tipo especial de actividad no rutinaria y cabe esperar que Internet tenga en ella una repercusión diferente. La innovación, el conocimiento y la información Empezaremos por ver qué entienden los estudiosos por innovación, palabra muy usada en el lenguaje moderno.

La innovación es un tipo determinado de actividad económica destinada a la elaboración de productos, procedimientos o métodos de organización nuevos –un toque de origen humano que produce originalidad y unicidad. La innovación se relaciona normalmente con aplicaciones comerciales y hay que distinguir entre invención, la idea original, y la innovación, su realización comercial. No todas las actividades de invención tienen una aplicación comercial, pero en toda innovación hay, desde luego, una parte de invención.

El ínsumo más decisivo para la innovación es el conocimiento. Mientras la información es el flujo de datos, el conocimiento es una información almacenada que se organiza en un esquema conceptual. La innovación es la capacidad de mezclar y combinar diferentes tipos de conocimientos en algo nuevo, diferente y sin precedentes, que tiene un valor económico. Parecida al arte , la innovación es una expresión creativa; pero, a diferencia de aquél, la valoración de la innovación no depende del espectador, sino de su aceptación en el mercado, que otorga una recompensa comercial a las entidades innovadoras, y repercute en la sociedad en términos de bienestar económico, prosperidad y desarrollo.

La naturaleza del proceso de innovación Transmitir la información a grandes distancias es fácil, pero transformarla en conocimiento utilizable es un proceso cognitivo más complejo. La información consiste en saber algo, en conocer unos datos. El conocimiento existe cuando un individuo sabe qué hacer con la información, lo que implica, cuáles son sus limitaciones y cómo crear algo de valor partiendo de ella. Consideremos el ejemplo sencillo de la previsión sobre el tiempo, en su aspecto informativo. Saber qué ropa ponerse o si hay que llevar paraguas requiere un conocimiento. Para una actividad corriente, todo el mundo con el conocimiento necesario sabe emplear la información y es fácil transmitir ésta de manera que sea utilizable.

Es el caso de una actividad estándar o rutinaria. Por el contrario, la innovación implica una actividad nueva y hay una gran dosis de inseguridad en la aplicación de la información. Consideremos el caso de un nuevo descubrimiento. Un científico trabajando en su laboratorio puede alcanzar algo sin precedentes, el típico momento del ¡EUREKA! En este primer momento, puede no haber ni siquiera el léxico o vocabulario adecuados para comunicar los conceptos clave.

En el nivel más básico, la innovación y la creatividad tienen lugar en la mente del individuo y se basan en la síntesis de la información y en la transformación de ésta en las formas existentes de ver el mundo o esquemas cognitivos. En el congreso de “Hackers”, Las Vegas, USA Jeanne Hilary / RAPHO Todas las actividades de resolución de problemas emplean modelos cognitivos para discernir la información valiosa y saber cómo organizar ésta de manera provechosa. El proceso de entender y dar sentido a la nueva información requiere la transformación de ésta en algo significativo para el individuo, y entraña el hacerse preguntas, recurrir a las analogías y entender el contexto.

Es un proceso complejo de tanteo, retroalimentación y evaluación que se ve muy favorecido por la interacción presencial. La innovación, en tanto que proceso cognitivo y social, requiere estos tipos de interacciones recíprocas y complejas que dan lugar a discusiones, clarificaciones y nuevas conceptualizaciones a medida que una idea se va convirtiendo en innovación. Cuando los individuos trabajan en un problema, desarrollan un lenguaje y unos marcos de referencia comunes.

En consecuencia, es posible incorporar nueva información a estas estructuras cognitivas y acumular de manera efectiva el conocimiento que facilita la innovación. Si el conocimiento es tácito o inseguro, mucha información se comunica a través de los gestos, la expresión facial y el tono de voz. Estos matices son pistas importantes para entender el significado y el contexto y son posibles gracias a la interacción directa cara a cara.

Cuando el conocimiento puede ser codificado, es más fácil transmitirlo a los demás en todo tipo de medios. De las actividades económicas, la innovación es aquélla a la que más afecta la localización, precisamente por su naturaleza creativa y por basarse en el conocimiento tácito. La mayor tendencia hacia la concentración geográfica se da en las industrias nuevas y en las primeras fases de su ciclo vital. Cuando las actividades se van haciendo estándares o más rutinarias, se puede observar claramente una menor tendencia a la concentración geográfica.

Desde luego, Internet favorecerá la actividad innovadora pues la enorme cantidad de información que ofrece y el fácil acceso a ella es un elemento muy valioso para el trabajo creativo. Ahora bien, aunque las video-conferencias y el contenido de la web se perfeccionan sin cesar, no equivalen a participar en persona.

Todo el que ha estado alguna vez en Internet ha experimentado la satisfacción de encontrar cosas nuevas que se le ofrecen como si dispusiera de un ayudante personal, pero también la frustración de no conseguir la información que deseaba. En un nivel básico, la información en Internet viene dada en las páginas web, un archivo HTLM (hypertext markup language) y unos archivos asociados para escritura y gráficos que suelen tener otros muchos enlaces con otros documentos de la Web y con navegadores y motores de búsqueda.

Los contenidos que ofrecen las páginas web, por las que se comunica la información de Internet, son muy estándares y deben ser organizados y ordenados por prioridades. El equipo de diseño técnico y ayuda para hacer una página web hace juicios de valor sobre las prioridades y necesidades de los usuarios e interpreta el marco de referencia.

Los elementos esenciales del diálogo parecen estar definidos de antemano. Por ejemplo, los diseñadores de páginas web deciden qué enlaces ofrecer y las preguntas se limitan a lo que los diseñadores de las web consideran que puede plantear problemas. La mayoría de los sitios web tiene n una lista con las preguntas más frecuentes (FAQ [frequently asked questions]) para ayudar a los individuos a usar e interpretar la información. Las FAQ son un medio de proporcionar respuestas anticipándose a las preguntas más usuales. Se pide a los usuarios que lean detenidamente las FAQ antes de recurrir al correo electrónico o al teléfono para hacer una pregunta.

Para elaborar las FAQ es preciso haber hecho una selección de las preguntas de los usuarios llegando así a la estandarización de preguntas y respuestas. Esto requiere que el programador o analista de sistemas caractericen al usuario y el uso que éste hará de la información obtenida. Desde luego, con una transacción de rutina como comprobar las horas de las películas o hacer una compra, esto no plantea problema. Pero un conocimiento más tácito, como la solución a un problema complejo o el asesoramiento sobre cómo definir un problema tiene un grado mayor de inseguridad.

En este caso, es más difícil transmitir el significado exacto, pues se requiere interpretación y aclaración, por lo que es difícil de comunicar en un medio estandarizado. Cuando el conocimiento es muy tácito por naturaleza, la interacción y la comunicación cara a cara (y, por lo tanto, la proximidad geográfica) son favorecen la transmisión del conocimiento. Cuanto menos codificado es el conocimiento y más difícil formularlo, mayor es la necesidad de contactos personales frecuentes y mayor el grado resultante de centralización en la organización geográfica. A medida que la tecnología se hace más sofisticada, se puede introducir más cantidad de contenido, pero existen limitaciones que dan la ventaja a la interacción humana directa.

Los diseñadores de las páginas web emplean una interfaz que se caracteriza por la frase What You See Is What You Get [Lo que ves es lo que tienes] (WYSIWYG), que hace referencia al protocolo de diseño comúnmente utilizado o a la interfaz de usuario que no requiere códigos intrincados ni órdenes complicadas. Es útil, a medida que aumenta el número de individuos que pueden hacer páginas web, pero, como ocurre con toda estandarización, esto tiene un coste.

Para el caso peor se emplea la frase What You See Is All You Get [Lo que ves es todo lo que hay] (WUSIAYG), una versión más pobre a la que le falta profundidad y flexibilidad. Para atraer a los mercados de masas, el contenido debe tener un atractivo muy general lo que significa dirigirse a un mínimo común denominador. La alta calidad del contenido, heredada de los primeros usuarios, científicos y universitarios, parece próxima a desaparecer debido a la mayor presencia comercial en Internet. La innovación como proceso social localizado La innovación, más que el producto del trabajo individual de un inventor es el resultado de la ordenación de corrientes de conocimiento diferentes y complementarias.

Saxenian (1990, p. 96-97) estudiando las redes de Silicon Valley, California, insiste en que es la comunicación entre los individuos lo que facilita la transmisión del conocimiento entre los agentes, las empresas e incluso las fábricas. “No es solamente la concentración de trabajadores cualificados, proveedores e información lo que distingue a esta región, sino que hay toda una serie de instituciones regionales –entre otras la Stanford University, asociaciones comerciale s diversas, organizaciones locales de empresas y un sinnúmero de consultorías especializadas, empresas de estudios de mercado, de relaciones públicas y de capital de riesgo – que ofrecen servicios técnicos, financieros y de redes que las empresas de la región no siempre pueden pagar individualmente.

Estas redes desafían las barreras sectoriales: los individuos cambian con facilidad, pasando de empresas de semiconductores a empresas de unidad de disco, o de fabricantes de ordenadores a creadores de redes. Pasan de empresas establecidas a otras que empiezan (o viceversa) e incluso a empresas de estudios de mercado o asesoría y de éstas nuevamente a empresas que empiezan.

Y siguen encontrándose en ferias comerciales, conferencias industriales y en innumerables seminarios, charlas y actividades sociales promovidos por organizaciones locales de empresas y asociaciones comerciales.

En estos foros, es fácil establecer relaciones y cultivarlas, intercambiar información técnica y de mercado, y hacer nuevos contactos de negocios, con lo que surgen nuevas empresas… Este entorno descentralizado y fluido favorece también la difusión de capacidades y conocimientos tecnológicos intangibles.”

Como resultado de todo esto, existen redes sociales, definidas como una “colectividad de individuos entre los cuales tienen lugar intercambios basados tan sólo en normas compartidas de comportamiento leal” (Liebeskind et al., 1995:7). La concentración facilita los contactos sociales necesarios para el desarrollo de estas redes y reduce los costes de los controles de conductas desleales.

Resulta mucho más difícil mantener la confianza a grandes distancias y con los sistemas de cifrado de los medios digitales; las firmas digitales y otras soluciones técnicas tratan de ofrecer una información precisa, válida y fiable, pero con ello, la confianza se convierte en algo mediatizado por la tecnología, dejando de depender del libre albedrío del individuo.

En este caso, la localización geográfica sirve también para controlar la actividad de otras empresas, ya sean de proveedores, de socios o de la competencia. Una página web presentada profesionalmente puede dar legitimidad a una empresa virtual. Hay un dibujo en el New Yorker en el que aparecen dos perros trabajando en sendos ordenadores.

El texto dice “En Internet nadie sabe que Ud. es un perro”. Aunque la falta de vigilancia implica libertad por un lado, también suscita problemas de confianza, seguridad e integridad de la información. La ventaja de ver las cosas con los propios ojos, tocar el producto y palpar la mercancía, es que confiamos en nuestras propias percepciones.

La interacción y la observación frecuentes, la confirmación y comprobación de las fuentes conocidas junto con la posibilidad de control, son algunas ventajas de la proximidad física. Veamos el caso del capital de riesgo en el proceso de innovación. Pocas empresas que están empezando reciben capital de riesgo, pero éste ofrece financiación, contactos con los recursos clave y asesoramiento en operaciones, cosas todas ellas muy útiles para las empresas innovadoras de nueva creación.

Los capitalistas de riesgo tienden a hacer sus inversiones en el ámbito local porque financiar una nueva empresa supone un posible peligro (Sahlman 1990). Los empresarios tienen un conocimiento profundo de la empresa y un gran interés en que su información coincida con lo que creen que el inversor de capital de riesgo desea oír para, de esta forma, no poner en peligro la relación financiera.

El resultado es una asimetría de información, a menos que el capitalista de riesgo pueda controlar de cerca la nueva empresa y hacer una valoración informada. El control requiere ver con los propios ojos, presentarse de forma inesperada, y hacer una valoración independiente. La necesidad que tienen los capitalistas de riesgo de controlar las nuevas empresas en las que invierten, hace que la proximidad geográfica sea un valor en sí mismo (Gompers y Lerner 1999). Un tema de gran importancia y actualidad es la seguridad de la información, la búsqueda de nuevos métodos para garantizar la integridad y precisión de los datos.

En relación con esto está el problema de la intimidad, pues la correspondencia personal, los registros digitales y los envíos por la web se convierten en datos acerca de un individuo que pueden ser utilizados con otros fines (Rosen 199). Los científicos informáticos trabajan en tecnologías criptográficas cada vez más sofisticadas, pero existe la creencia de que la tecnología por sí sola no será capaz de ofrecer una total seguridad, sino que se necesita el apoyo de las instituciones sociales (Schneier 2000).

La interceptación y violación de los códigos secretos para transmitir los datos tiene una larga tradición histórica que Kahn (1996) y otros han señalado. Desde el momento en que la gente envía mensajes, sea por el medio que sea, siempre hay otros individuos que intentan acceder a ese material sin autorización.

Uno de los inconvenientes más graves para la seguridad en Internet es la incapacidad de la gente para emplear múltiples contraseñas y cambiarla s con frecuencia. Los problemas de la seguridad de la información son el motivo mencionado con más frecuencia para no hacer transacciones comerciales por Internet.

Si nos resistimos a compartir nuestros datos financieros, ¿estaremos dispuestos a compartir otros secretos? Internet ofrece información a todo el mundo desde el momento en que accede a la Web. Cuando la información está al alcance de cualquiera, presumiblemente pierde todo valor estratégico concreto, se convierte en un producto. Si un área técnica está en situación de cambio, con un índice elevado de obsolescencia del conocimiento, puede haber una tendencia a retrasar la disponibilidad de la información hasta que emerja un diseño dominante o hasta que se obtenga alguna ventaja estratégica de divulgar la información.

Por ejemplo, vemos que en algunas industrias existe una tendencia a retrasar la solicitud de patente porque en ella se revela demasiada información acerca de la tecnología. Las empresas prefieren tener la ventaja de ser las primeras de l mercado manteniendo los flujos de información bajo control hasta que la innovación esté ultimada.

Así pues, los actores económicos entran en “carreras” para ser los primeros en llegar al mercado y obtener las compensaciones económicas correspondientes, sin comunicar en línea su información más valiosa. La geografía, plataforma para organizar la innovación En 1890, Alfred Marshall señalaba la importancia de la concentración, una especie de economía de escala externa que se suma a la localización geográfica para la actividad económica, y muchos economistas que estudian la innovación y su localización apelan a la lógica de Marshall: “Cuando una industria ha elegido una localidad por sí misma, lo probable es que permanezca en ella durante mucho tiempo pues son muchas las ventajas de que la gente que se dedica al mismo negocio esté en contacto.

Los misterios del negocio dejan de ser misterios; pero es como si estuvieran en la atmósfera, y los niños, aprenden muchos de ellos sin darse cuenta. Se aprecia el buen trabajo, y enseguida se habla de los méritos de las invenciones y mejoras en la maquinaria, en los procedimientos o en la organización general de los negocios; si alguien pone en marcha una idea nueva, otro la toma y le añade sus propias sugerencias, convirtiéndose así en una fuente de más ideas nuevas. Y en el vecindario, proliferan las empresas subsidiarias que proveen los accesorios y materiales, organizan el comercio de éstos, y dirigen la economía hacia ellos de muchas maneras”.

Marshall escribía tras la aceptación general del telégrafo y sus observaciones siguen siendo válidas en contraste con las predicciones sobre el impacto del telégrafo. El impacto esperado del telégrafo refleja las predicciones actuales sobre Internet tan exactamente que Tom Standage (1999) llama al telégrafo la Internet victoriana.

Un funcionario que defendía la línea transatlántica predijo: “Todos los habitantes de la tierra entrarán en una vecindad intelectual” (Jackman en 1846, citado en Standage 1999). Scientific American se refería en 1858 al telégrafo atlántico como “la autopista instantánea del pensamiento entre el Viejo y el Nuevo Mundo.” Cien años después, los economistas siguen encontrando pruebas empíricas de un aspecto espacial de la innovación.

En lenguaje popular, a esta concentración de la actividad innovadora se le llama el fenómeno de Silicon Valley debido a la prominencia del desarrollo de la industria de los ordenadores en Santa Clara, California, en las proximidades de la Stanford University. La concentración espacial alcanza a una gran variedad de actividades innovadoras en una serie de industrias y sectores, poniendo de manifiesto la importancia de la especialización regional para la actividad económica, y de las concentraciones geográficas para producir mayores beneficios, así como las consecuencias en la productividad, que se derivan de la localización conjunta de la investigación y el desarrollo de las empresas y de las universidades. Centrémonos en el caso de Internet.

El principio de la historia de Internet se suele situar en la elaboración de un conmutador de paquetes y la creación de la Red Avanzada de Proyectos de Investigación (ARPANET) en el Departamento de Defensa de los Estados Unidos en el decenio de 1960, y tarda varios decenios en desarrollarse. Abate (2000) demuestra la función de los usuarios individuales y las redes sociales en la configuración de la red para alcanzar sus propios objetivos y en la definición y redefinición constante de la arquitectura y el concepto de lo que Internet ha llegado a ser. Las aplicaciones como el correo electrónico y la World Wide Web se crearon de manera informal sin una planificación formal coordinada. No es de extrañar que las empresas que trabajan en las aplicaciones de Internet estén concentradas geográficamente en algunas localizaciones prominentes de los Estados Unidos y en todo el mundo (Zook 2000; Pelletiere y Rodrigo 2001).

Existe una relación directa entre la propensión de las industrias a la concentración geográfica y la intensidad del conocimiento en la actividad de la industria. La importancia de la situación geográfica depende del ritmo con el que las nuevas ideas reemplazan a las viejas, es decir, de la obsolescencia del conocimiento. El capital intelectual, exactamente igual que el físico, se deprecia y queda obsoleto. Las industrias que experimentan elevados índices de obsolescencia del conocimiento se benefician si se sitúan cerca de las fuentes de nuevos conocimientos, de manera que puedan estar al tanto de las nuevas ideas y evaluarlas. Como era de esperar, los trabajos empíricos de investigación llegan al resultado de que las industrias que experimentan una rápida depreciación del conocimiento y una alta oportunidad tecnológica, tienen un alto grado de concentración espacial.

Esto se aplica de manera especial a las empresas que están en las primeras fases de su ciclo vital cuando el ritmo de innovación es rápido. La revolución de las telecomunicaciones posibilita la rápida transferencia del trabajo a todo el mundo. Empresas como Cisco Systems Inc., Deutsche Bank, IBM Corp.

, Nortel Networks Ltd., o Tektronix transfieren trabajo a diferentes localidades de todo el mundo para beneficiarse de los tres cambios de turno del día. Se puede empezar un trabajo de programación en Silicon Valley y transferirlo a Bangalore, India, pues el final de una jornada laboral corresponde con el inicio de otra. Así se repite el proceso, transfiriendo el trabajo a Irlanda para el tercer cambio de turno del día. El proceso continúa hasta la terminación del producto. Desde luego, es un método muy productivo, pero ¿es innovador? Se puede decir que la escritura de un código, sus comienzos e implantación forman parte de la innovación, pero es esa parte que se puede utilizar varias veces.

Es necesario realizar más trabajos de investigación sobre este tema. Es como si alguien en alguna parte estuviera orquestando el proceso y tuviera la capacidad de tomar decisiones para reaccionar a las crisis y a los problemas inesperados. La teoría predice que ese individuo residiría en una concentración que ofreciera los recursos para hallar soluciones novedosas y encargar el trabajo según sus necesidades. Veamos el libro Geeks: How Two Lost Boys Rode the Internet Out of Idaho escrito por Jon Katz para Wired, una revista difundida por Internet y en papel, dedicada a entender la tecnología de las comunicaciones.

Con la palabra geek se designa a individuos hábiles para la técnica pero ineptos socialmente y su etimología es muy expresiva. El significado original era actor de carnaval que mataba a los pollos cortándoles la cabeza de un mordisco. El empleo de este término da idea de la mala consideración en que se tiene a estos individuos. Pero la situación ha cambiado y la importancia económica de la capacidad técnica ha evolucionado hasta el punto de que los alumnos del Instituto Tecnológico de Massachussets llevan ahora camisetas que proclaman el “Orgullo Geek”. La historia de Katz nos da cuenta de cómo los individuos de localidades remotas pueden dominar una serie de capacidades de esta nueva tecnología y entrar en contacto con un mundo más amplio.

Dos jovencitos brillantes que viven en una comunidad local de la que estaban proscritos, fueron capaces de acceder a una comunidad virtual que reconocía, cultivaba y premiaba su talento. No obstante, al final de la historia, estos individuos se mudan a lugares en los que podían tener una interacción real con sus tutores y con otros individuos con intereses parecidos a los suyos. Las competencias sociales de hackers y geeks pueden no estar bien vistas por la opinión pública, pero no se puede negar que existen y que son sociales. Internet puede ofrecer una vida virtual rica e interesante, ofrece información y contactos a aquellos que viven aislados geográficamente.

Pero no es un sustituto de la vida real. El recurso clave en el proceso de innovación es la formación laboral de individuos que tengan los conocimientos y aptitudes para ser creativos, hacer las preguntas pertinentes, idear nuevas formas y maneras de hacer las cosas, y entender las posibilidades. Desde luego, la concentración geográfica de trabajo cualificado es la condición más difícil de reproducir en regiones que están intentando desarrollar concentraciones industriales de alta tecnología. Los motivos pueden ser que no se trata sólo de las competencias de los individuos, sino de los recursos de que éstos disponen en determinadas localizaciones. La tecnología está avanzando hacia una mayor sofisticación y las dificultades inherentes a la falta de la anchura de banda adecuada tienden a resolverse haciendo que las videoconferencias y el trabajo en colaboración sean más aceptables.

Una pregunta importante sigue: Si pudiera vivir en cualquier lugar y seguir haciendo su trabajo, ¿dónde viviría? ¿Cómo organizaría su vida y su tiempo? Quizá el aspecto más importante de la revolución de las TIC es que nos liberará de la tiranía de las distancias que condicionan y limitan la elección de lugar de residencia.

El término hacker ha venido a significar un amplio movimiento de individuos que son expertos en técnica pero siguen manteniendo el espíritu inconformista. Igual que la ética protestante del trabajo de Weber iba asociada a la Revolución Industrial, la ética hacker va unida a la Revolución de la Información.

Pekka Himanen (2001) en The Hacker Ethic and the Spirit of the Information Age formula una nueva característica de la era de la información relacionada con lo apasionante que puede ser la vida en el plano individual cuando se incorpora la creatividad al trabajo.

La ética hacker se basa en la creencia de que los individuos pueden crear grandes cosas aunando esfuerzos con imaginación. La nueva ética defiende la necesidad de mantener unos estándares y unos ideales éticos y fomentar unos ideales sociales como la intimidad y la igualdad. La palabra hacker en este contexto designa a los entusiastas programadores informáticos que comparten su trabajo, no al tipo de conducta delictiva que algunos individuos consideran un reto.

Para este grupo, el ordenador e Internet suponen un nuevo mecanismo de organizar la vida y el trabajo dándoles más sentido. ¿Qué papel tiene la localización en la ética hacker? Desde el momento en que el individuo tiene acceso a la web, su localización inmediata es irrelevante puesto que tiene acceso a toda la información y a los recursos disponibles en la web y puede conversar con todos los demás individuos conectados. Desde luego, hay que reconocer que no todos los individuos están conectados ni tienen acceso a la web. Es cierto que todos los lugares que no pueden conectarse a Internet se irán quedando atrás, lo que va creando una división digital entre los conectados y los no-conectados que sólo puede conducir a exacerbar las desigualdades económicas ya existentes.

El final de la tiranía de las distancias y la importancia cada vez mayor de la localización Cairncross (2001) escribe “La desaparición de las distancias como determinante del coste de las comunicaciones será probablemente la única fuerza económica que configure la sociedad en la primera mitad de este siglo. Influirá, de manera difícilmente imaginable, en las decisiones sobre dónde vivir y trabajar, los conceptos de fronteras nacionales y los modelos de comercio internacional.

La desaparición de las distancias significará que toda actividad que se base en una pantalla (ordenador) o un teléfono, se pueda llevar a cabo en cualquier sitio del mundo”. Pero esto no equivale ni mucho menos a decir que la localización carecerá de importancia. Ciertamente, cabe esperar que cuando las actividades y los actores económicos estén libres de las limitaciones de la ubicación geográfica, ésta quizá cobre más importancia.

Poca gente tendría que vivir en una localidad solamente en razón de su proximidad a los recursos naturales, por cuestiones de transportes o por capricho de su patrono. Es una visión de una utopía en la que Internet y la revolución digital dará a los individuos libertad de elegir su residencia. Shapiro y Varian (1999) defienden que las reglas fundamentales de conducta y la vida económica no han cambiado. Nuestra sociedad se ha acostumbrado a la disminución de costes de la transmisión de información e Internet es sólo una innovación más dentro de otras muchas. Internet es un instrumento y la cuestión es cómo preferiríamos emplearlo.

La pregunta es: si pudiera vivir en cualquier sitio, ¿dónde preferiría vivir? Mi opinión es que, como seres sociales que somos, preferiremos situarnos junto a otros seres parecidos a nosotros, en lugares que ofrezcan las ventajas que cada cual valore, oportunidades interesantes y ese elemento maravilloso de suerte -el encuentro casual, la inesperada taza de café, la revelación sorprendente.

Habrá algunos núcleos de actividad innovadora que serán los lugares más deseables, los sitios más productivos y, el que pueda, querrá vivir en ellos. Al fin y al cabo, somos entidades físicas y no virtuales y necesitamos estar en algún sitio. Internet es un medio nuevo, un instrumento más rápido que permite a los actores desempeñar las actividades que ya venían desempeñando. Es cierto que la vida ha cambiado de bido a Internet, lo mismo que ocurrió con la Revolución Industrial. Pero hay que reconocer que, aunque la Revolución Industrial trajo consigo grandes beneficios económicos y sociales, también produjo una ‘dis-locación’ de la gente a gran escala, cambió los hábitos de trabajo y las condiciones laborales de manera socialmente indeseable en muchos casos, y aumentó la contaminación y la explotación del medio ambiente.

Estamos ahora ante el abismo de la nueva revolución digital y quizá la manera de formular la pregunta es cómo podemos aprovechar esta nueva tecnología para construir una sociedad y una economía de más oportunidades, más libertad y armonía. Los seres humanos, en tanto que seres físicos, tienen que estar en algún espacio geográfico y ahora tenemos los medios para liberarnos de la tiranía de las distancias. Más que intentar predecir el futuro, espero que seamos capaces de emplear estos medios para configurarlo.

Traducido del inglés Agradecimientos *Deseo expresar mi agradecimiento a Dominique Foray por animarme a escribir sobre este tema. Es el tipo de amistad y colaboración a gran distancia facilitada por Internet. También quiero dar las gracias a David Audretsch, Ianin Cockburn y Pierre Desrochers por los debates que hemos mantenido sobre estas cuestiones.

Referencias

ABBATE, J. 2000. Inventing the Internet. [Inventar Internet]Boston: MIT Press.

CAIRNCROSS, F. 2001. The Death of Distance. [La desaparición de las distancias] Boston: Harvard Business School Press.

COMERFORD, R. 2000. “The Internet.” [Internet]. “Internet” IEEE Spectrum 37 (1), Enero: 40-44.

DEPARTMENT OF COMMERCE 1999. Falling through the Digital Divide: Defining the Digital Divide. [Caer en la división digital: definición de la división digital] National Telecommunications and Information Administration: Washington, D.C. http://www.ntia.doc.gov/ntiahome/digitaldivide/.

ECONOMIST 2000. “Internet Economics: A Thinkers Guide.” [La economía de Internet: Guía para pensadores] Abril 1: 64-66.

FELDMAN, M. P. 2000. “Location and innovation: the new economic geography of innovation, spillovers, and agglomeration” [La localización y la innovación: la nueva geografía económica de la innovación, diseminaciones y concentraciones]. En G. Clark, M. Feldman y M. Gertler, editores. Oxford Handbook of Economic Geography, [Manual de Geografía Económica de Oxford] Oxford: Oxford University Press.

GREENSTEIN, S. 2001. “The Commercialization of Internet Access.” [La comercialización del acceso a Internet]. En M. P. Feldman y A. N. Link, editores, Innovation Policy in the Knowledge-Based Economy. [La política de innovación en la economía d el conocimiento]. Boston: Kluwer Academic Publishers, p. 213-229.

HIMANEN, P, 2001. The Hacker Ethic and the Spirit of the Information Age. [La ética hacker y el espíritu de la era de la información]. Nueva York: Random House.

KAHN, D. 1996. The Codebreakers; The Comprehensive History of Secret Communication from Ancient Times to the Internet. [Los violadores de códigos: Historia exhaustiva de la comunicación secreta desde la antigüedad hasta Internet]. Nueva York.

KATZ, J. 2000. Geeks: How Two Lost Boys Rode the Internet Out of Idaho. [Los geeks: Cómo dos muchachos perdidos salieron de Idaho gracia s a Internet] Nueva York: Broadway Books.

LANGE, L. 1999. “The Internet.” [Internet]. IEEE Spectrum 36 (1), Enero: 35-40. LIEBESKIND, J., A. L. OLIVER, L .G. ZUCKER, AND M. B. BREWER. 1995. “Social Networks, Learning, and Flexibility: Sourcing Scientific Knowledge in New Biotechnology Firms,” [Redes sociales, aprendizaje y flexibilidad: crear el conocimiento científico en las nuevas empresas de biotecnología]. Organizational Science 7 (4): p.428-443.

LITAN, R. E. y A. M. RIVLAN. 2001. “The economy and the Internet: What lies ahead? [La economía e Internet: ¿que hay delante?]. Information Impacts Magazine. Abril. http://www.cisp.org/imp/ april_2001 /04_01litan-rivlan.htm

MARGHERIO et al. 2000. The Emerging Digital Economy. [La economía digital emergente]. Secretariat on Electronic Commerce, Department of Commerce.

EEUU. MARSHALL, A. 1890. Principles of Economics. [Principios de Economía]. Londres: Macmillan.

ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICOS (OCDE). 2000. OECD Information Techno logy Outlook 2000: ICTs, E-commerce and the Information Economy. [Perspectiva de la OCDE sobre la tecnología de la información para el año 2000: las TIC, el comercio electrónico y la economía de la información]. París:

OCDE. PELLETIERE, D. y G. C. RODRIGO. 2001. “Economic geography and policy in the network age.” [La geografía y la política económica en la era de las redes]. En M. P. Feldman y A. N. Link, editores, Innovation Policy in the Knowledge-Based Economy. [La política de la innovación en la economía del conocimiento]. Boston: Kluwer Academic Publishers, p. 231-257.

ROSEN, J. 2000. The Unwanted Gaze: The Destruction of Privacy in America. [La intromisión no deseada: la destrucción de la intimidad en América]. Nueva York: Random House.

SAHLMAN, W.A. 1990. “The Structure and Governance of Venture-Capital Organizations.” [Estructura y gobierno de las organizaciones de capital de riesgo]. Journal of Financial Economics: 27:473-522.

SAXENIAN, A. 1990. Regional Advantage. [La ventaja regional]. Cambridge, Tesis de Maestría, Harvard University Press SCHNEIER, B. 2000. Secrets and lies: digital security in a networked world . [Secretos y falsedades: la seguridad digital en un mundo de redes]. Nueva York: John Wiley.

SHAPIRO, C. y H. R. VARIAN. 1999 Information Rules: A Strategic Guide to the Network Economy, [Las reglas de la información: guía estratégica para la economía de redes]. Boston: Harvard Business School Press.

STANDAGE, T. 1998. The Victorian Internet. [La Internet Victoriana]. Nueva York: Berke ley Books.

WEITZMAN, M. L. 1998. “Recombinant Growth” [El crecimiento recombinante]. Quarterly Journal of Economics.

ZOOK, M. 2000. “The web of production: the economic geography of commercial Internet content production in the United States.” [La web de producción: geografía económica de la producción del contenido comercial de

Fuente:file:///C:/Users/Administrador/Downloads/feldman.pdf

Fuente imagen: https://encrypted-tbn2.gstatic.com/images?q=tbn:ANd9GcT7IiPrI5DoGi4zm0RYLfkKa-RiUMaO8Y1XvV39oSG3MCQtQJjQMA

Email: maryann.feldman@unc.edu

Comparte este contenido:

Las inseguridades en la sociedad del conocimiento

 

 Eurpa/Suecia/Julio del 2016/Articulo/file:/C:/Users/Administrador

Las inseguridades en la sociedad del conocimiento

Se nos está diciendo que vivimos en una sociedad del conocimiento y también que vivimos en una sociedad del riesgo. Ambas afirmaciones tienen algo de verdad. Por un lado, la información y el conocimiento se están acumulando a un ritmo sin precedentes y han adquirido nuevas funciones en la economía y en otros procesos sociales.

Por otro, cada vez se presta más atención en la vida pública a los riesgos y a las inseguridades. Sin embargo, al menos aparentemente, las expresiones “sociedad del conocimiento” y “sociedad del riesgo” parecen contradictorias.

En una “sociedad del conocimiento”, cabría esperar que los encargados de la adopción de decisiones supieran cómo lograr sus objetivos, mientras que en una “sociedad del riesgo” cabría esperar que los acontecimientos imprevisibles e incontrolables hicieran esa tarea imposible.

Con este artículo se pretende contribuir a clarificar la índole de esta contradicción aparente. Para ello, hemos reflexionado también sobre la función del riesgo y la inseguridad en una sociedad del conocimiento. El concepto de conocimiento El conocimiento es un concepto complejo.

En primer lugar, el conocimiento es una especie de creencia. Lo que uno no cree no puede ser conocimiento. Por lo tanto, si tengo acceso a una información correcta, pero no creo en ella, para mí no constituye un conocimiento.

Por otra parte, las creencias incorrectas tampoco se pueden considerar conocimiento. Si alguien cree que la tierra es plana, está claro que no se trata de un conocimiento. Además, lo que se considera conocimiento tiene que estar justificado.

Si alguien cree que el número atómico del oro es un número primo porque cree que el núcleo del átomo del oro tiene 61 protones, eso no es un conocimiento. Por lo tanto, el conocimiento tiene elementos tanto subjetivos como objetivos. Para nuestros propósitos actuales, podemos definir el conocimiento como una creencia verdadera y justificada. Se podrían añadir más cualidades para que la definición fuera exacta, pero no viene al caso en este momento.

En su lugar, será de utilidad centrarnos en dos aspectos junto a los cuales el concepto de conocimiento se puede debilitar. El primero es el de la asimilación cognitiva. Para que algo se considere como conocimiento tiene que ser integrado en el sistema de creencias del sujeto.

Mientras estoy escribiendo este artículo tengo sobre mi mesa un libro sin leer que trata de los hábitos viajeros de los habitantes de Estocolmo. Esto significa que tengo acceso a la información sobre este tema, pero no conocimiento. Si leo el libro, entonces es probable que la información se transforme en conocimiento.

Ahora bien, esta transformación de la información en conocimiento sólo se producirá si entiendo la información de manera que pueda integrarla en mi sistema de creencias de forma adecuada. Si me aprendo el texto de memoria, sin entenderlo, entonces tendré información sobre el tema, pero no conocimiento.

Los datos se diferencian de la información en que no tiene n que estar en una forma determinada, adecuada para la asimilación. Si en lugar del libro tuviera sobre mi mesa los 10000 cuestionarios en los que se basa, entonces tendría datos en lugar de información.

En resumen, los datos tienen que ser asimilables cognitivamente para que se puedan calificar de información, y cognitivamente asimilados para que se puedan calificar de conocimiento. En general, es difícil trazar una línea clara de separación entre el conocimiento y la mera información, y lo mismo ocurre entre la información y los meros datos.

Sin embargo, no por ello la distinción es menos importante. Es lamentable que en la ciencia informática, el “conocimiento” y la “información” se empleen frecuentemente como sinónimos. Quizá es por esto por lo que no siempre se distingue claramente entre “sociedad del conocimiento” y “sociedad de la información”.

El segundo aspecto es el grado de creencia del sujeto. El conocimiento implica creencia, y ésta requiere un alto grado de seguridad (subjetiva). Si no estoy seguro de si el número atómico del oro es 79, no se puede decir que tenga una creencia – o conocimiento – de que es así. Cuando la necesidad de seguridad no está satisfecha, sentimos en su lugar inseguridad, el estado epistemológico de no creer (o saber) algo seguro.

Hay que señalar que la inseguridad es un estado subjetivo, no objetivo. Si no estoy seguro de si hoy es el cumpleaños de mi prima, estoy en un estado de inseguridad, al margen de cuándo ella haya nacido.

En teoría de la decisión, el término “ignorancia” se usa corrientemente para referirse a la inseguridad en su grados más altos, es decir para estados en los que uno no tiene ni siquiera un grado de creencia en la afirmación en cuestión (no sabe el grado de probabilidad o improbabilidad).

Este uso puede dar lugar a confusión, pues en el lenguaje corriente “ignorancia”, contrariamente a “inseguridad”, expresa la distinción entre verdadero y no verdadero. (Una forma de ser ignorante, en el sentido corriente de la palabra, es estar seguro de algo que no es verdadero.) Ahora bien, por falta de una buena alternativa terminológica, usaremos “ignorancia” también para los altos grados de inseguridad (subjetiva).

Las dos formas de debilitar el concepto de conocimiento se resumen en el Diagrama 1. Diagrama 1. Dos maneras de debilitar el concepto de conocimiento Las complejidades del riesgo ¿Qué tiene que ver aquí el “riesgo”? Desgraciadamente, esta pregunta es difícil de contestar, pues el término “riesgo” tiene varias acepciones muy arraigadas.

Se suele emplear “riesgo” para expresar, en general, una situación en la que algo inoportuno puede ocurrir o no, pero no sabemos si ocurrirá. En este sentido, “riesgo” está estrechamente relacionado con “inseguridad”; pero ambos conceptos no son sinónimos. Mientras que “inseguridad” pertenece al ámbito subjetivo, “riesgo” tiene un fuerte componente objetivo.

Si no sé si una culebra es venenosa, me encuentro en un estado de inseguridad con respecto a la posibilidad de que me envenene. Ahora bien, como esta especie no tiene veneno, no existe tal riesgo, pero sí existe la inseguridad. La relación entre estos dos conceptos “riesgo” (en este sentido) e “inseguridad” se parece en parte a la que existe entre “verdad” y “creencia”.

En otras ocasiones, “riesgo” expresa la probabilidad de que se produzca un acontecimiento indeseado. Es el uso que se hace, por ejemplo, cuando se pregunta al médico qué riesgo hay de que fracase un tratamiento. Éste es también el significado estándar del término en la teoría de la decisión; por “decisión en condiciones de riesgo” se entiende “decisión con probabilidades definidas”. Un tercer uso es corriente en el análisis profesional del riesgo.

En esta disciplina, “riesgo” suele denotar una representación numérica de exactitud, que se obtiene multiplicando la probabilidad de que se produzca un acontecimiento indeseado por una medida de su valor negativo. Cuando, por ejemplo, los riesgos de la energía nuclear se comparan en términos numéricos con los de los combustib les fósiles, “riesgo” se entiende normalmente en este tercer sentido técnico. Así pues, en los tres sentidos de “riesgo”, el uso de este término se basa en una mezcla sutil de conocimiento e inseguridad.

Cuando existe un riesgo, tiene que haber algo que es desconocido o que tiene un resultado desconocido; por lo tanto, tiene que haber inseguridad. Pero para que esta inseguridad constituya un riesgo para nosotros, tiene que haber algo conocido en ello. En el primero de los tres sentidos de “riesgo”, tenemos que saber que la inseguridad es “real” al menos en el sentido de que no se puede hacer desaparecer con la ayuda del conocimiento que se tiene.

En los dos últimos, más técnicos, tenemos que tener una representación numérica de la Conocimiento Información Datos Inseguridad Ignorancia inseguridad. Las intrincadas relaciones entre el riesgo y los otros conceptos están sólo apuntadas en el Diagrama 2 con la colocación del “riesgo”. Diagrama 2. El papel del “riesgo” en los conceptos epistemológicos.

Poner etiquetas a las sociedades De los seis términos del Diagrama 2, tres se suelen emplear para referirse a la sociedad en la que vivimos. Vivimos en una “sociedad del conocimiento”, en una “sociedad de la información”, y en una “sociedad del riesgo”. ¿Hasta qué punto, y en qué sentido, son adecuadas estas denominaciones?

El término “sociedad X” se puede interpretar de muchas formas. Puede expresar una sociedad en la que …X es más común o más prevalente que en las sociedades anteriores. …se presta más atención a X que en las sociedades anteriores. …la función de X es mayor en las estructuras sociales de poder que en las sociedades anteriores. etc.

Por lo tanto, para cualquier X dada (como riesgo, información, conocimiento…) no puede haber una única respuesta correcta a la pregunta de si vivimos o no en una sociedad X. La respuesta dependerá de qué tipo de definición escojamos, e incluso después de haber escogido (por ejemplo) una de las tres definiciones vistas anteriormente, son necesarias más especificaciones pues pueden ser esenciales para la respuesta.

¿Vivimos en una sociedad del conocimiento? Tanto la respuesta positiva como la negativa son posibles. La primera porque la cantidad total de conocimiento humano acumulado va en aumento. Pero, por otra parte, se puede afirmar que la información se está acumulando a una velocidad mucho mayor que el conocimiento y que la transformación de la información en conocimiento se está quedando atrás.

Desde ese punto de vista, la “sociedad de la información” (o incluso quizá la “sociedad de los datos”) sería una definición más precisa. Conocimiento Información Datos Insegurida d Ignorancia Riesgo Del mismo modo, si escogemos otra definición, podemos afirmar que nuestra sociedad es una sociedad del conocimiento debido a la importancia creciente de éste en las estructuras sociales de poder.

Pero en ese caso, por otra parte, se puede afirmar que esto se aplica solamente a ciertos tipos de conocimiento, y que la importancia de otros tipos de conocimiento está disminuyendo, de manera que lo que está ocurriendo es que hay un cambio entre los diferentes tipos de conocimientos y no que estemos pasando de depender menos del conocimiento a depender más.

Campesina con su hijo cerca de la central nuclear Three Mile Island, marzo 1979. La región fue evacuada después de un accidente nuclear. AFP/UPI ¿Vivimos en una sociedad de riesgo? Por motivos parecidos, esta pregunta no tiene una respuesta unívoca. De entrada, ¿están los riesgos más extendidos o son más importantes que en las sociedades anteriores? Evidentemente, los cambios tecnológicos han impuesto nuevos riesgos a la humanidad.

La mayoría de los riesgos actuales no existían hace cincuenta o cien años– los misiles teledirigidos, las centrales de energía nuclear, los pesticidas orgánicos, los accidentes aéreos, etc. La conclusión natural parece ser que en las zonas industrializadas del mundo, los avances tecnológicos han dado lugar a un aumento de los riesgos.

Sin embargo, cabe hacer la observación de que este aparente aumento depende en gran medida de nuestro punto de mira. Por diversos motivos, prestamos más atención al aumento de riesgos que a su disminución.

En las zonas industrializadas del mundo, el hambre ya no es una amenaza grave, ni tampoco lo es la larga lista de enfermedades que antes eran incurables y ahora tienen curación. La navegación y la minería son menos peligrosas que antes, aunque todavía se pueda hacer mucho para reducir riesgos.

Si algunos riesgos están aumentando y otros disminuyendo, ¿cómo podemos medir la cantidad total de riesgo? Una medida razonable, en lo referente a la salud, es la esperanza de vida. Si se mide de esta forma, en las zonas ricas del mundo, los riesgos totales han disminuido.

¿Es la sociedad del riesgo algo que dejamos atrás hace ya tiempo? No necesariamente. Hay otras acepciones de “la sociedad del riesgo”, como la de sociedad en la cual los problemas sociales se tratan y analizan con referencia al concepto de “riesgo”. En este sentido, desde luego, vivimos en una sociedad de riesgo en mucha mayor medida que en cualquier generación anterior. Pero lo mismo que “sociedad de la información” puede ser en algunos aspectos una expresión más adecuada que “sociedad del conoc imiento”, se puede decir que la expresión “sociedad de la inseguridad” sería más precisa que la de “sociedad del riesgo”, al menos si entendemos la palabra “riesgo” en su sentido técnico de inseguridad cuantificada.

La ciencia y la tecnología modernas nos han hecho conscientes de muchas inseguridades y no a todas ellas se las puede denominar riesgos con propiedad. La inseguridad científica La ciencia nos brinda conocimientos nuevos. Pero desgraciadamente, este conocimiento nuevo genera más inseguridades.

Además de contestar a algunas de nuestras preguntas, la ciencia produce, a un ritmo siempre creciente, nuevas preguntas sin respuesta. Si vivimos actualmente en una “sociedad de la inseguridad” se debe básicamente a las inseguridades hacia las que la ciencia llama nuestra atención.

Algunos de los objetos del estudio científico son extremadamente complejos, y esta complejidad es la causa principal de la inseguridad científica. El efecto invernadero antropogénico es un ejemplo muy claro. Es necesario tomar en cuenta una larga serie de factores causales y mecanismos potenciales para determinar los efectos del aumento de concentraciones de gas invernadero en la atmósfera.

Algunos sistemas naturales muy complejos como los mares, bosques, y suelos interactúan con el sistema atmosférico, y lo mismo ocurre con actividades humanas como la producción de alimentos y energía. También hay que estudiar factores sociales como el comercio, la población, la migración y las formas de vida. Evidentemente, toda predicción acerca del resultado de todas estas interacciones tiene que estar cargada de inseguridad.

Una gran parte de la ciencia moderna se dedica al estudio de sistemas compuestos que son al menos tan complejos como el sistema climático: los ecosistemas, el cuerpo humano, la economía mundial, etc. Cada uno de éstos contiene tantos componentes e interacciones posibles que en la práctica son impredecibles. Algunos de estos sistemas son impredecibles no sólo en la práctica, sino también en principio, debido a los fenómenos caóticos.

El resultado de la evolución biológica es impredecible por este motivo. El sistema climático es también un sistema caótico, y está claro hasta qué punto esto limita la posibilidad de predecir el efecto invernadero.

Además, la ciencia está siempre sujeta a otro tipo de inseguridad, la de los factores desconocidos. Sólo muy rara vez tenemos buenas razones para creer que nuestros modelos científicos están completos, en el sentido de que no se nos ha pasado por alto ningún componente importante o interacción.

Incluso aunque podamos hacer cálculos exactos y fiables de los efectos combinados de todos los factores conocidos que influyen en el clima futuro, ¿cómo podemos saber que no hemos olvidado ningún proceso físico, químico o biológico que habríamos debido tener en cuenta?

Las vicisitudes del azar En algunos casos, se puede llegar al conocimiento sobre sistemas complejos por medio de la experiencia sistematizada. Esto ocurre, por ejemplo, cuando se estudian los efectos de los agentes terapéuticos en el cuerpo humano. Debido a la complejidad del cuerpo, es imposible, en la práctica, predecir teóricamente los efectos de una nueva droga.

Por eso, después de haber realizado ensayos preliminares, se prueban las medicinas de forma experimental en grupos de pacientes. Basándose en las estadísticas de estos estudios (ensayos clínicos) se pueden asegurar los efectos de las drogas médicas con una seguridad razonable. Evidentemente, hay muchos casos en los que este tipo de “desvío estadístico” para el conocimiento de sistemas complejos no es posible.

No tenemos acceso a un centenar de Tierras en las cuales poder experimentar para determinar cuál es el nivel tolerable de emisiones de gas invernadero. Es más, incluso en los casos en los que se dispone de información estadística, ésta no siempre reduce las inseguridades con tanta eficacia como cabría esperar. Consideremos el ejemplo de los efectos de las sustancias químicas en la salud.

¿Hasta qué punto es posible determinar la presencia o ausencia de estos efectos por medio del estudio directo de las personas expuestas? Desgraciadamente, la respuesta a esta pegunta es bastante desconcertante. Para abreviar, centrémonos en los riesgos mortales producidos por algunas sustancias tóxicas.

Para empezar, supongamos que 1000 personas están sujetas a la exposición química que produce el angiosarcoma hepático (un tipo poco frecuente de cáncer de hígado) en 0.5 % de las personas expuestas. Entre las personas no expuestas, la frecuencia de esta enfermedad está muy próxima a cero.

Si se realiza una investigación adecuada, hay muchas posibilidades de que se descubra una mayor presencia de esta enfermedad entre la población expuesta. A continuación, supongamos que otras 1000 personas están sujetas a una exposición que aumenta la incidencia de cáncer de pulmón de 10,0 a 10,5 %.

El número adicional de casos de cáncer es el mismo que en el caso anterior. Sin embargo, como se ve con el cálculo de probabilidades, la diferencia entre 10,0 y 10,5 % en este caso no se puede distinguir de variaciones fortuitas. Así pues, los efectos de esta sustancia no se pueden detectar estudiando a la población expuesta. En la práctica, los estudios epidemiológicos pueden detectar con fiabilidad el exceso relativo de riesgos solamente si está en torno a 10 % ó más.

Para los tipos más comunes de enfermedades mortales, como la enfermedad coronaria y el cáncer de pulmón, el riesgo de mortalidad es de un orden de magnitud de aproximadamente 10%. Por lo tanto, incluso en los estudios más afinados, un aumento del riesgo de mortalidad de 10-2 (10 % de 10 %) o menor puede ser indetectable (es decir, no se puede distinguir de variaciones fortuitas).

En experimentos con animales tenemos problemas experimentales parecidos, además de los problemas de extrapola ción de una especie a otra. ¿Cuál es la incidencia mínima en la salud para que el riesgo no nos parezca preocupante? Se han hecho muchos intentos de establecer un límite de preocupación, expresado como “riesgo aceptable” o “riesgo mínimo”.

La mayoría de nosotros estaría de acuerdo en que si una población humana estuviera expuesta a un factor de riesgo que estadísticamente costara la vida de una persona de cada 109 , este riesgo no sería cuestión de gran prioridad. Razonablemente, no sería un desastre que nuestros métodos de evaluación de los riesgos fueran insuficientes para descubrir riesgos de ese orden de magnitud.

Pero, por otra parte, la mayoría de nosotros consideraría un grave problema que no se pudiera detectar un factor de riesgo que costara la vida de una persona de cada 100 ó 1000. Las propuestas más comunes para fijar los límites de preocupación por los riesgos mortales son de 1 por 100 000 y 1 por 1000 000.

Es difícil encontrar propuestas de 1 por 10 000. Estos valores desde luego no son límites objetivos o científicos; pertenecen al ámbito de la ética. Sin embargo, es importante Diagrama 3. El “vacío ético” del conocimiento toxicológico. señalar la existencia de lo que se puede llamar un vacío ético, un vacío entre los niveles que son detectables científicamente y los que normalmente se consideran éticamente aceptables o al menos de preocupación menor.

Este vacío ético, ilustrado en el Diagrama 3, tiene un espacio de 2–4 órdenes de magnitud. Por todo esto, la ciencia nos deja con una cantidad considerable de inseguridad: aunque no se hayan encontrado efectos adversos en la población expuesta, puede seguir habiendo efectos en unos niveles de riesgo que son al menos entre 100 y 1000 veces más altos que los comúnmente propuestos de preocupación o aceptabilidad. La inseguridad científica en la adopción de decisiones Cuando pasamos de la ciencia al terreno práctico de la adopción de decisiones, encontramos aún más inseguridades.

Hay al menos cuatro tipos de inseguridad que se tienen que tener en cuenta en la práctica de la adopción de decisiones: la inseguridad en cuanto a las consecuencias, la inseguridad por falta de confianza, la inseguridad en cuanto al campo de decisión, y la inseguridad en cuanto a los valores. Los dos primeros están en estrecha relación con las inseguridades de la ciencia.

Por inseguridad de consecuencias se entiende que las consecuencias de las opciones que se le ofrecen al decisor no son conocidas. Este tipo de inseguridad se puede categorizar en cuatro grados. En el primero, el grado más bajo de inseguridad de 1 10-1 10-2 10-3 10-4 10-5 10-7 10-9 10-8 10-6 Detectable Aceptable consecuencias, se sabe qué resultados son posibles y cuáles son sus probabilidades. (Como dijimos antes, el término técnico para esto es “adopción de decisiones en condiciones de riesgo”.) El segundo nivel es el de adopción de decisiones con conocimiento incompleto de las probabilidades.

(El término técnico es “adopción de decisiones en condiciones de inseguridad”.) Por ejemplo, alguien que construye una casa en Lima desconoce la probabilidad exacta de que la casa sufra un terremoto importante, pero puede saber que la probabilidad es superior a 5 por ciento. En el tercer nivel de inseguridad de consecuencias, se sabe cuáles son los posibles resultados de las diversas opciones, pero todo lo que se sabe en cuanto a sus probabilidades es que no son cero. (El término técnico es “adopción de decisiones en condiciones de ignorancia”.)

En el cuarto y más alto nivel, adopción de decisiones con posibilidades desconocidas, no se sabe cuáles son las consecuencias posibles. Aunque la teoría de la decisión se ha centrado esencialmente en el nivel más bajo de inseguridad de consecuencias, en muchas decisiones prácticas, el nivel más alto de inseguridad puede ser, al menos, igual de importante. La distinción entre los niveles tercero y cuarto no siempre está clara, como se puede ver en las series siguientes de problemas posibles con la ingeniería genética: · consecuencias catastróficas imprevistas · emergencia de nuevas formas de vida, con consecuencias catastróficas imprevistas · emergencia de nuevos virus, con consecuencias catastróficas imprevistas · emergencia de nuevos virus, que pueden costar muchas vidas  emergencia de virus mortales que se extiendan como los virus de la gripe · emergencia de virus del SIDA modificados que se extiendan como los virus de la gripe Aunque algunas interpretaciones del nivel alto de inseguridad de consecuencias se puedan revelar desdeñables, la inseguridad fundamental más general puede permanecer.

Supongamos, por ejemplo, que alguien propone la introducción de una especie de lombriz modificada genéticamente que desplazará a la lombriz común y que aireará mejor el suelo. No dejaría de ser razonable tomar en consideración la posibilidad de que esto pudiera tener consecuencias imprevistas negativas. Siguiendo con la suposición, imaginemos que todas las preocupaciones concretas pueden ser neutralizadas.

Se puede demostrar que la nueva especie no provoca una mayor erosión del suelo, no será más susceptible a las enfermedades, etc. Aun así, sería razonable pensar: “Sí, pero puede tener otros efectos negativos que ni siquiera se nos han ocurrido. Por lo tanto, la nueva especie no debe ser introducida.” Del mismo modo, si alguien propusiera lanzar una sustancia química a la estratosfera por alguna razón, buena o no, no sería irracional oponerse a esta propuesta por el mero hecho de que podría tener consecuencias imprevistas, y esto suponiendo que todos los problemas pudieran ser neutralizados.

Nuestro segundo tipo de inseguridad es el relativo a la confianza. Los encargados de la adopción de decisiones suelen tener que basarse en la opinión de los expertos, que en la mayoría de los casos deben su saber a una combinación de formación científica y experiencia práctica. Se suele dar por sentado que un decidor sensato tiene que admitir que los expertos tienen razón, pero de hecho, no hay buenas razones para ello. Abundantes pruebas históricas nos muestran que los expertos se han equivocado a veces.

Un decidor sensato no debería excluir la posibilidad de que esto pueda volver a ocurrir. Cuanto menos sepa o entienda Ud. de aquello de lo que hablan los expertos, mayor inseguridad y desconfianza sentirá Ud. si es un decisor sensato. Esto no siempre ha sido bien entendido por los que tienen un conocimiento tecnológico y científico privilegiado. Otros dos tipos de inseguridad en la decisión Todas las decisiones tienen un campo limitado. Un decisor puede escoger entre tomar muchas pequeñas decisiones o reunirlas en menos decisiones pero más amplias. Cuando se toma una decisión, siempre hay que trazar la línea en alguna parte, y escoger (implícita o explícitamente) un “campo” para la decisión. Los diferentes grupos de interés trazan la línea en distintos sitios. La cuestión de los desechos nucleares es un buen ejemplo. En el debate público sobre este tema, hay al menos cuatro campos de decisión en competencia, que se ofrecen a continuación ordenados de menor a mayor amplitud:

1. El campo de eliminación de los desechos: Dados los reactores nucleares que tenemos, ¿cómo se deberían eliminar los desechos radioactivos de manera segura? 2. El campo de producción de energía: Dado el sistema que tenemos para la distribución y consumo de energía, ¿cómo se debe producir la energía? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? 3. El campo del sistema de energía: Dado el resto de nuestro sistema social, ¿cómo debemos producir, distribuir y consumir la energía? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? 4. El campo del sistema social: ¿Cómo debería organizarse nuestra sociedad? ¿Qué nos enseña la cuestión de los desechos nucleares sobre esto? La industria nuclear suele preferir los dos campos más estrechos, mientras que los adversarios de la energía nuclear prefieren normalmente los dos más amplios.

Es importante señalar que cada uno de los cuatro campos de decisión es compatible con una adopción de decisiones sensata. Por lo tanto, entre los diferentes decisiones sensatos puede haber distintas opiniones acerca de lo que trata realmente esta cuestión. Este ejemplo puede ser inusualmente claro, pero su estructura básica no es atípica. En las cuestiones controvertidas suele haber campos de decisión en competencia, como el campo nacional y el internacional. Como no hay elección de campo objetiva o independiente de los valores, esto contribuye a la inseguridad en la adopción de decisiones.

En su mayoría, los teóricos de la decisión parten de la base de que hay una serie de valores bien definidos en los que debe basarse la decisión. Pero en la práctica, suele haber una inseguridad considerable con respecto a los valores. La mayoría de las decisiones en cuestiones sociales requieren la evaluación de resultados complejos que difieren según las diversas categorías, como el dinero, las vidas humanas, el bienestar de la humanidad, la protección del medio ambiente, etc. Nuestras intuiciones éticas no bastan para sopesar de manera inequívoca todas las combinaciones posibles de estos factores.

Como ejemplo, citaremos las cuestiones medioambientales del tercer mundo, como la erosión del suelo, que suelen entrar en conflicto con las necesidades humanas inmediatas. En estos casos, pocos de nosotros tenemos una solución preparada para conciliar los valores que entran en conflicto. En algunos casos, la inseguridad del valor se puede reducir por medio de la reflexión moral informada, pero también hay casos en los que esto no parece posible.

Otra complicación entra en juego cuando las decisiones afectan a las generaciones futuras. Parecería razonable juzgar los efectos en las generaciones futuras de acuerdo, al menos en parte, con los valores (preferencias) de las futuras personas afectadas y no de acuerdo con nuestros propios valores (preferencias). Pero la evolución futura de los valores humanos es extremadamente difícil de predecir. Las decisiones que intentan respetar los valores de las generaciones futuras son por lo tanto decisiones forzosamente inseguras respecto a los valores.

Conclusión La acumulación masiva y extendida de información y –en menor medida– de conocimiento es una característica evidente de las sociedades actuales. Igualmente lo es la presencia de riesgos e inseguridades en cuestiones de debate público y en la adopción de decisiones. Auque estas dos tendencias – más informac ión y más inseguridad – pueden parecer contradictorias, hay una sencilla razón para que coexistan: aunque la nueva información, especialmente la que nos brinda la ciencia, resuelva en ocasiones viejas inseguridades, va suscitando otras nuevas a un ritmo mucho más rápido. El conocimiento sobre la inseguridad, y concomitantemente, el conocimiento sobre el riesgo, es una categoría epistemológica propia de nuestra era. Para solucionar toda esta inseguridad, es necesario elaborar estrategias para procesar la información y la adopción de decisiones, que tomen esto en cuenta. El análisis del riesgo cuantitativo, el principio de precaución, las opciones reversibles de decisión, la implicación del destinatario, y los procesos participativos son indicios de los planteamientos que los investigadores y los profesionales han adoptado para el desarrollo de estas estrategias.

No hay duda de que, para solucionar los problemas suscitados por la inseguridad y el riesgo, es necesario entender mejor los flujos de la información en la sociedad moderna y sus repercusiones sociales.

Traducido del inglés Sugerencias de lectura

HANSSON, S. O., Decision-Making Under Great Uncertainty, [La adopción de decisiones en condiciones de gran inseguridad]. Philosophy of the Social Sciences 26 (1996): 369-386.

HANSSON, S. O., The Limits of Precaution, [Los límites de la precaución] Foundations of Science 2 (1997): 293-306.

HANSSON, S.O. The Moral Significance of Indetectable Effects, [El significado moral de los efectos indetectables]. Risk 10:101-108, 1999.

JELLINEK, S. D., On The Inevitability Of Being Wrong, [Sobre lo inevitable de equivocarse]. Annals of the New York Academy of Science 363 (1981): 43–47.

LOASBY, B. J. Choice, Complexity, And Ignorance: An Enquiry Into Economic Theory And The Practice Of Decision-Making, [Elección, complejidad e ignorancia: estudio de la teoría económica y la práctica de la adopción de decisiones]. Cambridge: Cambridge U.P. 1976.

SCHELLING T.C., Research By Accident, [Investigación por casualidad]. Technological Forecasting And Social Change 53/1 (1996): 15-20.

SIMON, H.A., The New Science of Management Decision, [La nueva ciencia de la decisión de gestión]. Nueva York: Haper, 1960.

THOMPSON, P. B., Risking or Being Willing: Hamlet and the DC-10, [Los riesgos de la decisión: Hamlet y el DC-10] Journal of Value Inquiry 19 (1985): 301-310.

WAGNER, W. E., The Science Charade In Toxic Risk Regulation, [La charada científica en la regulación de los riesgos tóxicos]. Columbia Law Review 95 (1995): 1613-1723.

WEINBERG, A. M., Science and Trans -Science, [La ciencia y la trans-ciencia]. Minerva 10 (1972): 209-222.

Fuente:file:///C:/Users/Administrador/Downloads/ove.pdf

Fuente Imagen https://i.ytimg.com/vi/G0KUHcjygIg/maxresdefault.jpg

Comparte este contenido:

Tres ideas para una recristianización

América del sur/Venezuela/ Omar Hurtado Rayugsen/Artículo/www.scielo.org.ve
Apreciados amigos nos hemos congregado esta tarde en nuestro venerable Padre Pedagógico para asistir al bautizo de una obra que ya es clásica entre los estudiosos de la Ciencia Social, cuyo título: El Programa lo hace el Profesor y sus contenidos .
Recurriremos al artilugio de la Iniciamos la exposición en si con un epígrafe, extraído del trabajo que nos ocupa “Que en una época de cambios, como la que ahora se vive, sea la educación objeto de profundas interrogaciones [a] escala mundial y en todos los niveles, no debe sorprendernos” Tovar, Ramón A.
El programa lo hace el Profesor (1969:33 / 2012: 20) Aspiramos que la anterior cita nos sirva de brújula en el desarrollo de esta exposición y para demostrar la idea central que nos anima: insistir en la imperecibilidad de la doctrina que ejemplifica quien nos convoca.
I.- El Autor: A Ramón Tovar, así a secas y tuteándolo como casi nunca hacemos, lo conocimos, virtualmente diríamos en estos tiempos, avanzada la década de los sesenta cuando al 1 Palabras leídas, el 08/11/1912 en el Instituto Pedagógico de Caracas, en el acto de Presentación de la 2da. edición de El Programa lo hace el Profesor. 2 liceo donde cursábamos bachillerato llegó un profesor graduado en Geografía e Historia y nos puso a estudiar un libro con un título indescifrable para nuestras imberbes entendederas: Venezuela: País subdesarrollado.
Lo que, probablemente, a muchos les parecerá una anécdota baladí para nuestros compañeros etarios está llena de significados. Estamos refiriéndonos a una institución de educación media que está enclavada en las soledades de las mesas orientales; en la que, habiendo transcurrido casi un siglo desde la creación del ministerio de Instrucción Pública y siendo, para aquellos momentos, una de las pocas de su tipo que existían en tales latitudes, la presencia de un profesor graduado constituía una situación excepcional.
El joven profesional en cuestión, por lo demás, se nos presentó con un material de estudio y unas estrategias didácticas desconocidas y totalmente distintas a la enseñanza memorística y repetitiva por donde, hasta entonces, transitábamos tan displicentemente. Y, por si fuera poco, nos urgía para que analizáramos, comparáramos y sintetizáramos; exigiéndonos que utilizáramos unas capacidades mentales que ni siquiera atisbábamos poseer.
Pasados unos meses arribamos a la casona del Paraíso, imbuidos de las ideas revolucionarias tan en boga para esos momentos. En ella un día, inopinadamente, chocamos con el responsable de la disciplina en el Departamento. Fue a tempranas horas de una noche cuando protestábamos la fijación de un examen y nos tocó el llamado al orden de la autoridad en funciones.
Para nosotros; dirigentes estudiantiles ungidos, como todos los jóvenes, –no sabemos por quien- de poderes sobrenaturales; encontrar a alguien que nos dijera que primero debíamos conocer la norma para poder protestar contra ella, fue toda una revelación. No les hemos contado que el Profesor que nos hizo tan enérgico llamado de atención era asombrosamente parecido al que aparece en la solapa del libro en el que habíamos intentado descifrar en las inmensidades de la Venezuela profunda. ¡Claro, si era el mismo! Posteriormente, pasamos a la condición de ser sus alumnos activos durante dos años.
Siempre tenemos presente los pasajes clave de ese exigente ejercicio formativo. Citaremos un ejemplo entre tantos. El primer día de clase el Profesor de Geografía del Antiguo Continente se presentó armado con una Regla en T y, ante nuestra desconcertada mirada, procedió a trazar en la pizarra una matriz de doble entrada mientras nos decía: “Este será el instrumento básico que utilizaremos para organizar la información”, luego procedió a llenarla de datos y a explicar los diferentes rubros que le incorporaba.
Al tiempo que nos indicaba: “Con esta serie procederemos a fundamentar el análisis del espacio estudiado” y afirmaba “Para realizar el mismo yo iré de más a menos y ustedes vendrán de menos a más”. De esa manera nos introdujo, sin jactancia y sin decírnoslo, en el Método de Los Conjuntos y en el uso de los principios del Materialismo Histórico como metodología.
Todo ello con una rigurosidad pedagógica, con una claridad expositiva y con una solidez didáctica que, aun hoy, seguimos definiendo como insuperable. De esa memorable ocasión han transcurrido casi cincuenta años y desde entonces nos hemos beneficiado de un intensivo y permanente proceso de aprendizaje. En ese lapso nuestro Maestro ha desarrollado destacadas investigaciones, ha escrito trascendentales 3 libros, ha elaborado una propuesta metodológica para la investigación y la enseñanza de las Ciencias Sociales en realidades como la venezolana, ha obtenido el reconocimiento de memorables instituciones; y, sobre todo, ha creado Escuela.
Los resultados de su labor inquiridora están en trabajos como La Obra Pía de Chuao y el Estudio de Caracas, ambos editados por la Universidad Central de Venezuela, y Método para la Enseñanza de la Geografía publicado por la UNESCO. De sus libros, de amplia difusión, además de los ya citados, los más conocidos son: Geografía: Ciencia de Síntesis, La Población de Venezuela, Imagen Geoeconómica de Venezuela, Perspectiva Geográfica de Venezuela, Lo Geográfico, El Enfoque Geohistórico y Sendas de la Nueva Ciencia.
Cualquiera de los aquí presente puede atestiguar como la obra escrita del profesor Tovar se conceptualiza entre los libreros casi como piezas de colección y ni siquiera la digitalización adelantada hace unos años por la Universidad de Carabobo ha logrado suplir los reclamos de tantos indagadores y estudiosos de la misma.
II.- La Obra: Reconociendo que estamos sesgados en el análisis diremos que de los más de sesenta años de labor fecunda del Maestro Ramón Tovar hay tres logros que nos llaman poderosamente la atención: (1) la transformación profunda que impulsó en la enseñanza de la Geografía, (2) la creación del Centro de Investigaciones Geodidácticas y (3) la proposición del Enfoque Geohistórico.
Procuraremos reseñar brevemente en que consiste cada uno de ellos, pero sin ajustarnos a ningún ordenamiento cronológicamente lineal. Para hacernos una idea de cuan significativo ha sido el aporte del profesor Tovar en la reconceptualización de la enseñanza de la Geografía recordaremos como para los comienzos de los años sesenta de la centuria pasada; cuando el egresa del Instituto de Geografía Aplicada de la Universidad de Estrasburgo, hoy Universidad Marc Bloch; en Venezuela y en América toda el énfasis en la disciplina estaba dirigido a las variables fisiográficas y nuestros programas tenían como punto de partida “la Tierra en el Espacio sideral”.
El esfuerzo de él y de quienes hicieron causa común con sus propuestas se dirigió a implosionar esta situación. Entonces empezamos a hablar de la población como el punto de partida; se valorizaron los recursos didácticos: cartogramas, cortes topográficos, ilustraciones y gráficos de actividades, entre otros; se incorporaron los trabajos de campo a cualquier escala, incluso al patio de las escuelas y liceos; se redescubrieron las lecturas geográficas e históricas de los representantes de nuestra literatura; se revalorizaron los aportes de las expresiones artísticas a la ciencia de la espacialidad; se invirtieron las relaciones, hasta entonces planteadas, para ir desde lo más cercano y comprensible hasta lo más lejano y abstruso y se comenzó a insistir en la articulación con la historia.
En pocas palabras, más que comenzar a enseñar geografía de una forma distinta, se empezó a enseñar otra geografía. Verbigracia, fuimos testigos del cambio de mentalidad que significó, en un naciente pedagógico, dejar de hablar de Geografía General e iniciar el trabajo con la Geografía del Mundo. 4 Comenzando los setenta empezaron a ganar importancia los clubes de ciencias.
Él nos insistía en que más que un círculo, sinónimo de instancia cerrada, necesitábamos ahondar en la difusión del conocimiento, las maneras de acceder a él y la urgencia de incorporar a las nuevas generaciones de docentes a su sistematización desde el aula hacia la sociedad y el mundo. En esta prédica contó con aliados incondicionales de los cuales, ofreciendo disculpas a los que omitamos, destacaremos a Ezequiel Alfonso Camacho Calderón, su hermano desde los años juveniles, y a María de Lourdes Taborda Romero de Cedeño, nuestra inolvidable Maestra Maruja. Así surgió el Centro de Investigaciones Geodidácticas (CIGD), ente impulsor de las Jornadas de Enseñanza de las Ciencias Sociales y de publicaciones de renombre dentro de la especialidad.
Hoy, a cuarenta años distancia de esas experiencias iniciales, el CIGD tiene presencia en todas las instituciones de educación superior, sobre todo en las destinadas a la formación del recurso docente que el país está reclamando en este momento de cambio epocal. Las Jornadas se han consolidado como producto de un fructífero trabajo que las han llevado a todo el territorio nacional.
Y la Revista Geodidáctica: Teoría y Praxis, orgullosa heredera del Boletín y de la Revista Geodidáctica, lucha por afianzar su presencia entre las publicaciones acreditadas del ámbito. Además, los orgullosos alumnos del Profesor Tovar tienen una fuerte presencia en los institutos de investigación, centros de enseñanza a todos los niveles del sistema educativo venezolano y exhiben una sólida producción de libros, artículos y trabajos especializados, (que, con el debido respeto a la labor cumplida, no enumeraremos para no hacer más tediosa esta participación), pero que han merecido el reconocimiento de los distintos mecanismos de evaluación con que cuenta el país y hasta han trascendido las fronteras nacionales.
Concluiremos este segmento indicando que cuando el Profesor Ramón Tovar se reincorpora a las aulas del Pedagógico ya de Caracas, luego de su brillante pasantía por la celebérrima universidad alsaciana, encuentra que hay una peligrosa tendencia a la fragmentación del conocimiento y un creciente divorcio entre las ciencias sociales, especialmente entre la Geografía y la Historia.
Se dedica entonces a profundizar las líneas de su pensamiento, el cual ya había enunciado en su Contribución para el estudio de la geografía del Guárico occidental, publicado en 1959, y perfeccionado en la elaboración de “Las etapas de la industrialización y el problema de las nuevas implantaciones en el Bajo Rhin”, tesis elaborara bajo la ductoría de Etienne Julliard y con la que obtuvo su Diploma de Estudios Superiores en Geografía. Así fue madurando lo que después, con modestia, llamará el Enfoque Geohistórico.
Decimos con humildad porque, de acuerdo a calificados tratadistas, en él encontramos la consolidada propuesta de un Método. El que, como le gusta decir, constituye una respuesta frente a las dudas que plantean la investigación y la enseñanza de la Geografía en sociedades que, como la nuestra, adolecen de un profundo desconocimiento de la historia.
El referido planteamiento permite justipreciar las enseñanzas de uno de los más renombrados estudiosos de las ciencias sociales al que corrientemente cita: “No hay 5 historia sin geografía, ni geografía sin historia” y “La historia es la geografía en el tiempo y la geografía es la historia en el espacio”. Tal iniciativa académica, bueno es decirlo, nos puso a confrontar sobre la inter, la pluri y la transdisciplinariedad mucho antes que otros actores tan artificialmente publicitados actualmente.
III:- El libro: Como ya hemos silueteado, durante el año de 1969 se manifiesta la claridad pedagógica del Maestro al entregarnos El Programa lo hace el profesor. Este trabajo, que ahora con derecho pleno ve su segunda edición; fue inicialmente publicado como expresión del esfuerzo de dos de sus numerosos amigos. Como toda su producción rápidamente se agotó y, pese a todos los intentos adelantados, no había podido reeditarse. Sobre la materia que lo inspira abre fuegos desde la introducción, cuando nos dice: Asistimos en los tiempos que corren a un marcado divorcio entre la realidad y la escuela. Descubrir la complejidad de los factores incidentes en el hecho, está en el plano de las más urgentes instancias. Contribuir a llamar la atención sobre tan delicado fenómeno, nos ha motivado para ofrecer esta selección de corte pedagógico.
Las páginas restantes las dedica a ofrecernos un acercamiento al perfil de un educador, insistir en el valor didáctico del cartograma, un recorrido por las características de la geografía en los prolegómenos de la contemporaneidad, la tipificación de la disciplina en la educación primaria, la codificación del docente y del alumno de la ciencia geográfica, destacar la contribución de la geografía en la conformación de la educación para los nuevos tiempos, revisar algunos pensamientos trascendentes de Rabindranath Tagore, presentar su definición de la americanidad e hilvanar un recuerdo para su promoción.
En este libro el educador a carta cabal que él es se hace presente cuando asevera, parafraseando al poeta hindú: “Soy como el Sándalo, que perfuma el hacha que lo hiere”. Cuando afirmamos que el Profesor Tovar es uno de los grandes Maestros que este vestuto pedagógico ha regalado al país no estamos haciendo uso de ninguna hipérbole. Sino, por el contrario, nos ajustamos plenamente a lo que tal connotación implica.
Una de las notas distintivas de su producción radica en la vigencia de sus planteamientos. Por ejemplo, en la citada Venezuela: país subdesarrollado nos dice: Cuando hemos definido a Venezuela como un país subdesarrollado, no está en nuestro ánimo el afán de adjetivar; ni menos aún el de minimizar o censurar. Está si, el rigor científico –serio y severo- que nos dirija a la toma de conciencia de lo que somos y porque así somos.
Dejamos a vuestro libre albedrío la decisión de definir el grado de permanencia de la anterior aseveración. En la introducción del escrito que estamos rebautizando en esta ocasión nos regala otra muestra de esa asertividad que define y diferencia su producción, cuando señala: 6 “Mientras celebramos el descenso del hombre en la Luna, ‘los choques entre católicos y protestantes resultaron el fin de semana en más de 200 bajas y en unas 50 detenciones’ en Belfast-Irlanda del Norte”.
Admitiendo que se nos puede juzgar como notablemente exagerados al valorizar las constantes que el Maestro nos ha enseñado a distinguir en las relaciones temporoespaciales.; nos gustaría, ya casi al final de estas palabras, dejar abiertas las siguientes interrogantes, estableciendo claramente que son preguntas que nos surgieron al observar comparativamente las recientes elecciones en el gigante del norte y las llevadas a cabo cercanamente entre nosotros, igualmente dejamos asentado que ellas están dirigidas esencialmente a quienes critican las falencias democráticas del actual proceso venezolano.
En función de lo enunciado queremos indagar: (1) ¿Cómo interpretar el hecho de que en las recientes elecciones estadounidenses de cincuenta estados de la unión, veinticuatro hayan favorecido a la opción no ganadora?, ¿Qué opinar sobre el hecho de que en el Senado, llamado “el club de los cien”, la bancada oficialista esté integrada por 50 parlamentarios, mientras la Cámara de Representantes está dominada abiertamente por la oposición? ¿Significará eso que los Estados Unidos de América ahora están más divididos que nunca antes en su historia? (2) ¿Cómo explicar que, independientemente del margen que separe al ganador del perdedor en el voto popular, salvo en un estado, el primero se lleve todos los votos del colegio electoral de la entidad? ¿No habrá allí una violación al principio de la representación proporcional de las minorías?, sacrosanta noción para el funcionamiento de la democracia representativa tan defendida por los cuestionadores de lo que ocurre en Venezuela.
Y (3) ¿Cuál será la causa de que la Florida, habiendo abierto y cerrado sus centros de votación cuatro horas antes que California, lo que se explica por la diferencia existente entre los respectivos husos horarios, y con menor población que éste, aun no haya dado a conocer los resultados surgidos desde sus urnas? ¿Llamará a suspicacia el hecho de que el Presidente reelecto, según las tendencias que manejan los organismos ad hoc, se encamine a ganar en el estado del sol perenne por un margen de 0,9 % -o sea unos 74.000 votos populares-, y que a nivel nacional la diferencia entre ambos candidatos se estime que estará ubicada en el estrecho margen de 1,6 %? ¿Se deberá esto al hecho de que el ente comicial federal actuó sumisa y perversamente cometiendo fraude a favor del gobernante triunfador?
Reiterando el respeto que guardamos hacia quienes no compartan nuestra visión y reivindicando el derecho que nos asiste, aún equivocándonos, a defenderla; para nosotros, es allí donde radica la trascendencia del método que nos propone el hoy homenajeado. Proclamésmolo de una vez, con él empezamos a entender la posibilidad de ver los fenómenos estudiados, como los pergeñados a lo largo de estos párrafos, desde perspectivas constantes, que para nada son circunstanciales.
Tal y como se desprende del epígrafe que nos ha guiado. Digámoslo parafraseando a un conocido luchador social del siglo XX: “Lo que distingue a un verdadero científico, como a un revolucionario, es lo que piensa, dice y hace, siempre; sobre la base de un sólido compromiso social”. Concluiremos estás líneas resaltando que el Profesor Ramón Adolfo Tovar López, nacido en Puerto Cabello un 11 de diciembre de hace 89 años, parece haber heredado 7 todos los genes iconoclásticos que perviven en su lar natal; terruño que un día como hoy, 189 años atrás, sirvió de escenario a la consolidación de la independencia nacional en su toma por las fuerzas patriotas. Acto tan poco estimado en la cultura oficial tradicional.
Finalmente, expresaremos nuestra convicción en cuanto a que la condición de transformador social que identifica al Maestro, a la que nunca ha renunciado, aparece enmarcada en una enorme sencillez, en una elevada condición humana y en un infinito orgullo de su esencia ontológica: la de ser educador.
De esa manera lo dejó asentado firme y públicamente cuando, en augusta sesión, se incorporó como Individuo de Número a la Academia Nacional de la Historia, ocasión en la que exclamó: “Señores…ustedes han llamado para ser vuestro par a un maestro”. Es esa la condición fundamental que en él celebramos.
¡Muchas gracias!
Omar Hurtado Rayugsen
UPEL-Instituto Pedagógico de Caracas Centro de Investigaciones Históricas “Mario Briceño Iragorry”
omarrayugsen@hotmail.com
Fuente: http://otrasvoceseneducacion.org/wp-admin/post-new.php
 Fuente Imagen: http://4.bp.blogspot.com/Z2joPs3Q6Jw/VPkbWXNZ8xI/AAAAAAAAAEo/dmYRquDt2Ns/s1600/DSC09867.JPG
Comparte este contenido:

Volver a pensar la pobreza: Definición y mediciones

América del Norte/ EEUU/ Udaya Wagle/ Artículo/file:///C:/Users/Administrador

Introducción El problema de la pobreza tiene un gran interés para los profesionales del desarrollo y para los estudiantes de las ciencias sociales. No es de extrañar que se hayan utilizado diversos enfoques para estudiar y comprender la pobreza en diferentes sociedades y a lo largo del tiempo.

Algunos especialistas de las ciencias sociales y, especialmente los economistas, se refieren casi exclusivamente a los ingresos, al consumo y, hasta cierto punto, al bienestar humano, como elementos para entender y medir la condición de pobreza y bienestar de las personas. En este sentido, el concepto de bienestar económico nace de la realidad de si una persona tiene suficientes ingresos para adquirir un nivel básico de consumo o de bienestar humano.

1 Otros especialistas de las ciencias sociales han visto la pobreza como una función de la falta de capacidades individuales, como la educación o la salud, para alcanzar un nivel básico de bienestar humano. Y otros estudiosos, especialmente los sociólogos y antropólogos, se han concentrado en los factores sociales, comportamentales y políticos del bienestar humano.

En este sentido, si bien se percibe como causa de la pobreza el comportamiento anormal o el aislamiento, existen argumentos divergentes para definir quién -los propios individuos o las instituciones -convierten a los pobres en personas anormales o aisladas del resto de la sociedad. Si bien los estudios sobre la pobreza han adoptado estos tres amplios enfoques de medición, a saber el bienestar económico, las capacidades y la exclusión social, ahora se requiere un esfuerzo para integrarlos.

La complejidad del tema de definir qué es realmente la pobreza señala que este enfoque reductivista de la definición de la pobreza, que pone excesivamente de relieve un solo aspecto, no puede llevarnos demasiado lejos cuando a la hora de entender cuáles son los factores centrales de los problemas de la pobreza. La incapacidad de diversos estudios para abordar los temas de la pobreza significativamente con explicaciones inequívocas, señala con claridad que es posible realizar estudios más integradores y que, además, es necesario hacerlo.

Sólo un enfoque 19 integrador puede contribuir significativamente a la comprensión de los problemas sociales, puesto que éstos son, esencialmente, los productos de las sociedades y, por tanto, tienen dimensiones sociales multifacéticas. La pobreza fue uno de los principales problemas en el siglo XX y seguirá siéndolo en el siglo XXI. Muy pocas personas negarían que no se debería tolerar la miseria humana en medio de la abundancia, y sobre todo cuando se puede remediar mediante la acción colectiva.

En las páginas que siguen, analizaremos tres grandes dimensiones de la definición y medición de la pobreza, y postularemos que los estudios sobre la pobreza en el futuro tendrán que adoptar enfoques más integradores y no reductivistas. El bienestar económico El indicador más ampliamente utilizado en la definición y medición de la pobreza es el bienestar económico. En este sentido, las investigaciones sobre la pobreza, encabezadas por los economistas, han intentado definir la pobreza de diversas maneras cuantificables.

Hay tres tipos de medidas de bienestar económico utilizadas en la literatura: ingresos, consumo y bienestar. Además, se utilizan estas tres medidas utilizando conceptos absolutos, relativos y subjetivos. En el nivel más fundamental de bienestar económico se encuentra la pobreza absoluta, es decir la falta de medios básicos para sobrevivir. En este caso, la condición de no pobre de las personas está relacionada con la capacidad de evitar la privación absoluta.

Sin embargo, definir qué se incluye entre los medios básicos de supervivencia implica usar criterios arbitrarios puesto que el tema de la supervivencia se relaciona inmediatamente con la capacidad de evitar la privación total. Existen opiniones encontradas sobre qué incluyen los componentes esenciales de la supervivencia. Por ejemplo, puede que la persona necesite medios económicos, sociales, psicológicos y políticos para sobrevivir, y muchos de estos medios no son cuantificables, menos aún en términos pecuniarios.

Sin embargo, la pobreza ha sido definida en términos de algunos criterios de supervivencia, normalmente el monto de los ingresos necesarios para adquirir un mínimo de ingesta calórica de alimentos, una cesta mínima de bienes de consumo o un nivel de bienestar individual o de cobertura necesaria para vivir una existencia básica (Hagenaars 1991; MacPherson y Silburn 1998).

En este sentido, mientras que los ingresos, el consumo y el bienestar son conceptos que parecen diferentes, se encuentran interrelacionados y se orientan hacia los bienes y servicios (IILS 1996). Por ejemplo, no se puede establecer un ingreso mínimo necesario para no ser considerado pobre sin tomar en cuenta las necesidades de consumo y bienestar. No se trata de que el consumo y el bienestar representen los mismos factores cuantificables en términos económicos o de ingresos, sino, al contrario, que el concepto de bienestar va más allá de lo que un individuo necesita consumir para ser considerado no pobre.

A pesar de esto, definir el nivel de bienestar o cobertura que los individuos necesitan para mantener un nivel elemental de vida es complicado, puesto que no existen fronteras que definan qué bienes de no consumo, como las actividades recreativas, el tiempo de ocio, la participación social y el estado de capital humano, debemos tomar en cuenta (Hagenaars 1991). Siguiendo el enfoque de los ingresos absolutos, por ejemplo, el Banco Mundial y el Fondo Monetario Internacional y, ocasionalmente, el Programa de las Naciones Unidas para el Desarrollo (PNUD), definen la línea de la pobreza basándose en un ingreso de 1 20 dólar al día (Banco Mundial 1999, 2001).

De la misma manera, siguiendo el enfoque del consumo absoluto, Rowntree (1901) elaboró una línea de la pobreza para el Reino Unido a comienzos del siglo XX2 . La línea oficial de la pobreza en Estados Unidos, especialmente en su forma original, destaca como otro criterio absolutamente orientado por el consumo basado en la subsistencia.

3 La Organización Mundial del Trabajo (OIT), que incorpora un enfoque de consumo absoluto orientado por las necesidades básicas, define la línea de la pobreza en términos de las necesidades mínimas de alimentos, vivienda, vestido y otros servicios esenciales como transporte, condiciones sanitarias, salud y educación (1976). Al distinguir, en la pobreza absoluta, entre extrema pobreza (que representa la falta de ingresos necesarios para satisfacer las necesidades alimentarias) y pobreza general (que representa la falta de ingresos necesarios para satisfacer las necesidades alimentarias y no alimentarias) el PNUD (2000a) sostiene que sólo la primera representa la pobreza absoluta.4 Estas líneas de la pobreza absoluta basadas en los ingresos o el consumo se han convertido en la norma en casi todos los países en desarrollo. Sin embargo, en cuanto a la aplicación del concepto de pobreza absoluta de bienestar, si bien se han adoptado medidas más amplias en la elaboración de líneas de la pobreza, aún quedan por elaborarse plenamente las definiciones de la pobreza en función del bienestar.

Niños gitanos de origen rumano en Nanterre, suburbio parisino. ¿Cómo medir el bienestar y la exclusión de los niños? Cómo integrarlos en la medición general de la pobreza? Nam-Hung Sung / RAPHO Convencidos de que el ingreso, el consumo y las necesidades de bienestar de unas personas dependen de los demás en la sociedad, y que la medición del bienestar de las personas depende del bienestar del resto, los economistas también han definido las líneas de la pobreza utilizando mediciones relativas.

En esta línea, el tema de si uno es pobre o no, como señala Galbraith (1958), depende no sólo de los ingresos de que dispone sino también de los ingresos de los demás en la sociedad. 5 Dado que las 21 condiciones de vida tienden a cambiar constantemente en las sociedades, las líneas de la pobreza, definidas ya sea por el porcentaje de los ingresos medios o medianos o por el estrato inferior de ingresos o de distribución del consumo, tendrán que cambiar correspondientemente (Fuchs 1965). En este caso, la principal preocupación es la distribución de los ingresos o, más específicamente, con que ingresos cuentan los más desfavorecidos en comparación con el resto de la sociedad.

Para tener una imagen agregada de la pobreza, se define un determinado número de personas pobres a partir del número de personas con ingresos por debajo de cierto nivel de pobreza relativo. Sin embargo, también se aplican otros métodos más complicados, especialmente en las comparaciones entre países.6 Desde la perspectiva del control de los recursos, como ha sostenido sistemáticamente Townsend (1970, 1999), los pobres son aquellos que carecen de recursos adecuados para adquirir cierto tipo de dieta alimentaria, para participar en ciertas actividades y para disfrutar de cierto nivel de vida y seguridad.

En este caso, el análisis se centra en la distribución de los recursos, que diferencia e incluso excluye a los pobres del resto de la sociedad. La pobreza relativa es otra medida del bienestar económico expresada en términos de ingresos, consumo o bienestar. Si utilizamos el enfoque de ingresos relativos, se considera que una persona es pobre cuando carece de cierto nivel de ingresos derivado de los ingresos medios o medianos en una determinada sociedad. Como señaló Fuchs (1965) hace tiempo, por ejemplo, en Estados Unidos, las personas con menos del 50% del ingreso medio serían considerados pobres. Esta línea de la pobreza se utiliza actualmente de manera generalizada en la investigación internacional sobre la pobreza (PNUD 2000).

De la misma manera, el enfoque del consumo relativo de la línea de la pobreza tiende a delimitar a aquellos con un nivel superior o inferio r al promedio, u otros niveles aceptables de consumo en la sociedad. La línea oficial de la pobreza utilizada en Estados Unidos, al menos cuando se introdujo, y el término de «pobreza general» del PNUD (2000a) sirven como dos ejemplos «imperfectos» de las líneas de la pobreza del consumo relativo.7 En relación con el enfoque del bienestar relativo de la pobreza, si bien no abundan los ejemplos disponibles actualmente, debido, desde luego, a problemas de medición, observamos que las sociedades tienden cada vez más a asociar la pobreza con los niveles relativos del bienestar individual.

Las líneas absoluta y relativa de la pobreza mencionadas más arriba se elaboran estudiando objetivamente los ingresos, el consumo y el bienestar. Por el contrario, el tercer enfoque subjetivo (o de “autoevaluación», como lo llama Streeten) tiende a estudiar las mismas materias a través de un cristal subjetivo. Realiza esto aplicando diferentes conceptos sobre la pobreza, monetarios y no monetarios, tal como lo ven las propias personas. 8 Los investigadores han intentado elaborar criterios subjetivos sobre la pobreza a través de encuestas de opinión y estudios pidiendo a los encuestados que señalen los niveles de ingreso, consumo o bienestar que estiman necesarios para no ser pobres.

También han intentado derivar criterios sobre la pobreza relacionados con hogares de diferentes característica formulando preguntas relacionadas con la suficiencia de los ingresos. Además, se han aplicado criterios subjetivos de pobreza orientados por los ingresos y el bienestar, donde a los encuestados se les pide valorar ciertos niveles de ingresos como «insuficientes», «buenos», o «muy buenos» desde la perspectiva del bienestar.

Si bien es evidentemente atractivo el hecho de que los criterios subjetivos de la pobreza reflejan diferencias culturales y otras en las necesidades, también han sido objeto de ataques considerables, debido a sucaracterística de no comparabilidad a lo largo del tiempo y entre diferentes sociedades y debido a la falta de plena fiabilidad de los datos de estudio.9 Si bien los economistas entienden que hay muchos otros factores que influyen en los ingresos, el consumo y el bienestar de las personas, tienden a creer que todos los temas relacionados con la pobreza se pueden captar en términos de bienestar económico o, más concretamente, de ingresos.

Este enfoque del bienestar económico en la definición de la pobreza señala claramente que se puede abordar eficazmente el problema de la pobreza aumentando los ingresos o la capacidad de consumo de los pobres. Sin embargo, hay constantes discusiones acerca de cómo se puede conseguir esto: ya sea acelerando el crecimiento económico y aumentando las oportunidades de empleo (Banco Mundial 2001) o mejorando el modelo de distribución de los ingresos que conduzca a una mayor igualdad (Townsend 1999).

Mientras que las preocupaciones sobre el enfoque del bienestar económico giran básicamente en torno a los problemas de los ingresos y el consumo, los estudios en el mundo menos desarrollado han señalado que el crecimiento económico, con o sin aumento del empleo, no conduce necesariamente a mejoras en el bienestar de los pobres (Friedman 1996; Gaiha y Kulharni 1998). En esta línea, éstos y otros estudios como los del PNUD (2000) han señalado que la idea de bienestar humano va más allá del bienestar económico.

El razonamiento consiste en que la idea de bienestar humano se relaciona con los problemas de calidad de vida, que nacen de una diversidad de factores como el consumo, las capacidades y la participación social.

Comparte este contenido:

Jardín de infantes: Unicef pide más tiempo de juego y aprendizaje

Colombia/ 16 de Julio de 2016/Entorno Inteligente

Por: UNICEF

En el jardín de infantes, aprender y jugar son sinónimos. O debieran serlo: en la primera infancia, los chicos desarrollan habilidades básicas por medio del juego. El nivel inicial, además, prepara el terreno para aprender a leer y escribir en primer grado. Sin embargo, un estudio de UNICEF y la Organización de Estados Iberoamericanos (OEI) encontró que en los jardines se dedica poco tiempo al juego y a la alfabetización , las dos prioridades de ese nivel educativo.

Según el informe, casi un tercio de la jornada escolar en el jardín se destina a actividades que no están relacionadas con el aprendizaje , sino con prácticas rutinarias centradas en la socialización : saludo inicial, control de asistencia, comida, higiene, traslados y orden luego de cada tarea. En una jornada de por sí breve (en casi todo el país es de 3 horas ; solo en provincia de Buenos Aires y Chubut es de 4), eso quiere decir que queda poco tiempo para tareas más significativas.

Mirá también: Adjudican más problemas en los chicos a la falta de tiempo de los padres

El estudio se basó en observaciones de salas y encuestas a docentes en 67 jardines de 5 provincias en las que la OEI desarrolló proyectos de intervención. Uno de los hallazgos más preocupantes: solo el 22% de las actividades observadas fueron lúdicas , pese a que la Ley Nacional de Educación exige «promover el juego como contenido de alto valor cultural» para el desarrollo integral de los chicos en el jardín. «El juego es la experiencia de aprendizaje primordial en la primera infancia», plantea Verona Batiuk, autora del informe junto con Julia Coria. Según la especialista, una buena propuesta de educación inicial debería incluir juegos dramáticos (de roles), de construcción (por ejemplo, con ladrillos) y con reglas convencionales (tipo memotest, lotería, dominó, etc).

Mirá también: Una escuela rural se quedó con un solo alumno y piden que no la cierren

Otro hallazgo clave: solo el 20% de las actividades observadas estuvieron orientadas a la alfabetización . «Varias investigaciones internacionales afirman que la lectura en voz alta del adulto es la actividad más importante en el proceso de alfabetización temprana, junto con la conversación alrededor del texto», señala Batiuk. Sin embargo, menos de 1 de cada 10 maestros lee cuentos en voz alta a sus alumnos.

El diseño curricular de primaria establece que los chicos tienen tiempo hasta 3° grado para aprender a leer y escribir , pero ese proceso empieza en el jardín, por medio del juego . «La  alfabetización temprana  se refiere a que los niños tengan en la escuela una oportunidad de ampliar su vocabulario, y comiencen con el desarrollo de trazos que fortalezcan su escritura posterior. En sala de 5 se espera que todos puedan tener vocabulario amplio y diverso y que ejerciten la oralidad , para que puedan lograr intercambios fluidos, expresar sus sentimientos y necesidades y describir lo que ocurre a su alrededor», explica Cora Steinberg, especialista en educación de Unicef.

Mirá también: Los comedores del Conurbano, un registro del pulso de la crisis

La mitad de los alumnos argentinos de 15 años tienen dificultades para comprender textos sencillos , según surge de las pruebas PISA. Para Ana María Borzone, especialista del Conicet en desarrollo lingüístico y cognitivo, esos problemas pueden explicarse «por los déficits en la alfabetización». Borzone señala que «en el jardín se deben desarrollar habilidades básicas para el aprendizaje, como el lenguaje, la memoria y la atención». Esto requiere » actividades específicas y sistemáticas «, que involucran el juego guiado por la maestra, y que hoy están ausentes de la currícula y de la formación docente.

«A los chicos hay que enseñarles a jugar», advierte Borzone, quien desarrolló el programa Queremos Aprender junto con investigadores del Conicet y las universidades de Buenos Aires, La Plata y Córdoba. El objetivo es garantizar la alfabetización temprana en el jardín, para que los chicos puedan aprender a leer y escribir efectivamente en 1° grado. «En el período de 3 a 5 años se produce un desarrollo rápido del lenguaje, se adquieren las habilidades y conocimientos precursores de la alfabetización, se producen avances significativos en el desarrollo afectivo y social, y la plasticidad neuronal es mayor. Pero estos desarrollos se producen solo si los niños cuentan con una  estimulación específica «, afirma Borzone.

Mirá también: Sala de 3 obligatoria: deberán incorporar a 180 mil chicos

Los neurocientíficos destacan que la mayor plasticidad neuronal en los primeros años de vida supone una gran oportunidad para aprender: la contracara de esa oportunidad es la alta vulnerabilidad de los niños en edad de asistir al jardín. Borzone advierte que el precio de «estafar» a estos chicos  con propuestas pedagógicas de baja calidad será, irremediablemente, una hipoteca impagable en el futuro.

—————–

En la Capital faltan siete mil vacantes

En los jardines de Capital faltan alrededor de 7 mil vacantes, según surge de los datos de la inscripción online 2016, que el Gobierno porteño tuvo que hacer públicos tras un pedido del legislador Patricio del Corro (Frente de Izquierda).

Este año se solicitaron 30.788 vacantes en los jardines públicos de la Ciudad, pero el gobierno solo ofreció 23.969: la diferencia dejó fuera del sistema a 6819 chicos. Del Corro criticó que el gobierno no informara la situación por comunas y por edad. Pese a que la oferta fue de casi 24 mil vacantes, solo se asignaron 20.123. Maximiliano Ferraro, presidente de la Comisión de Educación de la Legislatura, interpreta que «por las demoras en la asignación y las dificultades de la inscripción, muchas familias deciden mandar a sus hijos a jardines privados». Ferraro estimó que desde hace 3 años faltan entre 5500 y 7500 vacantes en los jardines porteños.

Fuente: http://www.entornointeligente.com/articulo/8689231/Jardiacute;n-de-infantes-Unicef-pide-maacute;s-tiempo-de-juego-y-aprendizaje

Comparte este contenido:
Page 2505 of 2733
1 2.503 2.504 2.505 2.506 2.507 2.733