Page 4 of 6
1 2 3 4 5 6

Tecnología cuántica, el nuevo campo de batalla entre Estados Unidos y China

Por: BBC Mundo

El Consejo Nacional de Ciencia y Tecnología de Estados Unidos publicó en septiembre pasado una nueva estrategia para el desarrollo de la Ciencia de la Información Cuántica (CIC).

El informe, de 15 páginas, recomienda los objetivos que el gobierno de Donald Trump debe perseguir para desarrollar y fortalecer sus capacidades en la CIC.

Y para discutir las estrategias presentadas se invitó a la Casa Blanca a académicos, funcionarios del gobierno y representantes de las grandes compañías tecnológicas y financieras del país, incluidas Alphabet, IBM, JP Morgan Chase, Lockheed Martin, Honeywell y Northrop Grumman.

Además se anunció también una inversión de US$249 millones para llevar a cabo 118 proyectos vinculados a este campo de la ciencia.

Del otro lado del mundo, en China, también está ocurriendo algo similar.

ChinaDerechos de autor de la imagenREUTERS
Image captionChina ha destinado una enorme cantidad de dinero para la investigación de la computación y las comunicaciones cuánticas.

El gobierno de Pekín está construyendo un nuevo Laboratorio Nacional de Ciencias de Información Cuántica en Hefei, en la provincia de Anhui, con un costo de US$10.000 millones, que esperan inaugurar en 2020.

Esto después del lanzamiento, hace dos años, de lo que fue descrito como el primer satélite de comunicaciones cuántico.

Y del anuncio, el año pasado, de la creación de una red «inhackeable» de comunicaciones en Jinan a la que sólo tendrán acceso 200 usuarios: militares y funcionarios gubernamentales y privados.

El hecho de que los dos gigantes económicos del mundo estén compitiendo en el desarrollo de las CIC, demuestra la importancia de este campo que, se dice, es tan poderoso que transformará al mundo.

Qué es la CIC

Lo que prometen las tecnologías cuánticas es una revolución en la forma como se procesa la información, como le explica a BBC Mundo, Alejandro Pozas-Kerstjens, investigador del Instituto de Ciencias Fotónicas de Barcelona y del Grupo de Teoría de la Información Cuántica.

«Toda la información se codifica en un sistema binario -en ceros y unos-, pero cerca de los años 60 se descubrió que el lugar donde se guarda esa información puede marcar diferencias en lo que se puede hacer con ella», explica.

«Es decir, yo puedo grabar una información clásica en un chip de ordenador -como lo hacemos ahora- pero también podemos guardar esos ceros y unos en otros sistemas más pequeños, por ejemplo en átomos únicos o en pequeñas moléculas«.

código binarioDerechos de autor de la imagenGETTY IMAGES
Image captionToda la información se codifica en un sistema binario -en ceros y unos-, pero el lugar donde se guarda esa información puede marcar diferencias en lo que se puede hacer con esa información.

«El comportamiento de esos átomos y esas moléculas, por ser tan pequeños, viene dictado por otras reglas. Y esas reglas que dictan el comportamiento de átomos y moléculas son las reglas del mundo cuántico, de la teoría cuántica», afirma el científico.

De esta forma, lo que intenta la ciencia de la información cuántica es utilizar esas nuevas propiedades cuánticas que aparecen en los sistemas muy pequeños para mejorar las tareas de procesamiento y transmisión de la información, entre otros.

Lo que prometen las CIC es una revolución en la forma como procesamos la información, lo cual abre nuevas posibilidades para miles de aplicaciones en campos que van desde avances en la salud y la ciencia, producción de fármacos y producción industrial hasta nuevos sistemas de defensa.

La tecnología cuántica, dicen los expertos, «podría cambiarlo todo».

Es por eso que las naciones más poderosas del mundo están compitiendo por tomar la delantera en la CIC.

Satélite cuántico

A juzgar por los avances presentados hasta ahora en el campo de la tecnología cuántica, se podría decir que China está en la delantera.

En 2016 Pekín anunció que había lanzado el primer satélite de comunicaciones cuántico y un año después declaró que había podido utilizar ese satélite para establecer comunicaciones encriptadas imposibles de descifrar por ojos ajenos.

«Fueron dos experimentos. El primero consiguió una comunicación cuántica con el satélite desde tierra y luego, aprovechando ese satélite, se realizaron comunicaciones entre dos puntos en tierra con una señal encriptada cuánticamente en la que el satélite hizo como repetidor entre esos dos puntos en tierra», explica Alejandro Pozas.

Comunicación cuánticaDerechos de autor de la imagenSPL
Image captionChina dijo que había utilizado su satélite cuántico para establecer comunicaciones encriptadas imposibles de descifrar por ojos ajenos.

Esta capacidad, de poder saber si una información ha sido interceptada o ha llegado bien a su destino, no se puede obtener con las tecnologías clásicas ni los métodos de transferencia de información que usamos actualmente.

Y aunque los experimentos chinos fueron pruebas de concepto, ese país logró demostrar que es posible hacerlo.

«Es cierto que se probó que se pueden hacer, pero de momento no se ha llegado al nivel de la viabilidad para una aplicación masiva industrial», agrega el investigador.

Computadora cuántica, el «santo grial»

Tampoco se ha podido llegar a esa viabilidad en el campo de las computadoras cuánticas.

Varias compañías en diversas naciones están intentando desarrollarlas y aunque se han creado a nivel experimental aún no ha sido posible comercializarlas.

«En efecto, la computadora cuántica es el santo grial», afirma el investigador del Instituto de Ciencias Fotónicas de Barcelona.

«Es hacia donde directa o indirectamente se mueven todos los esfuerzos en el campo de la CIC», agrega.

computadoraDerechos de autor de la imagenGETTY IMAGES
Image captionTodos los esfuerzos en el campo de la CIC, se mueven hacia el desarrollo de una computadora cuántica.

La computación clásica, que trabaja en bits, opera la información sólo en dos estados, en cero o uno (encendido o apagado).

La computación cuántica, en cambio, trabaja también con la superposición de ambos estados y utiliza el movimiento de partículas subatómicas para procesar datos en cantidades imposibles de manejar por la computación clásica.

Aunque actualmente la tecnología está en su mayoría a nivel teórico se espera que algún día se logren cálculos que, dicen los expertos, harán ver a las computadoras clásicas como hoy en día vemos al ábaco.

En Estados Unidos, empresas como IBM, Google y Microsoft están desarrollando sus propias computadoras cuánticas.

Y lo mismo está ocurriendo en China, donde están participando empresas privadas -como Alibaba y Baidu- en la creación de ordenadores cuánticos.

qubitDerechos de autor de la imagenGETTY IMAGES
Image captionSe dice que Google va a la delantera en la carrera de la computa cuántica con el desarrollo de un procesador con una potencia de 72 qubits.

Pero estas computadoras no son fáciles de construir: el principal problema es el número de bits cuánticos (qubits) que puede alcanzar un solo ordenador.

Se dice que Google va a la delantera con el desarrollo de un procesador con una potencia de 72 qubits.

Y además, está el problema del mantenimiento. Estas computadoras necesitan mantenerse a temperaturas de frío extremo para poder operar.

Desarrollar ordenadores cuánticos que puedan trabajar a temperatura ambiente es actualmente un área de investigación en la que las naciones están centrando sus esfuerzos.

Revolución

Pero ¿cómo va a revolucionar el futuro la tecnología cuántica?

Tal como explica Alejandro Pozas-Kerstjens, lo que podemos esperar es «una revolución como la que causó la aparición de los primeros computadores».

ComputaciónDerechos de autor de la imagenGETTY IMAGES
Image captionLa computación cuántica utiliza el movimiento de partículas subatómicas para procesar datos en cantidades imposibles de manejar por la computación clásica.

«Desde permitirnos hacer cosas que ahora mismo nos cuentan muchísimo, como la fabricación o el prototipado de medicamentos, o la optimización de rutas de tráfico para intentar gastar menos combustibles».

«Ese tipo de cosas van a ser problemas resolubles con un ordenador cuántico».

Pero quizás el mayor interés de los gobiernos es utilizar estas tecnologías cuánticas en el ámbito de la defensa, desde poder llevar a cabo comunicaciones más seguras hasta la detección de aeronaves intrusas.

Y ¿quién se puede decir que está ganando esta carrera cuántica?

Tal como asegura Pozas-Kerstjens, esta es una carrera «de muchas cabezas».

«Quizás podemos decir que en la computación cuántica quizás está a la cabeza Estados Unidos, pero en el campo de comunicaciones cuánticas al parecer quien gana es China».

«Hay muchas facetas en el campo de la tecnología cuántica y muchos países están intentando avanzar o tomar la delantera en alguna de estas facetas».

Fuente: https://www.bbc.com/mundo/noticias-internacional-46098159

Comparte este contenido:

Investigar a distancia

Mónica Delgado

En este artículo se pretende exponer un panorama acerca de la investigación a distancia como un modo de generación de conocimiento acerca de espacios en los cuales las personas no se encuentran de forma presencial. Se parte del significado que distintos autores han dado a la investigación a distancia ya sea para referir al procedimiento y/o método empleado, los temas abordados, los constructos de los que se parte, entre otras concepciones. En este sentido, es pertinente aclarar a lo que no se referirá este artículo; investigar a distancia no hace referencia a:

  • la investigación sobre la modalidad a distancia,
  • la investigación educativa exclusivamente,
  • la investigación desde un paradigma exclusivamente,
  • investigaciones abordadas desde la educación a distancia.

Se trata, entonces, de presentar las posibilidades de acceso a las que tiene un investigador cuando su contexto se sitúa a distancia, es decir en un espacio distante. A continuación se señalan algunas experiencias en este sentido:

En el año 2005, la Comunidad Iberoamericana de Naciones y su Cumbre Iberoamericana promovieron, como iniciativa, la creación del Espacio Iberoamericano del Conocimiento con el objetivo central de consolidar “la interacción y colaboración entre universidades, centros de investigación, administraciones públicas y empresas para la generación, transmisión y transferencia de conocimientos”.(parr. 1).

Esta iniciativa tiene su base en La Declaración de la Cumbre de Salamanca (2005), y, posteriormente en la XXVII Cumbre Iberoamericana de Santiago de Chile donde se aprueba la primera acción de este Espacio, constituido por las Becas Pablo Neruda. En el marco de esta cumbre la Organización de Estados Iberoamericanos -OEI- gestionó tres programas cuya intencionalidad estuvo fundamentada “en la convicción de que la formación de directivos es una de las estrategias fundamentales para el desarrollo de los cambios que afiancen el proceso de modernización de las Administraciones Educativas”.(parr. 6).

Lo importante a destacar en esta experiencia es lo referido a la creación de una red de colaboración en torno a unir esfuerzos que permitan acercar el conocimiento desde distintas latitudes.

Otro ejemplo de gestión en investigación a distancia es la experiencia reseñada por Gier y Kreiner (2012), de la Asociación para el Avance de la Ciencia Psicológica (AACP), a través de su programa Charlas a Distancia sobre investigación mediante el cual, un presentador (profesional psicólogo y/o investigador) expone resultados o procesos metodológicos referidos al campo psicológico, pero, sobre todo, realizan procesos investigativos a distancia empleando las tecnología de videoconferencia, las cuales pueden ser presentadas con un público o población nacional e internacional y a través de las cuales los participantes responden a distintos instrumentos o técnicas como entrevistas, cuestionarios, sesiones grupales, entre otras.

El objetivo de este programa es motivar a los estudiantes hacia la realización de investigaciones en el ámbito de su competencia y hacia la prosecución de estudios doctorales. Esta experiencia es referida por el Portal Latinoamericano para la Formación Científica en Psicología y es llevada a cabo de forma colaborativa desde la Universidad Estatal de Mississippi y la Universidad Central de Missouri.

Otra práctica de investigación a distancia es la referida por Ramirez (2009), mediante una ponencia, cuyo propósito fue presentar una iniciativa para la formación de investigadores educativos, a través de trabajos en redes y haciendo uso destacado de las innovaciones tecnológicas. El escrito cierra con unas reflexiones sobre la importancia de conjuntar esfuerzos para la formación de investigadores, donde el trabajo en red y el uso de las tecnologías permiten unir voluntades hacia un mismo fin: la generación de conocimiento. Esta actividad se realiza desde México.

En este mismo orden de ideas, se menciona el trabajo realizado por D´Onofrio y Uminsky (2009), quienes plantean un conjunto de consideraciones acerca del uso de espacios virtuales en la formación de investigadores. Dichas consideraciones se constituyen en estrategias útiles para el diseño de cursos de formación en línea. De acuerdo con los autores: una estrategia posible en este caso es “constituir núcleos de investigación integrados por investigadores en formación bajo la dirección de un científico formado.” (p. 9).

En tal sentido las tecnologías de la información y la comunicación han contribuido a la generación de comunidades virtuales en las cuales coinciden personas que físicamente se ubican en otras latitudes pero cerca cognitivamente, “emergiendo modelos colaborativos de formación de investigadores”. (p.9).

En el planteamiento de estos autores se percibe la importancia de incorporar estrategias fundamentales que sirven de base para la formación de investigadores. Es así que se resaltan también en el presente artículo porque representan procesos que contribuyen al desarrollo de investigaciones a distancia, a saber: las líneas de investigación y proyectos, las comunidades de investigación, los grupos de investigación, todos ellos confluyen en el Modelo Colaborativo de Formación de Investigadores (Pollo Catámeo et al., 2009, citado por D´Onofrio y Uminsky, 2009: 37). Esta experiencia que enriquece la investigación a distancia fue desarrollada desde la Universidad de Buenos aires- Argentina.

Así como los ejemplos antes referidos, se podrá hacer mención  a otras estrategias de investigación a distancia de más reciente data y con la incorporación de otros elementos. Sin embargo, vale la pena hacer una compilación de lo que hasta este momento se resalta en este escrito.

Se observan elementos coincidentes en la investigación a distancia vistos desde distintos ángulos, tales como la necesidad de conformar redes de colaboración o comunidades de aprendizaje a través de las cuales las problemáticas susceptibles de investigación se vuelven comunes en distintos contextos y latitudes con apenas variaciones debido a la naturaleza humana, a los fenómenos naturales y de otros aspectos sensibles. Estas redes cumplirán funciones de sustentación, aplicación, ejecución, colaboración, entre otros que permitirán tanto avanzar en los procesos investigativos como la difusión de los conocimientos desarrollados mediante las investigaciones.

La creación de distintas redes de investigación, en algunos casos, han recibido apoyo internacional con miras a fortalecer la solución de problemáticas regionales y garantizar el crecimiento ya sea económico, social, moral y de otra índole. Estas redes se constituyen como grupos de investigación, implican líneas de investigación, programas de beneficios, entre otros.

Otro aspecto común en las experiencias anteriores se refiere al uso de las tecnologías de la información y la comunicación, las cuales potencian cada vez más y con mayor intensidad la posibilidad de intercambiar acciones entre personas, grupos e instituciones que contribuyan a la construcción de nuevos conocimiento.

A través de la consulta a distintas fuentes para fundamente este artículo, se observó que el uso de las TIC avanza incorporando formas combinadas de manera que el intercambio entre las comunidades sea enriquecedor, tal es el caso de los cada vez más numerosos entornos virtuales donde conjuntamente se emplean las videoconferencias, con chat en vivo y el empleo de redes sociales, entre otros.

Es de destacar que la investigación a distancia se vale de las TIC para potenciar de una vez la acción ilimitada en tiempo y espacio que permitan avanzar en las investigaciones. En este sentido, se destaca el uso del recurso móvil para mantener la comunicación en tiempo real con las comunidades de investigaciones. Se les llama mLearnig, y no es otra cosa que el uso de dispositivos móviles como el celular. Es así que según Kukulska-Hulme y Traxler (2007), citado por Glasserman y Ramírez (2014):

…el aprendizaje móvil (mLearning) ha sido una nueva forma de aprovechar las tecnologías de información y comunicación para acceder al conocimiento gracias al apoyo de dispositivos móviles como el celular, iPod, entre otros. El mLearning se puede definir como un medio de aprendizaje que se basa en la recepción o entrega de contenidos electrónicos con apoyo de la tecnología móvil a través de dispositivos electrónicos y con la característica de llevarse a cabo en distintos contextos con la finalidad de lograr un aprendizaje auténtico. (p. 38).

Otro elemento a resaltar y relacionado con el aspecto anterior es la importancia de la formación de investigadores, a través de la cual se espera que las personas, grupos e instituciones desarrollen competencias investigativas que conlleven a la construcción de nuevos conocimientos desde la excelencia. En este sentido, algunas de las estrategias están dirigidas a motivar a los interesados en la continuación de estudios doctorales o inserción en programas de investigación en relación con su área de incumbencia.

Cabe destacar que, aunque se mencionan experiencias en investigación a distancia donde se resalta el área de conocimiento, el medio tecnológico, la metodología empleada, entre otras concepciones de la investigación a distancia, la mayor coincidencia entre las experiencias guarda relación con los entornos educativos a distancia, modalidad que con el uso también cada vez más de las TIC, han tomado un alto vuelo para posicionarse con mayor fuerza como alternativa de formación.

 

Referencia

D´Onofrio y Uminsky, 2009. Plataforma para la formación de investigadores a distancia. Disponible: http://webcache.googleusercontent.com/search?q=cache:KIsj0frrZfMJ:laboratorios.fi.uba.ar/lsi/donofrio-uminsky-trabajoprofesional.pdf+&cd=1&hl=es&ct=clnk&gl=ve. [Consulta 2017, enero 8].

Gier, V y Kreiner, D. (2012). Conectando a estudiantes investigadores a través de charlas a distancia sobre investigación. Disponible: http://www.ipsicologia.com/tips-docentes/indicealfabetico/item/48-conectando-a-estudiantes-investigadores-a-trav%C3%A9s-de-charlas-a-distancia-sobre-investigaci%C3%B3n. [Consulta 2017, enero 9].

Glasserman M., M. y Ramírez M., S. (2014). Formación de investigadores educativos mediante el diseño de recursos educativos abiertos y móviles. Revista de Investigación Educativa de la Escuela de Graduados en Educación. Disponible: http://rieege.tecvirtual.mx/ 4. [Consulta 2017, enero 5].

Ramírez  M, M.  (2009). Formación de investigadores educativos a través de redes virtuales: El caso de la Cátedra de Investigación de Innovación  en Tecnología y Educación del Tecnológico de Monterrey. Disponible: http://www.virtualeduca.info/ponencias2009/278/Formacion%20de%20investigadores%20a%20distancia%20(Ramirez).doc. [Consulta 2017, enero 9].

Organización de Estados Iberoamericanos- Centro de Altos Estudios Universitarios (2005). Disponible: http://www.oei.es/historico/caeu.htm#. [Consulta 2017, enero 8].

Articulo inedito publicado con el consentimiento de la autora

Fuente de la imagen: http://bit.ly/2xAq79n

Comparte este contenido:

Los peligros de la cara oculta de internet

Por: Revista Semana Educación

Existe un lugar oscuro en la web donde se desarrollan todo tipo de actividades ilegales. Es lo que se conoce como la deep web. Papás, tomen nota de los riesgos a los que se exponen sus hijos cuando navegan en sus computadores.

Internet es como un vasto mar, pero en vez de toneladas de agua y millones de peces lo que se encuentra en este lugar es información de todo tipo. Sin embargo, existe una cara de la web en la que se perpetúan actividades ilegales.

Adentrándose en las profundidades de este océano de información, existen páginas web que los principales motores de búsqueda, como Google, o navegadores como Safari o Mozilla no indexan (ordenar una serie de datos de acuerdo a un criterio común a todos ellos, para facilitar su consulta y análisis). Es lo que se conoce como la deep web, en la que se alojan tanto contenidos legales como al margen de la ley. Estos últimos se denominan a su vez web oscura o the dark web.

La información que se maneja en la deep web es invisible para los motores de búsqueda y es privada. No todo el mundo puede entrar por su cuenta porque las páginas son creadas bajo contraseñas de encriptación para que solo sean visitadas por usuarios escogidos.

“La deep web es un auténtico caldo de cultivo para la pornografía infantil y las actividades ilegales como venta de armas y drogas. Aquí se pueden contratar hackers a sueldo y hasta sicarios”, dijo a Semana Educación el especialista en derecho informático Raúl Martínez. De acuerdo con el experto, los usuarios son difíciles de rastrear y aprovechan el anonimato para refugiarse. De esta manera, los ciberdelincuentes consiguen evitar los controles de su información.

Se calcula que la deep web acapara el 90 % del contenido total de internet. Es decir, los grandes metabuscadores solo indexan el 10 % de la información a la que pueden acceder los usuarios “normales”. De acuerdo con Martínez, el tamaño de este submundo en la web está en constante crecimiento. “Es muy complicado dar una lectura sobre el volumen de estos sitios, aunque las estimaciones actuales rondan los dos billones de páginas”, señala. De acuerdo con la Association for Computing Machinery (ACM), primera sociedad científica y educativa que se dedica a la computación e investigación sobre deep web , la web superficial —es decir, por donde se navega habitualmente— ocupa de un 10 % a un 15 % de lo que es la totalidad de internet. De este porcentaje, se sabe que el 34 % de las páginas contienen malware (software malicioso) y conexiones con la deep web.

ACM también señala que el 32 % de los bienes que se comercializan en las tiendas virtuales de la deep web está relacionado con marihuana y drogas sintéticas. “Por 5.900 dólares se puede obtener una ciudadanía estadounidense y por solo 100 dólares se pueden comprar cuentas robadas de plataformas como eBay o PayPal”, alerta Martínez.

Falta de normativa

De acuerdo con la firma Intel Security, en Colombia no existe una regulación en cuanto a la navegación en la deep web . En otros países, como Estados Unidos y Reino Unido, en cambio, puede llegar a ser penalizada con la cárcel. “El país necesita promover una cultura de protección, seguridad de la información y el acceso controlado a la  red a través del uso responsable de las TIC”, dijo Wilmer Prieto, practice manager de dicha empresa.

En Colombia, el fenómeno de la deep web no tiene cifras consolidadas. Sin embargo, el gobierno, a través del Ministerio de las Tecnologías de la Información y las Comunicaciones (MinTIC), la Fiscalía General de la Nación, el Instituto Colombiano de Bienestar (ICBF), la Dirección de Investigación Judicial y la Interpol de la Policía Nacional trabajan en conjunto para actuar contra los delincuentes que frecuentan este lado de la red. Por medio de la estrategia Te Protejo, la Dijín ha bloqueado 7.511 sitios web con material de abuso sexual infantil desde 2012. Este año se han cerrado 658 sitios web con contenido pornográfico infantil. Así mismo, el ICBF ha adelantado 77 procesos en restablecimiento de derechos a los menores que han sido víctimas de los administradores de estas páginas web.

 ¿Cómo identificar el abuso?

 En la actualidad, la pornografía infantil se difunde a través de internet por medio de teléfonos inteligentes, computadores y otros medios en los que es posible la grabación y reproducción de imágenes y videos. De acuerdo con Unicef, en el mundo virtual las fronteras en las que se configura la pornografía con menores y otros tipos de abusos son muy cambiantes, de ahí la complicación a la hora de frenar los sitios web que distribuyen estos contenidos.

Según las diferentes herramientas legales vigentes en Colombia, se considera pornografía infantil toda representación visual, gráfica o textual (incluidos dibujos animados o juegos de video) que de manera real o simulada, explícita o sugerida, involucren la participación de niños o personas que aparenten serlo, en el desarrollo de actividades sexuales o exhibición de los genitales con fines sexuales.

¿Cómo denunciar?

Te Protejo es la línea virtual que dispuso MinTIC para que los usuarios denuncien ante las autoridades si consideran que se les ha vulnerado algún derecho o si son testigos de un delito informático. Desde su puesta en marcha, en mayo de 2012, la estrategia ha procesado 34.144 reportes, de los cuales 66 % son por contenidos de pornografía infantil, 19 % por maltrato, abuso o trabajo infantil y 7 % por ciberacoso. A su vez, la iniciativa reúne 51 líneas de denuncias de pornografía infantil en 45 países con el respaldo de entidades internacionales.

Cinco claves para evitar que su hijo sea víctima de la deep web

Para los expertos, los peligros que rondan en este lugar, como la pornografía infantil, se pueden prevenir si el menor cuenta con el acompañamiento y las herramientas para detectar los peligros.

1. Ubicar el computador en una zona común de la casa. De esta manera se puede supervisar con respeto las actividades de los niños en internet.

2. Establecer normas sobre el uso de internet. Se debe fomentar el uso seguro, responsable y constructivo de internet a través de reglas.

3. Instalar aplicaciones de control parental. Hoy en día existen diferentes programas que ayudarán a tener algo más de control en las páginas visitadas.

4. Prestar atención a los contactos con los que chatean los niños. Es recomendable saber de dónde conocen a sus amigos y quiénes son.

5. Mantener un diálogo abierto con el menor. A través de charlas en donde se toque el tema, el niño podrá entender los riesgos que corre cuando usa internet.

 Fuente: http://www.semana.com/educacion/articulo/deep-web-peligros-de-internet-para-los-ninos/530301

Comparte este contenido:

Entrevista a Víctor Maojo: “En los hospitales hacen falta más informáticos biomédicos”

30 Julio 2017/Fuente: consalud/Autor: ANGEL ESPÍNOLA 

La informática biomédica ha permitido avances revolucionarios en la Medicina como los sistemas de historia clínica electrónica o la telemedicina. Además, ha supuesto una democratización del acceso a la información sobre enfermedades, que hoy no está sólo en manos de los médicos. Uno de los mayores expertos del mundo en este campo es el profesor Víctor Maojo, que ha sido nombrado recientemente miembro fundador de la Academia Internacional de Informática de Ciencias de la Salud (International Academy of Health Sciences Informatics), una institución que aglutina a un prestigioso grupo internacional de más de cien científicos y profesionales en informática biomédica.

Catedrático de la Universidad Politécnica de Madrid y director del Grupo Informática Biomédica de la misma, Maojo ya era miembro electo del American College of Medical Informatics (ACMI), el equivalente americano de la academia internacional. Además, ha sido profesor invitado y consultor en Georgia Tech y ha participando en el Programa de Informática Médica de la división Health Science and Technology de Harvard, Estados Unidos.

En declaraciones a SaluDigital, el experto explica en qué consiste exactamente el campo de la informática biomédica y qué potencial tiene de cara al futuro en el ámbito sanitario.

¿Qué le supone su nombramiento como miembro fundador de la Academia Internacional de Informática de Ciencias de la Salud?

Supone un orgullo, porque para este nombramiento ha habido durante varios meses un proceso de selección y una votación final secreta, en la que han participado unos 100 miembros fundadores de la academia, la mayoría extranjeros. Ser elegido por tanto por los compañeros es muy positivo. Es un reconocimiento a lo que hemos hecho dentro de nuestro grupo de informática biomédica, porque esto no es un mérito personal, sino de todos los que hemos trabajado durante años en diferentes proyectos.

¿En qué se diferencia la informática biomédica de ramas como la bioingeniería o la biotecnología?

«No diría que el Big Data tiene ahora más importancia que antes, sino que surge la posibilidad de estar comparando la información de un paciente concreto con la información de millones de pacientes»

Dentro de las tecnologías biomédicas que tienen cierta relación con la informática, hay cuatro áreas principales que comparten temas concretos. La informática médica trata con el manejo de la información médica, desde un nivel clínico, pero también con el manejo de la información genómica o de la información de salud pública. Se centra todo más en el paciente.

La bioinformática, por su parte, se centra en la información informática aplicada sobre los genes. En los últimos años se ha unido todo bajo la informática biomédica. Esta rama trata toda la información relacionada con los pacientes, desde un nivel atómico, como la nanomedicina, hasta un nivel poblacional. Trata con información genómica, nanomedicina, información clínica, imágenes médicas, sobre la fisiología, etc.

A diferencia de ello, la ingeniería biomédica trata sobre todo con materiales y dispositivos y de ello se encargan más los ingenieros que los informáticos. Por último, la biotecnología, trata sobre todo con técnicas de laboratorio, y tejidos principalmente y con información celular.

¿Qué potencial tiene el Big Data en Sanidad de cara el futuro?

Dentro de la informática biomédica trabajamos con Big Data desde hace 15 años, porque surge de toda la información que llega después del proyecto Genoma Humano. A partir de ahí es necesario juntar toda la información de los pacientes (clínica, epidemiológica, la historia clínica, etc.) y juntarlo con la información genómica.

«Hemos ido de la medicina personalizada a la medicina de precisión y en ello la informática ha sido clave»

Estos conjuntos de datos ahora son enormes. Se trabaja con datos de 2,5 o 10 millones de pacientes, cuando antes se trabajaba con unos 10.000. No diría que el Big Data tiene ahora más importancia, sino que surge la posibilidad de estar comparando la información de un paciente concreto con la información de millones de pacientes. Esto da una información extra a los médicos que puede ser clave para el diagnóstico y el tratamiento.

¿Cree que en el futuro se creará tecnología que cure por sí misma enfermedades?

El tratamiento médico está cambiando mucho por varias causas. Una de ellas, porque la nanomedicina permite que se puedan depositar partículas directamente en células cancerosas o en un objetivo concreto. Por otro lado, con la información genómica podemos anticipar qué tratamiento será efectivo en un paciente o en un grupo de pacientes. Esto elimina lo que había hasta ahora, por ejemplo, en Oncología, del ensayo-error. Porque ahora se pueden anticipar los efectos que puede tener un fármaco en un paciente.

Hemos ido de la medicina personalizada a la medicina de precisión, ya que podemos ir buscando toda la información clínica de un paciente y hacer un perfil concreto que nos permite hacer un diagnóstico mucho más preciso y anticipar los tratamientos. Y para todo ello la informática ha sido clave.

Tiene experiencia trabajando en Estados Unidos, ¿es más fácil investigar o desarrollar tecnologías allí que en España?

«En 1970 ya había mil médicos en Estados Unidos con un título oficial de informática, es algo impensable hoy día en España en 2017»

En Medicina, entre España y Estados Unidos puede haber diferencias muy pequeñas en multitud de áreas. Aquí llegan los tratamientos muy poco después. Pero en el sector de la informática biomédica, por ejemplo, en 1970 ya había mil médicos en Estados Unidos con título oficial de informática, esto es algo impensable hoy día en España en 2017. Aquí aún no existe una carrera de informática médica. En los hospitales hacen falta muchos más informáticos médicos, pero es complicado, porque no hay una formación reglada. Por ello, tampoco existen programas avanzados de formación.

Además, la informática médica no es un área prioritaria en investigación, aunque sí se invierte mucho dinero en ello, ya que puede suponer el 2% o el 3% del gasto sanitario total. Pero falta que las administraciones se den cuenta de que es un área científica de primer nivel, y que puede tener una influencia directa tanto en la diminución de los costes sanitarios como en el aumento de la calidad asistencial.

¿En el futuro todos los médicos serán también informáticos?

Decirlo así causaría revuelo. Pero el médico moderno tiene que estar informatizado. Porque la informática ya está en todos los aspectos de la Medicina, tanto en la investigación, como en la formación, o en el aspecto clínico.

«Hace falta que las administraciones se den cuenta de que la informática médica es un área científica de primer nivel que puede tener influencia directa en la diminución de los costes sanitarios»

Pero en la Medicina aún no se han dado cuenta de la necesidad de esta formación y hay médicos que protestan, por ejemplo, porque las historias clínicas digitales no son sencillas o no están bien hechas, pero no se dan cuenta de todo lo que pueden aportar al sistema.

En Estados Unidos, cuando estaba en Harvard, hace 25 años a los médicos residentes ya se les daba una formación bastante completa en informática, y en el caso de los radiólogos suponía una parte muy importante de su formación MIR, lo cual es de tener en cuenta.

Fuente de la entrevista: https://consalud.es/saludigital/revista/en-los-hospitales-hacen-falta-mas-informaticos-biomedicos–651

Fuente de la imagen:

https://consalud.es/saludigital/revista/admin/imagenes/victo_maojo_entrevista_informatica_medica_26072017_saludigital.jpg

Comparte este contenido:

Ser ejemplo

21 de junio de 2017 / Fuente: https://compartirpalabramaestra.org

Por: Ángela Escallón Emiliani

En el siglo XXI, siglo de la conexión global, del acceso inmediato a la información, del contacto con hechos y personas de todo el mundo, el maestro está presionado a repensar su rol como formador.

Alguna vez escuché la siguiente metáfora: si un doctor de hace más de 100 años se despertara y entrara a una sala de cirugía hoy, probablemente no la reconocería por los múltiples cambios y evoluciones de la medicina; pero si es un maestro de hace un siglo se levantara y entrara a un aula, la encontraría con los mismos elementos físicos y con la misma estructura relacional.

Esto nos hace pensar que todavía hoy -así como hace siglos atrás- niños, niñas y jóvenes pasan la mayor parte del tiempo en la escuela a cargo de los maestros. Esta es una de las pocas cosas que, por el momento, no han cambiado pese a que el contexto en general si es otro muy distinto al que conocíamos antes.

Gracias a las nuevas tecnologías, aplicaciones, softwares y dispositivos, los estudiantes tienen acceso a la información, a los hechos, a la historia, a las opiniones, en cualquier momento y lugar. Entonces, ¿Cuál es su aporte único en esa compleja tarea del desarrollo físico, emocional, intelectual, social, ético y espiritual de las nuevas generaciones con estos volúmenes de información y comunicaciones?

Ante esta pregunta, surgen mil reflexiones sobre cómo debe adaptarse el rol de los maestros para hacer frente a los cambios que ha traído las tecnologías. Si el profesor – como los estudiantes-, en términos de información actualizada y en tiempo real tiene a su lado fuentes como Wikipedia, o Google Earth ¿Qué puede y debe aportar al desarrollo integral de las nuevas generaciones?

En la Fundación Corona pensamos que uno de los aspectos, que a nuestro juicio, hace la diferencia cuando pensamos en el rol del maestro actualmente -dada su relación cotidiana y cercana con los niños, niñas y jóvenes-, es el ser ejemplo.

La investigación psicológica y pedagógica ha demostrado que los valores, los principios, las actitudes, los enfoques y, en últimas, la cultura; se adquieren más por la aceptación de modelos considerados dignos de imitar que por conceptos, teorías o exhortaciones discursivas. El maestro como formador debe ser un ejemplo vivo. Ello implica un profundo cuestionamiento: lo que se quiere promover en los estudiantes debe ser primero realidad en el profesor.

El compromiso por ser ejemplo e inspirar a los demás hizo que anteriormente el maestro fuera una figura de máxima importancia y autoridad para la sociedad, admirado y querido por todos. Esto hay que recobrarlo nuevamente. Para ello el profesor debe recuperar la conciencia del sentido de su valor para la sociedad y ella, a su vez, debe promover que esto se dé, reconociendo el importante e insustituible papel de los docentes.

Es bien conocido que las competencias básicas son lo mínimo que debe dominar un maestro: saber enseñar a leer, escribir, comprender lo que lee, saber comunicar, tener pensamiento crítico, capacidad de resolución de problemas, manejar las nuevas tecnologías e integrarlas a los procesos de aprendizaje en el salón de clase, y una fundamental en estos tiempos de crisis ambiental: la valoración y el respeto por la naturaleza.

En complemento a estas competencias se encuentran las capacidades requeridas para la profesión misma, como la creación de ambientes de aprendizaje y el mejoramiento constante en estrategias pedagógicas para el desarrollo de estas habilidades y competencias, la preocupación por el aprendizaje continuo, entre otras.

Pero además de estas capacidades y competencias básicas están también las competencias transversales, aquellas que se refieren al ser mismo y que todo ser humano de este siglo debe preocuparse por desarrollar, como son un comportamiento ético, un manejo adecuado de las emociones, el reconocimiento y respeto por la diversidad, la empatía, la habilidad de experimentar, indagar, ser creativo, flexible, saber trabajar en equipo y cooperar, ser abierto y receptivo a perspectivas nuevas y diversas, ser capaz de ver el fracaso como una oportunidad para aprender.

En un mundo globalizado, donde la información se ha democratizado y tener conocimiento ya no es la mayor diferencia; el maestro debe ser una perfecta combinación entre el conocimiento, las capacidades y un ser humano ético, integro e integral, que inspire a sus alumnos a conocer más, a aprender más, a analizar, a probar, a innovar, a ser buenos ciudadanos, etc.

Por supuesto, no es un reto menor el que se le plantea al profesor. Pero es urgente que la sociedad y él vuelvan a tomar conciencia de su rol esencial, de sus debilidades y fortalezas, siendo reflexivo y autocrítico para poder mejorar su auto-desarrollo. El mensaje para los maestros es único: ustedes son el pilar del cambio, con el compromiso diario que evidenciamos todos los días de miles de ellos sabemos que ya hay conciencia y compromiso. Necesitamos que por encima de todos los intereses políticos y personales, sean todos los maestros un gran ejemplo.

Fuente artículo: https://compartirpalabramaestra.org/columnas/ser-ejemplo

Comparte este contenido:

Los pensamientos también pueden ser pirateados

Por: Tendencia 21

Los expertos advierten de los riesgos de la tecnología que usa electrodos colocados en la cabeza para dirigir videojuegos con la mente.

La tecnología que lee las ondas cerebrales para dirigir videojuegos con la mente puede ser utilizada también para robar las contraseñas que usamos para gestionar nuestra cuenta bancaria, así como para descubrir nuestros pensamientos más íntimos, nuestras creencias y nuestros prejuicios. El riesgo se extiende también al posible uso fraudulento de la electro encefalografía médica, según los expertos.

El investigador de la Universidad de Alabama en Birmingham Nitesh Saxena ha anunciado que es posible adivinar las contraseñas y códigos pin a través de un casco disponible en el mercado y que usa electro-encefalografía para leer las ondas cerebrales, según informa la MIT Technology Review.

La electro-encefalografía es una tecnología que permite registrar la actividad eléctrica del cerebro a través de electrodos situados en la cabeza. El casco disponible en el mercado que tiene esta capacidad se llama Epoc y, creado por la empresa Emotiv, está pensado para llevar videojuegos a través del pensamiento.

El casco funciona leyendo los impulsos eléctricos del cerebro y traduciéndolos a los comandos entendibles por un videojuego. Según Saxena, Epoc puede también ser utilizado para adivinar a escondidas las contraseñas y códigos pin si el usuario efectúa operaciones bancarias mientras está jugando.

Para demostrarlo, solicitó a unos voluntarios que se pusieran el casco y emplearan contraseñas y códigos PIN aleatorios. De esta forma descubrió que el dispositivo era capaz de establecer un vínculo entre las ondas cerebrales de las personas y lo que tecleaban en ese momento.

Después de la introducción de 200 caracteres secretos, el dispositivo pudo adivinar cuáles eran los dígitos tecleados por cada uno de los voluntarios. Esta constatación aumenta considerablemente la posibilidad de piratear estos datos.

Según Saxena, con esta tecnología, el riesgo de que la inteligencia artificial pueda adivinar un código pin de cuatro dígitos pasa de ser de 1 a 10.000, a tan sólo de 1 a 20. Y el riesgo de que adivine una contraseña de seis caracteres pasa de ser de 1 a 500.000, de 1 a 500.

Este investigador señala que sería posible pedir al usuario de un videojuego que escriba textos o códigos mientras juega y que eso sería suficiente para que un programa de inteligencia artificial incorporado al videojuego adivine con facilidad las contraseñas más usuales del usuario o su código PIN.

Aunque se trata de un riesgo teórico, dado que todos los programas que funcionan con el caso Epoc son creados por la empresa Emotiv, tecnológicamente se ha abierto la puerta al pirateo de los pensamientos humanos.

No sólo contraseñas

No es la primera vez, sin embargo, que los expertos advierten de estos riesgos. A principios de año, con motivo de la conferencia de seguridad Enigma, la investigadora de la Universidad de Washington Tamara Bonaci explicó que la tecnología cerebro-máquina puede atentar con cosas más íntimas de las personas, como son sus pensamientos, informa Futurism.

Explicó que un simple videojuego puede ser utilizado para capturar clandestinamente las respuestas neuronales a imágenes subliminales emitidas periódicamente durante el juego.

El juego empleado por Bonaci, llamado Flappy Whale, mide las reacciones neuronales de los usuarios frente a cosas inofensivas como los logos de un restaurante. Según Bonaci la misma configuración del juego puede utilizarse para extraer informaciones mucho más sensibles, como las creencias religiosas, el estado de salud o los prejuicios del usuario.

“Las señales eléctricas producidas por nuestro cerebro pueden contener informaciones sensibles que no queremos compartir con nadie, a pesar de lo cual podemos ceder esta información sin darnos cuenta”, explica Bonaci.

Flappy Whale es un interfaz conectado al cerebro, un dispositivo parecido al casco Epoc. Tiene siete electrodos que tienen que ser colocados en la cabeza del jugador para que el dispositivo pueda medir las señales electro-encefalográficas en tiempo real.

Durante el juego, los logos de los restaurantes se pasaron varias veces, en pases de unos milisegundos, sin que los usuarios se dieran cuenta. Sin embargo, midiendo las imágenes cerebrales en el momento preciso de las emisiones de los logos, el equipo de Bonaci fue capaz de registrar los pensamientos y sentimientos de los usuarios que les suscitaban los logos.


Diagrama de un cerebro conectado a un interfaz. Foto: Bonaci

Diagrama de un cerebro conectado a un interfaz. Foto: Bonaci
Proteger los pensamientos

Aunque no hay indicios de que esta piratería cerebral se haya aplicado, Bonaci advierte que para los fabricantes de cascos de realidad virtual no sería difícil añadirles la capacidad de registrar reacciones psicológicas de los usuarios sobre temas que no tienen que ver directamente con el videojuego.

También podría conseguirse sencillamente manipulando los interfaces cerebro-máquina, incluso los que se usan en medicina, para descubrir los pensamientos y creencias más íntimas de una persona.

Bonaci plantea que las señales eléctricas producidas por el cerebro son tan sentibles que deberían ser protegidas legalmente, como otras señas identidad personal como el nombre, la dirección postal o la edad de una persona.

Añade que tanto las instituciones como las empresas deben ser conscientes de la posibilidad de que se pirateen los pensamientos humanos para prevenir un uso clandestino y criminal de esta información reservada. Es también lo que ha venido a decir Saxena.

Fuente: http://www.tendencias21.net/Los-pensamientos-tambien-pueden-ser-pirateados_a43937.html
Comparte este contenido:

Información, comunicación y educación a través de Internet: Su complejidad

Por: Jorge Díaz Piña

El estudio de la mediación discursiva en torno al uso informacional de la Internet en la educación  puede soportarse epistémicamente, entre otras opciones, a partir de la revisión crítica del vínculo sujeto-objeto, ya que es sobre este vínculo que se articulan raigalmente, explícita o implícitamente, los discursos respecto: 1º) de la relación información-comunicación que implica al concepto de conocimiento, y 2º) de la significación subjetivadora que la información  mediática transmite o la que se construye comunicativamente en la educación.

Para realizar esa revisión crítica se considera que los aportes provenientes del paradigma del pensamiento complejo son indispensables.  Desde este paradigma, un objeto no es complejo en sí mismo, en el caso hipotético de que se acepte que existe el objeto en sí, lo es para el sujeto que intenta conocerlo.  El paradigma de la complejidad no acepta la disyunción sujeto/objeto de la ciencia clásica.  Para el pensamiento complejo  la complejidad si se la busca en el objeto se encuentra en el sujeto que conoce; si se la busca en el sujeto que conoce, se encuentra en el objeto en tanto el sujeto busca conocerse a sí mismo  como objeto paradójicamente.

La complejidad no remite a lo que se conoce ni a quien conoce sin antes remitir a la acción de conocer; proceso este que reenvía en forma  dialéctica tanto al conocedor como a lo que conoce, en el que lo observado y el observador dependen de la observación, y la observación a su vez depende de lo observado y del observador por ser sus condicionantes de posibilidad. En  consecuencia, si se  determina a priori al sujeto o al objeto de conocimiento, se indeterminará la acción de conocer, y viceversa, como indica Ibáñez (1990) “lo que existe es una relación sujeto/objeto, de la que sujeto y objeto son proyecciones” ( p. 5).

Esta posición epistémica no resulta de la suma de dos complejidades disjuntas, la del sujeto, por un lado, y la del objeto, por el otro, sino del supuesto de su complementariedad y codeterminación, resulta del análisis crítico de la actividad cognitiva.   De aquí el deslinde de lo epistemológico con lo ontológico, ya que se desontologiza al objeto y al sujeto con relación a la cognición cuando se deja de considerar que las nociones y conceptos usados son  atributos de los objetos o los sujetos para concebirlos como emergentes de la interacción sujeto-objeto.

Las aportaciones epistemológicas del pensamiento complejo se hacen más pertinentes para esta reflexión al estimar las contribuciones de la cibernética de primer y segundo orden.  Sobremanera, cuando ella, además de incluir al observador en lo observado y concebir al objeto como sistema, posteriormente al sujeto y al objeto como  organización-acción sistémicas, incorpora las nociones de información y comunicación para comprender la organización (Aguado, 2003).

Con la primera cibernética se reduce la comunicación a transmisión de información y la de ésta a probabilidad de ocurrencia cuantificable en tanto cantidades de bits, conllevando esto a la exclusión del agente implicado, el sujeto, de la idea misma de información, aspecto que va a limitar, cuando no a imposibilitar, describir la complejidad organizacional en los términos de sujeto, información y comunicación

Esa prevalencia de la información como determinante en el proceso de comunicación afectó la conceptualización del conocimiento mismo al relegarlo al estatuto de mero gestor de la información.  El conocimiento aparece desde entonces como procesamiento de información (ob. cit.).

No obstante,  las incongruencias de la primera cibernética condujeron a la reformulación crítica de sus ideas.  Maturana y Varela (1996) calificaron como metáfora del tubo a la reducción de la comunicación a simple transmisión, señalando su improcedencia. Para estos investigadores “el fenómeno de la comunicación no depende de lo que se entrega, sino de lo que pasa con  el que recibe. Y esto es un asunto muy distinto a “transmitir información”.” (ob. cit., p. 130).  Como es el caso cuando se define  comunicacionalmente a la información con respecto a su significación, ya que ésta encierra la virtualidad de su transformación puesto que no es transmisible por cuanto está sujeta a la co-determinación interpretativa de la interacción “emisor-receptor”.  De aquí que la “pregunta por la comunicación no puede ser la pregunta por la transmisión de algo (información, significado), sino la pregunta por la construcción de algo.” (Aguado, 2003,  p. 186).

Pero es Morín (1999) quien propone desarrollos críticos más estrechamente vinculados con las direcciones de construcción de esta perspectiva y que, en consecuencia, servirán para su fundamentación epistémica.  Para él la palabra cibernética remite a una teoría del mandato (pilotaje y control), en los sistemas en los que la comunicación regula su organización.  En este enfoque la información que se transmite es un programa (instrucciones u órdenes), que controla las operaciones, como es el caso de los ordenadores o computadoras, máquinas que tratan la información por un mandato automático.  Los ordenadores no solamente controlan y mandan producciones materiales, sino también comportamientos con base en sus competencias informacionales.

Morín sostiene que la cibernética subordinó la comunicación al mandato, lo que hace que la defina como “la ciencia del mandato por la comunicación” (ob. cit., p. 272).  Concluyendo que de ese modo, la información se impuso como entidad soberana, como imperio informacional en la mayoría de los ámbitos, cuya autenticidad quedó garantizada por su servidor, el ordenador, que se convierte en un  aparato de mando. Con base en esto, señala que la “teoría cibernética oculta el problema del poder escondido bajo el mandato” (ob. cit., p. 273), del poder del ordenador que transforma en coerción (programa) la información.

Desde este punto de vista, Morín (ob. cit.) opina que no se pueden ocultar los constreñimientos sojuzgantes que la denominada “civilización maquinista” (o tecnológica) impone a la cotidianidad de la vida y la degradación de su calidad tan denunciada hoy día. Por eso reivindica la pertinencia de la temática de el hombre sojuzgado por la máquina, siempre y cuando se le sitúe en la ambigüedad de la emancipación/sojuzgamiento potencial y en una dialéctica que conjugue la emancipación energética de la máquina o tecnología y su sojuzgamiento informacional.

Ello hace necesario el desarrollo de una ciencia co-cibernética (física y sociológica) de la organización comunicacional que supere la imposición paradigmática de la simplicidad de la ciencia clásica y de la organización tecnoindustrial sojuzgante del trabajo de las sociedades históricas, esto es, la concepción de una organización en la que rija la comunicación y no el mandato, que invierta la soberanía o el poder del mandato en beneficio de la comunicación (ob. cit.), por extensión, en consecuencia, que supere también los discursos reproductores de ese sojuzgamiento. Como es el caso del discurso dominante sobre el uso informacional de la Internet a nivel educativo.

Cabe aquí, por tanto, la sospecha epistémica  sustentada y formulada desde una perspectiva sociohermenéutica,  que la información previamente codificada,  tematizada y circulante como  “conocimiento a accesar” a partir de “clickear” palabras clave o descriptores en los buscadores de la red de Internet, inducen  precomprensiones o aprendizajes mecánicos o no constructivos en quienes interactúan con ella desprevenidamente, como pudiera ser el caso de los niños y adolescentes expuestos sin mediación comunicacional e interlocución sociocultural o pedagógico-educativa crítica  significante.

Desde otra perspectiva  epistémica pero coincidente, la de  Lyotard (1989), que es estimada como premonitoria por su visión crítica anticipada, se consideró que la multiplicación de máquinas de información afectaría la transmisión de conocimientos y la naturaleza del saber.  Sobre ello, señala “que se puede esperar una potente exteriorización del saber con respecto al ‘sabiente’ ” (ob. cit. p. 16), agregando después algo que incidirá directamente sobre el proceso educativo, “el antiguo principio de que la adquisición del saber es indisociable de la formación (Bildung) del espíritu, e incluso de la persona, cae y caerá más en desuso.” (ob. cit.), para finalmente, sentenciar que el saber así transmitido revestirá cada vez más la forma de mercancía o valor de cambio ya que “deja de ser en sí mismo, su propio fin, pierde su “valor de uso” (ob. cit.).

La relación sujeto-objeto es también tema de reflexión en Heidegger (1997), en tanto vínculo hombre-mundo.  Para él, el hombre en cuanto ser humano es Daseín, “ser ahí” o ser que está siendo en el mundo. El mundo no es algo ajeno, simple presencia de la realidad de objetos o cosas ante el ser humano. El mundo no es lo que “está ahí” estáticamente en el entorno. El mundo hace unidad con el Daseín, es constitutivo de él porque está dinámicamente a disposición  de él como contexto de referencias útiles que tienen, por eso, ser.  Entorno de útiles que hacen unidad con el Daseín por cuanto están al servicio o en función del otro; su estructura o esencia es la de seres útiles a otro ser, el ser humano.  Su ser se manifiesta en el momento que los utiliza o refiere el ser humano aún y cuando éste no se percate del ser de aquellos por la implicación de su actuación o manifestación útil ya que al unificarse en la acción no son distinguidos esencialmente.  Aquí el mundo es considerado también como un contexto en forma de red de referencias simbólicas o ámbito de significación sobre el que se proyecta el ser humano al comprenderlo o interpretarlo cuando le atribuye sentido. Así ocurre con los útiles técnicos o las tecnologías, para nuestro caso, con Internet, como lo plantea Cortés-Boussac (2009) “el Daseín se está dando, desplegándose-en-el-mundo, al recurrir al Internet; hay manifestación de su ser como del ser del Internet  (…) y, en cierta forma, está llevando al Daseín en las redes de su estar-en-el-mundo.” ( p.41).

 Referencias

Aguado, J. M.  (2003).  Comunicación y cognición. Bases epistemológicas de la complejidad . Sevilla:  Comunicación social ediciones.

Cortés-Boussac, A.  (2009).  El hombre en las redes de las nuevas tecnologías. Bogotá: Ediciones Universidad Sergio Arboleda

Heidegger M. (1997). Filosofía, ciencia y técnica. Santiago de Chile: Editorial Universitaria

Ibáñez, J.  (1990)  Nuevos avances en la investigación social. La investigación social de segundo orden. Barcelona:Editorial Anthropos.

Lyotard, J-F.  (1989)  La condición posmoderna. Madrid: Editorial Cátedra.

Maturana, H. y Varela, F.  (1996)  El árbol del conocimiento. Las bases biológicas del entendimiento humano. Buenos Aires: Lumen-Editorial Universitaria

Morin, E.  (1999)  El método. La naturaleza de la naturaleza. Madrid: Editorial Cátedra.

 

 

Comparte este contenido:
Page 4 of 6
1 2 3 4 5 6