Page 47 of 48
1 45 46 47 48

Tecnología, Educación, y Desencuentros

30 de junio de 2016/Fuente: publimetro

Algunos expertos recomiendan transformar los modelos de enseñanza, para que sean capaces de entrenar rápido a la gente y mantenerla siempre un paso adelante.

Muchos usamos el buscador google para encontrar información en internet; o nos llegan miles de ofertas y promociones sensibles a nuestros gustos a través de Amazon; o vemos como automáticamente se identifican los rostros de las personas en las fotos que publicamos en nuestras redes sociales.

Nos sorprendemos con autos capaces de manejarse de manera autónoma. También existen prótesis de manos que se fabrican con sensores en las yemas de los dedos para controlar la fuerza de agarre. Se estima que en algunos años los drones que hoy se utilizan para tomar fotografías aéreas, serán un componente utilizado en la industria para cubrir o automatizar procesos rutinarios.

Estos son ejemplos de inteligencia artificial, que es la facultad de razonamiento que tiene un agente que no está vivo, capaz de realizar determinadas tareas y operaciones consideradas propias de la inteligencia humana.

A la par de estos avances tecnológicos, se ha despertado un debate e incertidumbre entre la población mundial: ¿Llegará el momento en que las máquinas o programas computacionales, reemplacen totalmente el trabajo humano?

Pero en lugar de tener miedos frente al tema, debemos ver a la tecnología como una aliada del bienestar. Estamos en un nuevo escenario que nos exige y demandará nuevas habilidades profesionales.

No es casualidad que las carreras con mayor futuro y proyección, tienen que ver con la tecnología y manejo inteligente de la información, por ejemplo, la revista Forbes menciona que “los perfiles del mañana” son los de: Diseñador de contenidos a la medida, Especialista en archivo virtual, Especialistas en seguridad biométrica, Nanomédicos, Ingeniero biorefinador, Diseñador de vehículos alternativos, etc.

Ante este escenario, algunos expertos recomiendan transformar los modelos de enseñanza, para que sean capaces de entrenar rápido a la gente y mantenerla siempre un paso adelante.

Estos temas son los que se discuten actualmente en países avanzados. La cuestión frente a estos retos es cómo acoplar y evolucionar los modelos de enseñanza para el desarrollo de las naciones.

Desafortunadamente este escenario global contrasta con lo que ocurre en nuestro país, respecto al tema educativo. En Oaxaca y otros estados, hay muertos, heridos y detenidos. Muchas niñas y niños pierden años escolares en niveles básicos, porque las autoridades y los maestros no logran llegar a acuerdos para aterrizar la reforma educativa.

La tensión en aumento y la pérdida de vidas humanas, demuestran que es necesario construir un espacio de análisis y diálogo sobre la afectación de los derechos laborales de los maestros y maestras. Es primordial que las autoridades entiendan la realidad de los docentes y no sólo castiguen. Es necesario dialogar y construir juntos.

En perspectiva, si queremos entrar al tema educativo en serio, debemos entender que para modernizar y fortalecer nuestro sistema de aprendizaje se requiere que todos los alumnos tengan acceso libre a internet, a transformar la infraestructura en todo el país, a destinarle todos los recursos que sean necesarios para este objetivo prioritario.

Debemos ser capaces de forjar un futuro promisorio para las nuevas generaciones, donde no existan miedos ni tensiones, sino esperanza y trabajo conjunto para evolucionar. De no apuramos, el verdadero peligro será quedarnos atorados en la prehistoria educativa.

Fuente: http://www.publimetro.com.mx/armando-rios-peter/tecnologia-educacion-y-desencuentros/mpfD!Wc7DVVFM6NqTw/

Imagen: http://www.publimetro.com.mx/_internal/gxml!0/r0dc21o2f3vste5s7ezej9x3a10rp3w$ak7356ua78arcjopuk889n2wdzw7p7b/Primaria_Espan771a_SEP-10.jpeg

Comparte este contenido:

«La educación es clave para formar a la gente para un nuevo mundo»

España/23 de junio de 2016/Fuente: La Nueva España

«Cuanto más autónomos son los sistemas, menor valor tiene la persona»

Manuel Graña, ayer, en el Museo Nicanor Piñole, donde pronunció su conferencia. ÁNGEL GONZÁLEZ

Luján PALACIOS Manuel Graña Romay es catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad del País Vasco. Ayer pronunció la conferencia inaugural del XII Simposio del Grupo Temático de Control Inteligente que organiza la Politécnica hasta el viernes.

-¿En qué consiste el aprendizaje por refuerzo?

-Es una forma de aprender en la que las instrucciones que le das a los algoritmos son las mínimas posibles. Sólo se le dice si lo ha hecho bien o mal, pero no se le dice qué tiene que hacer.

-¿Hacia dónde va el mundo de la inteligencia artificial?

-En la actualidad ya está implementada, tenemos un montón de cosas que están ya funcionando en base a técnicas de inteligencia artifical. Por ejemplo google maps, que nos dice el camino, nos hace una planificación. Como eso muchísimas cosas que ya usamos.

-¿Ya vivimos en un mundo de inteligencia artificial?

-Hay muchas cosas que ya están. No podemos olvidar que Google es una de ellas y ha cambiado muchísimas cosas. Es una aplicaciónde inteligencia artificial que usa todo el mundo. Cada smartphone también lleva inteligencia artificial.

-¿Cómo está afectando a nuestra vida todo este desarrollo?

-Hay desarrollos como Google o Booking que han eliminado muchísimos de los trámites que hacen las agencias de viajes. Desaparecen un montón de puestos de trabajo con este desarrollo.

-¿Es la parte negativa de la inteligencia artificial?

-Es lo que hay. Lo que tenemos que ver es cómo nos adaptamos a los cambios, ver cuál será el papel de las personas. Y lo que ocurre ahora es que todo el mundo está haciendo lo mismo, en muchas de las áreas de la ingeniería lo que hace la gente es programar y utilizar técnicas de análisis numérico y de inteligencia artificial.

-¿Es un problema?

-Depende para qué. Lo que está ocurriendo es un cambio ecológico, y en ecología hay depredador y presas. Normalmente a nosotros nos toca el papel de presa. Los cambios que se predecían hace años están ocurriendo, en la forma en que nos podemos comunicar, en que podemos viajar, con la electrónica y los sistemas de control. En realidad la inteligencia artificial es una extrapolación del control, que ha ido evolucionando. Estos sistemas autónomos, van solos, y cuanto más autónomos sean, menor valor tiene la persona.

-¿Dónde queda el papel del humano?

-Ya está definido. Somos los usuarios consumidores. Si puedes comprar y gastar eres persona, y si no, no.

-¿Cómo podemos imaginar el futuro dentro de un siglo?

-Siempre a mejor. El futuro será mejor, pero cómo será el mundo aún no lo sabemos exactamente. Dependerá de la educación, hay más gente, la gente necesita cosas y cada vez iremos agotando más la naturaleza a menos que seamos capaces de armonizar nuestras necesidades con la naturaleza. El problema fundamental es la educación, la gran crisis va a ser la de la educación, cómo la gente se forma para vivir en ese nuevo mundo en armonía con la naturaleza.

Fuente: http://www.lne.es/gijon/2016/06/23/educacion-clave-formar-gente-nuevo/1946782.html

Imagen: http://fotos02.lne.es/2016/06/23/318×200/educacion-clave.jpg

Comparte este contenido:

Los científicos han inventado una máquina para leer la mente.

América del Norte/Estado Unidos/21.06.2016/Fuente:http://www.vox.com/

Brian Resnick

Podemos tomar la memoria de alguien . y podemos tirar de él hacia fuera de sus cerebros.

El neurocientífico Brice Kuhl me dijo recientemente algo sorprendente. «Podemos tomar la memoria de alguien – que suele ser algo interno y privado – y podemos tirar de él hacia fuera de sus cerebros», dijo Kuhl, quién está en la Universidad de Oregon.

Eso suena muy parecido a … leer la mente. Así que tuve que preguntar: ¿Se puede leer la mente?

«Algunas personas utilizan diferentes definiciones de la lectura de la mente, pero sin duda, que está acercando», dijo.

Kuhl y su colega Hongmi Lee recientemente publicaron un artículo en The Journal of Neuroscience con una conclusión sacada de la ciencia ficción: El uso de una resonancia magnética, algunos software de aprendizaje de máquina, y unos conejillos de indias humanos desafortunados, Kuhl y Lee crearon imágenes directamente desde memorias.

Muy muy cerca de la lectura de la mente.

En primer lugar, Kuhl y Lee cargan los participantes (un total de 23) en una resonancia magnética. Los imanes de la MRI puede detectar cambios sutiles en el flujo sanguíneo.Y en el cerebro, el flujo de sangre es igual a la actividad neurológica.

Una vez que la máquina estaba encendida, los participantes comenzaron a ver las imágenes de cientos de caras.

La primera fase de la prueba es un ejercicio de entrenamiento. No para el participante, pero para un programa de inteligencia artificial que está conectado a la resonancia magnética, la lectura de los datos en tiempo real.

Ese programa AI recibe dos conjuntos de información. Se trata de los patrones de actividad cerebral de los participantes. La otra es una descripción matemática de cada cara del participante está viendo. (Kuhl y Lee se acercó con 300 números para diferentes aspectos físicos de una cara – como el color de la piel o la expresión emocional A continuación, cada foto se le asigna un código para describir sus atributos.).

Lo que el programa de IA no se trata de hacer conexiones: ¿Qué tan bien esas ráfagas de actividad cerebral se correlacionan con esos números?

A medida que el programa de IA se acumula esta información, que crece más inteligente, o al menos mejor juego en la actividad cerebral a las caras.

La segunda fase de la prueba es donde las cosas se ponen raras.

Los participantes, que aún se encuentran en la resonancia magnética, se muestran fotos de marcas caras nuevas. El programa de ordenador no puede ver estas caras.Pero puede hacer algunas suposiciones.

Aquí hay unos ejemplos. La fila superior son las caras originales. Los segundos dos filas son conjeturas sobre la base de la actividad en dos regiones diferentes del cerebro. La ANG es el giro angular, que se activa cuando recordamos algo vívidamente. La OTC es la corteza occipitotemporal, que responde a las entradas visuales.
Las primeras cinco columnas representan las reconstrucciones más precisos. El dos a la derecha son ejemplos de las menos exactas.

Sé lo que estás pensando: Estas conjeturas son horribles!

Sí, no van a ser utilizados para la elaboración de bocetos en cualquier momento pronto.

Pero incluso estas imágenes borrosas contienen información útil.

Kuhl y Lee mostraron estas imágenes reconstruidas a un grupo separado de los encuestados en línea y preguntas sencillas como: «¿Es hombre o mujer?» «¿Es esta persona feliz o triste?» Y «¿Es su luz color de la piel u oscuro?» Para un grado mayor que el azar, las respuestas desprotegido. Estos detalles básicos de las caras se pueden extraer de lectura de la mente.

Los científicos han hecho en realidad este tipo de lectura de la mente antes. (Un ejemplo fresco: En el pasado, se utilizó una técnica para reconstruir los detalles básicos de clips de película a partir de la actividad cerebral.)

Está bien, pero podría el programa de reconstrucción de una cara únicamente a partir de un recuerdo?

En otro ensayo, y Lee Kuhl mostraron los participantes dos caras. A continuación, les pidió que se mantenga una de las caras en sus memorias. Las caras fueron tomadas fuera de la pantalla a continuación. Mientras que los participantes se les mantiene en sus pensamientos, el MRI escanea el cerebro. Y a continuación, el equipo trató de recrear sus pensamientos en una foto.

conjeturas de la computadora empeoraron. Mucho peor.

Para este ensayo, sólo los datos de la ANG produjeron datos significativos.

Pero no falló por completo . «Comparamos la reconstrucción de las dos imágenes, y nos preguntamos [el equipo] sólo en términos de valores de píxeles, se ve la imagen reconstruida más similar a la que se les dijo que hay que recordar que el otro?», Explica Kuhl. Alrededor del 54 por ciento de las veces, el equipo dijo que estaba más cerca de la meta. No es un gran avance total, pero es un comienzo intrigante que necesita más trabajo y más participantes.

Pero ¿cuál es el punto? ¿Por qué diseñar un programa para leer la mente?

El objetivo final de la ciencia no es leer la mente. Es de entender mejor cómo funciona el cerebro.

Por lo general, los neurólogos utilizan escáneres cerebrales para observar qué estructuras del cerebro «encienden» cuando participa en una tarea mental particular.Pero sólo hay tanta información para deducir de las exploraciones por sí solos. El hecho de que una parte del cerebro está activo no les dice a los investigadores demasiado acerca de lo que está haciendo la tarea específica.

Las regiones Kuhl y Lee dirigidos en la resonancia magnética se han sabido por mucho tiempo que estar relacionado con recuerdos vívidos. «¿Es esa región que representa los detalles de lo que viste? – O simplemente [iluminando] debido a que eran sólo confía en la memoria», dice.

Kuhl y los resultados de Lee son la evidencia que es el primero. La IA era capaz de hacer la conexión entre las caras y la actividad cerebral. Si las regiones del cerebro no estaban involucrados en los detalles visuales, que no podría haber hecho esas conexiones.

Unas cuantas más candentes preguntas sobre lectura de la mente

Eso está bien y todo. Pero todavía estaba atrapado en la naturaleza salvaje del aspecto de leer la mente del experimento: ¿Cuánto más se puede conseguir la máquina en la reconstrucción de caras? ¿Podríamos reconstruir un rostro perfectamente?

«No quiero poner un tope en ella,» Kuhl me dijo. «Podemos hacerlo mejor.»

La razón es simple: Es un problema de procesamiento de la computadora pura. Si tan sólo los participantes podían pasar más tiempo en la resonancia magnética la formación de la IA, IA crecería más «inteligente», y las imágenes reconstruidas se haría más reconocible.

«Realmente nos gustaría tener a alguien en el escáner y ver 10.000, 20.000 caras», dice. «Usted tendría que estar allí durante un par de días.» Así que no es del todo factible, o ético. Es difícil traer de vuelta a los mismos sujetos a sesiones posteriores.Uno, es muy caro de operar una máquina de MRI. Y dos, que es muy difícil de ángulo de la cabeza de un participante en la misma posición exacta como un ensayo anterior.Predicción funciona mejor cuando la prueba se realiza en una sesión muy prolongada.(Él mismo Kuhl dijo que no voluntario para una prueba tan larga.)

¿Está en el ámbito de la posibilidad de leer la mente de una persona sin su permiso?

«Se necesita a alguien para jugar a la pelota», dijo. «No se puede extraer la memoria de alguien si no lo están recordando, y la gente la mayoría de las veces está en control de sus recuerdos.»

Oh bien.

¿Qué hay de esto: ¿Puede usted utilizar esta técnica para ver lo que alguien está soñando?

«Una fMRI papel trató de descifrar el contenido de los sueños», dijo Kuhl. «Podría decodificar – con lo que sea por ciento de exactitud – que alguien estaba soñando con un miembro de la familia o algo por el estilo.» (Ese documento no fue reconstruyendo caras, pero se predice ampliamente las categorías de bienes y personas a los participantes estuvieron soñando.)

Whoa. Todo esto es tan fresco.

«Las cosas que estamos haciendo ahora, si le preguntas a la gente hace 20 años cuando la fMRI se estaba poniendo en marcha, si se les preguntó acerca de este tipo de cosas, habrían pensado que era una locura», dijo.

Fuente: http://www.vox.com/2016/6/20/11905500/scientists-invent-mind-reading-machine

Imagen: http://comps.canstockphoto.com/can-stock-photo_csp18063383.jpg

Comparte este contenido:

La inteligencia artificial produce sonidos realistas que engañan a los seres humanos.

Sistema de formación de vídeo de Ciencias de la Computación del MIT y el Laboratorio de Inteligencia Artificial podría ayudar a los robots a entender cómo los objetos interactúan con el mundo.

Adam Conner-Simons

Para los robots para navegar por el mundo, tienen que ser capaces de hacer suposiciones razonables sobre su entorno y lo que podría suceder durante una secuencia de eventos.

Una manera en que los seres humanos vienen a aprender estas cosas es a través del sonido.Para los bebés, auscultar y pinchar objetos no es sólo diversión; algunos estudios sugieren que en realidad es la forma en que desarrollan una teoría intuitiva de la física. Podría ser que podemos conseguir máquinas de aprender de la misma manera?

Los investigadores de MIT ciencias de la computacion y el laboratorio de inteligencia artficial (CSAIL) han demostrado un algoritmo que efectivamente ha aprendido cómo predecir sonido: Cuando se muestra un clip de vídeo en silencio de un objeto de ser golpeado, el algoritmo puede producir un sonido para el golpe que es lo suficientemente realista para engañar a los espectadores humanos.

Esta «prueba de Turing para el sonido» representa mucho más que un truco equipo inteligente: Los investigadores prevén futuras versiones de algoritmos similares que se utilizan para producir automáticamente efectos de sonido para películas y programas de televisión, así como para ayudar a los robots a entender mejor las propiedades objetos.

Los investigadores del MIT han demostrado un algoritmo que efectivamente ha aprendido cómo predecir sonido. El avance podría conducir a mejores efectos de sonido para cine y televisión y robots con una mejor comprensión de los objetos de su entorno.

Vídeo: MIT CSAIL

«Cuando se ejecuta el dedo por una copa de vino, el sonido que hace refleja la cantidad de líquido que está en él», dice el estudiante de doctorado CSAIL Andrew Owens, que fue el autor principal en un próximo artículo que describe el trabajo. «Un algoritmo que simula tales sonidos pueden revelar información clave acerca de las formas de objetos ‘y tipos de materiales, así como la fuerza y el movimiento de sus interacciones con el mundo.»

El equipo utilizó técnicas del campo de «aprendizaje profundo», que implica equipos de enseñanza para tamizar a través de enormes cantidades de datos para encontrar patrones en su propio. enfoques de aprendizaje profundas son especialmente útiles debido a que liberen los informáticos de tener a mano-diseño de algoritmos y supervisar su progreso.

los co-autores del estudio incluyen recién graduado Phillip Isola y profesores del MIT Edward Adelson, Bill Freeman, Josh McDermott, y Antonio Torralba. El documento se presentará a finales de este mes en la conferencia anual de Visión por Computador y Reconocimiento de Patrones (CVPR) en Las Vegas.

Cómo funciona

El primer paso para la formación de un algoritmo de producción de sonido es dar suena a estudiar. Durante varios meses, los investigadores registraron cerca de 1.000 vídeos de un estimado de 46.000 sonidos que representan diversos objetos de ser golpeado, raspadas, y pincharon con una baqueta. (Se utilizó un muslo de pollo, ya que proporciona una forma consistente para producir un sonido.)

A continuación, el equipo alimentó a los vídeos a un algoritmo profundo aprendizaje que deconstruye los sonidos y se analizó su tono, el volumen y otras características.

«A continuación, predecir el sonido de un nuevo video, el algoritmo analiza las propiedades de sonido de cada fotograma de ese vídeo, y los compara con los sonidos más similares en la base de datos», dice Owens. «Una vez que el sistema tiene esos bits de audio, que las une para crear un sonido coherente».

El resultado es que el algoritmo puede simular con precisión las sutilezas de los diferentes accesos, de los grifos staccato de una roca a las formas de onda más largas de robo de hiedra. El tono es ningún problema, ya que se puede sintetizar sonidos afectadas van desde los «golpes» de tono bajo de un sofá suave para los agudos «clicks» de una barandilla de madera dura.

«Enfoques actuales en AI sólo se centran en una de las cinco modalidades sensoriales, con investigadores de la visión usando imágenes, los investigadores del habla del uso de audio, y así sucesivamente», dice Abhinav Gupta, profesor asistente de la robótica en la Universidad Carnegie Mellon, que no participó en el estudiar. «Este trabajo es un paso en la dirección correcta para imitar el aprendizaje de la forma que los humanos, mediante la integración de sonido y de la vista.»

Un beneficio adicional de la obra es que la biblioteca de 46.000 sonidos del equipo es gratuito y está disponible para otros investigadores a utilizar. El nombre del conjunto de datos: «Greatest Hits».

Engañando a los seres humanos:

Para probar qué tan realistas fueron los sonidos falsos, el equipo llevó a cabo un estudio en línea en el que los sujetos vieron dos vídeos de colisiones – uno con el sonido de grabación real, y otro con el algoritmo de – y se les hizo cuál era real.

El resultado: Los sujetos tomaron el sonido falsa sobre la real dos veces más que un algoritmo de línea de base. Fueron particularmente engañar por materiales como hojas y la suciedad que tienden a tener menos «limpia» sonidos que, por ejemplo, madera o metal.

Además de eso, el equipo encontró que los sonidos de los materiales revelaron aspectos clave de sus propiedades físicas: Un algoritmo que desarrollaron podría decir la diferencia entre materiales duros y blandos 67 por ciento de las veces.

El trabajo del equipo se alinea con las recientes investigaciones CSAIL en la amplificación de audio y vídeo. Freeman ha ayudado a desarrollar algoritmos que amplifican movimientos captados por el vídeo que son invisibles a simple vista, lo que ha permitido a sus grupos para hacer cosas como hacer que el pulso humano visible e incluso recuperar el habla usando nada más que video de una bolsa de patatas fritas .

Mirando hacia el futuro:

Los investigadores dicen que aún hay espacio para mejorar el sistema. Por ejemplo, si el muslo se mueve de forma errática sobre todo en un video, el algoritmo es más probable que se pierda o alucinaciones una falsa alarma. También está limitado por el hecho de que sólo se aplica a los «sonidos indicados visualmente» – sonidos que son causadas directamente por la interacción física que está siendo representado en el vídeo.

«Desde el soplado suave del viento para el zumbido de los ordenadores portátiles, en un momento dado hay tantos sonidos ambientales que no están relacionados con lo que en realidad estamos mirando», dice Owens. «Lo que sería realmente emocionante es simular alguna manera el sonido que está asociado directamente al menos los elementos visuales.»

El equipo cree que el trabajo futuro en esta área podría mejorar las habilidades de los robots para interactuar con su entorno.

«Un robot podría mirar a una acera e instintivamente sabe que el cemento es dura y la hierba es suave, y por lo tanto sabía lo que pasaría si se intensificaron en cualquiera de ellos», dice Owens. «Ser capaz de predecir el sonido es un primer paso importante hacia el ser capaz de predecir las consecuencias de las interacciones físicas con el mundo.»

El trabajo fue financiado, en parte, por la Fundación Nacional de Ciencia y Shell. Owens también fue apoyado por una beca de investigación Microsoft.

Fuente: http://news.mit.edu/2016/artificial-intelligence-produces-realistic-sounds-0613

Imagen: http://news.mit.edu/sites/mit.edu.newsoffice/files/styles/news_article_image_top_slideshow/public/images/2016/MIT-CSAIL-sound-prediction-algorithm-2_0.png?itok=LIsXEB-x

Comparte este contenido:

Argentina: ¿Jubilarán los robots a la humanidad?

Argentina/16 de mayo de 2016/Fuente:El Litoral/DPA

Ya cubren casi todas las áreas laborales. Y no sólo cumplen tareas rutinarias sino que aprenden funciones sociales como hablar y dar la mano. En este marco, ¿cuál será nuestro papel con el avance de los robots en el mundo del trabajo?

Para entender la revolución digital vale la pena echar un vistazo al pasado: en la segunda mitad del siglo XVIII comienza la primera era de las máquinas, en la que la reina fue sin duda la máquina de vapor. Con la revolución industrial, no sólo se produce la desaparición progresiva del caballo como medio de transporte, sino de la agricultura y el mundo militar. Junto con la electrificación y la motorización, la mecánica sustituye a la fuerza de los músculos y el ser humano permanece como supervisor de los procesos.

Ahora, ha comenzado una nueva etapa que algunos llaman la segunda era de las máquinas, en la que éstas y los programas no se detienen ante nada, ni siquiera ante la capacidad intelectual. Cuando se inventaron las primeras computadoras, se decía que sólo harían aquello para lo que fueran programas, pero esto ya no es así cuando los ordenadores aprenden.

Por ejemplo, los vehículos autónomos sustituirán a los conductores de taxis, conductores de palas mecánicas o camioneros. Las autopistas podrían convertirse en largas columnas de vehículos sin conductor. Las máquinas serán capaces de diseñar casas en lugar de los arquitectos, de realizar desde traducciones hasta los diagnósticos médicos. Hoy ya algunas mezclan bebidas, otras reparan relojes, regulan el tráfico o participan en las guerras.

Una encuesta del Instituto Pew entre 1.900 científicos revela que en las fábricas y líneas de montaje hoy dominan las máquinas. Y ahora sería el turno de las oficinas.

Los estudios no coinciden acerca de la velocidad ni el alcance de este proceso. E incluso aunque algunos prevean que la mitad de los empleos en Estados Unidos está en peligro por la automatización, los críticos subrayan que eso no quiere decir que el 47 % de los afectados no encuentren otro trabajo, porque el 65 % de los empleos actuales en ese país no existía hace 25 años.

¿QUÉ VALEMOS SI No HAY TRABAJO?

¿Se podrán sustituir los empleos eliminados por otros nuevos? ¿Cómo se mantendrán la cohesión social y la democracia en una sociedad dividida entre los trabajadores “importantes”, de dirección y creativos… y todos los demás? ¿Para qué sirven los seres humanos en un mundo que no necesita su trabajo y en el que sólo una minoría estará ahí para acompañar una economía digitalizada?

En muchos estudios, el futuro aparece pintado bastante oscuro, con la humanidad sometida a una servidumbre por los robots.

Después de la automatización, el siguiente paso es la inteligencia artificial. Entre sus detractores está el físico británico Stephen Hawking, que la considera profundamente amenazante para el ser humano. Por su parte, Ray Kurzweil, de Google, cree que en 2029 las máquinas serán más inteligentes que el ser humano.

Básicamente, de lo que se trata es que todo lo que una máquina pudiere hacer mejor que un ser humano, debería ser hecho por una máquina. Un robot de la construcción australiano planta los cimientos de una casa en dos días. Es decir, que la fuerza física o los conocimientos técnicos básicos no son de gran utilidad, en cambio sí la solución de problemas complejos.

Por eso, muchos expertos exigen que cambien muchas cosas en la educación. El economista y Tyler Cowen sentencia: “Lo mediocre ya no vale”.

Ryan Holmes, empresario y creador de la plataforma Hootsuite, cree que es necesario un cambio radical: cultivar las capacidades humanas extraordinarias y únicas, lo que implica una educación completamente diferente. Adiós a la uniformidad y bienvenido lo extraordinario.

A todos los que se depriman con las previsiones de la segunda era de las máquinas, Holmes les da un consejo: “Inviertan en las capacidades que una máquina no puede reproducir, en las funciones más elevadas: creatividad, resolución de problemas, capacidad de inventiva”.

Fuente: http://www.ellitoral.com/index.php/diarios/2016/05/16/informaciongeneral/INFO-01.html

 Imagen: http://mira.ellitoral.com/wp-content/uploads/PR2.jpg

Comparte este contenido:

México, Brasil, Colombia: IBM y Plaza Sésamo se unen para crear juguetes inteligentes

 México, Brasil, Colombia/Ana Carvajal/ 2 de mayo de 2016/ Fuente la República
Si una de sus mayores preocupaciones es la educación temprana de sus hijos, IBM y Plaza Sésamo tienen una nueva alternativa para usted. Al unirse, buscan crear productos enfocados en la enseñanza de los niños. Esta alianza se hace con la intención de crear una nueva generación de juguetes personalizados para el aprendizaje. Buscan combinar la experiencia en educación preescolar de Plaza Sésamo con la tecnología cognitiva de IBM.

Watson, la herramienta de inteligencia artificial de la compañía, analizará grandes cantidades de datos para determinar el papel que juegan los padres y maestros en su formación especialmente durante los primeros cinco años de vida.

También se crearán aplicaciones de lectura y herramientas para usar en el salón de clase.

Esta unión se hizo por un periodo de tres años, en los cuales se espera desarrollar productos basados en diferentes métodos de aprendizaje, ya que todos los niños aprenden de maneras diferentes.

IBM inició operaciones en Costa Rica en 2004 y desde entonces ha generado empleo en áreas como finanzas, tecnología y recursos humanos.

Durante estos años ha traído grandes unidades de negocio al país como Watson Analytics y la Ciberseguridad de clientes alrededor del mundo. El objetivo de esta alianza de tres años es formar una plataforma tecnológica sobre la cual desarrollar productos. Ésta será creada por IBM con base en su sistema informático de inteligencia artificial (AI), Watson, que se encargará de analizar grandes cantidades de datos recolectados por Sesame Street durante toda su existencia —entre ellos más de 1,000 estudios— para definir las necesidades de aprendizaje de los niños de hoy – See more at: http://tecreview.itesm.mx/ibm-y-plaza-sesamo-se-unen-para-transformar-la-educacion/#sthash.fEKZDiS8.dpuf

Plaza Sésamo, un programa educativo de Sesame Workshop, transformó la forma de aprender de los niños para siempre, dando lugar al nacimiento de una TV educativa diferente, con atractivos lúdicos para los niños, hace ya algunas décadas. Hoy, un acuerdo de esta organización con IBM promete volver a transformarla.

La unión de 45 años de experiencia de Sesame Workshop con la capacidad cognitiva de Watson, para formar una plataforma tecnológica sobre la cual desarrollar productos es por demás prometedora. “Se trata de una alianza de tres años para generar productos y plataformas, sin restringirse a un producto específico” asegura Sergio Loza, experto de IoT de IBM América Latina.

 

Infografía sobre el acuerdo de IBM y Sesame Workshop para usar Watson en la educación

“Con el uso de esta tecnología se puede detectar que un niño esté triste al jugar con cierto juego/juguete, o ver si se entretiene con el” añade Loza. Incluso analizar un salón de juegos completos es posible, no solo para evaluar su rendimiento como grupo, sino también para detectar niños muy avanzados, rezagados o con necesidades especiales y personalizar el proceso de aprendizaje en consecuencia.

“Los juguetes podrían interactuar con el niño y modificar su comportamiento según el progreso del niño” asegura el experto, lo que logrará aumentar el rendimiento de todos los niños en el salón de clases. “[Este proceso] se diferencia de los procesos tradicionales de enseñanza en grupos y todos los alumnos terminan aprendiendo más al tener una enseñanza personalizada, que permite a cada uno aprender más rápido, a su propio paso”.

Los dispositivos para interactuar con los niño podrán ser de cualquier tipo, no sólo costosas tabletas o computadoras, que junto con el uso de la nube termina democratizando la tecnología y permitiendo implementaciones en cualquier lugar, a bajo costo.

El uso del concepto de IoT con juguetes y otros dispositivos interactuando con los niños, además del uso de Apps, es una idea revolucionaría que permite una evaluación constante del aprendizaje. “IoT tiene un impacto mayor en áreas que no están tecnificadas, como puede ser un aula por ejemplo” señala Loza. Funciones como la geo-localización –en el salón, el patio y más—pueden brindar información interesante y relevante acerca del comportamiento de los niños y ser utilizada para corregir desde el diseño de las aulas hasta detectar posibles casos de bullying.

Impacto global

El impacto de estos desarrollos serán sin duda globales, pero vale la pena destacar que Sesame Workshop tiene presencia en nuestra región en países como Brasil, México y Colombia y esto podría repercutir regionalmente de manera importante.

Pero al monitorear tan de cerca de los niños hay oro tipo de impactos que pueden causarse, uno de ellos sobre la privacidad personal. Hay una gran preocupación por la privacidad, más aún cuando los sujetos involucrados son niños, por lo que IBM ha considerado el uso de procesos que vuelven los datos anónimos, antes de ser usados en un diagnóstico grupal. Sin embargo padres y educadores deben conservar los acceso suficientes a estos datos como para evaluar a cada alumno en particular.

Watson puede además ayudar a evaluar “la experiencia de usuario” de los niños ante las propuestas educativas. Al evaluar el tono y sentimiento de la interacción de los niños con juguetes o plataformas educativas, se puede llegar a conocer el feedback de los niños como usuarios. Los educadores también pueden ser evaluados, no sólo apoyados, por esta herramienta lo que trae consideraciones éticas interesantes que de seguro saldrán a la palestra a medida que el acuerdo produzca resultados.

Una alianza de larga data

La alianza recién anunciada, que une a IBM y Sesame Workshop, no es la primera vez en que estas marcas se relacionan. En 1967 IBM encargó a Jim Henson, el creador de los Muppets –las figuras protagónicas de Plaza Sésamo—la realización de una serie de comerciales en los cuales nació uno de los más icónicos personajes de Henson: el monstruo come-galletas o “Cookie Monster”. En un viseo ocurrido en la “futurista” cafetería de una empresa, el monstruo come galletas reveló al público televidente su afición por comer desesperadamente lo que encontrará, pero en especial galletas. Esta relación, para muchos desconocida, es quizás la nota más curiosa de este anunció que me tiene hablandodeti IBM y de ti, Sesame Workshop, y preguntándome como será el futuro de la educación, en especial para los niños de 0 a 5 años, los más propensos a aprender rápidamente.

Fuente: https://www.larepublica.net/noticia/ibm_y_plaza_sesamo_se_unen_para_crear_juguetes_inteligentes/

Imagen: https://www.larepublica.net/app/cms/www/img_edicion/E160502/201605020859131.760×460.jpg

Comparte este contenido:

¿Cómo entrenar a una plataforma de inteligencia artificial? Jugando a Pac-Man, claro

Javier Pastor.

Las iniciativas que están tratando de avanzar en el desarrollo de sistemas cada vez más capaces de inteligencia artificial no dejan de sorprendernos, y de hecho son varios los proyectos que están en marcha. Uno de ellos es OpenAI, la plaaforma creada por Elon Musk, Sam Altman (Y Combinator) y Ilya Sutskever, científico que antes formó parte de Google Brain.

Esta plataforma abierta que quiere compartir sus avances con el resto del mundo -nada de soluciones propietarias como las de Google o Microsoft, predican sus creadores- ha dado un primer paso: un conjunto de herramientas que los desarrolladores ya pueden usar para ir trabajando en todo tipo de proyectos. De hecho entre ellas están herramientas de aprendizaje por refuerzo en las que se trata de aprender la mejor forma de jugar a juegos legendarios de Atari como el Pac-Man, Asteroids, Air Raid o Pitfall.

Aprendizaje por refuerzo, en la cresta de la ola

El llamado OpenAI Gym que se ha lanzado en fase beta trata de simular escenarios en los que esta plataforma de inteligencia artificial puede aprender ypotenciar ese sistema de aprendizaje por refuerzo que de hecho es la clave de DeepMind, el motor de inteligencia artificial de Google que hace poco logró ese increíble hito de superar a uno de los mejores jugadores humanos del mundo de Go.

Pacman2

Los creadores de este conjunto de herramientas también han liberado una serie de utilidades que permiten comparar distintos algoritmos de aprendizaje por refuerzo que permitan ir afinando el comportamiento de los sistemas que vayan programando los desarrolladores a través de los resultados obtenidos.

OpenAI Gym es además compatible con algoritmos desarrollados con plataformas como Tensorflow o Theano, y aunque explican que de momento estas herramientas están restringidas al uso de Python pronto expandirán ese soporte a otros lenguajes de programación. En el caso del Arcade Learning Environment integrado dentro de esta plataforma, es curioso el uso de Stella, el emulador de las Atari 2600 que permite evaluar si nuestro sistema de inteligencia artificial puede aprender y lograr esa partida perfecta.

Vía | The Next Web
En Xataka | ¿Por qué las grandes empresas de tecnología están regalando o abriendo su tecnología de IA?

Fuente: http://www.xataka.com/robotica-e-ia/como-entrenar-a-una-plataforma-de-inteligencia-artificial-jugando-a-pac-man-claro

Imagen: http://i.blogs.es/6c5301/atari/1366_2000.jpg

Comparte este contenido:
Page 47 of 48
1 45 46 47 48