Page 4 of 5
1 2 3 4 5

Cuba: Septiembre renueva la aventura del saber

Cuba / 3 de septiembre de 2017 / Autor: Margarita Barrios / Fuente: Juventud Rebelde

La búsqueda permanente de la calidad en todos los niveles de enseñanza caracterizará el nuevo período lectivo que se inicia mañana en Cuba. En el curso escolar 2017-2018, novedosos imperativos deberán ser vencidos por profesores y alumnos con el apoyo indispensable de la familia

Cuando este cuatro de septiembre comience el curso escolar 2017-2018 muchas serán las nuevas propuestas que, en aras de continuar elevando la calidad de la enseñanza en todos los niveles educativos, se pondrán en práctica en los centros escolares y universidades de nuestro país.

El tercer Perfeccionamiento del sistema nacional de enseñanza se aplicará de manera experimental en 154 escuelas de todas las provincias, en los grados primero, cuarto, séptimo y décimo; así como en primero, segundo y cuarto años de vida de la primera infancia. La aspiración es lograr un modelo de escuela más abierta y participativa,  en la que el estudiante reciba los conocimientos que necesita.

Este proceso —que tiene como antecedentes los realizados en los años 1975 y 1987— comenzó en 2010 y ha tomado ideas y experiencias múltiples. Las nuevas realidades socioeconómicas y un mayor acceso a las nuevas tecnologías son condiciones que ponen el imperativo a la pedagógica nacional, que tiene ante sí retos como la necesidad de un mayor poder de análisis ante el aluvión de información disponible, la crisis de valores y los cambios en los patrones de género y sexualidad.

Al respecto, la Doctora Margarita McPherson Sayú, viceministra de Educación, explicó a la prensa que uno de los objetivos de esta nueva propuesta es que los contenidos de las asignaturas transiten de manera lineal —desde la primaria hasta el preuniversitario— así como eliminar contenidos repetitivos y añadir aquellos que faltaban.

Significó como propuestas la relación de cada subsistema: primaria, secundaria y preuniversitaria, con el precedente, así como la imbricación, a partir de onceno grado, de una mirada más directa hacia los estudios superiores, con la realización de conferencias, clases prácticas y seminarios.

«Se mantienen las asignaturas, pero con ajustes en los programas. En Secundaria Básica hay un cambio fundamental, se separan las Ciencias Naturales en dos asignaturas: Biología y Geografía; mientras que Informática, que solo se impartía en séptimo grado, ahora se extiende a los tres grados de ese nivel de enseñanza», destacó.

En Primaria, precisó la Doctora McPherson Sayú, se incluye una preponderancia del juego en primero y segundo grados; y también se hace una revisión de los momentos del desa-rrollo de la personalidad del niño y la relación que se establece con su nivel de aprendizaje. «Estábamos trabajando con dos, y ahora haremos una distinción especial de tres momentos del desarrollo: primero-segundo; tercero-cuarto, y quinto-sexto.

«Va a dársele una nueva mirada al sistema de evaluación. Se puede pasar sin objetivos vencidos de primero a segundo, se propone que esto también pueda acontecer de quinto a sexto, por lo cual no hay repitencia en quinto grado.

La Doctora Cira Piñeiro Alonso, viceministra primera de Educación, puntualizó que la revisión de las asignaturas permite desarrollar un currículo general —para todos los centros escolares— y el propio de cada institución.

«La escuela puede proponer sus propios programas según el desarrollo local, las necesidades del territorio y de los alumnos, y estos serán elaborados tomando en cuenta la opinión del claustro, los estudiantes y sus familiares».

Hay temas, dijo, que aparecían como ejes transversales en las materias y que se suponía que el maestro abordara por su libre albedrío, como son la formación patriótica, laboral, salud escolar y educación ambiental, entre otros. «Ahora, los programas y libros de texto traen estos temas de manera implícita para el tratamiento más sistemático en la formación integral de niños, adolescentes y jóvenes».

Los más pequeñines

«Uno de los principales cambios es que ahora llamaremos primera infancia a la educación prescolar, que abarca desde cero hasta seis años de edad. Esta nueva definición defiende la idea de que el niño pequeño sea objeto y sujeto de derecho, aunque no se niega que esta atención lo prepare para iniciar estudios en la enseñanza primaria», explicó la Doctora Irene Rivera Ferreiro, viceministra de Educación.

«El perfeccionamiento propone cambios significativos: en lugar de hablar de áreas de desarrollo, ahora se trata de dimensiones. Esto significa una integración de contenidos que facilitan la labor del docente. Por ejemplo, el término comunicación es más que lengua materna.

«Constituye también una transformación sustancial la planificación de las actividades, porque se fortalece el concepto de que cada momento es educativo, tanto en la institución como en el hogar. Hay acciones  asociadas también al programa Educa a tu hijo, y tienen que ver con el mejoramiento de los materiales que se facilitan para la capacitación que se ofrece a la familia», destacó.

Con respecto a la Educación Especial, la Doctora Irene explicó que se desarrolla con mucha profundidad el trabajo con los niños que tienen dificultades intelectuales, grupo que constituye la mayor matrícula de los estudiantes con necesidades educativas especiales. «Hay muchos niños insertados en escuelas primarias, por lo cual se requiere de un perfeccionamiento para favorecer el trabajo de los maestros», argumentó.

Adelantó que se está trabajando en el mejoramiento de las escuelas para estudiantes con trastornos de la conducta, aunque esto «llevará un poco más de tiempo de experimentación por la magnitud de la propuesta que se hace».

Cambios necesarios

Durante cuatro años, la Educación Superior cubana asumió la gran tarea de unificar sus centros a nivel provincial. Este curso escolar comienza con este proceso terminado, que implicó la unificación de las Universidades de Ciencias Pedagógicas y de Cultura Física a las del Ministerio de Educación Superior (MES) de cada territorio. Solo en La Habana, y por ser centros rectores para el resto del país, no se cumple esta máxima.

Una mejor utilización de los recursos materiales y humanos, así como una vida estudiantil más rica propicia este empeño, que ha ido probando sus buenos frutos a través del denominado proceso de integración.

De los reencuentros de los jóvenes universitarios en el primer día de clases siempre se dejan recuerdos. Foto: Calixto N. Llanes

Sin embargo, este período lectivo marca pauta para la Educación Superior en otro empeño aún más novedoso, la introducción de los nuevos Planes E, para los cuales se han revisado y discutido los programas de estudio de las diferentes carreras y la reducción de las mismas de cinco a cuatro años de estudios.

Al respecto, el Doctor José Ramón Saborido Loidi, Ministro de Educación Superior, explicó que el paso del Plan D al E es actualización y perfeccionamiento, pero si no están creadas las condiciones, no se inicia.

«De las 91 carreras que impartimos, el 60 por ciento ya tiene aprobado su pase al Plan E. La característica fundamental es que los contenidos van más a las necesidades de formación de un profesional para su empleo en el nivel primario —porque el sistema de formación en Cuba no culmina con la graduación de pregrado—, pues se supone que ese profesional se vaya superando para el empleo en el posgrado y en el desarrollo que pueda hacer de su ciencia propia, explicó el titular.

«Tenemos todos los años miles de profesionales en los cursos de posgrado, superación, diplomados, especialidades, maestrías y doctorados», subrayó.

El Ministro recordó que el Código de Trabajo establece un primer año de preparación para el empleo, que se utiliza para buscar un poco más la especialidad y las necesidades propias del trabajo que va a desempeñar el profesional y después, durante toda la vida, continúa la preparación. «Todo esto es buscando cada vez más la calidad», afirmó.

Manuel Valle Fasco, director de Formación de profesionales del MES, destacó que en la elaboración del Plan E participó ampliamente la comunidad universitaria, especialistas e incluso los propios estudiantes. «Han sido sometidos a debate académico y la defensa nacional. Luego, en cada territorio, la universidad tiene que desarrollar su defensa territorial, para que se parezca a las necesidades presentes en su contexto, por ello puede haber diferencias entre un centro y otro.

«Cada universidad tiene que cumplir con todo el proceso y eso puede llevar a una distinción, que en este momento de tránsito en un centro la carrera inicia con cuatro años, y en las que no ha culminado el proceso continúen con el Plan D. Pensamos que este proceso culminará en el curso escolar 2020-2021. No tiene que ser un paso acelerado, pues lleva un importante análisis de valoración que tributa a una mayor calidad de los graduados», puntualizó.

El Ministro argumentó que se propone un currículo base con el 80 por ciento de los contenidos, y uno propio para la universidad, que se elabora según el contexto donde está enclavada; además, hay un optativo-lectivo, que da la posibilidad al estudiante de conocer aspectos vinculados a sus propios intereses. «Hoy, con el desarrollo de la ciencia y la informatización, un joven puede adquirir información de manera mucho más rápida que antes, cuando era necesario localizar un texto en una biblioteca, afirmó. Pero, si la universidad no tiene creadas todas las condiciones, no se inicia el cambio», destacó.

Otro argumento fundamental, explicó Valle Fasco, es que hay conocimientos en los currículos del Plan D que han quedado vencidos, y estamos seguros de que en un término de cinco años, muchos de los actuales también estarán envejecidos. Por ello el análisis del contenido de estos planes de estudio tiene que ser una tarea permanente y sistemática, puntualizó.

«Tendremos que llevar al estudiante ante esta necesidad y es lo que nos motiva. Que sea conductor de su propio aprendizaje y eso no podemos hacerlo con los métodos tradicionales, hay que cambiar la manera de aplicar la pedagogía, la didáctica, para que se parezcan a los tiempos actuales».

Saborido destacó que la universidad fue recibiendo demandas de contenidos de formación por los organismos empleadores y se fueron sumando. «Teníamos una sobrecarga muy clara de los planes y contenidos, carreras con diez o 12 asignaturas por semestre, 34 horas semanales. Cuando se saca la proporción del tiempo para establecer las necesidades de autoestudio le pides al joven lo que no puede hacer, y eso lleva a una adquisición muy limitada de los conocimientos, a la superficialidad. Hay que impartir los contenidos que puedan ser asimilados de manera total y en función del empleo», concluyó.

No son pocos los retos que enfrenta la educación cubana, pero con el alto nivel académico alcanzado no será difícil entre todos retomar, a inicios de este septiembre, la aventura del saber.

Fuente de la Noticia:

http://www.juventudrebelde.cu/cuba/2017-09-02/septiembre-renueva-la-aventura-del-saber/

Comparte este contenido:

Entrevista a Víctor Maojo: “En los hospitales hacen falta más informáticos biomédicos”

30 Julio 2017/Fuente: consalud/Autor: ANGEL ESPÍNOLA 

La informática biomédica ha permitido avances revolucionarios en la Medicina como los sistemas de historia clínica electrónica o la telemedicina. Además, ha supuesto una democratización del acceso a la información sobre enfermedades, que hoy no está sólo en manos de los médicos. Uno de los mayores expertos del mundo en este campo es el profesor Víctor Maojo, que ha sido nombrado recientemente miembro fundador de la Academia Internacional de Informática de Ciencias de la Salud (International Academy of Health Sciences Informatics), una institución que aglutina a un prestigioso grupo internacional de más de cien científicos y profesionales en informática biomédica.

Catedrático de la Universidad Politécnica de Madrid y director del Grupo Informática Biomédica de la misma, Maojo ya era miembro electo del American College of Medical Informatics (ACMI), el equivalente americano de la academia internacional. Además, ha sido profesor invitado y consultor en Georgia Tech y ha participando en el Programa de Informática Médica de la división Health Science and Technology de Harvard, Estados Unidos.

En declaraciones a SaluDigital, el experto explica en qué consiste exactamente el campo de la informática biomédica y qué potencial tiene de cara al futuro en el ámbito sanitario.

¿Qué le supone su nombramiento como miembro fundador de la Academia Internacional de Informática de Ciencias de la Salud?

Supone un orgullo, porque para este nombramiento ha habido durante varios meses un proceso de selección y una votación final secreta, en la que han participado unos 100 miembros fundadores de la academia, la mayoría extranjeros. Ser elegido por tanto por los compañeros es muy positivo. Es un reconocimiento a lo que hemos hecho dentro de nuestro grupo de informática biomédica, porque esto no es un mérito personal, sino de todos los que hemos trabajado durante años en diferentes proyectos.

¿En qué se diferencia la informática biomédica de ramas como la bioingeniería o la biotecnología?

«No diría que el Big Data tiene ahora más importancia que antes, sino que surge la posibilidad de estar comparando la información de un paciente concreto con la información de millones de pacientes»

Dentro de las tecnologías biomédicas que tienen cierta relación con la informática, hay cuatro áreas principales que comparten temas concretos. La informática médica trata con el manejo de la información médica, desde un nivel clínico, pero también con el manejo de la información genómica o de la información de salud pública. Se centra todo más en el paciente.

La bioinformática, por su parte, se centra en la información informática aplicada sobre los genes. En los últimos años se ha unido todo bajo la informática biomédica. Esta rama trata toda la información relacionada con los pacientes, desde un nivel atómico, como la nanomedicina, hasta un nivel poblacional. Trata con información genómica, nanomedicina, información clínica, imágenes médicas, sobre la fisiología, etc.

A diferencia de ello, la ingeniería biomédica trata sobre todo con materiales y dispositivos y de ello se encargan más los ingenieros que los informáticos. Por último, la biotecnología, trata sobre todo con técnicas de laboratorio, y tejidos principalmente y con información celular.

¿Qué potencial tiene el Big Data en Sanidad de cara el futuro?

Dentro de la informática biomédica trabajamos con Big Data desde hace 15 años, porque surge de toda la información que llega después del proyecto Genoma Humano. A partir de ahí es necesario juntar toda la información de los pacientes (clínica, epidemiológica, la historia clínica, etc.) y juntarlo con la información genómica.

«Hemos ido de la medicina personalizada a la medicina de precisión y en ello la informática ha sido clave»

Estos conjuntos de datos ahora son enormes. Se trabaja con datos de 2,5 o 10 millones de pacientes, cuando antes se trabajaba con unos 10.000. No diría que el Big Data tiene ahora más importancia, sino que surge la posibilidad de estar comparando la información de un paciente concreto con la información de millones de pacientes. Esto da una información extra a los médicos que puede ser clave para el diagnóstico y el tratamiento.

¿Cree que en el futuro se creará tecnología que cure por sí misma enfermedades?

El tratamiento médico está cambiando mucho por varias causas. Una de ellas, porque la nanomedicina permite que se puedan depositar partículas directamente en células cancerosas o en un objetivo concreto. Por otro lado, con la información genómica podemos anticipar qué tratamiento será efectivo en un paciente o en un grupo de pacientes. Esto elimina lo que había hasta ahora, por ejemplo, en Oncología, del ensayo-error. Porque ahora se pueden anticipar los efectos que puede tener un fármaco en un paciente.

Hemos ido de la medicina personalizada a la medicina de precisión, ya que podemos ir buscando toda la información clínica de un paciente y hacer un perfil concreto que nos permite hacer un diagnóstico mucho más preciso y anticipar los tratamientos. Y para todo ello la informática ha sido clave.

Tiene experiencia trabajando en Estados Unidos, ¿es más fácil investigar o desarrollar tecnologías allí que en España?

«En 1970 ya había mil médicos en Estados Unidos con un título oficial de informática, es algo impensable hoy día en España en 2017»

En Medicina, entre España y Estados Unidos puede haber diferencias muy pequeñas en multitud de áreas. Aquí llegan los tratamientos muy poco después. Pero en el sector de la informática biomédica, por ejemplo, en 1970 ya había mil médicos en Estados Unidos con título oficial de informática, esto es algo impensable hoy día en España en 2017. Aquí aún no existe una carrera de informática médica. En los hospitales hacen falta muchos más informáticos médicos, pero es complicado, porque no hay una formación reglada. Por ello, tampoco existen programas avanzados de formación.

Además, la informática médica no es un área prioritaria en investigación, aunque sí se invierte mucho dinero en ello, ya que puede suponer el 2% o el 3% del gasto sanitario total. Pero falta que las administraciones se den cuenta de que es un área científica de primer nivel, y que puede tener una influencia directa tanto en la diminución de los costes sanitarios como en el aumento de la calidad asistencial.

¿En el futuro todos los médicos serán también informáticos?

Decirlo así causaría revuelo. Pero el médico moderno tiene que estar informatizado. Porque la informática ya está en todos los aspectos de la Medicina, tanto en la investigación, como en la formación, o en el aspecto clínico.

«Hace falta que las administraciones se den cuenta de que la informática médica es un área científica de primer nivel que puede tener influencia directa en la diminución de los costes sanitarios»

Pero en la Medicina aún no se han dado cuenta de la necesidad de esta formación y hay médicos que protestan, por ejemplo, porque las historias clínicas digitales no son sencillas o no están bien hechas, pero no se dan cuenta de todo lo que pueden aportar al sistema.

En Estados Unidos, cuando estaba en Harvard, hace 25 años a los médicos residentes ya se les daba una formación bastante completa en informática, y en el caso de los radiólogos suponía una parte muy importante de su formación MIR, lo cual es de tener en cuenta.

Fuente de la entrevista: https://consalud.es/saludigital/revista/en-los-hospitales-hacen-falta-mas-informaticos-biomedicos–651

Fuente de la imagen:

https://consalud.es/saludigital/revista/admin/imagenes/victo_maojo_entrevista_informatica_medica_26072017_saludigital.jpg

Comparte este contenido:

Modelizan el cerebro con piezas virtuales de Lego

Por: Tendencias 21

Ayudará a los neurocirujanos en las delicadas operaciones quirúrgicas.

Investigadores de Luxemburgo han modelado el cerebro con piezas virtuales de Lego, con la finalidad de ayudar a los neurocirujanos durante las intervenciones quirúrgicas. El modelo prevé la deformación del órgano durante la operación y proporciona información sobre la localización exacta de las zonas que deben ser operadas y de las zonas vulnerables.

nvestigadores de la Universidad de Luxemburgo, en colaboración con la Universidad de Estrasburgo, han desarrollado un método de cálculo que podría guiar a los cirujanos mientras operan al cerebro, según informa la citada universidad en un comunicado.

A menudo, los neurocirujanos deben operar a ciegas, ya que tienen una visión limitada de la superficie del órgano y no consiguen ver lo que se oculta en el interior. Algunas imágenes pueden tomarse sistemáticamente durante la intervención quirúrgica, pero desde que empieza la sesión de fotos, la ubicación de la zona específica que debe ser operada varía, un riesgo que el cirujano debe evitar constantemente.

Los profesionales se basan sobre todo en su experiencia cuando utilizan instrumentos quirúrgicos para, por ejemplo, retirar un tumor sin dañar el tejido sano, o sin seccionar por accidente importantes vías sanguíneas.

Stéphane Bordas y su equipo, de la Universidad de Luxemburgo, han desarrollado un método para formar a los cirujanos y ayudarles a estar entrenados para operaciones complejas, así como a guiarles durante la intervención.

Para conseguirlo, el equipo ha desarrollado modelos matemáticos y algoritmos digitales que permiten prever la deformación del órgano durante la operación y de proporcionar información sobre la localización exacta de las zonas que deben ser operadas y de las zonas vulnerables. Gracias a estas herramientas, el profesional puede practicar operaciones virtuales previas, con la finalidad de anticipar posibles complicaciones potenciales.

Conociendo que el cerebro es una materia compuesta de materia gris, materia blanca y de fluidos, los investigadores utilizan datos obtenidos mediante imágenes de resonancia magnética (entre otras) para descomponer el cerebro en piezas similares a las de un juego de Lego.

 

Imagen del sistema desarrollado para ayudar a los neurocirujanos. Foto: Universidad de Luxemburgo.

Imagen del sistema desarrollado para ayudar a los neurocirujanos. Foto: Universidad de Luxemburgo.
Miles de Legos interactivos

El color de cada una de estas piezas depende de la materia que representa: blanca, gris o fluida. Este cerebro digital en Lego, como así le llaman los investigadores, se compone de miles de estas piezas interactivas y móviles que se utilizan para calcular la deformación de un órgano sometido a cirugía.

Cuanto más se utilizan estas piezas para modelizar el cerebro, más precisa es la simulación. Sin embargo, mientras más piezas se solicitan, más se ralentiza la velocidad de tratamiento, ya que la velocidad de cálculo requerida es mayor. Para el usuario, es indispensable encontrar el equilibrio entre precisión y velocidad cuando decide el número de piezas a utilizar en cada operación.

Los trabajos del profesor Bordas son cruciales porque permiten, por primera vez, controlar a la vez  la precisión y el tiempo de cálculo de las simulaciones.

El  método ofrece un ahorro de tiempo y de dinero al profesional, indicándole el tamaño mínimo que las piezas de Lego deben tener para conseguir la precisión necesaria, según los investigadores.

Por ejemplo, si el margen de error aceptable en una determinada intervención es del 10%, las piezas de Lego deben tener un tamaño mínimo de 1 mm., aseguran los investigadores. Si el margen aceptable es del 20%, las piezas de Lego a utilizar deben ser de 5 mm.

Este método tiene al menos dos ventajas, concluyen: se puede estimar la calidad y concentrar el esfuerzo de cálculo requerido solo sobre las zonas escogidas para operar, lo que permite ahorrar un tiempo de cálculo precioso.

Los investigadores se proponen ofrecer más adelante a los neurocirujanos una solución que funcione en tiempo real durante las intervenciones, de tal manera que puedan actualizar el modelo de simulación con la ayuda de los datos (imágenes previas) de cada paciente, aunque falta un poco para conseguir este nivel.

Todavía deben desarrollar métodos más robustos para evaluar el comportamiento mecánico de cada pieza de Lego que representa al cerebro. Al mismo tiempo, deben poner a punto una plataforma informática en la que los cirujanos puedan testar el modelo para decir si es realmente práctico.


Referencia
Real-time Error Control for Surgical Simulation. IEEE Transactions on Biomedical Engineering (DOI: 0.1109/TBME.2017.2695587). Volume: PP Issue: 99.
Fuente: http://www.tendencias21.net/Modelizan-el-cerebro-con-piezas-virtuales-de-Lego_a44026.html
Comparte este contenido:

South Sudan: Building Peace Through Video Games in South Sudan

Sudán del Sur/20 de Febrero de 2017/Allafrica

Resumen: Lual Mayen, un ingeniero de software de 24 años, está decidido a hacer lo que pueda para llevar el cambio a Sudán del Sur, un país destrozado por la guerra civil.  Mediante el uso de tableros y videojuegos, quiere promover la unidad y difundir su mensaje de paz en todo el mundo.

Lual Mayen, a 24-year-old software engineer, is determined to do what he can to bring change to South Sudan, a country ripped apart by civil war.

Through the use of board and video games, he wants to promote unity and spread his message of peace throughout the world.

«After the conflicts that started in 2013, I saw the horrible effects mass displacement could have with my own eyes. I witnessed it in IDP and refugee camps, but also online,» Mayen told Al Jazeera.

«These social clubs, both online and offline, were turned into sites for social evils and I could see the conflict brewing among various tribes that were crammed together. I knew that these scenarios could turn political and even physical, with people wanting revenge for what was happening to them.»

This made him start Junub Games, which by now has engaged some 20 software engineers, designers and developers.

In six months, Mayen and his team have created three games: one mobile game for Android smartphones and two board games.

«Salaam – the Arabic word for peace – is a game in which you must destroy symbols of war to [to promote peace],» Mayen explains.

While playing the game, a song called One People, One Nation can be heard in the background, driving home the point that the people of South Sudan must unite.

The incorporation of South Sudanese culture is a prominent feature of all of Mayen’s games. Through this, he hopes to attract young people who now usually play games made outside South Sudan.

The two other games made by Junub are board games. One of them, a card game named Wahda – an Arabic word referring to unity – is comparable to the classic game of Uno.

«The cards have words like Love, Hate, War, and Peace written on them,» Mayen explains. «Negative cards like War can be countered with positive words like Peace. Penalties on certain cards have the players pick up more cards. The goal of the game is to get rid of your cards as fast as possible, and the winner of the game is crowned ‘Peacemaker’.»

 Since the conflict in South Sudan started in 2013, only two years after its independence, tens of thousands of people have been killed. More than 1.5 million people have fled the country and another two million have been internally displaced.

 To prevent this vulnerable group falling prey to a message of hate and violence, Mayen is working to get his games distributed in refugee camps and other hubs of social activity.

«We are now doing pilot tests for these games in Kakuma Refugee Camp in Kenya and Nyamanzi in northern Uganda. For the mobile games we will also have social media campaigns to spread the message of peace,» he said.

His plans are bigger than just South Sudan: «These games could work everywhere. It would work in refugee camps across the world as well, in Syria for example.»

In an effort to expand Junub Games, Mayen was the first person to organise a so-called Game Jam in South Sudan. These community-driven events are held in several locations across the world and have people come together to create one or more games in a very short amount of time.

Organising the event in the youngest country on Earth led Mayen to connect with contacts within the international video game developers’ community. He has been invited to San Francisco to talk at the Games Developers Conference (GDC) – the world’s largest convention for video game developers – to talk about his efforts to create peace-building games.

«It’s about 90 percent sure I will get to go to San Francisco. I’m just waiting for my visa now,» he said.

The GDC might be the start of Mayen’s next big dream. His ultimate goal is to create a South Sudanese version of Silicon Valley.

«I want to get the attention of the government and talk about possibly starting courses in schools and universities for young people that want to become game developers. I want to do this to boost South Sudan’s economy so the country can become more stable,» he said.

For now, however, Mayen’s plans for South Sudan’s game developing community are still focused on making the country a safer place.

«Building peace is a long process, not something that can be achieved with one decision. Decisions have to be made at different levels and it takes a lot of different processes, people, and approaches,» he said.

«True peace is built over time. The way I do this is by creating games. Games to preach peace.»

This story from Al Jazeera was supplied to AllAfrica under an agreement with the African Media Agency.

Comparte este contenido:

Henkel y Close the Gap se unen para combatir la brecha digital en África

África/11 de Febrero de 2017/interempresas.net

Henkel Ibérica ha puesto en marcha una nueva iniciativa de la mano de la ONG Close the Gap, con la que facilitará equipos informáticos a niños en edad escolar principalmente en África con el objetivo de contribuir a su desarrollo personal y educativo.

De este modo, Henkel persigue dos objetivos en línea con su estrategia de sostenibilidad. Por un lado, en consonancia con su apuesta por la sostenibilidad, promoverá la reutilización de sus equipos y, en segundo lugar, vinculado con el compromiso social de la empresa, ayudará a que los colectivos más desfavorecidos cuenten con equipos de primer nivel con los que se introduzcan en el mundo digital.

Para llevar a cabo esta tarea la compañía contará con un aliado de referencia, Close the Gap. Esta ONG de carácter internacional trabaja para construir puentes digitales proporcionando ordenadores de calidad donados por grandes y medianas empresas u organizaciones públicas a diferentes proyectos sociales, educativos y sanitarios en países emergentes. Mediante esta colaboración, la compañía contribuirá a eliminar barreras sociales como el coste de un equipamiento nuevo, la limitación de infraestructuras y el desconocimiento de su funcionamiento. Henkel también facilitará el aumento significativo de las posibilidades de los jóvenes en el mundo del trabajo.

“Nos sentimos orgullosos de poder contribuir a mejorar las perspectivas educativas y económicas de aquellas personas que no cuentan con suficientes recursos para ello en países emergentes. Hoy en día, la importancia de la comunicación y el acceso a la información de manera global e inmediata es fundamental por lo que debemos unirnos para trabajar estos aspectos. En Henkel estamos comprometidos con acelerar la digitalización social como demuestra nuestra la nueva Estrategia Global de la compañía y en esta línea continuaremos trabajando para combatir la brecha digital en todo el mundo.”, afirma Roberto Minoia, firector de IT de Henkel en España, Portugal, Italia y Grecia.

“Close the Gap ha apoyado a más de 4.000 proyectos a nivel internacional” dice Olivier Vanden Eynde, fundador y director general. “Gracias a la donación de Henkel, podremos apoyar más iniciativas, conectando más personas merecedoras”.

Fuente: https://www.interempresas.net/Ferreteria/Articulos/168806-Henkel-y-Close-the-Gap-se-unen-para-combatir-la-brecha-digital-en-Africa.html

Comparte este contenido:

Entrevista: Innovación tecnológica para integrar.

América del Sur/Argentina/08.11.2016/Autor: Mónica Beltrán/Fuente:http://nuevacatedra.com.ar/
La tecnología avanza día a día y cada vez son más los desafíos que se crean en el campo de la investigación e innovación tecnológica. En este sentido, el concepto de Internet de las cosas se va generalizando entre investigadores y aficionados a la tecnología. Por este motivo el XI Congreso Internacional de Innovación Tecnológica Informática, organizado por la Universidad Abierta Interamericana (UAI) días atrás se propuso abordar integralmente el tema.

Nueva Cátedra entrevistó al presidente del Congreso Internacional de Innovación Tecnológica Informática y decano de la Facultad de Tecnología Informática, Marcelo De Vicenzi, quien se refirió a la actividad, pero también de las políticas de estado en la materia. “No nos quedamos con la innovación tecnológica sino también la transferencia a la sociedad”, afirmó De Vicenzi.

El congreso ya tuvo varias ediciones anteriores, ¿por qué decidieron empezar a realizar y con qué objetivo?

– Quisimos hacer es lo que a nosotros nos hubiera gustado pasar. En el año 2003 empezamos con el sitio y pensamos que no nos podíamos quedar en el aula y que había que trascenderlo a lo sociedad. Armamos un congreso que es un observatorio de los avances de la tecnología y un momento de reflexión sobre la innovación. Este es un espacio donde todo es posible, donde la innovación es protagonista y donde no vivimos para la tecnología sino que la tecnología empieza a vivir con nosotros. Esto es la mezcla entre la realidad y lo virtual…

– Y por eso la creación del Centro de Altos Estudios en Tecnología Informática.

– La universidad tiene 5 centros de investigación y uno de ellos es el de Tecnología Informática. Dedicamos una importante parte del presupuesto a  investigación, publicación y articulación con universidades. Trabajamos con otras universidades en pro de mejorar la calidad tecnológica. Tenemos tres laboratorios muy grandes y definidos. Tenemos Robótica Física, desarrolló impresoras 3d, una vincha que interpreta las ondas cerebrales, un software que interpreta los gestos y te permite interactuar con robots. El segundo es de Robótica Educativa y tiene como proyecto la visión del espacio. El último es el de Aprendizaje y analiza los sentimientos.

– También producen videojuegos…

– Todo videojuego sirve para divertirse, pero también tiene un fin terapéutico. Trabajamos con chicos que sufren de autismo y desarrollamos varios productos que los ayudaron a integrarse socialmente. Si bien depende del grado de autismo, los chicos generalmente reconocen una sola figura: al padre por la patente, por ejemplo, o por algo que lo representa. Hemos desarrollado un juguete para poder integrarlos a la sociedad. No nos quedamos con la innovación tecnológica sino también la transferencia a la sociedad. Ahí es donde juega un papel importante el centro de investigación.

– ¿Todos estos contenidos de innovación se combinan con otros más tradicionales?

– Todos los estudiantes que salen de ingeniería salen con conocimientos de hardware, de desarrollo de software, de telecomunicaciones y de management. Lo más importante es la ingeniería del software, cómo construirlo. Además tienen materias optativas donde el alumno puede reforzar su formación a la parte de análisis, de programación, de robótica o de main Friends. Más allá de eso complementan la información con actividades de extensión, transferencia e investigación que nosotros generamos. Tenemos más de 80 personas trabajando en el CAETI que no investigan pero forman parte del equipo.

– La primera parte del congreso estuvo dirigido hacia lo política, ¿cómo está Argentina en cuanto a desarrollo de este tipo de actividades?

– En la región estamos muy bien. Exportamos  tecnología por el equivalente al 4 o 4,5% del PBI. Vendemos tecnología nuclear a Australia, a Nueva Zelanda. En lo que es informática exportamos robótica, softwares y videojuegos. Somos una sociedad muy creativa y las escuelas de ingeniería e informática de nuestro país son muy buenas. Tenemos una muy buena formación básica tanto en matemáticas, como en física y somos creativos por excelencia. El viceministro Ceccato abrió el bloque de política y habló cómo estamos en el mundo: en algunos puntos mejor que Brasil, en otros entre Brasil y Chile, pero siempre estamos en la pole position. 

En lo que va de estos doce años, tenemos un Ministerio de Ciencia y Técnica. Empezamos a tener investigadores que se quedan y se triplicaron o cuadruplicaron la cantidad de publicaciones. De tener dos incubadoras importantes en tecnología, pasamos a tener un montón. Hubo progresos pero necesitamos más.

-¿Los empresarios tienen un acceso fácil a los conocimientos que genera la universidad? ¿Cómo se da ese vínculo?

– En las empresas grandes, lo que tiene que suceder es que para que aparezca un nuevo producto se tiene que amortizar el anterior. Uno se pregunta por qué una empresa tan grande todavía está vendiendo tecnología arcaica. Muchas veces, la política de la empresa privilegia la parte comercial sobre la innovación que es lo que hoy realmente necesitamos. Cuidan más el bolsillo que la producción.

– Eso pasa en las grandes empresas

– Los empresarios, en general no están muy comprometidos con lo que es la investigación porque da resultados a mediano y largo plazo. No todos están acostumbrados a tener esa paciencia. Poco a poco hay un gran acercamiento a las universidades. Este año hemos sumado 50 o 60 convenios a los 300 que ya teníamos con empresas del mercado local. Se empezaron a definir más claro los roles: la empresa produce y desarrolla; la universidad es el laboratorio social, quien genera ese conocimiento. El triángulo virtuoso empresa-universidad-estado es el que tiene que funcionar. Que cada cual tenga sus roles. Hoy en el Siglo XXI, el éxito se da sobre la base de tener equipos que trabajen sobre inteligencia colectiva. No quiero decir que tengamos que pensar igual, sino que tenemos un objetivo común y que cada cual sepa su fortaleza para poder lograrlo. Las PyMEs hoy no tienen esa identidad, siguen siendo individualistas, porque si hace 20 que les va bien, por qué voy a romper el esquema. Esas son las empresas que lamentablemente hoy venden y mañana tienen que cerrar sus puertas porque no se adaptaron a las tecnologías.

 Fuente: http://nuevacatedra.com.ar/de-vicenzi-innovacion-tecnologica-para-integrar/
Imagen:http://nuevacatedra.com.ar/wp-content/uploads/2015/10/maxresdefault-659×386.jpg
Comparte este contenido:

De Stephen King a R.R. Martin: los grandes escritores y su relación con los ordenadores

Marta Sofía Ruiz

La llegada de los procesadores de texto modificó los hábitos de muchos escritores que cambiaron el papel y el boli y la máquinas de escribir por un ordenador y un ‘software’ —manual complicado de por medio—. En cuestión de pocos años, muchos autores aprendieron a confiar en la tecnología para ahorrarse tiempo y esfuerzo y trasladaron su escritura a una pantalla de ordenador.

“Todos hablan de que el proceso se convirtió en algo mucho más fácil […] Antes se hacían uno, dos o tres borradores, pero ya no había que pasar por todo eso. Todos creen que les hizo mejores escritores, porque podían pasar más tiempo revisando”, explica a Teknautas Matthew G. Kirschenbaum, autor de Track Changes, un libro sobre la historia de los procesadores de texto.

Durante una entrevista para la televisión, George R. R. Martin confesó que todavía utilizaba un ordenador sin conexión a internet con un procesador de texto antiguo llamado WordStar. Creía que esto era su “arma secreta”, e indicó que la falta de distracciones de la que disfrutaba gracias a esa tecnología era lo que le había permitido escribir historias tan largas. A pesar de que durante el programa habló de otras cosas, como la ausencia de dragones en el primer borrador de ‘Juego de Tronos’ o sus preferencias a la hora de matar personajes, lo que acaparó titulares fue su apego a su antiguo método de redacción, muestra de lo chocante que parece imaginar a un escritor trabajando con tecnología que, aunque pionera, ahora se concibe como anticuada.

Sin embargo, no ha pasado tanto desde la época en que ni siquiera WordStar era una herramienta habitual: solo tres décadas nos separan de la introducción de los procesadores de texto destinados a los hogares y del proceso —bastante rápido— de adaptación de los distintos autores. Y, si bien George R. R Martin no llegó tarde a la adopción, su nombre no aparece en el relato de los pioneros.

Aunque la historia de estas aplicaciones informáticas comienza en las oficinas en la década de los 60, especialmente de la mano de IBM, serán los modelos más desarrollados de los años 70 —más parecidos a los que empleamos actualmente— los que empiecen a captar la atención de los escritores. Según Kirschenbaum, Gay Courter fue la primera escritora que redactó una novela en un procesador que, no obstante, todavía estaba diseñado para ser una herramienta de oficina. «Escribí cada palabra yo misma y creo que solo conseguí una novela comercial porque pude reescribir una y otra vez hasta que obtuve lo que quería», explicaba la pionera al autor de ‘Track Changes’.

La decisión de invertir 18.000 dólares –el precio de su IBM System 6, unos 63.000 euros actuales– puede parecer descabellada, pero fue consecuencia directa de su gestión de un negocio familiar en el que sería útil y de la necesidad de encontrar un método que le permitiera seguir escribiendo mientras cuidaba de sus hijos. Así, ‘The Midwife’, obra que entró en la lista de superventas de The New York Times y de la que se vendieron más de tres millones de copias, pudo ver la luz gracias a la adopción de esta nueva herramienta.

Después de esta primera escritora, otros nombres se sumaron a la lista de los pioneros que, antes de que los procesadores de texto y los ordenadores personales se convirtieran en habituales, ya abrieron su mente al mundo de posibilidades que les ofrecía este nuevo método de redacción. Jerry Pournelle, Larry Niven o Anne Rice serían solo algunos de ellos.

Los inicios de los años 80 marcaron su popularización. En un artículo de ‘The Economist’ de 1891 se afirmaba que 500.000 personas ya estaban utilizando uno. ‘Time Magazine’ también publicó una pieza en la que se explicaba que “cada mes, más y más escritores están desechando sus lápices y sus máquinas de escribir por ‘procesadores de texto’, la jerga técnica que describe pequeños ordenadores con teclados y pantallas electrónicas para el escaneo y la manipulación de textos, unidades para almacenar la información e impresoras de alta velocidad”. Con tal nivel detalle había que explicar las cosas por aquel entonces.

“Los que usaban un procesador en 1977 eran pioneros, pero emplearlos en 1981 ya era ‘mainstream’”, explica Kirschenbaum. “La llegada de los ordenadores personales hizo que se popularizaran muy rápidamente”.

Un libro a dos manos

En 1981, Stephen King y Peter Straub firmaban sus contratos para ‘El Talismán’, la novela mundialmente esperada que ambos escribirían a dos manos. Consagrados en el panorama del terror, esta colaboración sería la que les sirviera de introducción en el mundo de los procesadores de texto. King vivía en Maine y Straub en Connecticut, a unas seis horas en coche, lo que suponía un problema para intercambiar trabajo y combinar sus energías creativas.

Por ello, ambos decidieron que la tecnología era la mejor opción para facilitar las cosas y se lanzaron a adquirir sendos procesadores. King compró un Wang System 5 y Straub un IBM Displaywriter 6580. “Estaban pensados para una oficina. Los adquirieron únicamente para poder trabajar juntos y poder mandarse los textos el uno al otro”, explica Kirschenbaum.

Solo tres años más tarde, en 1984, los ordenadores personales y el procesador de texto WordStar eran los reyes del sector. Este programa copaba más de una cuarta parte del mercado y autores como Michael Chabon, Arthur C. Clarke o Ralph Ellison pasaban sus palabras por este ‘software’.

Pionero en su momento, hoy todavía goza de cierto culto entre los escritores de ciencia ficción. George R.R Martin no es el único gran enamorado: otros como Frederick Pohl o Robert Sawyer también han confesado su apego por el viejo programa.

Sin embargo, y a pesar de que WordStar fuera el líder indiscutible, el mercado ofrecía decenas de alternativas. Una guía muy detallada que se publicó en un número de 1983 de Writer’s Digest comparaba tres docenas de programas diferentes y analizaba sus características, además de su precio y compatibilidad. Por supuesto, adoptar cualquiera de ellos no era tan intuitivo como ahora. Los escritores tenían que aprender los comandos que les permitirían borrar, copiar o reemplazar texto y debían leerse un manual para poder hacer uso de esta tecnología.

“La curva de aprendizaje era mucho más larga”, explica Kirschenbaum. “Para adoptar un programa como WordStar tenías que estudiar un manual o tomar un curso”. No obstante, “una y otra vez los escritores se maravillaban por lo instantáneo de su nuevo procesador. Al presionar un tecla, el documento cambiaba ante sus ojos. Ya no se trataba solo de retroceder un espacio para corregir una errata, sino que podían borrar o mover trozos de texto o cambiar una palabra de forma repetida durante todo el manuscrito”.

“Si tenía que cambiar el nombre de un personaje –algo que me pasó en mis dos primeros libros– simplemente podía codificar el cambio en la máquina y automáticamente se modificaba en el disco”, explicaba Robyn Carr a Kirschenbaum, tratando de poner palabras a la fascinación que sentía en aquel momento.

Cuando Joan Didion comienza ‘El Año del Pensamiento Mágico’, su libro más famoso, lo hace relatando las propiedades de un archivo de Microsoft Word en el que escribió justo después de la muerte de su marido. Didion, para la que escribir en un procesador de texto era tan habitual que aparecía en su literatura cuando hablaba de sí misma, explicó lo que el cambio a este tipo de programas supuso para su trabajo. Su visión representa la de los cientos de escritores que vivieron a medio camino entre las máquinas de escribir, el bolígrafo y el papel y un ordenador:

“Antes de que empezara a usar un ordenador, escribir una pieza suponía trabajar en algo un día, almacenar el material y no estar seguro de dónde ibas a ir a continuación. Con un ordenador, dejó de ser como pintar y se convirtió en algo parecido a la escultura, donde empiezas con un bloque de algo y vas dándole forma”, relataba.

Rápido y masivo, el proceso de adaptación a los procesadores de texto supuso una gran innovación en el campo de la escritura. Tanto que, posiblemente, la capacidad de revisar los textos y el ahorro de tiempo hayan hecho que algún escritor, que de otra manera no hubiera sido capaz, haya conseguido firmar una buena (y larga) obra. Al menos para George R.R Martin es una de las claves de su creación.

Fuente del articulo: http://www.elconfidencial.com/tecnologia/2016-08-14/de-stephen-king-a-george-r-r-martin-asi-se-adaptaron-los-escritores-a-la-informatica_1246428/

Fuente de la imagen: http://www.ecestaticos.com/image/clipping/654/b2b6480b5dcc200ca9e105592f2dde06/stephen-king-con-su-wang-fuente-matthew-g-kirschenbaum.jpg

Comparte este contenido:
Page 4 of 5
1 2 3 4 5