Page 1 of 18
1 2 3 18

La inteligencia artificial como ansiolíticola inteligencia artificial como ansiolítico

Por: Markus Gabriel

A Markus Gabriel lo llaman «el enfant terrible” desde que sacudió a la filosofía occidental con el Nuevo realismo, la corriente de pensamiento que fundó. Heredero de Schelling, Kant, Adorno, Marx, Freud y Sartre, impulsa la crítica al mundo de la post experiencia, al que entiende sometido a la lógica algorítmica y al discurso de la neurociencia. En este adelanto de El sentido del pensamiento, su último libro, relaciona ficciones como Matrix y Black Mirror con la flexibilización laboral, la injusticia económica y la crisis ecológica. El jueves 27 dará una conferencia en el Centro Cultural de la Ciencia y el viernes 28 estará en el Aula Tanque del Campus Miguelete de la UNSAM.

Compartimos un breve perfil del autor y un adelanto del libro.

Por Julieta Del Campo Castellano y Solana Camaño (Lectura Mundi [UNSAM])

Markus Gabriel nació en 1980 en Remagen, Alemania. A los 28 años ya era catedrático de la Universidad de Bohn, especializado en Metafísica, Epistemología y Filosofía post-kantiana. Hoy es docente de la cátedra Epistemología y Filosofía Moderna y Contemporánea en esa misma Universidad y director del Centro Internacional de Filosofía (IZPh).

Gabriel habla nueve idiomas y escribió trece libros, tres de los cuales están traducidos al castellano, ¿Por qué el mundo no existe? (2013) –convertido en un best seller–, Yo no soy mi cerebro (2017) y El sentido del pensamiento (2019). Se lo considera uno de los máximos representantes del Nuevo realismo, línea teórica que se le ocurrió fundar mientras tomaba un café con Maurizio Ferraris en Nápoles, Italia. Con ella problematizan la metafísica y su pretensión de dar cuenta de la totalidad y, al mismo tiempo, la suposición posmoderna de que no existen los hechos objetivos sino sólo construcciones discursivas. El nuevo realismo asume, así, que “los pensamientos sobre realidades existen con el mismo derecho que los hechos sobre los que reflexionamos”.

El nuevo “enfant terrible” de la filosofía occidental no nos trae, entonces, un discurso disruptivo como lo fuera toda la tradición post estructuralista, ni nos invita a volvernos a enamorar de Nietzsche. Su mensaje tiene la fibra de la lucha contra todo aquello que atente contra el espíritu de la ilustración. La empresa que se propone es monumental: recoger las mejores vertientes de la tradición filosófica europea para hacerla confrontar con el reduccionismo de las tesis naturalistas hegemónicas. Busca no caer en el positivismo, complejizando la idea de ser humano. No es suficiente, afirma, realizar un experimento o contar con información exacta y cuantificable para hacernos una imagen de quiénes somos.

Entre su extensa caja de herramientas conceptuales encontramos una parte importante de la filosofía moderna alemana: Gabriel puede declararse heredero de Schelling y de Kant, pero también de Adorno, Marx y Freud, sin desconocer los aportes de la filosofía existencialista francesa de Jean Paul Sartre.

Este joven pensador alemán no se contenta con la mera discusión académica, ni permanece plácido en la mentada y criticada “torre de marfil”. Él es un intelectual global, su trabajo es reconocido en universidades de distintos países; a través de declaraciones comprometidas con los grandes problemas de la actualidad logró también posicionarse en el debate público europeo.

markus_gabriel-01

Sus reflexiones, plasmadas en un estilo llano, abarcan temáticas variadas: desde cuestiones ampliamente discutidas por la filosofía y la sociología clásica -todavía actual- tales como la explotación capitalista, la ideología, la democracia y la desigualdad, hasta temas que han cobrado valor reciente en el debate académico y político como las redes sociales, la inteligencia artificial y la neurociencia.

 

Entre sus declaraciones públicas podemos encontrar referencias críticas a los nuevos modos de expresión de la ideología dominante. Entre ellas, por ejemplo, la crítica al mandato que impone interpretar la “depresión de un trabajador por cobrar un bajo salario o por no poder vivir sólo a los 40 años” como un problema psicológico antes que político o de organización social. La receta neoliberal para este diagnóstico es conocida: más esfuerzo individual, resiliencia, y consejos de autosuperación que podemos encontrar en la batea de libros de autoayuda. Todas respuestas que evaden la responsabilidad social y política de transformar el statu quo.

 

Pero su discusión no se agota en problemáticas de la vida cotidiana. A Gabriel también le preocupa el aspecto filosófico de la política internacional: las fake news, el marketing digital, las estrategias electorales y sus consecuencias en el escenario de la representación democrática. La opinión difundida en la actualidad de que la inteligencia artificial y las tecnologías vinculadas a ella darían solución a la cuestión social es, para el autor, una idea más naif y peligrosa –incluso fatal– que el mito –desacreditado por los efectos de la Primavera Árabe y el “terrorismo internacional”– de que las redes sociales llevarían deliberadamente a la emancipación política del mundo árabe.

 

Otro de los mitos que contribuye a minar es el relato según el cual nos dirigimos hacia un mundo automatizado, en el que sistemas inteligentes, prescindiendo del ser humano harán mejor la vida de los humanos. Para Markus siempre habrá seres humanos tras esos sistemas, impulsados por intereses no siempre legítimos. La inteligencia artificial aparece, entonces, como una fantasía: lo que existe son programas codificados y pensados por humanos “para explotar a otros humanos”. Así, cada uno de nosotros trabajamos para las redes sociales, usamos las barras de búsqueda, generamos una huella, producimos algo en esa interacción. Somos obreros digitales. El mito de que los sistemas de inteligencia artificial son un espejo nuestro no es más que una ideología al servicio de la explotación digital.

 

En este contexto, uno de los objetivos fundamentales de la filosofía, nos dice, es vérnosla con la realidad para desmitificar aquellos imaginarios que nos permiten permanecer tranquilos ante las injusticias. Es este el objetivo filosófico de la Ilustración recargada que Gabriel pretende actualizar, casi sin pedir permiso. En un rescate de Marx y Engels, de la consabida tesis 11 de Feuerbach nos recuerda que ya no alcanza con explicar el mundo, hay que transformarlo: “Como filósofos no tenemos que diagnosticar, tenemos que reparar”.

 

Inscripciones acá.

***

La inevitable «Matrix»

La primera parte de la trilogía Matrix de los hermanos Wachowski llegó a las pantallas de cine en 1999. Se grabó rápida y profundamente en la memoria cultural porque formula de manera acertada la sospecha posmoderna de que la realidad es bastante deficiente. La siguiente construcción, que me gustaría recapitular brevemente, conforma el eje de la película: sus protagonistas se nos presentan desde un primer momento habitando una realidad ilusoria (una simulación) que se asemeja a un videojuego programado de forma realista. A esta realidad ilusoria la llaman «Matrix».

 Una simulación es, generalmente, una realidad ilusoria que imita otra realidad (del latín simulatio, derivado de simulare = acción y efecto de imitar). Las simulaciones son reales, pero se crean como imitaciones de ciertos aspectos de una realidad que, normalmente, no es una simulación en sí misma. Consideremos algo que en sí mismo no es ni una simulación ni se ha creado como resultado de las intenciones de un ser vivo, como parte de la realidad básica. La realidad básica no es un «sueño muerto de la realidad elemental», sino una categoría que se puede formar muy fácilmente. Hay muchas cosas que no son ni simuladas ni son, de ninguna de las maneras, un artefacto que los seres vivos hayamos producido intencionalmente: la Luna, Marte, el sistema solar, los tumores cerebrales en los humanos, los leptones, los números primos, y una infinidad de cosas más. Podríamos discutir sobre los candidatos a ser elementos pertenecientes a la realidad básica y esto de hecho ocurre en las ciencias naturales y la filosofía. Pero la afirmación de que la categoría de la realidad básica está vacía de contenido es una falacia posmoderna.

Markus-Gabriel_01

Foto: Magali Del Porte

El experimento mental de Matrix ni siquiera llega a cuestionar la existencia de una realidad básica. Más bien al contrario: porque, en el interior de la película, la Matrix es una simulación que difiere de una triste realidad básica: el hecho de que las máquinas abusan de las personas utilizándolas como plantas generadoras de energía. Para mantener vivos los organismos humanos de manera duradera, las máquinas estimulan los cerebros de las personas mediante la creación de una realidad onírica que a la gente le parece completamente real —una simulación, pues, bastante perfecta—. La idea de simulaciones perfectas a través de la estimulación cerebral es muy recurrente desde hace mucho tiempo en el género de la ciencia ficción. Pensemos también en la obra maestra de David Cronenberg eXistenZ, que saltó a nuestras pantallas en 1999. La punta de lanza de este género cinematográfico, en estos momentos, es la serie británica Black Mirror y su homóloga de éxito similar Electric Dreams. 

El protagonista de Matrix es un tal Neo (interpretado por Keanu Reeves), un hacker dentro de Matrix. Por razones totalmente incomprensibles, algunas personas han logrado defenderse de las máquinas en la realidad básica. Liderados por Morfeo (interpretado por Laurence Fishburne), entran en el programa de conciencia de Neo y lo liberan de la simulación para, a continuación, iniciar una guerra contra las máquinas en la realidad básica.

 La trilogía Matrix desarrolla aún más una mitología que se convirtió en el epítome de la actitud posmoderna hacia la vida que prevalecía, particularmente, en los años noventa del siglo pasado. Desafortunadamente esta mitología no ha sido superada, sino que ha sido transferencia, desde la sociología y filosofía francesa de los años sesenta a los noventa, hasta nuestro todavía joven siglo a través de las neurociencias y la tecnología de la información. En este contexto, una mitología es una estructura narrativa por medio de la cual los seres humanos nos formamos una imagen de nuestra respectiva situación histórica y socioeconómica general. Las mitologías son esencialmente falsas, pero ocultan esto al mantener puntos de referencia plausibles con respecto a la realidad. Por decirlo de entrada y sin rodeos: la imagen transhumanista del ser humano que emerge hoy en día, basada en la idea de que toda nuestra vida y nuestra sociedad podría ser una especie de simulación que solo podríamos superar alineando totalmente nuestra humanidad con el modelo del progreso tecnológico, es una ilusión peligrosa. Debemos desenmascarar esta quimera porque, de lo contrario, nos involucraremos más y más profundamente en la destrucción de las condiciones de vida de los seres humanos, que ya desde hace mucho tiempo viene siendo alarmante y se manifiesta, concretamente, en forma de crisis ecológica.

 

Markus-Gabriel_02

Pero la crisis ecológica no es ni de lejos el único problema de nuestro tiempo que se ve exacerbado por una mitología difundida desde una perspectiva acrítica. Y esto es así porque está estrechamente entretejida con sistemas globales de explotación y distribución de recursos materiales que, si se examinan más de cerca, son moralmente inaceptables. Esto no solo conduce a formas extremas de pobreza e injusticia económica —visibles para cualquiera que haya viajado alguna vez a Brasil o que haya visto uno de los muchos barrios marginales diseminados por todo el mundo, cuyo horror difícilmente podemos imaginar como habitantes de regiones privilegiadas de Europa—. Estos sistemas conducen más bien a crímenes contra la humanidad y al debilitamiento de nuestros sistemas de valores, lo que no estaríamos dispuestos a aceptar sin más si lo despojáramos de todo adorno y nos percatáramos de ello.

 

La idea actual de que los sistemas de IA y los avances tecnológicos asociados a ellos y las formas de superinteligencia sobrehumana terminarán por aportar más pronto que tarde la solución a los problemas humanos, es aún más ingenua y fatal que la utopía, refutada por las consecuencias de la Primavera Árabe y el terrorismo internacional, de la que las redes sociales conducirán automáticamente a la liberación política del mundo árabe.

 Una de las tareas esenciales del pensamiento filosófico es confrontarnos con la realidad y desenmascarar las construcciones ficticias en las que nos asentamos para calmar nuestra conciencia frente a las injusticias que no podríamos soportar observar con nuestros propios ojos. Esto forma parte de la misión filosófica de la Ilustración, es decir, del «proyecto incompleto de la modernidad», como lo llamó Jürgen Habermas (nacido en 1929).

En nuestro todavía joven siglo XXI se pueden detectar al menos tres remanentes de la llamada era posmoderna:

 1) La idea de que podríamos estar viviendo en una simulación por ordenador, programada por una civilización avanzada del futuro (la hipótesis de la simulación).

2) La idea de que nuestra vida espiritual es una simulación generada por nuestro cuerpo para obtener una ventaja en la lucha por la supervivencia de la especie.

3) La idea de que la sociedad es una construcción social en el sentido de que no es real, sino solo una especie de mascarada que podemos modificar en cualquier momento mediante un cambio de las reglas del juego (constructivismo social).

Fuente de la información e imágenes: https://www.revistaanfibia.com

Comparte este contenido:

La educación que queremos | ¿Amor o adicción al conocimiento?

Por: Andrés García Barrios

«Conocer es lo mismo que amar cuando nos permite vernos a nosotros mismos y a los demás como un fin y no como un medio para algo».

En mi primer artículo de esta serie dedicada a La educación que queremos, prometí hablar algún día sobre el amor en la educación. Lo cierto es que no pensé que llegaría tan pronto el desafío: sin embargo, hoy me veo en la obligación de hacer por lo menos un primer intento. Explicaré por qué. En textos anteriores he propuesto que el fundamento de toda experiencia humana es la identidad de la persona, pero ahora me doy cuenta de que al pensar en ella (en esa identidad), ésta se me escapa por completo de las manos, de la misma manera que a todos se nos escapa ―no seré el primero en decirlo así― nuestra propia imagen en el agua.

¿Cómo puede mi identidad ―eso que me define― escapárseme? Hay algo raro en decir “yo soy” y no poder decir a qué me refiero exactamente. Tal vez bastaría con entregarme a la vivencia sin intentar explicarla, y sin embargo llevo una piedra en el zapato que me impide hacerlo. Se trata de algo que he mencionado también en textos anteriores, a saber, la reciente aparición de teorías científicas que dicen que nuestra tan llevada y traída identidad no es más que un efecto secundario de los procesos cerebrales (un efecto secundario y prácticamente inútil; sin decisión propia, dice el neurocientífico Joaquín N. Fuster en su libro Neurociencia, los cimientos cerebrales de nuestra libertad). Entrar en contacto con estas teorías me ha estremecido profundamente. Y me ha llevado ―después de un gran tormento intelectual, lo confieso― a aferrarme al claro sentimiento de que soy más que una especie de excrecencia de la mente, mucho más que un yo que ingenuamente cree que puede incidir sobre la realidad cuando lo único que hace es testificar, como pasivo observador, el entorno que lo rodea y los actos que ejecuta el cerebro.

El claro sentimiento

El vocablo amor tiene varias peculiaridades: es de los pocos que se ha mantenido intacto desde su precursor latino, Amor, que proviene del indoeuropeo Amma, que significa mamá (palabra que, como se puede ver, tampoco ha sufrido tantos cambios). Neil deGrasse Tyson, el famoso astrofísico que sucedió a Carl Sagan en la serie Cosmos, explica que el proceso evolutivo generó el sentimiento amoroso cuando aparecieron los mamíferos; es decir, que las mamás surgieron cuando por primera vez una animala amamantó a sus crías (la verdad es que, aunque las palabras mismas así lo sugieren, no puedo dejar de pensar que los pollitos también sienten amor por mamá gallina, amor que corresponde al que ella les da al incubar el huevo, como en un vientre exterior).

La palabra Amor también es una de las más manoseadas del idioma, de las más traídas y llevadas. Y así debe ser. Está hecha para eso, para que la usemos hasta el descuido, pues después de todo ―como el lector sabe― jamás ha perdido ni perderá su esencia. Ella misma es una esencia: una esencia más concreta que cualquier materia.

Sin embargo, es también una palabra que a quienes intentamos reflexionar de manera más o menos racional ( y que a veces queremos ser “poéticos”), nos molesta usar: ¡resulta muy poco teórica, muy poco “académica”! Y en cuanto a su poesía, por lo general suena cursi.

Quizás el problema con la palabra Amor sea que, para no mencionarla en vano, uno debe aludir a aquello que le da su valor esencial, y para eso no queda otra que mencionar también la más profunda tragedia humana.

El dolor de ser

Dichoso el árbol que es apenas sensitivo,
y más la piedra dura porque esa ya no siente,
pues no hay dolor más grande que el dolor de ser vivo…

Rubén Darío

Cuando tenía veinte años me propuse escribir un libro de poemas que parodiaría el muy famoso Odas Elementales del poeta chileno Pablo Neruda. El mío se llamaría Jodas Elementales (perdón por vocablo de tan fina estirpe) y hablaría de todas las cosas que podían atribular de forma cotidiana a un joven como yo. Recuerdo que el primer poema se titulaba Joda por ser uno mismo y empezaba diciendo, en franco tono de lamento: “Llevarse todo el tiempo, ¡todo el tiempo! ¡No ser más que uno mismo! ¡Pensar lo que uno piensa, decir lo que uno dice, sentir lo que uno siente! ¡No ser los otros nunca!” (el poema seguía así, gimiendo versos, mientras que el libro nunca fraguó y quedó sólo en intento).

Aquel lamento no era sino una forma de decir que a veces “no me aguantaba ni a mí mismo”, cosa que todos conocemos. Sin embargo, si algún lector llegara a compadecer a aquel joven que era yo, escuche ahora esa misma idea corregida y aumentada en belleza y dolor en una frase del poeta portugués Fernando Pessoa en su Libro del desasosiego. Dice así: “Envidio a todos no ser yo”.

Sabemos que el dolor insondable que estas seis palabras expresan no se refiere solo a la interminable hilera de problemas que puede acarrear un individuo sino también a algo más profundo: al dolor típicamente existencial de ser uno mismo, de ser un yo que vive como si le hubieran separado de algo “esencial”, como si se hubiera desprendido de un suelo primordial y ahora estuviera cayendo en un pozo sin fondo, sin poder asirse a algo que le dé certidumbre (o que por lo menos le brinde un descanso, como a la maravillosa Alicia de Walt Disney, que, durante su caída inicial, se sienta a reposar un instante en una mecedora que también cae).

Incluso en condiciones no tan extremas como las de Fernando Pessoa, los seres humanos buscamos resolver ese sentimiento de búsqueda infinitamente inútil que a veces nos embarga (“sentimiento de completud/incompletud”, le llama Erich Fromm; también podemos decir que somos “una totalidad a la que algo le falta”, con palabras de Ortega y Gasset).

Nacer una y otra vez

 No somos seres materiales aprendiendo a ser espirituales
sino seres espirituales aprendiendo a ser materiales.

Atribuido a Pierre Teilhard de Chardin

El amor maternal nos rescata del primer dolor. El amor de la madre, y por supuesto también del padre (el amor maternal del padre: llamémosle así para explicarlo aunque sea de forma estereotipada), el amor maternal, digo, nos rescata del primer dolor, permitiéndonos recuperar un poco del apacible abrazo anterior al nacimiento, Así nos pone también por primera vez en contacto con ese sentimiento que un día sabremos que se llama “confianza”. El amor maternal nos enseña que podemos confiar en nosotros mismos. Simultáneamente, el amor que llamamos “paternal” (otra vez de forma estereotipada, pues también está en manos de la madre) nos enseñará a confiar en el mundo.

Algo que interesa sobremanera en el hecho educativo es que mientras el nacimiento y la infancia son etapas en que uno empieza a conocer el dolor y lo va admitiendo, la adolescencia da paso a la primera exploración de las maneras de enfrentarlo y hallarle una solución. La adolescencia es la etapa del viaje en que uno toma plena conciencia de que va cayendo y puede aprender a crear grupos de amigos para despeñarse todos juntos… o puede entrar en pánico e intentar huir.

El escape tiene muchas formas; ya sabemos, drogas, dinero, fama, poder, sexo, comida… pero también obsesión por las buenas calificaciones, la información, el conocimiento. Sí, incluso el conocimiento, la información y todo tipo de proceso racional pueden ser formas de huida, no muy lejanas a lo que llamamos adicción, que en latín significaba adherirse a alguien o a algo con un claro trasfondo de esclavitud. Creo que el vicio que se apodera de nuestra razón puede resumirse como ansia de verdad, o más precisamente ansia de certidumbre. El arquetipo de esta falla humana es el doctor Fausto, quien vende su alma al diablo para que éste le revele los misterios del universo.

Sí, el conocimiento, la razón, la ciencia, pueden despertar en nosotros una voracidad semejante a la de cualquier buen pan dulce. Y en nuestras manos ansiosas, ese proceso por demás loable llamado Aprendizaje para toda la vida puede convertirse en un placebo lleno de certidumbres, las cuales tenemos que estar renovando interminablemente, vorazmente, a riesgo de dejarnos en un vacío peor que el que sentíamos en un inicio.

El paracaídas

Así pues, aprender puede ser amor a la sabiduría o adicción. Creo que la diferencia está en que con el primero aprendemos verdaderamente a caer; es decir a soltarnos y a abandonar la ilusión de que aparezca de pronto una rama del conocimiento de la que podamos asirnos. Igual que en el caso del amor materno, enseñar es despertar confianza.

Cuando alguien nos enseña amorosamente lo que es la física, la química, la biología o cualquier otra ciencia o conocimiento, nos abre a una experiencia en la que podemos sentir la simpatía del mundo. Quizás ese era el sentido que daba Madame Curie a sus palabras cuando decía que: “En la vida no hay que temer nada, sólo comprender”.

Hay muchas cosas buenas en este mundo, pero todas empiezan por aceptar nuestro misterio.  Una vez que uno se coloca en ese punto, deja de huir y se deja caer. Entonces puede descubrir el paracaídas que trae puesto. Hablar aquí de “el paracaídas del amor” puede dejar ver lo cursi que soy (siempre he dicho que más que un intelectual soy un sentimental), así que mejor traeré a colación un gran poema que habla de lo mismo. Se trata de Altazor o el viaje en paracaídas de Vicente Huidobro, cuyo personaje central ha perdido su “primera serenidad”, y sin embargo descubre que puede alentar el descenso cayendo “de sueño en sueño”, meciéndose al ritmo de campanas/golondrinas (Golón… golón… drina, golón… trina), ante la quieta luz de los amantes (La montaña y el montaño con su luna y con su luno) y reconociendo a la mujer amada (¿Irías a ser ciega que Dios te dio esas manos? ¿Irías a ser muda que Dios te dio esos ojos?).

Abrir el paracaídas amoroso es requisito indispensable para que aparezca la realidad.

Un fin que no termina

Conocer es lo mismo que amar cuando nos permite vernos a nosotros mismos y a los demás como un fin y no como un medio para algo. Sí, nadie es una vía para llegar a nada (yo no soy nunca “un medio”, ni siquiera para llegar a mi propio futuro).

Pero ¿cómo es posible que seamos un fin en sí mismo si un fin es justamente una conclusión, algo que después de una larga carrera se ha quedado quieto, y nosotros ―según lo dicho― vamos cayendo (con o sin paracaídas)?

Si después de todas estas disertaciones aún quedan lectores que me sigan, seguramente abandonarán este texto al escuchar mi respuesta: porque los seres humanos somos un fin que no termina nunca (ésta es, según yo, la parte fundamental de nuestro ser inexplicable).

Nuestra identidad ―ese “alguien” y no “algo” que somos― es tan real como insondable. No pertenece a ese tipo de cosas asibles y demostrables (ni siquiera a esas que la ciencia apuesta “a demostrar algún día”). El ser un “yo” y al mismo tiempo no poder asirme a mí mismo, es uno de los grandes misterios que la espiritualidad trata de resolver. Para el judeo-cristiano que suelo ser, todo se remonta a la pérdida de un estado inicial paradisiaco, a una caída. Para quienes sentimos así (aunque pensemos diferente), la caída no comenzó en este mundo y no es con explicaciones de este mundo que podremos entenderla.

Ni modo, ya sé que me estoy metiendo en teología, pero a estas alturas del partido es imposible no hacerlo. Y con “alturas del partido” me refiero a la desolación en la que muchos hemos caído por haber desterrado al amor trascendente de nuestras teorías ―ya sea por cursi o poco serio― y tratar de explicar el misterio humano con disertaciones áridas, entre las cuales las más “humanas” reconocen que somos islas de certeza en océanos de incertidumbre, pero todavía intentan rescatarnos con complejas explicaciones (véanse la teoría de la complejidad de Edgar Morin); otras de esas disertaciones proponen que cada quien es dueño de su verdad y que eso nos da sentido (véase la filosofía posmoderna, en cuyo caso las explicaciones no son complejas sino múltiples e impermeables unas a otras). También hay ideas francamente inhumanas, como esas que he mencionado y que afirman que sólo somos efectos secundarios de los procesos cerebrales.

Amor y conocimiento

Es la posibilidad de reunir amor y conocimiento lo que hace que la caída se vuelva algo vital y trascendente. En otras palabras, es la posibilidad de “ir más allá de la razón sin perder la razón” (como dice el filósofo Karl Jaspers) lo que nos permite caer en paz en la plenitud del misterio, y sustituir el ansia de certidumbre por ese otro tipo de experiencia que Albert Einstein describe en su respuesta a cierto crítico literario que no podía creer que el descubridor de la relatividad fuera religioso: “Si, puedes decir que lo soy. Intenta penetrar con nuestros limitados medios en los secretos de la naturaleza y encontrarás que, detrás de todas las leyes y conexiones discernibles, permanece algo sutil, intangible e inexplicable. La veneración de esta fuerza que supera todo lo que podemos comprender es mi religión. En ese sentido soy religioso.”

Espero, con todo lo anterior, haber mostrado ―al menos un poco― cómo participa el amor en la educación que quiero. Seguiré haciéndolo en textos subsecuentes, no porque crea que con mis palabras puedo rozar siquiera las alas del amor (habíamos quedado, más bien, que era un paracaídas, ¿verdad?) sino porque si algo tengo claro es que hablar de educación sin hablar de amor es imposible.

Fuente de la información: https://observatorio.tec.mx

Comparte este contenido:

La sociedad psicológica (a propósito de la salud mental)

«Puede creerse en la posibilidad de una nueva regulación de las relaciones humanas, que cegará las fuentes del descontento ante la cultura. (…) Esto sería la edad de oro, pero es muy dudoso que pueda llegarse a ello.» (Sigmund Freud: El porvenir de una ilusión).

De un tiempo a esta parte contamos con un nuevo tema recurrente en la agenda mediática. Ocurrió hace años con la violencia ejercida contra las mujeres en el contexto de las relaciones afectivo-sexuales. De manera semejante a esta espantosa lacra la salud mental era un problema sólo reconocible en el ámbito de lo privado, pero no estaba en el tablón social en el que ya se le otorga un reconocimiento que conlleva el planteamiento de la necesidad de un tratamiento colectivo, mereciendo por ende formar parte de la tarea política.

Creo que no cabe discusión en identificar la maldita pandemia de la COVID-19 como un punto de inflexión en la consideración pública de la salud mental. Fue notable el incremento de las referencias en el sinnúmero y diversidad de informaciones que aludían al aspecto psicológico de lo que, en principio, era un mal puramente somático causado por un microorganismo, el dichoso coronavirus. Pero aquí se hacía evidente lo ilusorio de ese dualismo psicofísico heredado de la filosofía antigua y acentuado por las grandes religiones monoteístas consistente en la creencia de que somos personas porque no somos un ente puramente físico, sino que contamos en nosotros con lo que realmente constituye nuestra esencia humana, a saber, un alma o mente de naturaleza incorpórea. La neurociencia más reciente nos demuestra lo contrario: los males del cuerpo también lo son del alma –de la psique– y viceversa. Hoy sabemos, por ejemplo, que existe una importantísima conexión entre nuestro heroico sistema inmunitario, nuestro prosaico intestino y nuestro aristocrático cerebro, eje orgánico que es determinante en nuestro estado de ánimo diario. Hay quien ya ha bautizado al intestino como nuestro «segundo cerebro» (no se tome al pie de la letra, claro). El célebre neurocientífico premio Príncipe de Asturias Antonio Damasio certificó la obsolescencia científica y filosófica del dualismo psicofísico en su apasionante libro titulado El error de Descartes cuya publicación data de 1994.

En cualquier caso –y esto ya fue reconocido por la Organización Mundial de la Salud hace años– no se reduce la noción de salud a la salud estrictamente fisiológica; para ser cabal no puede faltarle su ingrediente psíquico. Es lo que vino a expresar públicamente en sede parlamentaria el diputado Íñigo Errejón, no sin arrancar alguna que otra chufla de alguna de sus señorías miembro de la bancada menos progresista. Hay quien diría que la voz que entonces elevó el diputado Errejón era la de aquel que clama en el desierto. Pero el caso es que meses después la atleta norteamericana Simone Biles, una figura señera del deporte mundial, renunció a su participación en ciertas competiciones de la Olimpiada de Tokio por mor de su bienestar anímico (de «ánima», que como «psique» también quiere decir alma). Y nada como las noticias del mundo del deporte para otorgar un potente escaparate publicitario a los temas que se vean insertos en ellas.

Luego hubo referencias con cierto eco en diversos medios sobre el asunto de la salud mental conectado con los más jóvenes y el preocupante número de suicidios que se registra entre los de su colectivo. Y lo más reciente: el triste desenlace de una depresión arrastrada a lo largo de años por una persona muy popular, la actriz Verónica Forqué. En el caso de este último episodio de repercusión social aparece mezclada la variable de las redes sociales y su efecto sobre el estado emocional de quienes se hallan expuestos a sus tóxicos efluvios. También sobre esto trascendió algo en los medios con ocasión de las revelaciones de una antigua ingeniera de Facebook que denunció cómo esta empresa desprecia los informes internos que le alertan del efecto pernicioso que el uso de las redes tiene sobre la psique de sus usuarios de menor edad.

En el contexto de los institutos hoy ya es norma la preocupación del profesorado por la salud mental de los adolescentes que en ellos estudian. Es obligatorio saber de sus problemas familiares y personales; los profesores no siguen a su alumnado sólo en el plano académico, también lo hacen en lo que importa a su salud. Por eso no puedo evitar que me provoque cierta perplejidad observar que curso tras curso el número de estudiantes con problemas de salud mental a los que imparto clases vaya en aumento. Porque ocurre justo cuando más los cuidamos, hasta el punto de que incluso se denuncia un excesivo proteccionismo de los hijos por parte de sus padres. A esto ya hay quien lo llama hiperpaternidad.

¿Es todo lo expuesto prueba de que nos hallamos ya plenamente inmersos en lo que Thomas H. Leahey llama en su manual clásico de Historia de la Psicología «la sociedad psicológica»? En ella el punto de vista psicológico se ha convertido en una forma normal de mirar los comportamientos, y es tenido en cuenta a la hora de juzgarlos, debido en parte seguramente a la evolución de la moralidad –hacia una menor rigidez y el reconocimiento de una variedad de opciones todas válidas– acompañada de la secularización progresiva de las sociedades así llamadas avanzadas. Todo consecuencia de la revolución humanista que arranca de finales del siglo XVII, cuando da sus frutos el librepensamiento de quienes se atreven a cuestionar el origen trascendental de lo que dota de sentido a la existencia humana. Desde entonces se ha impuesto la certeza de que somos nosotros los únicos que otorgamos valor a lo que hacemos, que es el individuo el único capaz de dotar de significado a su vida. Una liberación ética sin duda, pero también una carga anímica. Creo que esa senda histórica inaugurada por la modernidad desemboca actualmente en el encumbramiento de la emotividad como criterio de validación del juicio sobre la realidad en la que cada cual se encuentra. En su libro Homo Deus el autor israelí Yuval Noah Harari lo resume atinadamente diciendo que «mientras que los sacerdotes medievales tenían línea directa con Dios y podían distinguir entre el bien y el mal, los psicólogos modernos solo nos ayudan a ponernos en contacto con nuestros sentimientos íntimos».

Como muestra representativa de ese cambio relativamente reciente –pues Leahey lo sitúa después de la Segunda Guerra Mundial cuando la psicología norteamericana se ve de alguna manera forzada a responder a la demanda de atención clínica– tenemos lo que supuso en su día el cambio en la forma de considerar la homosexualidad. En efecto, a partir del 16 de septiembre de 1973, día en que la Asociación Estadounidense de Psiquiatría reconoció oficialmente que la homosexualidad no es una enfermedad mental, la historia de la lucha del colectivo gay por sus derechos logró un importante aval. Los prejuicios morales y religiosos quedaron a partir de ese momento progresivamente expuestos frente a las críticas desde las posiciones que reivindicaban el bienestar emocional de esas minorías culturalmente malditas.

La revolucionaria decisión médica quedó plasmada en la siguiente edición del DSM. El DSM es el Manual diagnóstico y estadístico de los trastornos mentales (MDE, en el original en inglés Diagnostic and Statistical Manual of Mental Disorders o DSM), editado por la Asociación Estadounidense de Psiquiatría. A lo largo del tiempo desde su existencia ha tenido sucesivas versiones resultado de las revisiones a las que se ha sometido el catálogo de las psicopatologías por parte de quienes trabajan en el ámbito clínico. Es el documento de referencia de psiquiatras y psicólogos clínicos mediante el que se juzga en gran medida qué es y qué no es enfermedad mental. La versión actualmente vigente es la quinta, conocida como DSM-5. La primera edición data de 1952.

Allen Frances fue el presidente del grupo de trabajo del DSM-IV (año de publicación: 1994) y parte del equipo directivo del DSM-III (1980). Tal como expone en su libro elocuentemente titulado en castellano ¿Somos todos enfermos mentales? existe lo que él denomina una «inflación diagnóstica» en psiquiatría. Su libro de hecho tiene la intención explícita de ser un manual contra los abusos de esta especialidad médica. Su título original en inglés es Saving normal. Se trata, pues, de no perder de vista la noción de normalidad como componente esencial de lo que entendemos por salud; es decir, de no elevar la salud a un estado ideal que casi nadie y rara vez podrá disfrutar plenamente, menos aún en su dimensión psíquica. Viene a defender Allen que lo normal es que todos presentemos desde el punto de vista psicológico algún que otro desajuste.

¿Puede ser que ese canon de salud mental difícilmente alcanzable en su plenitud sea uno de los factores culturales que hoy nos hagan sentir mal, precisamente por ser conscientes de que no lo cumplimos? ¿Y al sentirnos mal creemos que estamos mal? ¿Puede ser este un pernicioso efecto imprevisto de la vida en la sociedad psicológica? Porque en el caso de la salud mental, dada la inconmensurable complejidad de la psique humana, puede ser difícil discernir las causas puramente psicológicas de las sociales o antropológicas que la dañan, esto es, las causas relacionadas con la civilización y sus sinsabores.

No hay que despreciar el contexto histórico y cultural en el que la enfermedad mental se reconoce. Pensemos sin ir más lejos en la categoría de histeria, un verdadero cajón de sastre en el que se incluían el más dispar repertorio de síntomas tan común en la época en la que el padre del psicoanálisis, Sigmund Freud, inicia su carrera médica y alumbra sus primeras propuestas teóricas para la comprensión y terapia de los trastornos psíquicos. Su primer libro, escrito en colaboración con el médico vienés Joseph Breuer en 1895, lleva por título precisamente Estudios sobre la histeria. En él se viene a reconocer la especificidad de la terapia psicológica y se halla el germen de la más específica del psicoanálisis. Esto demuestra que el ámbito de la salud mental no ha mucho que ha ingresado en el dominio de la clínica científica.

Es una constante de la historia de la psicología y la psiquiatría la contaminación de los prejuicios culturales, particularmente los de orden moral e incluso religioso, en la percepción de la salud mental como demuestra el caso anteriormente referido de la homosexualidad. Esto es manifiesto en las críticas que siempre han rodeado a la confección de las diversas versiones del referido DSM ya apuntadas anteriormente. En su vocación por universalizar las entidades nosológicas (es decir, las distinciones entre enfermedades) el mundo clínico de la salud mental ha progresado en el discurso biologicista sustitutivo del existencial o fenomenológico, esto es, del construido a partir de lo experimentado por el paciente, de lo que siente. Ahora bien, las diferencias interculturales subsisten. Por otro lado, cabe la posibilidad de que los no expertos perciban que las explicaciones biológicas de las enfermedades mentales les absuelven a ellos, a los familiares próximos y a la sociedad en general de cualquier responsabilidad. Otra vez la sombra de la moral se proyecta sobre la psicopatología.

Es un error aislar la salud mental del contexto sociocultural en el que la vida de las personas se desenvuelve. De igual manera que la institución educativa no puede solucionar lo que son vicios estructurales de unos sistemas de convivencia e ideológicos en los que aquélla se halla inmersa el tratamiento de los problemas mentales por medio de los recursos clínicos no puede resolver lo que hunde sus raíces en unos modos de vida intrínsecamente malsanos. No es descabellado plantearse si el incremento de los problemas de salud mental no será otra cosa que el coste que hemos de pagar por ser consecuentes con la fe que profesamos a la libertad individual y al progreso.

Fuente: https://rebelion.org/la-sociedad-psicologica-a-proposito-de-la-salud-mental/

Comparte este contenido:

Neuroeducación: ¿cómo aprende el cerebro?

Por: Educación 3.0

Conocer cómo funciona el cerebro y cómo aprendemos es fundamental para el proceso de enseñanza-aprendizaje. El último número de la revista impresa, ya a la venta, ofrece un amplio reportaje sobre este tema. Estos son algunos extractos.

La mayoría de los niños son curiosos por naturaleza. Tienen todo un mundo por descubrir y quieren hacerlo ¡con ganas y aunque conlleve riesgos!: meter el dedo en los enchufes, tocar el agua o el fuego, o llevarse a la boca cualquier cosa que encuentren en el suelo para probar su sabor y textura. A medida que van creciendo y desarrollando su personalidad, sin embargo, la situación cambia y algunos pueden perder el interés.

Dada esta realidad, ¿cómo continuar estimulando su curiosidad? ¿Cómo motivarlos y hacerles partícipes en su aprendizaje? ¿Qué pueden hacer los profesores para mejorar el proceso de enseñanza y aprendizaje? La neuroeducación ofrece respuestas a estas preguntas. Es la unión de las ciencias de la educación (el conjunto de disciplinas que estudia la educación y las prácticas educativas como Didáctica, Pedagogía, Antropología o Sociología, entre otras) con la neurología, que estudia el funcionamiento del cerebro.

La neuroeducación ha generado un enorme avance en el proceso de enseñanza y aprendizaje, ya que contribuye a potenciar tanto las capacidades emocionales —ser conscientes de las emociones y gestionarlas adecuadamente— como las neurocognitivas, cómo procesamos la información y cómo la empleamos posteriormente (es decir, el aprendizaje) lo que incluye la percepción, la atención, la comprensión, la memoria y el lenguaje, entre otras.

Índice de contenido [mostrar]

Neuroeducación: orígenes y evolución

Aunque la historia de la neuroeducación es bastante reciente, la importancia del cerebro se reconoce desde hace siglos y a lo largo de ellos se ha ido avanzando en su funcionamiento (neurociencia), pero han tenido que pasar más de veinte para comprender la importancia que tiene relacionar cómo aprendemos y la práctica educativa.

El ‘padre oficial’ de la neuroeducación es Gerhard Preiss, catedrático de Didáctica en la Universidad de Friburgo (Alemania), quien en 1988 planteó crear una nueva asignatura que aunara la investigación cerebral y la pedagogía, a la que denominó neurodidáctica para mejorar el proceso de enseñanza y aprendizaje. A partir de entonces son numerosos los expertos internacionales (el argentino Antonio M. Battro o el estadounidense Daniel Willingham) y nacionales (Francisco Mora, David Bueno…) que han profundizado en el tema.

Como dice el refrán ‘la unión hace la fuerza’ y la alianza entre cómo aprendemos y la pedagogía proporciona numerosos beneficios tanto para alumnado como para los docentes. Así, mejora el proceso de enseñanza y aprendizaje, al facilitar el diseño de programaciones didácticas a medida y atendiendo a la diversidad.

De igual modo, permite identificar las causas neurológicas relacionadas con el fracaso escolar, como la dislexia, la discalculia, el trastorno por déficit de atención o la hiperactividad. Fomenta, además, que consoliden sus conocimientos al mostrar qué les motiva o les llama la atención, al mismo tiempo que les hace implicarse más en su propio aprendizaje. También les ayuda a gestionar las emociones, haciendo patente qué están sintiendo y no reaccionen de manera impulsiva.

Evidencias científicas

A lo largo de estos más de 30 años en los que se ha profundizado en la neuroeducación, en cómo aprende el cerebro y su relación con la educación, se han hallado diversas evidencias científicas que han permitido mejorar tanto el proceso de enseñanza como el de aprendizaje. Algunos de estos factores son:

  • Emociones. Ya sean agradables o desagradables, todas influyen en el proceso de aprendizaje.
  • Plasticidad cerebral y neurogénesis. Haciendo una metáfora, el cerebro es como la plastilina, ya que tiene una gran capacidad de adaptación durante toda la vida.
  • Genética y experiencia. El debate sobre qué es más determinante en el ser humano, lo innato o lo aprendido, ha sido intenso a lo largo de los siglos. En la actualidad, la mayoría de los expertos coincide en que ambos son fundamentales en el aprendizaje y en la evolución del propio ser humano.
  • ¿Jugamos? Sea libre o estructurado, el juego es clave en el aprendizaje, como numerosos estudios han demostrado (por ejemplo, de los psicólogos Jean Piaget o Lev S. Vigotsky).
  • Neuronas espejo. Son el grupo de células cerebrales (descubiertas por el equipo del neurobiólogo Giacomo Rizzolatti, de la Universidad de Parma, Italia, a finales de los 90) que se activan cuando realizamos una acción concreta o cuando observamos a alguien hacer algo.
  • Trastornos de aprendizaje. La neuroeducación es fundamental en diferentes áreas, pero en este ámbito en concreto todavía lo es más, ya que permite proporcionar un apoyo personalizado a cada alumno.

En la práctica

Es posible aplicar los principios de la neuroeducación tanto en el aula como en casa. En el primer caso, es preciso crear un clima positivo, generar un espacio donde el alumno se sienta cómodo, donde el profesor le escuche y le anime a aumentar su autoestima e iniciativa, también donde se fomente el trabajo en equipo y se promuevan valores como el respeto y la justicia. Cada vez son más los docentes y centros que ven la importancia de aplicar la neuroeducación en el día a día, pero no saben por dónde empezar. Piensan: ¡cómo entender el funcionamiento del cerebro!, ¡parece algo tan complicado!

Por etapas educativas

Lo más habitual es aplicar las prácticas neuroeducativas en la primera infancia (de 0 a 8 años), porque es cuando el cerebro forma nuevas conexiones a una sorprendente velocidad, pero la mayoría de los expertos considera que los principios de la neuroeducación deben aplicarse a lo largo de toda la vida. Es un estilo de vida. Por lo que, independientemente del nivel educativo en que esté el alumnado, lo importante es tener claro que si el docente conoce las claves de cómo funciona el cerebro puede diseñar actividades a medida para el día a día, consiguiendo mejorar tanto el proceso de enseñanza como el de aprendizaje.

Este artículo está compuesto de unos pocos extractos del amplio reportaje ‘Neuroeducación: ¿cómo aprende el cerebro?’ publicado en el nuevo número de la revista impresa. Puedes comprar el último número de la revista en nuestra tienda online.

Fuente e Imagen: https://www.educaciontrespuntocero.com/noticias/neuroeducacion-cerebro/

Comparte este contenido:

Héctor Ruiz: “Al crear puentes entre la investigación y el aula, surgen oportunistas pseudocientíficos”

Por:

  • Hablamos con el biólogo y experto en psicología cognitiva sobre el boom de la neuroeducación, un término que no le gusta porque, bajo su paraguas, se confunden disciplinas variopintas y se cobija un número creciente de oportunistas e intrusos. Héctor Ruiz Martín admite que la ciencia nunca podrá responder a algunas preguntas educativas fundamentales. Pero sí ha logrado hallazgos sólidos. Por ejemplo, que aprender de verdad implica dar sentido a lo que aprendemos.

Biólogo de carrera, a Héctor Ruiz Martín siempre le picó el gusanillo de la educación. Desde muy joven le asaltaron los grandes interrogantes pedagógicos, con el cómo aprendemos a la cabeza. Buscó respuestas en la docencia, habiendo sido profesor de instituto y universidad. Durante un tiempo intentó diseccionar los misterios del aprendizaje a través de la neurociencia. Y cuando descubrió los encantos de la psicología cognitiva, se produjo algo así como un flechazo intelectual. Autor de varias obras con un enfoque divulgativo, hoy dirige la International Science Teaching Foundation, con sede en Barcelona.

¿Cómo das el salto de la neurociencia a la psicología cognitiva? ¿Fue una transición gradual o una especie de iluminación repentina?

Un poco ambas cosas. Yo descubro, a través de la neurociencia, que se pueda hacer ciencia del aprendizaje. Me meto en este ámbito con mucha fascinación. Pero en el fondo, más allá de mi interés fundamental como biólogo, siempre he buscado poder responder a las preguntas que nos hacemos como docentes y estudiantes, en especial cómo aprender más y mejor. Cuanto más me meto en la neurociencia (su estudio del cerebro a nivel molecular, celular, bioquímico), más me doy cuenta de que esta no puede responder a estas preguntas. Este proceso fue progresivo. Y luego está ese momento en el que descubro, cuando vivía en EEUU, la psicología cognitiva, un ámbito del que en España hay muy poca tradición. Veo que, al dedicarse a estudiar el cerebro como procesador de información pero más desde el comportamiento, resulta mucho más interesante en esa búsqueda de respuestas.

¿Hay desconfianzas, recelos entre ambos ámbitos? Quizá la neurociencia se arroga una especie de legitimidad de pureza empírica. Y la psicología cognitiva, una mayor capacidad de trasladar al aula sus hallazgos.

Nunca he visto neurocientíficos que resten validez a la psicología cognitiva, que en realidad tiene un enfoque más cercano a las ciencias naturales que a las sociales: causa-efecto, herramientas cuantitativas… Lo que sí observo es que, para el público general, todo es neurociencia, todo es neuroeducación, un término que personalmente no me gusta. La neurociencia tiene más sex-appeal, más caché, viene como con un sello de objetividad. Pero, en realidad, la inmensa mayoría de cosas bajo el paraguas de la llamada neuroeducación —digamos, más en rigor, de las ciencias del aprendizaje— vienen de la psicología cognitiva. Al atribuir a lo neuro esa preponderancia, hay psicólogos que se sienten ninguneados. Lo importante, en cualquier caso, es que ambas disciplinas interactúan, se retroalimentan continuamente.

Aprovechando esa fiebre neuro y esa confusión de términos, se cuelan muchos supuestos gurús que lanzan propuestas metodológicas barnizadas de pseudociencia.

Intrusos y oportunistas siempre ha habido. Incluso en ámbitos como la medicina —que tiene algo de arte pero se basa fundamentalmente en el conocimiento científico— sigue habiendo mucha pseudociencia. Con más razón en la práctica educativa, donde no hay una fuerte tradición investigadora. Y ocurre precisamente ahora, cuando se está tratando de crear puentes entre la investigación y el aula. Como en la publicidad, suelen ser propuestas que combinan emoción y razón (supuestamente científica) en un pack listo para vender.

¿Corremos el riesgo de menospreciar, en aras del rigor científico, ese componente artístico de la docencia: la intuición, la experiencia del profesor…?

Los propios científicos somos conscientes de las limitaciones de la ciencia. A destacar, que la ciencia solo puede responder a preguntas científicas. Esto deja fuera, por ejemplo, cuáles deben ser los objetivos de la educación, que siempre será un debate ideológico. Pero sí puede ayudar a informar sobre la manera más probable de alcanzar —en función del contexto, los recursos, etc.— esos objetivos. No hay que olvidar tampoco que la ciencia va avanzando, resolviendo cuestiones, consiguiendo un conocimiento cada vez mejor, pero nunca perfecto, absoluto. Cuando entran en juego variables que la investigación aún no ha tenido en cuenta, poco puede aportar la ciencia. Pero tampoco hemos de olvidar que la experiencia personal también tiene limitaciones. La primera es que está sesgada por nuestras preconcepciones. El famoso sesgo de confirmación, que nos empuja a sacar las conclusiones que ya queríamos sacar. Por ejemplo al llevar a cabo una actividad en el aula, cuyas conclusiones sobre el desarrollo y resultado tratará el docente de encajar en lo que ya pensaba. Ahí la evidencia científica puede complementar la experiencia docente.

La clave para aprender es dar sentido a lo que aprendemos. No hay nada más importante que implicarse cognitivamente en lo que uno está aprendiendo

Si tuvieras que destacar un hallazgo científico sólido sobre el aprendizaje, ¿cuál sería?

Permíteme decir más de uno. El primero es que la clave para aprender es dar sentido a lo que aprendemos. No hay nada más importante que implicarse cognitivamente en lo que uno está aprendiendo, que al final significa interpretar el nuevo conocimiento a la luz de nuestros conocimientos previos. Es uno de los principios básicos de la psicología cognitiva: la memoria se construye conectando lo que sabemos con lo que estamos aprendiendo. Resulta clave para el profesor: si una actividad en el aula no va a hacer que los alumnos piensen sobre lo que están aprendiendo, no lo van a aprender.

El segundo, que aprender es un acto generativo, no meramente receptivo. Que el aprendizaje se consolide depende de lo que hacemos después en nuestra cabeza, de si somos capaces de recuperar, usar, evocar en definitiva —en un proceso de dentro afuera— lo aprendido. El tercero es que, para aprender, necesitamos diversos episodios, mucho mejor si se espacian en el tiempo en lugar de masificarse.

Justo lo contrario de la norma en España: currículos sobrecargados y sesiones de estudio maratonianas con un enfoque evaluativo puramente memorístico.

El aprendizaje no elaborado, sin oportunidades para la generación y la aplicación, resulta siempre efímero. Las estrategias de evaluación que animan al estudio masificado solo consiguen que lo supuestamente aprendido (o así parece en el examen) se olvide en dos días.

Me llama la atención que utilizas con frecuencia, al explicar las dinámicas de la memoria y el aprendizaje, la noción de evocar, que suele tener un matiz poético, en absoluto científico.

Llevar a la consciencia, a tu memoria de trabajo algo que ya sabes (y que permanece en tu memoria a largo plazo, en algún lugar del subconsciente) es técnicamente, según la RAE, evocar. Evocar un recuerdo, un conocimiento. En inglés, la palabra para referirse a este proceso es retrieval, algo así como recuperación, que en educación tiene otras connotaciones. Cuando decidí divulgar la psicología cognitiva en español, tuve que tomar una decisión sobre cómo traducirla. Me llevó tiempo y, tras ver las opciones, me decanté por evocación, que ciertamente se suele utilizar desde una óptica más poética.

Foto cedida

Por una parte, es más fácil aprender sobre un campo concreto cuanto más sabemos. Por otra, a partir de cierta edad, el tiempo juega en nuestra contra. ¿O la idea del niño esponja es un mito?

Son dos procesos independientes. Uno nos lleva a que cada vez seamos, en nuestros ámbitos predilectos, mejores aprendientes (término en desuso que también me gusta utilizar, más correcto que aprendiz, que se refiere al aprendizaje de un oficio). Otro tiene que ver con la mayor capacidad para aprender durante la infancia y la juventud, ya que la neuroplasticidad —que es la base del aprendizaje— es mucho mayor en esas edades. Yo, a mis 40 años, aprenderé más fácilmente cosas nuevas sobre psicología cognitiva que un neófito en la materia de 20 años. No solo a nivel de comprensión. También me será más fácil recordar lo aprendido. Pero en un ámbito completamente nuevo para mí, el joven de 20 años partiría con ventaja. Por otra parte, con la edad solemos ganar en autorregulación: esfuerzo, ser capaces de evitar la tentación de hacer otras cosas, de aplazar las recompensas… Son capacidades muy importantes para el aprendizaje, y aquí la edad suele jugar a nuestro favor.

Esa distracción permanente o saltos de atención continuos entre los jóvenes —la mal llamada multitarea— es campo abonado para la pseudociencia. Se escucha de todo. Que las nuevas generaciones son, cognitivamente, casi como superhombres. O lo contrario: que ese ir de una cosa a la otra les va a descalabrar el cerebro con secuelas irreversibles.

La visión científica es que ni una cosa ni la otra. Los jóvenes de ahora no son diferentes a los de hace 30 años. El cerebro es plástico, sí, pero los mecanismos cognitivos solo pueden cambiar a partir de la evolución biológica, y esto requiere de mucho tiempo. A los jóvenes siempre se les ha dado mejor ese cambio veloz de tarea, tienen una mayor velocidad de procesamiento, aunque está demostrado que, en el cambio continuo, el desempeño de cada tarea se ve afectado. Con la edad, las habilidades cognitivas van, en general, a la baja. De la misma forma, también sabemos que este entorno lleno de tecnología tampoco está cambiando negativamente el cerebro. Los alumnos de hoy en día siguen teniendo la misma capacidad de prestar atención, aunque también tienen más oportunidades para distraerse, más estímulos para elegir y evitar el aburrimiento, que es algo muy humano.

Los alumnos de hoy en día siguen teniendo la misma capacidad de prestar atención, aunque también tienen más oportunidades para distraerse

¿Y ese infinito surtido de estímulos no afecta a la concentración, la paciencia, la tolerancia a la frustración? Quizá a nivel más emocional, pero con efectos cognitivos que influyen en el aprendizaje, aunque estos no sean permanentes.

Más importante resulta la ausencia de momentos para desconectar de nuestra vida social. Antes, cuando volvías a casa, tu vida social se reducía a tu familia, que es mucho más fácil de manejar en cuanto a las preocupaciones por la imagen que proyectamos a los demás, cuál es nuestra posición en el grupo, qué piensan de nosotros. Con las redes sociales, nunca dejas de estar sobre el escenario, y esto es difícil de gestionar. Se genera un estrés que puede afectar no solo a tu capacidad de aprender, sino a tu vida en su conjunto. Podríamos conjeturar que nuestro cerebro no está preparado para, digamos, ponernos continuamente a prueba ante el grupo, y que esto está generando dinámicas negativas.

Fuente e Imagen: https://eldiariodelaeducacion.com/2021/11/11/hector-ruiz-al-crear-puentes-entre-la-investigacion-y-el-aula-surgen-oportunistas-pseudocientificos/

Comparte este contenido:

Héctor Ruiz: “Al crear puentes entre la investigación y el aula, surgen oportunistas pseudocientíficos”

Biólogo de carrera, a Héctor Ruiz Martín siempre le picó el gusanillo de la educación. Desde muy joven le asaltaron los grandes interrogantes pedagógicos, con el cómo aprendemos a la cabeza. Buscó respuestas en la docencia, habiendo sido profesor de instituto y universidad. Durante un tiempo intentó diseccionar los misterios del aprendizaje a través de la neurociencia. Y cuando descubrió los encantos de la psicología cognitiva, se produjo algo así como un flechazo intelectual. Autor de varias obras con un enfoque divulgativo, hoy dirige la International Science Teaching Foundation, con sede en Barcelona.

¿Cómo das el salto de la neurociencia a la psicología cognitiva? ¿Fue una transición gradual o una especie de iluminación repentina?

Un poco ambas cosas. Yo descubro, a través de la neurociencia, que se pueda hacer ciencia del aprendizaje. Me meto en este ámbito con mucha fascinación. Pero en el fondo, más allá de mi interés fundamental como biólogo, siempre he buscado poder responder a las preguntas que nos hacemos como docentes y estudiantes, en especial cómo aprender más y mejor. Cuanto más me meto en la neurociencia (su estudio del cerebro a nivel molecular, celular, bioquímico), más me doy cuenta de que esta no puede responder a estas preguntas. Este proceso fue progresivo. Y luego está ese momento en el que descubro, cuando vivía en EEUU, la psicología cognitiva, un ámbito del que en España hay muy poca tradición. Veo que, al dedicarse a estudiar el cerebro como procesador de información pero más desde el comportamiento, resulta mucho más interesante en esa búsqueda de respuestas.

¿Hay desconfianzas, recelos entre ambos ámbitos? Quizá la neurociencia se arroga una especie de legitimidad de pureza empírica. Y la psicología cognitiva, una mayor capacidad de trasladar al aula sus hallazgos.

Nunca he visto neurocientíficos que resten validez a la psicología cognitiva, que en realidad tiene un enfoque más cercano a las ciencias naturales que a las sociales: causa-efecto, herramientas cuantitativas… Lo que sí observo es que, para el público general, todo es neurociencia, todo es neuroeducación, un término que personalmente no me gusta. La neurociencia tiene más sex-appeal, más caché, viene como con un sello de objetividad. Pero, en realidad, la inmensa mayoría de cosas bajo el paraguas de la llamada neuroeducación —digamos, más en rigor, de las ciencias del aprendizaje— vienen de la psicología cognitiva. Al atribuir a lo neuro esa preponderancia, hay psicólogos que se sienten ninguneados. Lo importante, en cualquier caso, es que ambas disciplinas interactúan, se retroalimentan continuamente.

Aprovechando esa fiebre neuro y esa confusión de términos, se cuelan muchos supuestos gurús que lanzan propuestas metodológicas barnizadas de pseudociencia.

Intrusos y oportunistas siempre ha habido. Incluso en ámbitos como la medicina —que tiene algo de arte pero se basa fundamentalmente en el conocimiento científico— sigue habiendo mucha pseudociencia. Con más razón en la práctica educativa, donde no hay una fuerte tradición investigadora. Y ocurre precisamente ahora, cuando se está tratando de crear puentes entre la investigación y el aula. Como en la publicidad, suelen ser propuestas que combinan emoción y razón (supuestamente científica) en un pack listo para vender.

¿Corremos el riesgo de menospreciar, en aras del rigor científico, ese componente artístico de la docencia: la intuición, la experiencia del profesor…?

Los propios científicos somos conscientes de las limitaciones de la ciencia. A destacar, que la ciencia solo puede responder a preguntas científicas. Esto deja fuera, por ejemplo, cuáles deben ser los objetivos de la educación, que siempre será un debate ideológico. Pero sí puede ayudar a informar sobre la manera más probable de alcanzar —en función del contexto, los recursos, etc.— esos objetivos. No hay que olvidar tampoco que la ciencia va avanzando, resolviendo cuestiones, consiguiendo un conocimiento cada vez mejor, pero nunca perfecto, absoluto. Cuando entran en juego variables que la investigación aún no ha tenido en cuenta, poco puede aportar la ciencia. Pero tampoco hemos de olvidar que la experiencia personal también tiene limitaciones. La primera es que está sesgada por nuestras preconcepciones. El famoso sesgo de confirmación, que nos empuja a sacar las conclusiones que ya queríamos sacar. Por ejemplo al llevar a cabo una actividad en el aula, cuyas conclusiones sobre el desarrollo y resultado tratará el docente de encajar en lo que ya pensaba. Ahí la evidencia científica puede complementar la experiencia docente.

La clave para aprender es dar sentido a lo que aprendemos. No hay nada más importante que implicarse cognitivamente en lo que uno está aprendiendo

Si tuvieras que destacar un hallazgo científico sólido sobre el aprendizaje, ¿Cuál sería?

Permíteme decir más de uno. El primero es que la clave para aprender es dar sentido a lo que aprendemos. No hay nada más importante que implicarse cognitivamente en lo que uno está aprendiendo, que al final significa interpretar el nuevo conocimiento a la luz de nuestros conocimientos previos. Es uno de los principios básicos de la psicología cognitiva: la memoria se construye conectando lo que sabemos con lo que estamos aprendiendo. Resulta clave para el profesor: si una actividad en el aula no va a hacer que los alumnos piensen sobre lo que están aprendiendo, no lo van a aprender.

El segundo, que aprender es un acto generativo, no meramente receptivo. Que el aprendizaje se consolide depende de lo que hacemos después en nuestra cabeza, de si somos capaces de recuperar, usar, evocar en definitiva —en un proceso de dentro afuera— lo aprendido. El tercero es que, para aprender, necesitamos diversos episodios, mucho mejor si se espacian en el tiempo en lugar de masificarse.

Justo lo contrario de la norma en España: currículos sobrecargados y sesiones de estudio maratonianas con un enfoque evaluativo puramente memorístico.

El aprendizaje no elaborado, sin oportunidades para la generación y la aplicación, resulta siempre efímero. Las estrategias de evaluación que animan al estudio masificado solo consiguen que lo supuestamente aprendido (o así parece en el examen) se olvide en dos días.

Me llama la atención que utilizas con frecuencia, al explicar las dinámicas de la memoria y el aprendizaje, la noción de evocar, que suele tener un matiz poético, en absoluto científico.

Llevar a la consciencia, a tu memoria de trabajo algo que ya sabes (y que permanece en tu memoria a largo plazo, en algún lugar del subconsciente) es técnicamente, según la RAE, evocar. Evocar un recuerdo, un conocimiento. En inglés, la palabra para referirse a este proceso es retrieval, algo así como recuperación, que en educación tiene otras connotaciones. Cuando decidí divulgar la psicología cognitiva en español, tuve que tomar una decisión sobre cómo traducirla. Me llevó tiempo y, tras ver las opciones, me decanté por evocación, que ciertamente se suele utilizar desde una óptica más poética.

Foto cedida

Por una parte, es más fácil aprender sobre un campo concreto cuanto más sabemos. Por otra, a partir de cierta edad, el tiempo juega en nuestra contra. ¿O la idea del niño esponja es un mito?

Son dos procesos independientes. Uno nos lleva a que cada vez seamos, en nuestros ámbitos predilectos, mejores aprendientes (término en desuso que también me gusta utilizar, más correcto que aprendiz, que se refiere al aprendizaje de un oficio). Otro tiene que ver con la mayor capacidad para aprender durante la infancia y la juventud, ya que la neuroplasticidad —que es la base del aprendizaje— es mucho mayor en esas edades. Yo, a mis 40 años, aprenderé más fácilmente cosas nuevas sobre psicología cognitiva que un neófito en la materia de 20 años. No solo a nivel de comprensión. También me será más fácil recordar lo aprendido. Pero en un ámbito completamente nuevo para mí, el joven de 20 años partiría con ventaja. Por otra parte, con la edad solemos ganar en autorregulación: esfuerzo, ser capaces de evitar la tentación de hacer otras cosas, de aplazar las recompensas… Son capacidades muy importantes para el aprendizaje, y aquí la edad suele jugar a nuestro favor.

Esa distracción permanente o saltos de atención continuos entre los jóvenes —la mal llamada multitarea— es campo abonado para la pseudociencia. Se escucha de todo. Que las nuevas generaciones son, cognitivamente, casi como superhombres. O lo contrario: que ese ir de una cosa a la otra les va a descalabrar el cerebro con secuelas irreversibles.

La visión científica es que ni una cosa ni la otra. Los jóvenes de ahora no son diferentes a los de hace 30 años. El cerebro es plástico, sí, pero los mecanismos cognitivos solo pueden cambiar a partir de la evolución biológica, y esto requiere de mucho tiempo. A los jóvenes siempre se les ha dado mejor ese cambio veloz de tarea, tienen una mayor velocidad de procesamiento, aunque está demostrado que, en el cambio continuo, el desempeño de cada tarea se ve afectado. Con la edad, las habilidades cognitivas van, en general, a la baja. De la misma forma, también sabemos que este entorno lleno de tecnología tampoco está cambiando negativamente el cerebro. Los alumnos de hoy en día siguen teniendo la misma capacidad de prestar atención, aunque también tienen más oportunidades para distraerse, más estímulos para elegir y evitar el aburrimiento, que es algo muy humano.

Los alumnos de hoy en día siguen teniendo la misma capacidad de prestar atención, aunque también tienen más oportunidades para distraerse

¿Y ese infinito surtido de estímulos no afecta a la concentración, la paciencia, la tolerancia a la frustración? Quizá a nivel más emocional, pero con efectos cognitivos que influyen en el aprendizaje, aunque estos no sean permanentes.

Más importante resulta la ausencia de momentos para desconectar de nuestra vida social. Antes, cuando volvías a casa, tu vida social se reducía a tu familia, que es mucho más fácil de manejar en cuanto a las preocupaciones por la imagen que proyectamos a los demás, cuál es nuestra posición en el grupo, qué piensan de nosotros. Con las redes sociales, nunca dejas de estar sobre el escenario, y esto es difícil de gestionar. Se genera un estrés que puede afectar no solo a tu capacidad de aprender, sino a tu vida en su conjunto. Podríamos conjeturar que nuestro cerebro no está preparado para, digamos, ponernos continuamente a prueba ante el grupo, y que esto está generando dinámicas negativas.

The post Héctor Ruiz: “Al crear puentes entre la investigación y el aula, surgen oportunistas pseudocientíficos” appeared first on El Diario de la Educación.

Comparte este contenido:

La era del control mental

Por: Raúl Allain*

Las tecnologías de la información y comunicación están llevando a la sociedad humana a un nuevo paradigma de convivencia, donde lo virtual cada día gana terreno en todas las actividades cotidianas, pasando por la ciencia, la política, el comercio electrónico, la teleeducación y todos los sistemas de persuasión de masas nunca antes vistos.

Tal como lo he venido sosteniendo en mis artículos, hoy en día es de carácter público que las investigaciones científicas predominantemente se encuentran enfocadas en el estudio del cerebro y de la mente humana –y, por ende, del comportamiento de los individuos.

Pero hay secretas intenciones. Los medios han informado que la multinacional IBM viene realizando experimentos en neurociencia (bastantes cuestionados, por cierto) usando nuevas tecnologías como la implantación de nanobots cerebrales en pacientes.

En el ensayo: “Proyecto Cerebro Humano: ¿Existen experimentos secretos con humanos en Latinoamérica?” (https://tinyurl.com/y8tby3vd), David Salinas  Flores – catedrático invitado de la Universidad Nacional Mayor de San Marcos– alerta sobre este problema, dando la voz de alarma acerca de la experimentación humana forzada e ilícita existente.

El investigador señala que existen evidencias de que existiría una red de experimentación ilegal con personas que el Proyecto Cerebro Humano (HBP) ha organizado en asociación con algunos gobiernos corruptos de Latinoamérica y con la participación y encubrimiento de cierta prensa.

Esta red estaría desarrollando una forzada y secreta experimentación humana neurocientífica con implantes y nanobots cerebrales, con los que se estaría obteniendo la fuente real de información del mapa del cerebro humano, a costa de la salud y violando la intimidad de los latinoamericanos.

“La larga lista de experimentos médicos ilícitos y gobiernos corruptos en Latinoamérica que los han permitido oficialmente, obliga a los médicos a estar alerta, investigar y denunciar posibles experimentos neurocientíficos inhumanos que se estén realizando en el Proyecto Cerebro Humano”, señala Salinas.

El Proyecto Cerebro Humano (HBP por sus siglas en inglés) es un proyecto médico-científico y tecnológico financiado por la Unión Europea y dirigido por Henry Makram, cuyo objetivo es reproducir artificialmente las características del cerebro humano, supuestamente con fines médicos.

Esto no es ciencia ficción. Es un hecho que estas corporaciones, presuntamente aliadas con gobiernos corruptos de Latinoamérica, están realizando experimentos ilícitos con humanos para desarrollar el chip neuromórfico True North en hospitales infantiles de México, con miras a crear el primer cerebro artificial, todo ello financiado con más de mil millones de dólares.

En este escenario, el Perú –país donde reina la corrupción e incluso ya se sabe que existen mafias de traficantes de órganos–, tengo razones de fuerza mayor para sospechar que nuestro país en un futuro cercano podría convertirse en una “granja humana” para ensayos tecnológicos de alto riesgo.

Muy cerca de nuestro territorio, en el vecino país de Ecuador, existe otro Silicon Valley denominado “Yachay”, donde IBM estaría haciendo experimentación con comunidades rurales, utilizando como término de fachada las “TIC” (iniciales de tecnología de informática y comunicación), con la finalidad de lograr la interconectividad humana electrónica, y posiblemente implantar la esclavitud digital.

Como ya lo he afirmado en mis ensayos sobre las tentativas de control mental y corporal, podemos afirmar que el Proyecto Cerebro Humano es un nuevo rostro del Proyecto MK Ultra iniciado en la década del cincuenta, y que ahora se está sofisticando mediante neurotecnología invasiva como implantes cerebrales o nanorobots en países pobres.

Es de suma importancia para la humanidad analizar las consecuencias jurídicas, éticas, políticas, ecológicas y económicas del control mental-corporal mediante uso de ondas hertzianas, lo cual significa el mayor crimen en la historia contra las poblaciones del planeta y debe ser detenida.

La principal consecuencia derivada de la conducción y manipulación de frecuencias electromagnéticas es el calentamiento global. Pero además, las ondas hertzianas están invadiendo nuestro subconsciente y repercuten en nuestro modo de vida.

La operación “antenaje” (así la denominé) doblega al hombre y la superficie terrestre también se pervierte, originando un incremento acelerado de la temperatura media global, que muchos llaman “efecto invernadero”. Esta siniestra conjunción corrompe al individuo y a su ecosistema, trastorna la realidad y su desarrollo sociohistórico, generándose la disminución de la esperanza de vida.

Ante esta situación, cabe preguntarnos sobre cómo pueden ejercer su derecho a denunciar este acoso las personas que se sienten amenazadas o vulneradas. ¿En qué instancias podrían efectuarlo? ¿Con qué medios probatorios? ¿Bajo qué legislación o norma del Código Penal?

Existe una falencia de gran dimensión histórica de un Derecho Humano Público en relación con el control mental-corporal, pero que indefectiblemente se torna cada vez más necesario conceptualizar. En España, ante casos de persecución mental, las víctimas de acoso electrónico citan mi artículo “Maquinaciones electromagnéticas: violación de los derechos humanos y la esfera privada” como un documento sustentatorio y referencial (www.viatec.es).

Esperemos que pronto en nuestro país y en el mundo se debata y promulgue la legislación para salvaguardar el derecho de las personas a no convertirse en víctimas de la doblegación electromagnética.

Raúl Allain. Escritor, poeta, editor y sociólogo. Presidente del Instituto Peruano de la Juventud (IPJ) y director de Editorial Río Negro.

Fuente e imagen: rebelion

Comparte este contenido:
Page 1 of 18
1 2 3 18