Saltar al contenido principal
Page 1 of 3
1 2 3

Millones de menores en todo el mundo han sido vigilados por empresas tecnológicas durante la pandemia

Por: Pablo Gutiérrez de Álamo

Un informe de Human Right Watch ha estudiado el comportamiento de 149 aplicaciones que han sido utilizadas en 49 países, con el consentimiento de los gobiernos, en relación a la infancia. La mayor parte de estas soluciones de software han vigilado a millones de menores, recopilando datos personales de todo tipo sin su consentimiento o el de sus familiares.

La de la privacidad fue y es uno de los problemas principales del uso de las tecnologías durante el confinamiento y el cierre de escuelas generalizado desde marzo de 2020 -un cierre que, en muchos lugares del mundo, solo ahora está empezando a revertirse de manera generalizada-. En España, las administraciones autonómicas dieron, desde el primer momento, el aviso de que había que utilizar las plataformas informáticas que ellas mismas tenían y tienen, puesto que estaba en juego la privacidad de los datos personales de millones de escolares.

En al menos 49 países de todo el mundo, desde Argentina a Reino Unido pasando por Turquía, millones de niñas y niños han sido vigilados por cerca de 150 aplicaciones (EdTech) que fueron aprobadas para su uso educativo durante el confinamiento por sus gobierno. Estas son algunas de las conclusiones del informe ‘¿Cómo se atreven a espiar mi vida privada? Violaciones de los derechos de los niños por parte de los gobiernos que respaldaron el aprendizaje en línea durante la pandemia de Covid-19‘, realizado en abril de 2020 por Human Rights Watch.

La ONG es tajante: «Este informe es una investigación global de la tecnología educativa (EdTech) respaldada por 49 gobiernos para la educación infantil durante la pandemia. Sobre la base del análisis técnico y de políticas de 164 productos EdTech, Human Rights Watch determina que el respaldo de los gobiernos a la mayoría de estas plataformas de aprendizaje en línea pone en riesgo o viola directamente la privacidad de los niños y otros derechos de los niños, con fines no relacionados con su educación».

Human Rights Watch (HRW) asegura que en la carrea que los gobiernos dieron para intentar solucionar las clases desde casa, pocos fueron los que comprobaron que las aplicaciones informáticas que iban a utilizarse fueran respetuosas con los derechos de la infancia. De hecho, de los 164 productos que se han analizado, 146 «parece» que utilizaban prácticas que podrían poner en riesgo a las y los niños, dado que «contribuían a socavarlos o infringían activamente estos derechos».

Al parecer, la mayor parte de estos productos podía monitorizar la actividad de las y los menores, en muchos casos de forma secreta y sin tener el consentimiento de niñas y niños ni de sus progenitores o tutores legales. «La mayoría de las plataformas de aprendizaje online instalaron tecnologías de seguimiento que seguían a los niños fuera de sus aulas virtuales y a través de internet a lo largo del tiempo», aseguran desde HRW.

A esto se suma el hecho de que buena parte de las plataformas, además, compartían estos datos con terceros. En la mayoría de los casos, dice el informe de la ONG, empresas de publicidad digital (AdTech). Con esta información, dichas empresas pueden conocer aproximadamente las características e intereses de niñas y niños; un conocimiento que puede ser vendido, a su vez, para empresas que busquen acercarse a públicos infantiles. «Human Rights Watch -dice el informe- observó que 146 productos EdTech enviaban directamente o otorgaban acceso a datos personales de niños a 196 empresas de terceros, en su gran mayoría AdTech».

Competencia de las CCAA

El informe de HRW habla de 49 países estudiados. Uno de ellos fue España, aunque no en su totalidad, sino que se puso el foco en las dos autonomías más pobladas: Andalucía y Cataluña. Eso sí, también se realizaron entrevistas en otras ciudades para recabar la opinión de alumnado, familias y profesorado.

Una de las declaraciones que transcribe la ONG en el informe es de un docente madrileño de secundaria que comenta textualmente: «Debido a que España estaba en estado de emergencia, el Ministerio de Educación comunicó [a los profesores] que ya no se requería el consentimiento para la privacidad, o la protección de datos… La privacidad y todo eso ha pasado a un segundo plano por completo, pero lo hemos hecho porque el Ministerio así lo ha dicho».

Fuentes del Ministerio de Educación sostienen que no hubo ninguna comunicación ni directa a cada docente (no está dentro de las atribuciones que entonces tenía el Departamento de Isabel Celaá) ni a la opinión pública. Fueron las comunidades autónomas las que decidieron qué plataformas se utilizaban en cada momento, algo que apunta también el informe al aclarar que en diferentes países (España es uno de ellos), el Gobierno central cedió la competencia en este sentido en las administraciones regionales.

El Ministerio sí desarrolló, defienden fuentes del actual equipo, una web: ‘Aprendo en casa’ que contaba con garantías de seguridad, entre otras cosas, porque no se solicitaba a quien la usara ningún dato. El informe de HRW sostiene que efectivamente cumplía normas de privacidad. Según fuentes de Educación, la web estaba alojada en los servidores del Ministerio y, aunque daba la posibilidad de utilizar las «salas de reuniones» de Google, para hacerlo había que solicitárselo al Intef, entidad que facilitaba una dirección de correo propia para que lo usaran las y los participantes en las reuniones. De esta forma aseguraron la no cesión de datos privados de nadie.

En cualquier caso, las primeras semanas fueron realmente confusas, con comunidades autónomas que prohibieron expresamente el uso de plataformas que no fueran las facilitadas por la propia Administración al tiempo que estas se ponían en tal tensión que hubo serios problemas para utilizarlas. Muchas y muchos acabaron haciendo uso de aplicaciones privadas para poder continuar con las clases.

Pero HRW señala que el problema, en no pocas ocasiones, estaba en que las plataformas de las administraciones públicas también ponían en riesgo la privacidad de quienes las han estado utilizando en este tiempo.

Desde Andalucía aseguran que la plataforma que se puso en marcha, eAndalucia, «no dispone de datos de usuarios: ni datos de alumnado, ni de profesorado, ni de personal de gestión ni de tutores de alumnos/as». Algo similar ocurre en el caso catalán. En su caso utilizaron el portal edu365, del que dicen fuentes de Educación que «es anónimo, público, sin autentificación y con información estática, es decir, sin intercambio de información ni ninguna base de datos, solo muestra información de lectura».

Estas mismas fuentes aseguran haber hecho comprobaciones de las que se confirma que no han recogido datos personales de ningún usuario. Además, insisten, las cuestas de Google Analytics que se utilizan desde edu365 «tienen desactivadas las funciones para anunciantes, es decir, no se recogen datos demográficos, de intereses ni cualquier otro dato sensible» que pudiera venderse a terceros. Aseguran, además, haber intentado tener una reunión con HRW para aclarar la información que se da en el informe pero no ha sido posible.

Publicidad conductual

Este es uno de los riesgos más importantes que denuncia HRW en su informe en relación a los datos que hayan podido ser recopilados por las diferentes compañías tecnológicas. Se trata de publicidad que le aparece al usuario después de haber observado su comportamiento en Internet y haber realizado un perfil de sus intereses y gustos.

Según la ONG, las y los menores son especialmente vulnerables a este tipo de publicidad, especialmente quienes tienen menos de 7 años.

A esto se añade, según denuncia HRW, el hecho de que fueron público cautivo, al menos, durante los cierres de escuelas, y se vieron obligados a utilizar las aplicaciones y plataformas que sus centros educativos (guiados por las administraciones competentes) les obligaron a utilizar para poder seguir las clases a distancia. Elegir entre la privacidad y continuar con las lecciones, determina el informe, es una decisión que chicas y chicos, en realidad, no pudieron tomar.

Según la investigación de la ONG, 199 empresas de terceros recibieron información de las y los usuarios de las plataformas y aplicaciones. Más de los 164 productos tecnológicos que fueron analizados para realizar este informe.

HRW asegura que «estos anuncios están integrados en plataformas digitales personalizadas que desdibujan aún más las distinciones entre contenido orgánico y pago. Al hacerlo, la publicidad conductual aprovecha la incapacidad de los niños para identificar o pensar críticamente sobre la intención persuasiva, manipulándolos potencialmente hacia resultados que pueden no ser lo mejor para ellos».

El informe, en cualquier caso, hace una buena cantidad de recomendaciones a los países, así como a sus administraciones educativas, sean estatales o regionales y a las compañías tecnológicas para que puedan evitar lo máximo posible la recolección de datos de carácter personal de menores, así como de vigilancia del comportamiento que las y los usuarios tienen en la red.

Fuente de la información e imagen: https://www.lamarea.com/2022/06/07/millones-de-menores-en-todo-el-mundo-han-sido-vigilados-por-empresas-tecnologicas-durante-la-pandemia/

Comparte este contenido:

La Privacidad Como Instrumento De Resistencia Colectiva

Por: Carissa Véliz

El punto de partida de este texto es invitar al lector a imaginar que dispone de una llave maestra, única y especial, que da acceso a los ámbitos más íntimos de su casa: a su dormitorio, sus armarios, su archivo, su diario personal, sus datos médicos, a la correspondencia o los mensajes que ha intercambiado. ¿Sería razonable sacar infinitas copias de esa misma llave y regalársela a todo aquel que nos cruzáramos por la calle –o, aún peor– a todo aquel transeúnte que mostrase un alto interés por usarla en nuestra ausencia? Muy probablemente, la respuesta sería no, ya que sería solo cuestión de tiempo que alguien abusase de nuestra ingenuidad. Entonces, ¿cómo se explica nuestra cándida disposición a regalar nuestros datos personales a todo aquel que nos los pide?

La tesis de este texto es que nuestra privacidad actúa en cierto modo como la citada llave, ya que protege los aspectos más íntimos y personales de los individuos, los que los singularizan, y también los que los hacen más vulnerables. La privacidad nos sirve para cobijar nuestras fragilidades y nuestras pasiones, fantasías, miedos y también aquellos recuerdos que preferiríamos olvidar. Salvaguarda el mapa de los resortes, conscientes e inconscientes, que mueven nuestras acciones, pasiones y emociones.

Al entregarle esa llave –la privacidad– a un ser querido, generamos cercanía con esa persona, quien, de manera cómplice, usará la llave para ayudarnos, orientarnos y aumentar nuestro bienestar. Parte de lo que significa la cercanía emocional con alguien es compartir lo que nos hace vulnerables; revelar nuestro talón de Aquiles y confiar en que el otro no aprovechará dicha ventaja para herirnos o sacar provecho. Las personas que nos quieren bien pueden usar nuestra fecha de nacimiento para organizarnos una fiesta de cumpleaños sorpresa; anotarán nuestros gustos y tendrán presentes nuestros miedos más oscuros para mantenernos a salvo. Sin embargo, no todos usarán el acceso privilegiado a nuestra vida personal para favorecernos: los estafadores pueden usar esos mismos datos para suplantar nuestra identidad y cometer un delito; las empresas pueden usar nuestros gustos para atraernos a un mal negocio; nuestros enemigos pueden usar nuestros miedos para amenazarnos y extorsionarnos. La privacidad es importante porque nos hace más libres; cuando se desvanece, otros pueden ganar poder sobre nosotros.

¿Quién puede interesarse en mí y qué tenemos todos que perder?

Podríamos pensar que como personas comunes y corrientes no tenemos nada que ocultar, nada que temer. Este postulado es erróneo, a menos que uno desee exponerse a la suplantación de identidad, discriminación, desempleo, humillación pública y al riesgo del totalitarismo, entre otras desgracias. Planteemos pues la tesis a la inversa; si esta información no fuera relevante (y reveladora) las empresas y los gobiernos no dedicarían tantos esfuerzos y recursos de todo tipo al desarrollo de tecnologías invasivas y de control masivo de los datos.

Las empresas quieren saberlo todo sobre ti para saber cómo distraerte, aunque ello signifique que pases menos tiempo con tus seres queridos

Como individuos, un capital del que disponemos aún es el de la presencia mental, el objeto en el que fijamos nuestra atención. Sin embargo, existe una pugna creciente por atraerla a todo tipo de medios y aplicaciones –que monetizan el tiempo y la audiencia– y con ello, cuantificar esa atención y presentarla como ganancia. Las empresas quieren saberlo todo sobre ti para saber cómo distraerte, aunque ello signifique que pases menos tiempo con tus seres queridos, o que no atiendas a necesidades básicas como el sueño.

Los proveedores de contenidos (que hoy incluyen a las empresas audiovisuales, pero también a los influencers individuales o a los youtubers) pugnan por tener el máximo número de subscriptores. Los hackers ansían obtener información o imágenes sensibles con las que llevar a cabo extorsiones y secuestros de identidades digitales y de servidores en red. Las compañías de seguros también anhelan ganar nuevos clientes, siempre y cuando estos presenten un riesgo mínimo, en una evaluación que es mucho más efectiva si disponen de datos personales, en particular los relativos a la salud. También las empresas desean tener acceso a información reservada de sus potenciales nuevos trabajadores, como por ejemplo su implicación en la defensa de los derechos laborales.

Pero la ambición de traspasar el muro de la privacidad tiene impactos que van más allá del individuo singular. Todos tenemos contactos personales. Somos un nodo en una red de relaciones humanas: somos la hija/o de unos padres, el vecino de una vecina, el maestro, la abogada o el barbero de otros. A través de cada uno de los nodos, pueden llegar a todos los integrantes de la red. Ese es el motivo de que las aplicaciones soliciten el acceso a los contactos. También tenemos una voz, un perfil en redes sociales que todo tipo de agentes querrían poder controlar para convertirnos en portavoces de sus objetivos y de su visión del mundo, en los medios sociales y más allá. También disponemos de un voto; agentes extranjeros y nacionales pugnan por poder interferir y aumentar los apoyos al candidato que mejor defienda sus intereses. Aun tomados individualmente, somos personas muy importantes. Somos fuentes de poder.

La naturaleza del poder

A estas alturas, la mayoría de las personas son conscientes de que sus datos valen dinero. Pero estos datos no son valiosos exclusivamente porque pueden ser comercializados. Técnicamente, Facebook no vende los datos de sus usuarios. Tampoco Google. Lo que venden es el poder de influenciar en las decisiones de sus usuarios. Venden el poder de mostrarte anuncios y el poder de predecir tu comportamiento. Google y Facebook no están realmente en el negocio de los datos; están en el negocio del poder que les confieren los datos. Más que un beneficio económico, los datos personales otorgan poder a quienes los recogen y los analizan, y eso es lo que los hace tan codiciados.

Facebook y Google no venden los datos de sus usuarios, venden     el poder de influenciar en las decisiones de sus usuarios

Este poder tiene dos vertientes. La primera es la que el filósofo alemán Rainer Forst ha definido como «la capacidad de A para motivar a B a pensar o hacer algo que de otro modo B no habría pensado o hecho». Los medios a través de los cuales los poderosos ejercen su influencia son diversos. Abarcan desde los discursos motivadores, las recomendaciones, las visiones ideológicas del mundo, la seducción y la presentación de amenazas creíbles. Forst argumenta que la fuerza bruta o la violencia no es un ejercicio de poder, pues las personas sometidas no «hacen» nada, sino que es a ellas a quienes se les hace algo. Pero claramente la fuerza bruta sí es un ejemplo de poder. Es contraintuitivo pensar que alguien que nos tiene sometidos mediante la violencia carece de poder. Es el caso, por ejemplo, de un ejército que oprime a la ciudadanía, o el de un grupo mafioso o criminal que aterroriza a una comunidad. En Economía y Sociedad (1978), el economista político alemán Max Weber describe este segundo aspecto del poder como la capacidad de las personas y las instituciones para «llevar a cabo su propia voluntad a pesar de la resistencia».

En resumen, las personas e instituciones poderosas nos inducen a actuar y pensar en formas en las que no actuaríamos y pensaríamos si no fuera por su influencia. Y si con eso no es suficiente, pueden ejercer la fuerza sobre nosotros y hacernos lo que nosotros mismos no haríamos. Hay diferentes tipos de poder: económico, político, militar, etc. El poder es como la energía: puede tomar muchas formas diferentes, y estas pueden transformarse. Una empresa rica a menudo puede utilizar su dinero para influir en la política a través del cabildeo (lobbying), por ejemplo, o puede influir en la opinión pública a través del uso de la publicidad.

El que gigantes de la tecnología como Facebook y Google sean poderosos no sorprende a nadie. Sin embargo, una exploración más profunda de la relación entre privacidad y poder debería permitirnos una mejor comprensión de cómo las instituciones acumulan, ejercen y transforman el poder en la era digital, lo que a su vez puede darnos herramientas e ideas para la resistencia frente a este tipo de dominación, que resulta de las violaciones de nuestro derecho a la privacidad.

Sobre la relación entre poder, conocimiento y privacidad

Hay una estrecha conexión entre el conocimiento y el poder. El primero es, como mínimo, un instrumento de poder. El filósofo francés Michel Foucault va aún más allá y argumenta que el conocimiento es en sí mismo una forma de poder. Hay poder en el conocer. Al proteger nuestra privacidad, evitamos que otros puedan tener un conocimiento sobre nosotros que pueda ser utilizado en contra de nuestros intereses.

Cuanto más sepa alguien sobre nosotros, más podrá anticiparse a cada uno de nuestros movimientos e influirnos. Una de las contribuciones más importantes de Foucault a nuestra comprensión del poder es la idea de que este no solo actúa sobre los seres humanos, sino que construye sujetos humanos (lo que no impide que podamos resistirnos al poder y luchar por construirnos a nosotros mismos). El poder genera ciertas mentalidades, transforma las sensibilidades, trae consigo formas de estar en el mundo. En ese sentido, el teórico político británico Steven Lukes argumentó en su libro Power (1974) que el poder puede alumbrar en las personas deseos que van en contra de sus propios intereses. Y cuanto más invisibles sean los medios del poder, más poderosos serán. Por ejemplo, el poder crea preferencias cuando usa lo que sabemos sobre el sistema de la dopamina para diseñar aplicaciones adictivas, o cuando se personalizan los anuncios políticos en base a información personal (como hizo Cambridge Analytica en varias campañas electorales en EEUU, en Argentina, o el referéndum del Brexit). El poder que surge como resultado del conocimiento de los datos personales de un individuo es un tipo de poder muy particular. Al igual que el poder económico y el político, el que da la privacidad permite a quienes lo detentan la posibilidad de transformarlo en otros tipos de poder. Es, además, la quintaesencia del poder en la era digital.

Cuanto más sepa alguien sobre nosotros, más podrá anticiparse a cada uno de nuestros movimientos e influirnos

En el año 2000, dos años después de su creación y pese a su gran popularidad, Google todavía no había desarrollado un modelo de negocio sostenible y diferencial del resto de startups. Todo cambió con el lanzamiento de AdWords (actualmente Google Ads), que dio el pistoletazo de salida a la explotación económica de los datos producidos por las interacciones de los usuarios, en este caso de Google, con el objetivo de vender anuncios. En menos de cuatro años, la compañía logró un aumento del 3.590% en sus ingresos.

Ese mismo año, la Comisión Federal de Comercio había recomendado al Congreso de los Estados Unidos que se regulara la privacidad en línea. Sin embargo, tras los atentados del 11 de septiembre de 2001 contra las Torres Gemelas de Nueva York, la preocupación por la seguridad primó sobre la privacidad, y se abandonaron los planes de regulación. La economía digital pudo despegar y alcanzar la magnitud de la que goza hoy en día porque los gobiernos tenían interés en tener acceso a los datos de la gente. Desde el principio, la vigilancia digital se ha mantenido gracias a un esfuerzo conjunto de instituciones públicas y privadas.

La recopilación y el análisis masivo de datos personales han dotado de nuevos poderes tanto a los gobiernos como a las empresas que espían. Los gobiernos saben, ahora más que nunca, las interioridades de los ciudadanos. La Stasi (el servicio de seguridad de la República Democrática Alemana), por ejemplo, solo consiguió tener archivos de un tercio de la población, aunque aspiraba a tener información completa sobre todos los ciudadanos. Las agencias de inteligencia tienen hoy en día mucha más información sobre toda la población. Una proporción significativa de personas ofrece voluntariamente información privada en las redes sociales. Como dijo la cineasta estadounidense Laura Poitras en una entrevista con The Washington Post en 2014, «Facebook es un regalo para las agencias de inteligencia». Entre otras posibilidades, este tipo de información da a los gobiernos la capacidad de anticiparse a las protestas, e incluso de arrestar preventivamente a las personas que planean participar en ellas. Tener el poder de conocer la resistencia organizada antes de que esta se manifieste, y ser capaz de aplastarla a tiempo, es el sueño de cualquier tirano.

El poder de las empresas tecnológicas está constituido, por un lado, por el control exclusivo de los datos y, por otro, por la capacidad de anticiparse a cada uno de nuestros movimientos, lo que a su vez les da la oportunidad de influir en nuestro comportamiento y vender esa influencia a otros. Las empresas que obtienen la mayor parte de sus ingresos a través de la publicidad han utilizado nuestros datos como una ventaja competitiva que ha hecho imposible que las empresas alternativas desafíen a los titanes de la tecnología. El motor de búsqueda de Google, por ejemplo, es tan efectivo en parte porque su algoritmo tiene muchos más datos de los que aprender que de los que disponen cualquiera de sus competidores. Con la cantidad de datos a los que tiene acceso, Google puede saber qué es lo que te mantiene despierto por la noche, qué es lo que más deseas y qué planeas hacer mañana. La empresa susurra esta información a otros entrometidos que quieren mostrarte anuncios personalizados.

Los mercaderes tecnológicos quieren que pensemos que las innovaciones que sacan al mercado son inevitables

Las empresas también pueden compartir nuestros datos con agentes de datos (data brokers) que crearán un archivo sobre nosotros basándose en todo lo que ya saben (o, mejor dicho, en todo lo que creen saber), y luego lo venderán a quienes estén dispuestos a comprarlo: aseguradoras, gobiernos, posibles empleadores e incluso estafadores. Los buitres de datos son increíblemente inteligentes en el uso de los dos aspectos del poder discutidos anteriormente: nos hacen renunciar a nuestros datos, de forma más o menos voluntaria, y también nos los arrebatan, incluso cuando intentamos resistirnos. Las tarjetas de fidelización son un ejemplo de poder que nos lleva a hacer ciertas cosas que de otra manera no haríamos. Cuando te ofrecen un descuento por fidelidad en tu supermercado local, lo que te ofrecen es que esa compañía te vigile y luego influya en tu comportamiento a través de empujones o nudges (descuentos que te animarán a comprar ciertos productos). Un ejemplo de cómo el poder actúa en contra de nuestra voluntad se da cuando Google graba nuestra ubicación en un teléfono Android, incluso cuando le hemos dicho que no lo haga.

Ambos tipos de poder también operan a un nivel más general en la era digital. La tecnología nos seduce constantemente para que hagamos cosas que de otra manera no haríamos, desde perdernos en una cola de reproducción de vídeos en YouTube, hasta jugar a juegos sin sentido, o revisar nuestro teléfono cientos de veces al día. La era digital ha traído nuevas formas de estar en el mundo que no siempre mejoran nuestras vidas. De forma más subrepticia, la economía de datos también ha logrado normalizar ciertas formas de pensar. Las compañías tecnológicas quieren que pensemos que, si no hemos hecho nada malo, no tenemos ninguna razón para oponernos a que almacenen nuestros datos. También quieren que pensemos que tratar nuestros datos como una mercancía es necesario para la tecnología digital, y que la tecnología digital es progreso, incluso cuando parece más un retroceso social o político. Y lo que es más importante, los mercaderes tecnológicos quieren que pensemos que las innovaciones que sacan al mercado son inevitables. Son progreso, y el progreso no se puede detener.

Ese relato es complaciente y engañoso. Como señala el geógrafo económico danés Bent Flyvbjerg en Rationality and Power: Democracy in Practice (1998), el poder produce el conocimiento, las narrativas y la racionalidad que conducen a construir la realidad que ansía. Pero una tecnología que perpetúa las tendencias sexistas y racistas y que agrava la desigualdad no constituye ningún progreso. Las invenciones están lejos de ser inevitables. Tratar los datos como una mercancía es una forma de que las empresas ganen dinero, y no tiene nada que ver con la creación de buenos productos. Acumular datos es una forma de acumular poder. En lugar de preocuparse solo por ganar tanto dinero como sea posible, las empresas de tecnología pueden y deben preocuparse por diseñar el mundo en línea de manera que contribuya al bienestar de las personas. Tenemos muchas razones para oponernos a que las instituciones recopilen y utilicen nuestros datos de la manera en que lo hacen.

Una de esas razones es que con ello las instituciones atropellan nuestra autonomía, nuestro derecho al autogobierno. Aquí es donde la vertiente más dura del poder entra en juego. Hasta ahora, la era digital se ha caracterizado en que las instituciones hagan lo que quieran con nuestros datos, pasándose por alto y sin escrúpulos nuestro consentimiento cuando creen que el objetivo lo merece. En el mundo analógico, ese tipo de comportamiento se describiría como «robo» o «coerción». El hecho de que no se llame por su nombre en el mundo digital es otra prueba del poder de la tecnología sobre las narrativas dominantes.

¿Existe margen para la resistencia?

Afortunadamente no todo son malas noticias. Ciertamente, las instituciones en la era digital han acumulado mucho poder mediante el abuso de nuestra privacidad, pero podemos reclamar los datos que almacenan y limitar la recolección de nuevos datos. En términos de Foucault, aún tenemos la posibilidad de resistir al poder y construirnos a nosotros mismos. El poder de las grandes tecnológicas parece muy sólido. Pero el castillo de naipes está construido en parte sobre mentiras y sustracciones. Es posible ponerle fin a la economía de datos. Los poderes de la tecnología no son nada sin nuestros datos. Un pequeño esfuerzo de regulación, un poco de resistencia de los ciudadanos, unas pocas empresas que empiecen a ofrecer privacidad como una ventaja competitiva, y todo podría evaporarse.

La democracia que das por sentada podría convertirse en un régimen autoritario que actúe en tu contra

Las propias empresas de tecnología son más conscientes que nadie de su vulnerabilidad. Es por eso que están tratando de convencernos de que les importa nuestra privacidad después de todo (a pesar de lo que sus abogados digan en los juzgados). Por eso gastan millones de dólares en lobbying. Si estuvieran tan seguros del valor de sus productos para el bien de los usuarios y de la sociedad, no tendrían que presionar tanto a los gobiernos. Las empresas de tecnología han abusado de su poder, y es hora de resistirse.

En la era digital, la resistencia al abuso de poder ha sido calificada de techlash (reacción negativa frente a la tecnología). La historia nos recuerda que el poder debe conocer límites y contrapesos para que sea una influencia positiva en la sociedad. Incluso un entusiasta acérrimo de la tecnología, convencido de que no hay nada malo en lo que las empresas de tecnología y los gobiernos hacen con nuestros datos, debería querer ponerle límites al poder, ya que nunca se sabe quién será el próximo en ostentarlo. La evidencia dicta que las empresas de tecnología han ayudado a los regímenes totalitarios en el pasado, y no existe una distinción clara entre la vigilancia gubernamental y la corporativa. Las empresas comparten datos con los gobiernos, y las instituciones públicas comparten datos con las empresas. Este ha sido un punto especialmente controvertido durante la pandemia global de coronavirus, durante la cual algunos estados han facilitado enormes volúmenes de datos personales –y sanitarios– de sus ciudadanos a grandes corporaciones privadas (como Palantir).

Debemos exigirnos, por lo menos, oponer resistencia a la economía de datos. Abstenerse de usar la tecnología por completo es poco realista para la mayoría de las personas, pero existen multitud de opciones intermedias. Por ejemplo, respetar la privacidad de los demás y no exponer a otros ciudadanos a través de Internet. No fotografiar a personas sin su consentimiento, y no compartir imágenes en las que estas aparezcan. Minimizar la cantidad de datos que se entregan a instituciones que no tienen derecho a reclamarlos. Como señalan los expertos en medios de comunicación Finn Bruton y Helen Nissenbaum, existe también la opción de la ofuscación. Si una compañía de ropa nos pide el nombre para vendernos ropa, demos un nombre diferente –por ejemplo, Dr. Información Privada, para que reciban el mensaje. No les demos a estas instituciones pretextos que sugieran que estamos de acuerdo en que se lleven nuestros datos. Dejemos claro que no lo consentimos libremente.

La privacidad es importante porque nos hace más libres; cuando se desvanece, otros pueden ganar poder sobre nosotros

Cuando descarguemos aplicaciones y compremos productos, elijamos aquellos productos que favorezcan la privacidad. Usemos extensiones de privacidad en los navegadores. Desactivemos los servicios de Wi-Fi, Bluetooth y localización del teléfono cuando no los necesitemos. Usemos las herramientas legales a nuestra disposición para pedir a las empresas los datos que tienen sobre nosotros, y también pidámosles que los eliminen. Cambiemos nuestra configuración para proteger la privacidad. Abstengámonos de usar uno de esos kits de pruebas de ADN en casa, no valen la pena. Olvidémonos de los timbres inteligentes que violan nuestra privacidad y la de los demás. Escribamos a nuestros representantes políticos compartiendo nuestras preocupaciones sobre la privacidad. Tuiteemos sobre ello. Aprovechemos las oportunidades que se nos presenten para informar a las empresas, los gobiernos y otras personas que nos preocupa la privacidad, que lo que se están haciendo con nuestros datos no está bien.

No cometamos el error de pensar que estamos a salvo de los daños que pueden ocurrir a raíz de una pérdida de privacidad. Tal vez seas joven y tengas salud. Podrías pensar que tus datos solo pueden ir a tu favor y nunca en tu contra, si has tenido suerte hasta ahora. Pero es posible que tu salud falle, y no serás joven para siempre. La democracia que das por sentada podría convertirse en un régimen autoritario que actúe en tu contra.

Además, nuestra privacidad no es algo que nos atañe solo a nosotros. La privacidad es tanto personal como colectiva. Cuando exponemos nuestra privacidad, nos ponemos a todos en riesgo. La privacidad es necesaria para la democracia, para que la gente vote de acuerdo con sus creencias y sin presiones indebidas, para que los ciudadanos protesten anónimamente sin miedo a las repercusiones, para que los individuos tengan libertad para asociarse, decir lo que piensan, leer sobre lo que despierta su curiosidad. Si vamos a vivir en una democracia, el grueso del poder debe estar con la ciudadanía. Si la mayor parte del poder reside en las empresas, tendremos una plutocracia. Si la mayor parte del poder reside en el Estado, tendremos algún tipo de autoritarismo. La democracia no es algo dado, sino algo por lo que tenemos que luchar todos los días. Y si dejamos de construir las condiciones en las que prospera, la democracia dejará de existir. La privacidad es importante porque empodera a la ciudadanía. Protégela.

Fuente de la información e imagen:  https://ethic.es

Comparte este contenido:

Richard Stallman en Público: «Hay que prohibir que las empresas recojan nuestros datos»

Por: Joan Canela/Público 

«Cualquier móvil se puede convertir en un dispositivo de escucha, incluso apagado, por eso yo no tengo. No acepto la tecnología digital injusta», dispara Richard Stallman (Nueva York, 1953) a modo de presentación cuando el periodista saca el aparato para usarlo de grabadora. Stallman, un mito viviente del movimiento en defensa de una informática ética tiene tics de gurú. Habla con seguridad y de forma tajante. Hay cosas que son cómo son y no necesita desarrollarlas, aunque la afabilidad en el trato o detalles como que pare la conversación para escuchar el canto de un pájaro, revelan una gran humanidad.

Ante la pregunta de si se puede vivir sin utilizar ningún servicio digital programado con software privativo [aquel que es propiedad de una empresa y queda fuera del control del usuario, que no lo puede estudiar ni modificar] responde con un simple «yo lo hago». El precio a pagar podría parecer alto a muchas personas, Stallman no solo no tiene móvil, tampoco usa tarjeta de crédito: «Siempre pago en metálico. Si algún lugar no acepta el dinero en metálico, no quiero su producto». Aunque reconoce la dificultad creciente para realizar trámites oficiales sin pasar por el aro del software privativo. «Cada vez más webs de entes públicos cuentan con [el lenguaje de programación] JavaScript, que funciona enviando un programa a tu máquina para que se ejecute allí. Esta es una mala manera de hacer informática y los estados no tendrían que utilizarla», explica Stallman, quienes también reconoce que «por ahora evito los seguimientos, pero quizás en un futuro ya no podré».»Siempre pago en metálico. Si algún lugar no acepta el dinero en metálico, no quiero su producto»

Pero, ¿por qué es tan importante evitar ser seguidos? «Es una cuestión ética, lo que se encuentra en juego es nuestra libertad», continúa Stallman, quien alerta del peligro de «vender esta libertad a cambio de comodidades, de unas comodidades, además, que podrían existir igualmente, pero que alguien gana más dinero a base de controlarnos. Si no somos tontos, tenemos que reconocer donde nos lleva este camino y decidir no ir». Además, denuncia que el nivel de control cada vez va a más: «Por ejemplo, los últimos años han impuesto tener una cuenta de Microsoft, y es muy injusto vincular el uso de un programa a tener una cuenta con la empresa, es un motivo suficiente para rechazar el uso». «Cualquier programa que se ejecute a la máquina del usuario, si no es libre, es un instrumento de poder del amo del programa y somete el usuario, es el que queremos evitar desde el movimiento del software libre», continúa.

Richard Stallman, el creador del software libre, en una entrevista con 'Público'.
Richard Stallman, el creador del software libre, en una entrevista con ‘Público’.  Helena Olcina

Stallman va más allá del simple resistencialismo individual. Cree más necesario que nunca un gran movimiento ciudadano que obligue a los gobiernos a legislar para impedir a las grandes empresas a recopilar datos del usuario, a menos que sea estrictamente necesario. «Y por necesario, me refiero a imprescindible, no tendría que servir como excusa incluir una pequeña funcionalidad para justificarlo. Por ejemplo, me he encontrado en ciudades europeas un sistema de pago de los aparcamientos municipales donde hay que incluir el número de matrícula. Es un abuso y una fórmula de controlar los movimientos de la ciudadanía. Tendría que estar prohibido por ley, puesto que hay muchos sistemas para hacerlo sin obligar a identificarse. La eficiencia no lo justifica, ni tampoco la comodidad. Incluso se pueden hacer pagos por teléfono de forma anonimizada, como por ejemplo con el sistema GNU Taler que estamos desarrollando».

«Tampoco me fío de los reglamentos de protección de datos, puesto que dan por supuesto que los datos se recogen, y después ya sabemos que en casos de emergencia todas estas normas acaban siendo papel mojado», continúa Stallman, por quien la única solución pasaría por «prohibir a las empresas la recogida. Este es el punto de resistencia y es donde podemos triunfar».

¿Serían suficientes estas leyes? ¿Se cumplirían? «Pienso que sí. Si fuera explícitamente ilegal y con penas duras, las empresas no se arriesgarían. Incluso se podría hacer en un solo país. Las empresas que quisieran operar allí tendrían que cumplir la ley y no recoger datos de los clientes que viven en el país». Ante las dificultades políticas y las presiones para impedir leyes en esta línea, asume que existen, pero pide no «convertir las dificultades en obstáculos que pueden hacer que el objetivo parezca inasumible».

En este punto de la conversación parece obligatorio sacar el ejemplo de las leyes antimonopolio aprobadas en los EEUU a finales del siglo XIX para impedir el control de todo el mercado de productos petroleros por parte de la Standard Oil. ¿Sería necesario romper Google? ¿La situación es similar? «Sí y no. Por un lado, Google no es un monopolio, hay alternativas a sus productos. Además, lo que hace es mucho peor. En el siglo XIX nadie te espiaba para comprar petróleo, pero Google sí que lo hace con sus usuarios. Si hubiera diez empresas cómo Google, las seguiría rechazando todas. Pero por otro lado, si el Gobierno americano de entonces prohibió los monopolios, es porque había una demanda popular en este sentido, un movimiento organizado. Este movimiento existió más o menos hasta 1980, cuando [Ronald] Reagan llega al poder. Reagan representaba a los ricos y aceptó darles ventajas y mucho más poder. A partir del 2000 se han ido creando trusts de empresas casi sin límites, corporaciones muy grandes que provocan que en muchos sectores industriales de los EEUU no haya prácticamente competencia».»Google no es un monopolio, hay alternativas a sus productos»

Otra consecuencia de los gobiernos republicanos ha sido la firma de tratados que imponen el «supremacismo empresarial, aunque normalmente se denominan tratados de libre comercio». Estos acuerdos, defiende Stallman, «tienen el propósito de transferir el poder de los estados a las grandes empresas. Por ejemplo, la empresa que quería construir el Keystone XL [un oleoducto entre Canadá y los EE. UU., suspendido por Barack Obama tras fuertes protestas de indígenas y ecologistas] acaba de exigir 16.000 millones de dólares al gobierno en indemnizaciones».

Por eso, Stallman reclama una gran movilización para obligar en los gobiernos a implementar leyes que acaben con las prácticas tecnológicas injustas. «La democracia se inventó en Atenas para que los pobres, si se unían, fueran más fuertes que los ricos. Ahora, la cuestión es saber si tenemos suficiente democracia para que los gobiernos que nos pertenecen nos defiendan, o se revela que en realidad son gobiernos de la plutocracia».

Fuente: https://www.publico.es/sociedad/richard-stallman-hay-prohibir-empresas-recojan-datos-punto-resistencia.html

Comparte este contenido:

Los peligros de la educación online para la privacidad de los alumnos

Por: Educación 3.0

Estos son los principales peligros que pueden surgir por el uso inadecuado de Internet y aplicaciones gratuitas en el aula y en el ámbito educativo. Nos lo explica Juan Quintanilla, director general de Syntonize.

La situación que vivimos en el sector educativo desde marzo del año pasado ha supuesto importantes desafíos para padres (conciliando en casa), maestros (transformando los métodos de enseñanza) y escolares (aprendiendo y experimentando sin compañeros). Pero, sin duda, uno de los factores más controvertidos en este tiempo ha sido el excesivo peso que se está dando a la tecnología en este modelo.

Se ha hablado mucho durante estos meses del teletrabajo y sobre los desafíos que comporta para la productividad y la ciberseguridad, pero la realidad es que la mayoría de las empresas, cada una en su medida, está preparada para afrontar este reto sin problemas. Sin embargo, cuando miramos a los colegios, la realidad es muy diferente. No sólo porque como instituciones no cuenten con las infraestructuras necesarias sino, y sobre todo, porque los más jóvenes no son del todo conscientes de los peligros que entraña un uso inadecuado de la tecnología.

Normativa de la Unión Europea en privacidad de los alumnos

En primer lugar, es importante ser consciente de las aplicaciones que proponen los colegios para la educación remota. No todas las herramientas cumplen con las regulaciones de seguridad necesarias para salvaguardar la privacidad de los alumnos; por ello, es importante confiar solamente en fabricantes conocidos. Muchos centros han elegido plataformas gratuitas, como pueden ser Google, Microsoft o Zoom, aunque esto también puede suponer un problema.

El Tribunal de Justicia de la UE, en sentencia del 16 de julio, advierte a los centros educativos de que deben abstenerse de utilizar aplicaciones cuyo prestador de servicios tenga su sede social en EEUU al menos hasta que se garantice la protección adecuada de los datos de los alumnos. De hecho, el Gobierno de la Comunidad de Madrid ha prohibido expresamente el uso de estas aplicaciones en los colegios públicos y concertados de la región.

privacidad de los alumnos en Internet

Aplicaciones seguras en el aula

Antes de elegir otras aplicaciones más concretas, es importante también que desde la escuela se lean los términos de servicio y las políticas de seguridad y que se compruebe si están admitidas o recomendadas por las autoridades. En este sentido, precisamente la legislación estadounidense se encuentra bastante avanzada que la europea, y leyes como FERPA o COPPA suelen certificar a las aplicaciones más comunes y que cumplen los criterios de privacidad de los alumnos y protección de la infancia.

Una vez elegidas las aplicaciones idóneas para el trabajo con el alumnado, es importante que el propio colegio establezca sus propias reglas de protección de datos, tanto para almacenar documentos (incluidos exámenes o expedientes), como para permitir las conexiones hacia las infraestructuras de la institución, ya sea a través de VPN o mediante capas adicionales de seguridad. En este momento, es fundamental también la formación del profesorado para que conozcan perfectamente cómo utilizar todas las herramientas y evitar fugas de datos o acceso de intrusos.

Involucrar a las familias

Y ya que hablamos de formación, es un buen momento también para educar a los estudiantes, pero también a los padres, para que puedan disfrutar de una Internet segura y respetuosa. Muchas veces los más jóvenes consideran Internet como un amigo más y no son conscientes de los peligros que acechan si no se toman las precauciones necesarias o si pasamos por alto comportamientos inadecuados. No hablamos solamente del ciberbullying sino de la simple ‘netiqueta’ o educación a la hora de hablar con otras personas en redes o foros.

En definitiva, la educación remota ha llegado para quedarse y, en realidad, es importante que se haya dado este paso, ya que puede ayudar en el futuro a muchos niños que no puedan asistir a clase por cualquier motivo, pero es fundamental que pensemos más allá del mero sistema y seamos conscientes de que, además de un gran habilitador, puede suponer muchos perjuicios si no se hace un uso adecuado de la misma.

Fuente e Imagen: https://www.educaciontrespuntocero.com/opinion/privacidad-de-los-alumnos/

Comparte este contenido:

Aprendizaje y realidad virtual

Por: Sofía García-Bullé

La realidad extendida puede traer cambios positivos permanentes más allá de representar una herramienta más de la educación a distancia.

El próximo martes 23 de febrero transmitiremos un nuevo webinar con el tema “Diseño de experiencias de Aprendizaje con realidad virtual”. En esta sesión contaremos con la participación de Ana Gabriela Rodríguez, líder en Innovación Educativa en el Tecnológico de Monterrey.

Rodríguez nos hablará sobre tecnologías de realidad extendida y cómo impartir clases haciendo uso de este recurso. Para comprender mejor el tema de esta sesión es necesario tener en claro lo que son las tecnologías de realidad extendida, así como su rol en los tiempos en que la crisis de salud por la pandemia no permite la reanudación de las clases presenciales.

Tres nuevas realidades

La oferta educativa ha tenido que adaptarse a un entorno 100 % en línea debido a las condiciones impuestas para prevenir la propagación de contagios de COVID-19. Ante este panorama, los educadores se han tornado al desarrollo y uso de tecnologías de realidad extendida.

Definidas en forma simple, estas tecnologías son el ensamble de tres realidades artificiales:  Virtual, aumentada y mixta. La primera de estas realidades, la virtual, sumerge a los usuarios en un entorno digital totalmente artificial a través del uso de wearables, como cascos de realidad virtual. Su objetivo es crear un entorno simulado e inmersivo que el usuario perciba como cercano a la realidad.

La realidad aumentada, parte de la percepción del mundo real pero añade capas de información digital proporcionada por dispositivos. Estas capas pueden ser imágenes videos sonidos datos o modelos 3D que se superponen a nuestra realidad en tiempo real.

Elementos de la realidad virtual y realidad aumentada constituyen la realidad mixta, que se define como una combinación de ambas. Usualmente cuando una experiencia no corresponde en su totalidad a una instancia de realidad virtual, aumentada o entorno real podemos hablar de un ejemplo de realidad mixta.

Estos recursos tecnológicos han sido usados en diversos rubros como los videojuegos, el entretenimiento, la publicidad y la educación. ¿De qué forma han contribuido las tecnologías de realidad extendida a mejorar la experiencia educativa?

Una nueva educación a distancia

En un contexto educativo, la realidad extendida puede traer cambios positivos permanentes más allá de representar una herramienta más de la educación a distancia. La tecnología permite a los estudiantes aprender de maneras que no se habían visto antes, habilita nuevos caminos como enseñar a niños de primaria los estados de su país al tiempo que ven un mapa virtual con la forma de las entidades y los principales datos de las mismas, o pudiera ser una clase de anatomía para alumnos de secundaria con diagramas que muestren modelos tridimensionales de los órganos del cuerpo.

Las posibilidades de un aprendizaje efectivo y memorable aumentan significativamente cuando se cuenta con recursos no solamente audiovisuales sino interactivos. Si quieres saber cómo aplicar tecnologías  de realidad extendida a tus clases, no te pierdas nuestro próximo webinar este martes 23 de febrero a las 4 de la tarde hora Centro de México.

Fuente e imagen: https://observatorio.tec.mx/edu-news/tecnologias-extendidas

Comparte este contenido:

Capitalismo digital: desafío regulatorio

Las empresas de redes sociales y de búsquedas por Internet han alcanzado una omnipresencia que vuelve casi imposible concebir a las sociedades contemporáneas sin ellas. Su penetración en hogares, sitios de trabajo, escuelas y cualquier ámbito imaginable se traduce en un descomunal poder económico: Alphabet (Google y YouTube), Facebook (WhatsApp e Instagram), Twitter, Snapchat y LinkedIn tienen un valor de mercado conjunto de 2.5 billones de dólares, con lo cual concentran 13 de cada 100 dólares del valor total de la Bolsa de Nueva York. Esta cifra supone más del doble del producto interno bruto de México.

Si sus dimensiones ya eran colosales, la pandemia vino a potenciarlas con un salto de 10 por ciento en su base de usuarios, con lo que hoy alcanzan a 3 mil 960 millones de seres humanos; la mitad de la población mundial. Es innegable que este crecimiento se asocia con su papel de facilitadoras de un sinfín de actividades que resultarían costosas, complejas o de plano irrealizables sin su concurso en el contexto de distanciamiento físico y confinamiento impuesto por la emergencia sanitaria.

En contraparte, no puede soslayarse que el poderío de estas empresas, todas ellas con sede en Estados Unidos, proviene de la extracción indiscriminada de datos personales de sus usuarios, los cuales son puestos a disposición de otras compañías, así como de gobiernos y otras entidades, que gracias a ellos dirigen a un público concreto la oferta de sus productos, servicios o discursos. Estas operaciones se producen en un marco de casi total ausencia regulatoria, que ha sido terreno fértil para todo tipo de conductas opacas, arbitrarias o francamente abusivas entre un puñado de corporaciones que explotan sin pudor ni ética su inédita capacidad para moldear la opinión pública, decidir los límites de la libertad de expresión, manipular información, y mediar entre las instituciones y los individuos.

Para los ciudadanos, se trata de una constante tensión entre la conveniencia y el deseo de mantener el control sobre su privacidad. Como muestra, el descalabro sufrido el mes pasado por WhatsApp después de que el servicio de mensajería instantánea anunciara cambios en sus términos de uso que implicaban una mayor extracción de datos personales en las comunicaciones sostenidas con cuentas de empresas. Muchas personas todavía son sensibles a esas prácticas cuestionables, incluso cuando éstas se presentan como formas de facilitar sus gestiones diarias. Sin embargo, tales manifestaciones de descontento tienden a ser acotadas y efímeras, y al final los usuarios retornan a estas plataformas debido a que cada día es más complicado llevar la vida cotidiana al margen de ellas.

Por lo anterior, parece claro que los consumidores enfrentan severas limitaciones en su poder para modificar el comportamiento de las empresas de redes sociales, y que dicha tarea únicamente puede ser emprendida por los estados. Pero incluso éstos se encuentran con múltiples desafíos al abordar el ordenamiento de los gigantes digitales, desde el ineludible debate acerca de la libertad de expresión, hasta el uso de los virtualmente ilimitados recursos económicos de estas compañías para frenar cualquier legislación que atente contra sus intereses. Cabe esperar que el bien común y la protección de la privacidad se impongan sobre mezquinas consideraciones pecuniarias, así como sobre la voluntad de algunas de las empresas referidas para erigirse en poderes fácticos, pero para ello será necesario el involucramiento de los ciudadanos en el diseño de un marco legal que cierre el espacio a prácticas abusivas, al mismo tiempo que potencie los beneficios creados por el avance digital.

Fuente: https://www.jornada.com.mx/notas/2021/02/07/opinion/capitalismo-digital-desafio-regulatorio-20210207/

Comparte este contenido:

El lado oscuro de las pruebas en línea

Por: Sofía García-Bullé

Los problemas de violación a la privacidad de los estudiantes, así como los sesgos sobre la raza, género y accesibilidad son tan severos, que varias universidades dejarán de usar servicios de supervisión para pruebas en línea.

En artículos anteriores hablamos del dilema ético que implicaba relajar los estándares de privacidad de los estudiantes con el propósito de asegurar la calidad de los exámenes y combatir la deshonestidad académica, pero este no es el único problema que enfrentan las pruebas en línea para ofrecer una experiencia justa y equitativa. Se habla también de sesgos sociales que afectan al alumnado perteneciente a minorías raciales, sociales, de género y capacidades diferentes.

Los exámenes a distancia tienen dos formas principales de autentificar la identidad y proceder ético de los estudiantes, a través de reconocimiento facial o de algoritmos. En papel se leería como un procedimiento lógico e inocuo, pero la manera en que se diseñan estos métodos es exclusoria; puede generar instancias de discriminación y violación de su privacidad.

Estas problemáticas han generado una protesta generalizada en las comunidades estudiantiles y de docentes, al punto que varias universidades han tomado la decisión de retirar los servicios de monitoreo de sus evaluaciones.

Sin algoritmos de diversidad social

Los parámetros de identificación racial han sido duramente criticados por sus limitaciones al momento de detectar y reconocer caras de etnicidad diferente a la caucásica. Shea Swauger, bibliotecario académico de la Universidad de Colorado en Denver, explica para MIT Review, el proceso por el cual un servicio de monitoreo para pruebas escolares confirma tu identidad.

“Cuando empiezas, ese software comienza a grabar desde la cámara y micrófono de tu computadora, registra los sitios que visitas, mide tu cuerpo y te vigila mientras presentas el examen, sigue tus movimientos para identificar conductas deshonestas”. Swauger agrega que si el software considera que incurres en un comportamiento sospechoso, el sistema alertará a un profesor para que vea la grabación y este asignará un valor (expresado en color) para designar la probabilidad de una conducta deshonesta.

Independientemente del potencial de violación a la privacidad que esta metodología pudiera representar, la conversación se complica cuando no cuenta con las herramientas correctas para ofrecer un trato neutro y justo a todos los estudiantes.

The @ExamSoft software can’t \»recognize\» me due to \»poor lighting\» even though I’m sitting in a well lit room. Starting to think it has nothing to do with lighting. Pretty sure we all predicted their facial recognition software wouldn’t work for people of color. @DiplomaPriv4All

\u2014 Alivardi Khan (@uhreeb) September 8, 2020\n«,»url»:»https://twitter.com/uhreeb/status/1303139738065481728?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303139738065481728%7Ctwgr%5E%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Fwww.theverge.com%2F2021%2F1%2F5%2F22215727%2Fexamsoft-online-exams-testing-facial-recognition-report»,»resolvedBy»:»twitter»,»floatDir»:»right»,»authorName»:»Alivardi Khan»,»version»:»1.0″,»resolved»:true,»type»:»rich»,»providerName»:»Twitter»,»providerUrl»:»https://twitter.com»}» data-block-type=»22″>

Diversas investigaciones han encontrado que los parámetros de identificación facial no tienen están calibrado para detectar correctamente caras con piel oscura. Tal fue la experiencia numerosos estudiantes de color, que tuvieron problemas para presentar sus exámenes porque el sistema sostenía que no tenían suficiente iluminación sobre sus caras.

De la misma forma, estudiantes transgénero e indocumentados son innecesariamente vulnerados por la forma en que se aplican estas políticas de autenticación. En Estados Unidos, por ejemplo, no todos los estados cuentan con documentación oficial que les permitan asumir su identidad como personas no heteronormadas, y las personas indocumentadas no cuentan con los documentos que les brinden protecciones legales en caso de detección y persecución por parte de autoridades migratorias.

Si solo la acción de identificar a un estudiante se vuelve tan complicada porque los algoritmos juegan en su contra, el monitoreo pone a los alumnos en una situación precaria y contraproducente, completamente ajena a los elementos que forman una experiencia educativa de calidad.

Mucho control, poco criterio

Las instancias de discriminación se tornan más severas cuando se habla del tema de vigilancia. Estas impactan desproporcionadamente a grupos como personas neurodiversas, padres y madres de familia, mujeres o tutores a cargo de menores de edad. Ara Austin, profesora asistente clínica y directora de programas en línea para la Escuela de Ciencias Moleculares en Arizona, pone de manifiesto que, más que la vigilancia, son los criterios de lo que se considera conducta potencialmente deshonesta en un examen lo que genera el problema. “Son demasiado estrictos al señalar a mis estudiantes. Es molesto, porque muchos de mis alumnos tienen niños pequeños. Muy frecuentemente, algún niño de tres años puede verse en pantalla mientras su mamá o su papá presentan el examen, es solo lo que hace un niño de tres años”.

La dureza y falta de criterio al desarrollar los protocolos de vigilancia ha generado casos más severos, como el de Brianna Hill, una estudiante de leyes que se vio obligada a continuar su examen con contracciones, porque sabía lo difícil que sería presentar una apelación después de que se moviera de su silla para recibir la atención médica necesaria.

La estudiante musulmana Shaima Dallali fue obligada a abandonar su examen por negarse a remover su hijab, ante la sospecha de que estuviera escondiendo herramientas para hacer trampa dentro de este. Varios alumnos reportaron tener que orinar en botellas, tinas o pañales por miedo a que el levantarse de sus asientos o registrar movimientos sospechosos les valiera una descalificación de su examen.

La preocupación por mantener un alto estándar de ética y calidad en las pruebas escolares es entendible, responde a una necesidad básica para la validación de una educación efectiva. Pero los criterios para este control de calidad deben ser amplios y abarcar más perfiles sociales que reflejen la diversidad del estudiantado a nivel mundial que se tienen actualmente.

Millones de alumnos son de etnicidades y color de tez diferentes, son neurodiversos, son transgénero, son padres y madres de familia, tienen diferentes niveles socioeconómicos, entre otras cosas. Si la experiencia de enseñanza no es la misma para tantos grupos, ¿por qué asumimos que de presentar un examen si? ¿Por qué diseñamos los exámenes en línea y los protocolos de ética o seguridad con ese sesgo? ¿Qué opinión tienes al respecto de cómo se delinean los límites para autentificar la identidad de los estudiantes y asegurar la honestidad académica? Cuéntanos en los comentarios.

Fuente e imagen: https://observatorio.tec.mx/edu-news/monitoreo-pruebas-online

Comparte este contenido:
Page 1 of 3
1 2 3